2013 Ham6335
2013 Ham6335
THÈSE
pour obtenir le titre de
Docteur en Sciences
de l’Université de Constantine - 1-
Mention : Mathématique
Jury :
Je tiens également à citer mes copains du bureau, Aparna Das, Raphaël Clément,
Amine Ilmane,pour leur soutien amical dont j’aurait toujours de beaux souvenirs.
J ’exprime ici ma profonde gratitude à Messieurs les professeur M. Deghdak,E.
Zeraoulia et K. Haouam qui m’ont honoré d’accepter de faire partie du Jury. Ma
reconnaissance va aussi à Mr le professeur [Link] pour avoir accepter de présider le
Jury.
Merci à tous.
Table des figures
1
TABLE DES FIGURES 2
1 Systèmes dynamiques 7
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.1 Groupe à un paramètre . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Flot ou système dynamique . . . . . . . . . . . . . . . . . . . . . 8
2.3 Trajectoire et Orbite . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4 Espace des phases, variables d’état et portrait de phases . . . . . 9
2.5 Déterminisme du flot . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.6 Systèmes dynamiques particuliers . . . . . . . . . . . . . . . . . . 9
2.7 Formulation de systèmes dynamiques . . . . . . . . . . . . . . . . 10
2.7.1 Systèmes dynamiques continus . . . . . . . . . . . . . . 11
2.7.1.a Résultats généraux sur les systèmes différentiels . 11
2.7.1.b Solutions des systèmes différentiels : système dy-
namique continu . . . . . . . . . . . . . . . . . . 11
2.7.2 Systèmes dynamiques discrets et section de Poincaré . . 12
2.7.2.a Section de Poincaré . . . . . . . . . . . . . . . . 13
2.7.2.b Systèmes dynamiques discrets . . . . . . . . . . . 13
2.7.2.c Intérêt de la méthode . . . . . . . . . . . . . . . 14
2.8 Attracteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.9 Bifurcation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.9.1 Différents types de bifurcations . . . . . . . . . . . . . . 15
2.9.1.a Bifurcations flip ou doublement de période . . . 15
2.9.1.b Bifurcation fold ou noeud-col. . . . . . . . . . . . 16
2.9.1.c Bifurcation de Neimark. . . . . . . . . . . . . . . 16
2 Chaos déterministe 17
1 Sémantique de la théorie du chaos . . . . . . . . . . . . . . . . . . . . . 17
2 Chaos déterministe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3 Routes vers le chaos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1 Par doublement de période . . . . . . . . . . . . . . . . . . . . . 19
3.2 Par Intermittences . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3 Quasi-périodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4 Caractérisation numérique et graphique du chaos . . . . . . . . . . . . . 20
4.1 Attracteur étrange . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2 Sensibilité aux conditions initiales . . . . . . . . . . . . . . . . . 21
3
TABLE DES MATIÈRES 4
II OPTIMISATION et CHAOS 45
Introduction générale
L’optimisation est l’une des branches les plus importantes des mathématiques ap-
pliquées modernes, et de nombreuses recherches, à la fois pratiques et théoriques, lui
sont consacrées.
Nous cherchons à élaborer notre emploi du temps, à optimiser nos espaces de ran-
gement, ou encore le trajet que nous aurons à parcourir pour nous rendre quelque
part, etc. Nous faisons de l’optimisation. En fait, l’optimisation cherche à améliorer une
performance en se rapprochant d’un point optimum. Comme nous le rappelle l’adage
populaire selon lequel : "les mathématiques permettent de mettre le monde en équa-
tion", il peut être tracé un parallèle entre l’optimisation quotidienne et celle, plus tech-
nique que l’on retrouve en science. En mathématique, la meilleure solution se recherche
au sein d’un domaine initial. Cette solution est souvent soumise à des contraintes qui
correspondent à des obligations ou des souhaits à respecter. Le critère permettant de
distinguer qu’une solution est la meilleure s’appelle la fonction objectif. L’optimisation
mathématique consiste à chercher dans le domaine initial une solution qui maximise
ou minimise une fonction objectif tout en respectant des contraintes. Pour un domaine
continu, on distingue classiquement deux types d’optimisation :
– L’optimisation locale est la recherche d’une solution qui est meilleure locale-
ment( dans un voisinage de cette solution). Cette solution est appelée un optimum
local.
– L’optimisation globale est la recherche de la meilleure solution sur tout le
domaine ; c’est-à-dire que dans tout le domaine il n’existe aucune solution qui
lui soit meilleure tout en respectant les contraintes. Cette solution est appelée
l’optimum global.
Par définition, l’optimum global est aussi une solution locale. En revanche, il est
bien plus épineux de trouver l’optimum global, car lorsque l’on pense avoir trouver cet
optimum, sa démonstration se révèle bien souvent particulièrement ardue.
L’intérêt de l’optimisation globale par rapport à l’optimisation locale est patent. Elle
garantit en effet que personne ne peut avoir une solution meilleure que celle trouvée.
Or, pour une entreprise, cette information a son importance, car la différence entre la
solution globale et une solution locale est bien souvent significative.
Mais l’intérêt n’est pas compétitif. Dans de nombreux problèmes, l’optimum glo-
bal est la seule solution mathématique correspondant à une réalité physique. C’est ce
qu’illustre par exemple la recherche de la quantité de chaque élément présent dans un
mélange chimique à l’équilibre.
De nos jours, afin de résoudre des problèmes d’optimisation globale, de nombreuses
stratégies algorithmiques s’avèrent disponibles. Selon la nature du processus de re-
cherche mis en oeuvre, les méthodes utilisées pour l’optimisation globale peuvent etre
classées en deux catégories : les méthodes déterministes et les méthodes stochastiques.
iii
Les méthodes déterministes requièrent des hypothèses restrictives sur la fonction à op-
timiser, telles que la continuité, la dérivabilité ou les conditions de Lipchitz. De plus,
ces méthodes ne sont applicables que pour des problèmes de faible dimension. Pour les
autres problèmes, seules les méthodes stochastiques peuvent être utilisées. Les méthodes
stochastiques, contrairement aux méthodes déterministes, sont basées sur une approche
en partie ou entièrement guidée par un processus stochastique. Les algorithmes que
nous allons étudié font partie des méthodes stochastiques globales permettant de ré-
soudre des problèmes généraux d’optimisation. Par ailleurs, ils permettent de fournir le
plus haut degré de certitude concernant l’optimalité globale des solutions trouvées. Ces
algorithmes s’appellent :
Algorithmes d’Optimisation Chaotiques (COA).
Durant ces dernières dècennies, la thèorie des systèmes non linèaires a ètè appliquèe
à l’optimisation afin d’augmenter le degré de convergence. Notamment, après le travail
de Caponetto et al.[71, 69], des applications du chaos ont attiré beaucoup d’attention.
Grâce aux propriétés naturelles des systèmes chaotiques, telles que leur sensibilité aux
conditions initiales et leur évolution dans une large bande de fréquence, les systèmes
chaotiques sont de bons candidats pour l’optimisation.
Cette thèse est divisée en deux parties et est composée de sept chapitres. La
deuxième partie a fait l’objet de deux Publications :
"Fast chaotic optimization algorithm based on locally averaged strategy and
multifold chaotic attractor "
et
"An improved chaotic optimization algorithm using a new global locally avra-
ged strategy"
La première partie est une revue de la bibliographie sur la théorie des systèmes
dynamiques non linéaires et le chaos. L’objectif de cette partie est de donner les éléments
principaux de ces concepts de la façon la plus simple et de proposer une synthèse de
ces matières pour mieux comprendre l’application de ces concepts dans le domaine qui
nous concerne
Elle est présentée à travers trois chapitres :
Le 1er chapitre est constitué de rappels sur les systèmes dynamiques non linéaires
avec un accent particulier porté sur les systèmes à temps continue et discret.
Le 2eme chapitre retrace un bref historique de la théorie du chaos déterministe. Dans
ce chapitre nous balaierons les différents outils mathématiques qui nous servent à
caractériser le comportement Chaotique, tels que les attracteurs étranges, les exposants
de lyapunov et la dimension fractale.
Le 3eme chapitre est une illustration concrète de toutes les notions précédentes par
des exemples célèbres tels que le modèle de Lorenz et les modèles de Hénon et Lozi qui
nous servira dans la suite de la thèse.
iv
Le 6eme chapitre nous emmene au coeur du travail réalisé. Elle est consacrer à la
description de l’approche que nous avons developpée. Elle sera designée par ICOLM.
Elle utilise le principe de l’approche étudiée dans le chapitre 5 avec une amélioration
en optimisant localement la recherche globale.
Dans Le 7eme chapitre notre nouvelle méthode est testée sur une batterie de
fonctions de test. Cet algorithme permet de trouver avec certitude un proche voisinage
l’optimum global.
Première partie
SYSTEMES DYNAMIQUES ET
CHAOS
6
Chapitre 1
Systèmes dynamiques
1 Introduction
La notion de temps dans l’étude des modèles physiques et mathématiques remonte
à Galilée, qui le premier introduisit cette notion dans l’étude de la chute des corps
et le mouvement de la terre autour du soleil. Cette introduction du temps dans les
équations est ce qui s’appellera l’étude des systèmes dynamiques. Au XVIII siécle, Isaac
Newton a défini l’équivalence masse-énergie et trouve de manière explicite la cause de
certains mouvements apparemment désordonnés. Il parle de déterminisme. Selon cette
vision, tout semblait aussi étre parfaitement prédictible et causal. Le futur devenait
prévisible : il suffisait de traduire le mouvement en équations différentielles et de les
résoudre. La mécanique newtonienne n’est pas fausse, mais considére l’homme debout
immobile contre la pesanteur [1].
Dés le début du siécle, le mathématicien Henri Poincaré [2] montra dans son étude
du système solaire qu’il existait des orbites stables et des orbites instables et que, quel-
quefois, une trés faible perturbation dans le système pouvait induire un changement
d’état d’une orbite. Il s’aperçut que des causes identiques pouvaient ne pas conduire
aux mêmes effets. Le système étudié était déterministe, mais le principe de causalité
était violé. Et aussi il se rend compte que l’espace euclidien à 3 dimensions ne rend
pas compte de tous les phénomènes. Benoît Mandelbrot précise qu’un point n’est pas
toujours dans un espace à 3 dimensions, il peut se situer, par exemple, dans un espace
à 3, 3897 dimensions. La valeur décimale indique comment varie l’intensité de la défor-
mation selon chacune des directions de l’espace. C’est la dimension fractale. En 1963
le titre de la communication d’Edward Lorentz, la plus citée dans la bibliographie spé-
cialisée, pose bien le problème : "Est-ce qu’un battement d’ailes de papillon au Brésil
peut provoquer une tornade au Texas ?". Il y décrivit le comportement d’un système
dynamique non-linéaire inspiré d’un modèle de l’atmosphère terrestre. Selon la valeur de
certains paramètres, un comportement dynamique nouveau était mis en évidence. Les
trois variables d’état du système, permettant de déterminer l’évolution des masses d’air,
manifestaient une activité erratique, imprévisible. Edward Lorenz mit en évidence que,
dans les systèmes non linéaires, d’infimes différences dans les conditions initiales engen-
draient à long terme des systèmes totalement différents. Pour mieux faire comprendre
l’importance de cette sensibilité aux conditions initiales, il eut recours à une image qui
contribua au succès médiatique de la théorie du chaos : celle de l’effet papillon. Cette
7
CHAPITRE 1. SYSTÈMES DYNAMIQUES 8
2 Systèmes dynamiques
En général, un système dynamique décrit des phénomènes qui évoluent au cours
du temps. Le terme " système " fait référence à un ensemble de variables d’état (dont
la valeur évolue au cours du temps) et aux interactions entre ces variables. L’ensemble
des variables d’état d’un système permet de construire un espace mathématique appelé
" espace des phases ".
Nous introduisons la notion des systèmes dynamiques de façon formelle via le concept
de groupe à un paramètre [4, 5].
φ: G −→ M (1.1)
t
t 7−→ ϕ (x)
γ(x) = ϕt (x), t ∈ G
ẏ(t) = f (t, y) ∀t ∈ U
(
(1.2)
t0 ∈ R, y(t0 ) = y0 ∈ Rd
La notion de déterminisme provient du fait que le système considéré est complètement
caractérisé par son état initial et sa dynamique.
CHAPITRE 1. SYSTÈMES DYNAMIQUES 11
C-à-d soit U l’ensemble des conditions initiales et x0 ∈ U , si pour tout x0 , alors x(t, x0 )
existe et est unique. Le système est dit déterministe.
Les systèmes dynamiques sont classés en deux catégories :
φ: R −→ Rd (1.5)
t 7−→ y(t) = φ(t, t0 , y0 )
Dans la suite, les systèmes dynamiques étudiés sont engendrés par des systèmes
différentiels dont nouss précisons à présent la forme du champ de vecteurs.
* Le champ de vecteurs f est non linéare.
* La fonction f ne dépend pas explicitement du temps ; le champ de vecteur est alors
dit autonome.
* Les systèmes étudiés sont dissipatifs : la divergence du champ de vecteurs est
constante négative ou elle est en moyenne négative sur les orbites considérées.
Par exemple, le système de Lorenz de 1963 [3], un des systèmes différentiels les
plus connus et étudiés, vérifie ces trois proprietés. A la lecture des équations (1.4), le
caractère non linéaire et autonome se constate aisément. Sa divergence s’exprime en
fonction de ces paramètres qui sont positifs −σ − 1 − b et s’avère constante et négative.
ẋ = σ(y − x)
(
8
ẏ = rx − y − xz σ = 10, r = 28 et b = (1.6)
ż = −bz + xy 3
S = H ∩ ϕt (x), t ∈ R, x ∈ M
g1 : S −→ S (1.7)
τ t
x 7−→ y = ϕ (x)/τ = min(t > 0, ϕ (x) ∈ S)
CHAPITRE 1. SYSTÈMES DYNAMIQUES 14
et
g −1 : S −→ S (1.8)
τ t
x 7−→ y = ϕ (x)/τ = max(t < 0, ϕ (x) ∈ S)
Nous venons donc de montrer que les systèmes différenteils donnent lieu à une double
vision des systèmes dynamiques. Leurs solutions constituent, d’une part, des systèmes
continus. En outre, leur étude, au moins partiellement, est simplifiée par la technique
des sections de Poincaré qui permet de se ramener à l’analyse d’un système discret.
2.8 Attracteur
La région de l’espace de phases vers laquelle convergent les trajectoires d’un
système dynamique dissipatif s’appelle "attracteur". Les attracteurs sont des formes
géométriques qui caractérisent l’évolution à long terme des systèmes dynamiques. Il en
existe quatre types distincts : un point, un cycle limite, un tore ou avoir une structure
encore plus complexe de type fractale.[9].
1. L’attracteur "point fixe" est un point de l’espace de phase vers lequel tendent les
trajectoires, c’est donc une solution stationnaire constante.
2. L’attracteur "cycle limite" est une trajectoire fermée dans l’espace des phases
vers laquelle tendent les trajectoires. C’est donc une solution périodique du système.
3. L’attracteur "tore" représente les mouvements résultant de deux ou plusieurs
oscillations indépendantes que l’on appelle parfois "mouvements quasi périodiques".
4. Les attracteurs étranges sont bien plus complexes que les autres, ils seront définis
ultèrieurement, on parle d’attracteur étrange lorsque la dimension fractale n’est pas
entière.
CHAPITRE 1. SYSTÈMES DYNAMIQUES 15
Le bassin d’attraction B(A) de l’attracteur A est alors constitué par l’ensemble des
points de l’espace des phases pour lesquels A représente la limite asymptotique :
2.9 Bifurcation
Un autre ensemble de concepts utile à l’analyse des systèmes dynamiques est la théo-
rie de la "bifurcation". Ce concept renvoie à l’étude des changements de comportement
d’un système lorsque les paramètres de ce dernier changent. La bifurcation signifie un
changement qualitatif de la dynamique du système, qui résulte du changement d’un des
paramètres du système. Par exemple, déstabilisation d’un équilibre stable, apparition
ou disparition d’un cycle ou d’un attracteur, ...
La valeur pour laquelle la bifurcation se produit est nommée le point de bifurcation.
2k de la même nature. C’est-à-dire, un point fixe stable d’ordre 1, par exemple, devient
instable en même temps que l’apparition d’un cycle d’ordre 2 [Link] situation
peut être représentée par :
Foyer attractif d’ordre k ↔ foyer répulsif d’ordre k + une courbe invariante attractive.
Chapitre 2
Chaos déterministe
" état de confusion des éléments ayant précédé l’organisation du monde "
Le chaos, dans son sens familier aujourd’hui, c’est le désordre et la violence, mais
aussi l’inintelligibilité.
Loin de ces considérations historiques et mythologiques, Chaos : un terme souvent
utilisé comme métaphore du désordre. Et la théorie du Chaos a vu le jour dans les
travaux d’Henri Poincaré à la fin du XIXe siècle et c’est dans les années soixante qu’elle
fut redécouverte après la publication d’un article qui allait révolutionner le monde des
sciences [3]. Le chaos est devenu un champ d’exploration de la science,
2 Chaos déterministe
Le chaos est défini par un comportement lié à l’instabilité et à la non-linéarité dans
des systèmes dynamiques déterministes. La relation entre l’instabilité et la chaoticité
est alors que le système manifeste une très haute sensibilité aux changements de condi-
tions est ce qu’affirmait Poincaré dans le chapitre sur le Hasard de son ouvrage intitulé
Science et Méthode[14] :
«Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne
pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. (...). Il
peut arriver que de petites différences dans les conditions initiales en engendrent de
très grandes dans les phénomènes finaux. Une petite erreur sur les premières produirait
une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le
phénomène fortuit».
17
CHAPITRE 2. CHAOS DÉTERMINISTE 18
Le phénomène de croissance rapide des erreurs de prédiction est ce que l’on appelle
chaos. Ce phénomène introduit donc du hasard dans la description d’un système phy-
sique, même si ce système correspond à des équations d’évolution parfaitement déter-
ministes comme celles de la dynamique du mouvement des astres. La théorie du chaos
étudie en détail comment une petite incertitude sur l’état initial d’une évolution tempo-
relle déterministe peut donner lieu à une incertitude des prédictions qui croît rapidement
avec le temps. On dit qu’il y a dépendance sensitive des conditions initiales. La pro-
priété de sensibilité aux conditions initiales se traduit par le fait que, dans l’espace des
phases, la distance entre deux trajectoires tend à augmenter de manière exponentielle
au cours du temps, pouvant atteindre une distance limite qui est de l’ordre du diamètre
de l’attracteur. La sensibilité aux conditions initiales caractérise un système chaotique.
La théorie du chaos selon Keller [15] est « l’étude qualitative du comportement
apériodique instable d’un système dynamique déterministe ». qui admet le manque
d’une définition générale d’un système dynamique chaotique considère qu’un tel sys-
tème possède trois propriétés essentielles. Premièrement, il est radicalement sensible
aux conditions initiales. Deuxièmement, il peut faire preuve d’un comportement hau-
tement désordonné et troisièmement, malgré cette dernière caractéristique de désordre,
un système dynamique chaotique est déterministe c’est-à-dire qu’il obéit à des lois qui
décrivent complètement son mouvement.
3.3 Quasi-périodicité
Le scénario via la quasi-périodicité a été mis en évidence par les travaux théoriques
de Ruelle et Takens (1971) illustré par exemple sur le modèle de Lorenz (1963). Ce scé-
nario a été confirmé par de nombreuses expériences dont les plus célèbres se trouvent
en thermo-hydrodynamique - convection de Rayleigh-Bénard dans une petite boîte - et
en chimie - réaction de Bélousov-Zabotinsky - entre autres. cette route vers le chaos
résulte de la "concurrence" de différentes fréquences dans le système dynamique. Dans
un système à comportement périodique à une seule fréquence, si nous changeons un pa-
ramètre alors il apparaît une deuxième fréquence. Si le rapport entre les deux fréquences
CHAPITRE 2. CHAOS DÉTERMINISTE 20
est rationnelle comportement est périodique. Mais, si le rapport est irrationnel, le com-
portement est quasi périodique Dans ce cas, les trajectoires couvrent la superficie d’un
tore. Alors, on change de nouveau le paramètre et il apparaît une troisième fréquence,
et ainsi de suite jusqu’au chaos. n existe aussi des systèmes qui passent directement de
deux fréquences au chaos.
être estimée par le calcul de la dimension de corrélation. L’autre propriété majeure est
la sensibilité aux conditions initiales. Le degré de sensibilité aux conditions initiales
quantifie le caractère chaotique du système. Il est évalué par les valeurs numériques
des exposants de Lyapunov. De la sensibilité aux conditions initiales dépendent les
possibilités de prévision de l’état du système. Possibles à court terme du fait de la na-
ture déterministe des systèmes chaotiques, elles deviennent impossibles à long terme.
Le degré de prédictibilité des systèmes chaotiques peut être estimé par l’entropie de
Kolmogorov-Sinaï.[18, 19].
très voisines initialement ; les deux trajectoires correspondantes à ces données initiales
divergent exponentiellement, par suite les deux trajectoires sont incomparables [20, 21].
l’algorithme de Wolf [24]. Cet algorithme permet de calculer les exposants de Lyapunov
à partir du calcul effectif de la divergence de deux trajectoires après t pas de temps
par rapport à la perturbation introduite parallèlement, et ce au sein d’un attracteur,
les étapes de l’algorithme sont :
xn+1 = f (xn )
avec une condition initiale x0 sur un attracteur chaotique, une petite perturbation δx
évolue alors en δx1 tel que
où f 0 est la dérivée de f par rapport à x. La déviation est donc donnée par δx1 =
f 0 (x0 )δx0 . Aprés une seconde itération, nous obtenons une nouvelle déviation :
et à l’étape n
n−1
Y
δx2 = ( f 0 (xm ))δx0 (2.1)
m=0
effectif γ par pas d’itération, qui est exprimé par l’équation (2.5) à l’aide de l’équation
(2.4).
n−1
δxn 1/n Y
lim (| |) = lim ( |f 0 (xm )|)1/n (2.2)
n→∞ δx0 n→∞
m=0
euclidien. Cette définition se montra spécialement utile pour décrire le mouvement d’un
point dans l’espace, et a été exploitée au mieux par la mécanique de Newton. Au milieu
du XIXème siècle, le mathématicien Riemann donna une interprétation encore plus
générale de la notion de dimension. Puisqu’un phénomène évolue sous l’influence de
divers paramètres, Riemann suggéra que l’on attribue une coordonnée distincte à chacun
de ces paramètres. De nos jours on appelle ces paramètres des "degrés de liberté".
L’importante nouveauté de cette conception est que rien ne nous empêche de donner à
chaque point plus que trois coordonnées.
Ces dernières années, cette définition des dimensions comme "coordonnées d’un
point" ne fut pas remise en question, mais elle commence à poser un problème. Elle
pose un problème depuis que Benoit Mandelbrot a montré la pertinence qu’il y a bien
souvent à utiliser des dimensions d’espace fractionnaires. Une dimension fractionnaire
(on dit "fractale"), c’est par exemple une dimension 1,3897. Parler d’un point dans un
espace à 6 ou 10 dimensions, on peut le concevoir comme une simple extension de ce
que l’on conçoit dans un espace à 3 dimensions.
Plusieurs définition de dimension fractale ont été proposées depuis le debut de ce
ciecle. Certaines ont un intérêt purement théorique, pour une étude de ces définitions
nous renvoyons à [27, 28, 29].
– Ceux, qui définissent la dimension d’un ensemble. Cet ensemble peut etre un sous-
ensemble d’un espace métrique quelconque, un attracteur ou non. Nous présentons
la dimension de Hausdorff [30] et la dimension de capacité.
– Ceux qui tiennent compte de la dynamique d’un système. Ce sont la dimension
d’information et la dimension de corrélation. Habituellement on dit qu’on définit
la dimension fractale d’un attracteur.
Il existe plusieurs type de dimensions pour les attracteurs chaotiques, parmi celle-ci
on peut citer :
λ1 + λ2 + λ3 + ... + λj ≥ 0.
0 si d > dH
n
µd (M ) = +∞ si d < dH (2.6)
La dimension de Hausdorff existe toujours. C’est une propriété qui la différencie des
autre dimensions fractales. Le calcul numérique de dH est delicat, parce qu’il difficile
de trouver le recouvrement minimal. Pour une méthode de calcul voir Chorin[32].
log(N (ε))
dC = lim (2.8)
ε→0 log(1/ε)
quand l’arête ε des hypercubes tend vers zéro. Par exemple, la dimension de Kol-
mogorov de l’ensemble triadique de Cantor obtenu est dC ≈ 0.6309. Celle du triangle
de Sierpinski est dC ≈ 1.5849. La dimension de Kolmogorov est plus facile à déterminer
que la dimension de Hausdorff-Besicovitch. Cependant, dans beaucoup de cas, d’après
le théorème d’Hutchinson, elle est égale à la dimension de Kolmogorov.
La dimension fractale définie ci-dessus ne caractérise que la géométrie de l’attrac-
teur. Or, les expériences font apparaître le besoin de rendre compte également de la
dynamique sur l’attracteur, en particulier des aspects statistiques. En effet, dans un
régime chaotique (correspondant à un attracteur étrange) les positions de deux points
d’une même courbe trajectoire éloignés dans le temps sont sans corrélation entre elles
(à cause de la S.C.I.), et ceci par définition d’un tel régime. En revanche, tous les points
étant situés sur l’attracteur, il existe entre eux une certaine corrélation spatiale que l’on
peut chercher à l’aide d’une fonction appropriée.
Où H(.) est la fonction de Heaviside est égal à 1 pour des arguments positifs et égal à
0 pour des arguments négatifs. CM est le nombre (normalisé) de points de l’espace de
phases reconstruit appartenant à une sphère de rayon ε. l’algorithme de la dimension de
corrélation a l’avantage d’être calculable très efficacement. La dimension de corrélation
découle ainsi directement de l’intégrale de corrélation et s’exprime selon la formule :
log(CM (ε))
Dc (ε) = lim (2.10)
ε→0 log(ε)
Chapitre 3
1 Modèle de Lorenz
Edward Lorenz fut un météorologue qui, le premier, mit en évidence le caractère
chaotique de la météorologie. Le couplage de l’atmosphère avec l’océan est décrit par le
système d’équations aux dérivées partielles couplées de Navier-Stockes de la mécanique
des fluides. En 1963, Lorenz eut l’idée de chercher un modèle d’équations pour étudier
l’instabilité de Rayleigh-Bénard [37, 3].
Ce modèle a joué un rôle historique important puisque son évolution temporelle fait
apparaître un comportement chaotique. De plus, il constitua le premier et le célèbre sys-
tème différentiel dissipatif permettant d’observer un attracteur étrange pour certaines
valeurs des paramètres.
Dans sa version exprimée en paramètres et variables réduits, le système de trois équa-
tions différentielles couplées s’écrit :
.
x = σ(y − x)
·
y = rx − y − xz (3.1)
·
z = xy − bz
29
CHAPITRE 3. EXEMPLES DE SYSTÈMES DYNAMIQUES CHAOTIQUES 30
√
(1) dans (3) donne x2 = bz ⇔x =∓ z
(3.2)
p p p p
P1 = ( b(r − 1), b(r − 1), r − 1) et P2 = (− b(r − 1), − b(r − 1), r − 1)
Pour r = 1 , P0 = P1 = P2 donc pour r ∈ [0; 1], il n’y a qu’un seul point fixe P0 et pour
r > 1, il y a 3 points fixes P0 , P1 et P2 .
CHAPITRE 3. EXEMPLES DE SYSTÈMES DYNAMIQUES CHAOTIQUES 31
Figure 3.2 – Séries temporelles x(t), y(t), z(t) du système de lorenz σ = 10 , b = 8/3 ,
r = 28
−σ
!
σ 0
J= r − z −1 −x (3.3)
y x −b
– Pour P0
CHAPITRE 3. EXEMPLES DE SYSTÈMES DYNAMIQUES CHAOTIQUES 32
L’origine est un point fixe pour toutes les valeurs de paramètre b, σ et r. La matrice
jacobienne est :
−σ σ
!
0
J= r −1 0 (3.4)
0 0 −b
et comme det(J − λI) = 0, nous avons l’équation caractéristique, suivante :
(λ + b) λ2 + (σ + 1) λ + σ (1 − r) = 0 (3.5)
a pour racines :
CHAPITRE 3. EXEMPLES DE SYSTÈMES DYNAMIQUES CHAOTIQUES 33
p
(σ − 1)2 + 4rσ
−σ − 1 + 2
λ1 = (3.6)
p2
−σ − 1 − (σ − 1)2 + 4rσ
λ2 = (3.7)
2
λ3 = −b (3.8)
– Pour P1 et P2 :
CHAPITRE 3. EXEMPLES DE SYSTÈMES DYNAMIQUES CHAOTIQUES 34
Le polynôme est d’ordre trois, on peut le résoudre par les formules de Cardan et
déterminer le signe des racines par les condition de Routh-Hurwitz.
Et selon les valeurs du paramètre r, ce polynome peut avoir trois racines réelles
négatives ou bien une une racine réelle et deux racines complexes conjuguées.
On peut simplifier ce calcul en utilisant le fait qu’il existe une valeur propre λ1 = 0
si r = 1 donc on peut supposer que |λ1 | << 1 si |r − 1| << 1 on peut donc négliger λ21
et λ31 de l’équation
λ1 ∼ 2σb(r−1)
= − +br < 0 pour r > 1 (3.11)
p
(σ + 1 + b)2 + 4b4b(σ + 1)
(σ + 1 + b) −
λ1 = − <0 (3.13)
p 2
− (σ + 1 + b) + (σ + 1 + b)2 + 4b4b(σ + 1)
λ2 = <0 (3.14)
2
On fait de même avec P2 et on trouve le même résultat λ3 < λ2 < λ1 < 0 ( noeud
stable)
CHAPITRE 3. EXEMPLES DE SYSTÈMES DYNAMIQUES CHAOTIQUES 35
c −1)
ω 2 = 2σb(r
⇔ σ+1+b
ω 2 = σb + brc )
( 2σb
σb+ σ+1+b
rc =
⇔ 2σb
σ+1+b
−b
ω = ±((σb + b)rc )
σ(σ+b+3)
⇔ rc = σ−b−1
ω = ±((σb + b)rc )
Application numérique : rc = 24.74 et ω = ±92.64.
indications numériques (graphiques), même pour les plus étudiés d’entre eux. Cela signe
une certaine "limite" aux expériences numériques dans le domaine. Un seul système (3.
21) fait exception, celui construit par René Lozi, mathématicien à l’université de Nice,
à partir de l’attracteur de Hénon. Il est un peu plus simple que les autres et le mathé-
maticien Michal Misiurewicz est parvenu à démontrer, grâce aux outils des systèmes
dynamiques, l’existence effective de l’attracteur étrange.
H: R2 −→ R2 (3.15)
(x, y) 7−→ (y + 1 − ax2 , bx)
2
Le déterminant (b − 1)2 + 4a est négative si a < a0 = − (b−1)
4 = −0.1225; dans ce
cas il n’y a pas des points fixes.
La Stabilité
La matrice jacobienne J a pour valeurs propres, les valeurs données par :
p
λ1,2 = −ax ± a2 x2 + b (3.20)
Si l’on calcule les valeurs absolues des valeurs propres, on constate que la plus petite
des valeurs propres est toujours inférieure à 1, tandis que la plus grand est inférieur,
égale ou supérieur à 1 suivant que |x| inférieur, égale ou supé rieur à (1 − b)/2a, on en
déduit que le point fixe (x2 , y2 ) est un point selle.
L’autre point fixe est stable si a < 3(1 − b)2 /4 = 0.3675.
Si a = 3(1 − b)2 /4, on a λ1 (x1 , y1 ) = b et λ2 (x2 , y2 ) = −1.
Diagramme de bifurcation
La construction de diagramme de bifurcation est faite en faisant varier le paramètre
a de 0 à 2 avec un pas de 0.0005 ; b est égale à 0.3.
Le diagramme obtenu est représenté par la figure (3. 6).
Ce diagramme est de type de bifurcation de doublement de période, l’attracteur de
Hénon contient deux points fixes.
La partie stable se situe dans l’intervalle [0, 0.3675] .
Un 2−cycle stable commence à a = 0.3675 suivi d’un 4− cycle stable à a = 0.9 et
ainsi de suite.
La période continue de doubler jusqu’à une valeur déterminée où le trajectoire com-
mence à prendre une forme particulière.
Pour a = 1.4, on ne distingue plus les cycle ; le système est chaotique.
L’attracteur de Hénon pour a = 1.4, b = 0.3 est représenté dans la figure(??) .
la structure de l’attracteur se répète identiquement à elle-même aux échelles d’ob-
servation successives. Cette structure dont la permanence à différent échelle est carac-
téristique d’un objet fractale.
Par ailleurs, la dimension de Hausdorff de l’attracteur de Hénon objet intermidiaire
entre une ligne et une surface, est D = 1.26.
On peut aussi calculer la dimension de l’attracteur de Hénon par la dimension de
Lyapunov. On a pour a = 1.4, b = 0.3, l’application de Hénon a deux exposants de
Lyapunov λ1 = 0.42205, λ2 = −1.626 la dimension de Lyapunov par définition est
égale à DL = 1.2596.
CHAPITRE 3. EXEMPLES DE SYSTÈMES DYNAMIQUES CHAOTIQUES 38
L: R2 −→ R2 (3.21)
(x, y) 7−→ (y + 1 − a |x| , bx)
La Stabilité
L’équation caractéristique de la matrice jacobienne est :
CHAPITRE 3. EXEMPLES DE SYSTÈMES DYNAMIQUES CHAOTIQUES 40
λ2 + aλ − b pour P1 (3.25)
2
λ − aλ − b pour P2
Stabilité de P1
2
Pour b > −a 4 , les valeurs propres sont des réelles
2
Pour b < −a 4 , les valeurs propres sont des complexes.
Elle sont de module inférieur à 1 si :
b > −1, b < a + 1 et b < 1 − a. Et le point fixe P1 est stable.
Les valeurs propres sont de module supérieur à un si :
CHAPITRE 3. EXEMPLES DE SYSTÈMES DYNAMIQUES CHAOTIQUES 41
OPTIMISATION et CHAOS
45
Chapitre 4
1 Introduction
L’optimisation est l’une des branches les plus importantes des mathématiques ap-
pliquées modernes, et de nombreuses recherches, à la fois pratiques et théoriques, lui
sont consacrées. dans lequel on définit une fonction cout, que l’on cherche à minimiser
par rapport à ses paramètres. Par exemple, dans le célèbre problème du voyageur de
commerce, on cherche à minimiser la longueur de la tournée d’un "voyageur de com-
merce", qui doit visiter un certain nombre de villes, avant de retourner à la ville de
départ. La définition du problème d’optimisation est souvent complétée par la donnée
de contraintes : tous les paramètres (ou variables de décision) de la solution proposée
doivent respecter ces contraintes, faute de quoi la solution n’est pas réalisable.
Du côté algorithmique, un algorithme d’optimisation nécessite généralement la défini-
tion d’une fonction rendant compte de la pertinence des solutions potentielles, à partir
des grandeurs à optimiser. Cette fonction est appelée fonction d’adaptation f ou fit-
ness function en terminologie anglo-saxonne. L’algorithme convergera vers un optimum
de cette fonction, quelle que soit sa définition. La pertinence de la solution dépendra
donc de la pertinence de la " question " posée à l’ordinateur. La fonction f doit donc
exprimer le plus fidèlement possible le désir de l’utilisateur, sous forme mathématique.
Sa définition peut être analytique, ou le résultat du jugement de l’utilisateur[40].
46
CHAPITRE 4. ETAT DE L’ART SUR LES ALGORITHMES CHAOTIQUES. 47
2.1 Définitions
Un problème d’optimisation est usuellement formulé comme un problème de mini-
misation et s’écrit sous la forme :
minx f (x),
telque,
hj (x) ≤ 0; i = 1, ..., m, (4.1)
gi (x) ≤ 0; j = 1, ..., p,
x ∈ S,
Où f est la fonction (scalaire) à minimiser, appelée ”fonction coût” ou ”fonction
objectif”, x représente le vecteur des variables d’optimisation, gi sont les contraintes
d’inégalité et hj les contraintes d’égalité, et S est l’espace des variables (appelé aussi
espace de recherche). S indique le type de variables considérées : réelles, entières, mixtes
(réelles et entières dans un même problème), discrètes, continues, bornées, etc.
Un point xA est appelé un point admissible si xA ∈ S et si les contraintes
d’optimisation sont satisfaites : gi (xA ) ≤ 0, i = 1, ..., m et hj (xA ) = 0, j = 1, ..., p. La
solution de (IV.1) est l’ensemble des optima x∗ .
On appelle ”méthode (ou algorithme ou recherche) locale” celle qui converge vers
un minimum local. Les recherches locales partent usuellement d’un point initial x0
avec un pas initial ρ0 . Ces paramètres vont conditionner la descente d’une des vallées
de la fonction (cf. schéma en Figure (4.2). De nombreuses méthodes locales existent.
Les plus anciennes et les plus utilisées sont les méthodes où la direction de descente est
CHAPITRE 4. ETAT DE L’ART SUR LES ALGORITHMES CHAOTIQUES. 48
f(x) S
x0 Recherche local
Minimum
global x
déduite des dérivées de la fonction (méthode de la plus forte pente, méthode de Newton,
méthode de gradient conjugué et la méthode quasi-Newtoniennes).
Les méthodes globales ont pour objectif d’atteindre un ou plusieurs optima globaux.
Il n’existe pas un algorithme optimal pour tous les problèmes [87], et la plupart des
méthodes possèdent des paramètres à régler.
CHAPITRE 4. ETAT DE L’ART SUR LES ALGORITHMES CHAOTIQUES. 49
Figure 4.3 – Illustration des faux optima locaux introduits par la pénalisation
où
c
X Ki
P =
|x − x∗i |α
i=1
0 ) < f (xi ) pour garantir qu’il se situera dans une vallée plus basse, donc différente
f (xi+1 ∗
CHAPITRE 4. ETAT DE L’ART SUR LES ALGORITHMES CHAOTIQUES. 51
vers les mêmes minima locaux. De plus, il n’y a pas de discrimination entre régions
prometteuses ou non prometteuses [48].
puisque tout point a une probabilité identique d’être atteint, même s’il n’y a pas d’ex-
ploitation des résultats déjà obtenus. L’efficacité de ces méthodes peut être améliorée
en incorporant des techniques supplémentaires dans leurs mécanismes. Plus la méthode
utilise des mécanismes spécifiques, plus la méthode dispose de moyens potentiels pour
conduire efficacement la recherche de l’optimum global [61, 62].
1 Introduction.
Le chaos est désormais un concept bien établi et il y a une vaste littérature sur la
nature du chaos. Depuis plus de trois décennies, le comportement inhabituel des sys-
tèmes chaotiques a attiré l’attention de plusieurs différentes communautés scientifiques.
Les comportements chaotiques ont été observées dans différents domaines des sciences,
par exemple l’ingénierie, la médecine, l’écologie, la biologie et l’économie.
Le chaos est mathématiquement défini comme un modèle aléatoire généré par des sys-
tèmes déterministes simples. En général, le chaos a trois importantes propriétés dyna-
miques [62, 64, 65, 67] :
– la sensibilite aux conditions initiales.
– la propriété de semi-stochastique.
– la propriété quasi-aléatoire.
L’idée d’utiliser des systèmes chaotiques au lieu des processus aléatoires a été re-
marqué dans plusieurs domaines. Un de ces champs est la théorie de l’optimisation.
Dans les algorithmes d’optimisation aléatoire le rôle du hasard peut être joué par
une dynamique chaotique.
Des études expérimentales ont affirmé que les avantages de l’utilisation des modèles
chaotiques au lieu des modèles aléatoires sont souvent évidents mais il n’est pas encore
mathématiquement prouvé [68, 69].
A partir de ces proprieté du chaos, certains nouveaux algorithmes de recherche
appelés algorithmes d’optimisation chaotique (COAs) sont présentés dans la littérature
[70, 71, 72, 73, 74, 75, 76, 77, 78, 79, 80, 81].
Les méthodes COA peuvent facilement échapper à des minima locaux contrairement
aux algorithmes d’optimisation stochastique.
L’algorithme d’optimisation stochastique s’échappe souvent à des minima locaux en
acceptant quelques mauvaises solutions selon une certaine probabilité. Mais les COAs
s’échappent à des minima locaux à cause de la régularité des mouvements chaotiques.
Dans la plupart des méthodes de COA, les variables du chaos sont générées par
l’application logistique. L’objectif de cette section est d’étudier l’efficacité de quelques
57
CHAPITRE 5. EFFICACITÉ DES ALGORITHMES DE RECHERCHE CHAOTIQUE.58
modèles chaotiques de dimension deux en tant que des générateurs de variables chao-
tiques. A cet égard, nous avons choisi trois applications différentes en remplaçant le
générateur de variables chaotique dans l’un des COAs.
Algorithm 1: COLM
1 -Step 1 : Initialize the number Mg , Ml of chaotic search and initialization of variables and
initial conditions Set k=1, y (0), y1 (0),a = 1.7 and b = 0.5 of Lozi map. Set the initial best
objective function f¯ = +∞
2 -Step 2 : algorithm of chaotic global search :
while k ≤ Mg do
xi (k) = Li + zi (k).(Ui − Li )
if f (X(k)) < f¯ then
X̄ = X(k); f¯ = f (x(k))
end if
k =k+1
end while
-Step 3 : algorithm of chaotic local search :
while k ≤ (Mg + Ml ) do
if r ≤ 0.5 then
xi (k) = x̄i + λzi (k).|(Ui − Li )|
else
xi (k) = x̄i − λzi (k).|(Ui − Li )|
end if
if f (X(k)) < f¯ then
X̄ = X(k); f¯ = f (x(k))
end if
k =k+1
end while
où k est le nombre d’itération. Dans ce travail, les valeurs de y sont normalisées dans
l’intervalle [0, 1] dans le problème d’optimisation. Cette transformation est donnée par :
(y(k) − α)
z(k) = . (5.3)
β−α
Où y ∈ [−0, 6418, 0, 6716]et[a, b] = (−0.6418, 0.6716). Les paramètres utilisés dans
ce travail sont a = 1, 7 et b = 0, 5. Si on programme ces formules avec Matlab, le graphe
de l’application (5.1) avec les valeurs suivantes a = 1.7 ;b = 0.5 est donné par la figure
(5.1) :
Des tests sur des fonctions connues de la littérature ont été fait. Le but était de
vérifier l’efficacité de l’approche proposée (Tableau 5.1).
1- La première fonction est définie par :
f1 = x41 −7x21 −3x1 +x42 −9x22 −5x2 +11x21 x22 +99sin(71x1 )+137sin(97x1 x2 )+131sin(51x2 ).
(5.4)
- Domaine de recherche : −10 ≤ xi ≤ 10, i = 1, 2.
2- La deuxième fonction F2 est la fonction de Easom à deux variables définie par :
2 −(x 2 ))
F2 = −cos(x1 )cos(x2 )e(−(x1 −π) 2 −π)
(5.5)
(y(k) − α)
z(k) = . (5.10)
β−α
Il dépend de deux paramètres, a et b, qui ont pour valeurs canoniques : a = 1.4 et
b = 0.3. Pour ces valeurs, l’attracteur de Hénon est chaotique. Pour d’autres valeurs de
a et b, il peut être chaotique, intermittent ou converger vers une orbite périodique. Un
aperçu du comportement de l’attracteur peut être donné par son diagramme orbital.
L’attracteur fut introduit par Michel Hénon comme une simplification de la section de
Poincaré de l’attracteur de Lorenz. Dans le cas canonique, le point de départ appro-
chera soit un ensemble de points, connu sous le nom d’attracteur étrange de Hénon,
soit l’infini. L’attracteur de Hénon est fractal, continu dans une direction, et forme un
ensemble de Cantor dans l’autre. Des estimations numériques donnent une dimension
de corrélation d’environ 1.25 ± 0.02 et une dimension de Hausdorff de 1.261 ± 0.003
pour l’attracteur canonique. En tant que système dynamique, l’attracteur canonique de
Hénon est d’un intérêt particulier car, contrairement à la carte logistique, ses orbites
n’ont pas de description simple. Si on programme ces formules avec Matlab on aura le
graphe de la figure (5.2) avec les valeurs suivantes a = 1.4 ; b = 0.3.
Des test sur des fonctions connues de la littérature présenté dans la sous section pré-
cédante (voir la section Fonctions tests) , ont été faits. Le but était de vérifier l’efficacité
de l’approche proposée (Tableau 5.2).
CHAPITRE 5. EFFICACITÉ DES ALGORITHMES DE RECHERCHE CHAOTIQUE.65
Où k est le nombre d’itération. Dans ce travail, les valeurs de y sont normalisés dans
l’intervalle [0, 1] à chaque variable de décision dans l’espace à n dimensions du problème
d’optimisation. Cette transformation est donnée par :
(y(k) − α)
z(k) = .
β−α
Des tests sur des fonctions connues de la littérature (voir la section Fonctions tests)
, ont été fait. Le but était de vérifier l’efficacité de l’approche proposée (Tableau 5.3) .
CHAPITRE 5. EFFICACITÉ DES ALGORITHMES DE RECHERCHE CHAOTIQUE.67
La recherche locale qui suit la recherche globale commence à partir du meilleur résultat
global x2 (k) ( 10.1) et donne x2 (k + 1). Par contre, la recherche "locale-globale" autour
x1 (k), x2 (k), x3 (k) conduit à x1 (k + 1), x2 (k + 1), x3 (k + 1) qui vérifient :
68
CHAPITRE 6. PROPOSITION D’UNE NOUVELLE APPROCHE POUR LES ALGORITHMES D’OPTIM
La procédure de la nouvelle recherche chaotique basée sur un modèle 2-D peut étre
illustrée comme suit :
Entrées :
Mg : le nombre maximal d’itérations de la recherche globale chaotiques
Ml :le nombre maximum d’itérations de la recherche locale chaotiques.
Mgl1 : le nombre maximal d’itérations de la 1er recherche globale-locale.
Mgl2 : le nombre maximal d’itérations de la 2eme recherche globale-locale.
Mg .(Mgl1 + Mgl2 ) + Ml : le critère d’arrêt de la méthode d’optimisation chaotique.
λ : le pas dans la recherche locale chaotique.
λgl1 : le pas dans la première recherche globale-locale .
λgl2 : le pas dans la deuxième recherche globale-locale.
Sorties :
X̄ : la meilleure solution d’exécution en cours de recherche chaotiques
f¯ : la meilleure fonction objectif.
Dans la suite, nous affichons quelques résultats que nous avons obtenu, ces résultats
montrent une meilleure optimisation par cette nouvelle méthode.
A chaque étude, 48 cas ont été faites et exécutés indépendemment pour chacune des
deux méthodes COLM et ICOLM impliquant 48 essais de différentes conditions initiales
y1(0), y(0) (paramètres de l’application de Lozi).
Pour tous les cas étudiés, les quatre configurations, numérotés de ICOLM1 à
CHAPITRE 6. PROPOSITION D’UNE NOUVELLE APPROCHE POUR LES ALGORITHMES D’OPTIM
Algorithm 2: ICOLM
1 Step 1 :Initialize the number Mg , Mgl1 ,Mgl2 , Ml of chaotic search and initialization of
variables and initial conditions Set k=1, y (0), y1 (0),a = 1.7 and b = 0.5 of Lozi map. Set
the initial best objective function f¯ = +∞
2 Step 2 : algorithm of chaotic global search :
while k ≤ Mg do
xi (k) = Li + zi (k).(Ui − Li )
if f (X(k)) < f¯ then
X̄ = X(k); f¯ = f (x(k))
end if
-Step 2-1 : sub algorithm of chaotic local search :
while j ≤ Mgl1 do
for i = 0 to n do
if r ≤ 0.5 then
xi (j) = x̄i + λgl1 zi (j).|(Ui − Li )|
else
xi (j) = x̄i − λgl1 zi (j).|(Ui − Li )|
end if
end for
if f (X(j)) < f¯ then
X̄ = X(j); f¯ = f (x(j))
end if
j =j+1
end while
-Step 2-2 : sub algorithm of chaotic local search :
while s ≤ Mgl2 do
for i = 0 to n do
if r ≤ 0.5 then
xi (s) = x̄i + λgl2 zi (s).|(Ui − Li )|
else
xi (s) = x̄i − λgl2 zi (s).|(Ui − Li )|
end if
end for
if f (X(s)) < f¯ then
X̄ = X(s); f¯ = f (x(s))
end if
s=s+1
end while
k =k+1
end while
3 Step 3 : algorithm of chaotic local search :
while k ≤ Mg × (Mgl1 + Mgl2 ) + Ml do
for i = 0 to n do
if r ≤ 0.5 then
xi (k) = x̄i + λzi (k).|(Ui − Li )|
else
xi (k) = x̄i − λzi (k).|(Ui − Li )|
end if
end for
if f (X(k)) < f¯ then
X̄ = X(k); f¯ = f (x(k))
end if
k =k+1
CHAPITRE 6. PROPOSITION D’UNE NOUVELLE APPROCHE POUR LES ALGORITHMES D’OPTIM
ICOLM4 et COLM1 à COLM4, qui sont utilisés sont présentés dans le Tab.6.1.
Chapitre 7
1 Fonctions tests
Cinq problèmes sont résolus. Trois minimisations en dimension 2, la nouvelle fonction
(fonction de Lozi), la fonction Easom, la fonction Rastrigin , et deux minimisations en
dimension 3, la fonction de Rosenbrock en dimension 3, la fonction de Griewank en
dimension 3.
f1 = x41 −7x21 −3x1 +x42 −9x22 −5x2 +11x21 x22 +99sin(71x1 )+137sin(97x1 x2 )+131sin(51x2 ).
(7.1)
72
CHAPITRE 7. APPLICATION DE L’APPROCHE PROPOSÉE SUR DES FONCTIONS TESTS.73
x̄
algo Best value Mean value [Link] ȳ
Lozi Function
−2.7686
IC1 -382.3917 -355.8410 13.6581
−0.4055
0.3105
C1 -371.0150 -368.5212 11.1135
0.2442
−0.7327
IC2 -392.5400 -365.7837 14.0615
1.3203
−2.6200
C2 -367.3930 -358.0622 7.5935
1.5648
−1.9677
IC3 -393.3134 -379.6872 8.8797
−1.9982
−4.6404
C3 -379.0027 -371.5180 5.1866
−3.0760
−1.6161
IC4 -395.8441 -387.3368 9.0825
−2.2475
−5.8930
C4 -382.7108 -379.7557 1.7817 2.9309
Tableau 7.1 – Comparison of algorithms COLM and ICOLM for f1 .
.
x̄
algo Best value Mean value [Link] ȳ
Rosenbrock’s Function !
0.9030
IC1 0.0001 0.0106 0.0114 0.8143
0.6617!
1.0213
C1 0.0034 0.0060 0.0043 1.0486
1.1041!
0.9700
IC2 0.0000 0.0012 0.0010 0.9413
0.8840!
1.0066
C2 0.0003 0.0065 0.0039 1.0060
1.0135!
0.9604
IC3 0.0000 0.0032 0.0047 0.9198
0.8449!
1.0317
C3 0.0231 0.2153 0.0670 1.0351
1.1113!
0.9968
IC4 0.0000 0.0000 0.0000 0.9937
0.9880!
1.0317
C4 0.0143 0.1799 0.0884 1.0351
1.1113
Tableau 7.2 – Comparison of algorithms COLM and ICOLM for F4 .
x̄
algo Best value Mean value [Link] ȳ
Griewank’s Function
−0.0003
!
IC1 0.0000 0.0072 0.0010 0.0003
−0.0011!
0.6106
C1 0.3775 0.3979 0.0080 0.9361
0.3953 !
−0.0060
IC2 0.0000 0.0067 0.0022 −0.0018
−0.0091!
−0.0064
C2 0.0218 0.0916 0.0402 0.2170
0.0013 !
−0.1318
IC3 0.0074 0.0267 0.0238 −0.0213
−0.0107!
−0.1705
C3 0.0008 0.0130 0.0070 −0.2763
−0.3607!
−0.0040
IC4 0.0000 0.0000 0.0000 −0.0067
−0.0060!
−0.1306
C4 0.0011 0.0117 0.0070 −0.2616
−0.2961
Tableau 7.3 – Comparison of algorithms COLM and ICOLM for F5 .
CHAPITRE 7. APPLICATION DE L’APPROCHE PROPOSÉE SUR DES FONCTIONS TESTS.76
Figure 7.1 – Représentation de la fonction de test F1 utilisé dans cette étude sur
10 ≤ xi ≤ 10, i = 1; 2.
CHAPITRE 7. APPLICATION DE L’APPROCHE PROPOSÉE SUR DES FONCTIONS TESTS.77
-7
x 10
0.5
-0.5
-1
-1.5
10
5 10
0 5
0
-5 -5
x2 -10 -10
x1
Figure 7.2 – Représentation de la fonction de test Easom F2 utilisé dans cette étude
sur 100 ≤ xi ≤ 100, i = 1; 2.
CHAPITRE 7. APPLICATION DE L’APPROCHE PROPOSÉE SUR DES FONCTIONS TESTS.78
Figure 7.3 – Représentation de la fonction de test Rastrigin F3 utilisé dans cette étude
sur 5.12 ≤ xi ≤ 5.12, i = 1; 2.
CHAPITRE 7. APPLICATION DE L’APPROCHE PROPOSÉE SUR DES FONCTIONS TESTS.79
Figure 7.5 – Représentation de la fonction de test Griewank F5 utilisé dans cette étude.
Conclusion générale
L’optimisation par chaos est un domaine de recherche assez récent constitue, comme
nous venons de le présenter, une des applications des dynamiques chaotiques. Ce type
de dynamique possède par nature deux aspects essentiels :
– l’évolution dans le temps est très sensible aux conditions initiales et pseudo-
aléatoires.
– Mais ces dynamiques possèdent aussi un déterminisme local ( loi d’évolution dy-
namique, équation différentielle d’évolution dans le temps) qui permet une repro-
duction, du même pseudo-aléatoire.
Le travail de thèse consisté dans un premier temps à maîtriser et à comprendre certaines
des propriétés complexes de la dynamique chaotique. Cette compréhension a été accom-
pagnée par une illustration concrète de toutes les notions précédentes par des exemples
célèbres tels que le modèle de Lorenz et les modèles de Hénon et Lozi qui nous on servi
dans la thèse.
La vocation de cette dissertation, dans un deuxième temps est de présenter une ten-
tative d’amélioration d’une nouvelle technique d’optimisation basée sur le chaos COA,en
particulier un algorithme appelé COLM par [Link].
Cet algorithme repose sur (la méthode à deux phases) une recherche globale suivie
par une recherche locale. Dans cette méthode, on distingue la phase globale de la phase
locale. Pendant la première, on évalue la fonction en plusieurs points chaotiques, alors
que dans la seconde, on manipule chacun de ces points de manière locale, comme par
exemple en recherchant un minimum local autour d’eux.
La bonne connaissance de la dynamique de nos modèles et la méthode COLM nous a
permis de développer une technique d’optimisation chaotique. Dans cette approche nous
avons amélioré cet algorithme en optimisant localement pendant quelques itérations
le résultat global. Cette recherche globale localement moyennée est appelée ICOLM
[Impoved COLM].
L’utilisation des algorithmes chaotiques avec l’approche proposée représente une
technique d’optimisation globale très efficace.
Les résultats des applications faites ont donné des résultats satisfaisants surtout en
ce qui concerne le temps nécessaire pour atteindre un voisinage très étroit de l’optimum
global et aussi la qualité de la solution obtenue.
Les tests effectués montrent une grande supériorité des approches proposées, par
rapport à l’utilisation d’autres techniques. De plus, les résultats obtenus en appliquant
ces algorithmes sur des cas réels sont excellents : une amélioration significative est
apportée, comparativement aux meilleurs résultats trouvés par les autres méthodes.
81
Bibliographie
[1] STEWART I. Dieu joue-t-il aux dés ? Les mathématiques du chaos. Paris : Nouvelle
Bibliothèque Scientifique Flammarion, 1992, 441 p.
[2] POINCARE, H. Les Méthodes Nouvelles de la Mécanique Céleste, volume 3 vols.
Gauthier-villars Paris édition.
[3] LORENZ E. Deterministic non periodic flow. J Atm Sci 1963, 20, (130-141) : 386-
377
[4] ARNOLD, V. (1974). Equation differentielles ordinaires. Mir, moscow édition
[5] MARLE, C.-M. (2003). Systèmes dynamiques : une introduction. C-M. Marle,
[Link], ellipses édition.
[6] HUBBARD, J. et WEST, B.(1999) Equations différentielles et systèmes méca-
niques. Cassini édition.
[7] DEMAILLY, J.-P.(1991). Analyse Numérique et équation différentielles. Presses
universitaires de grenoble édition.
[8] ROUCHE, N. et MAWHIN, J (1973a). Equations diférentielles ordinaires Tome I :
Théorie générale. Masson et cie édition.
[9] RUELLE, D et TAKENS, F. On the nature of turbulence. Commun Math Phys
1971, 20, 167-192
[10] BERGE, P. POMEAU, Y. et VIDAL, C. (1988). L’ordre dans le chaos : vers une
approche déterministe de la turbulence. Hermann édition
[11] DANG-VU, H. et DELCARTE, C. Bifurcations et Chaos. Paris : Ellipses, 2000.
[12] GUCKENHEIMER, J. et HOLMES,P. (1983) Nonlinear Osciators, Dynamical Sys-
tèmes, and Bifurcations of Vector Fields, volume 42 de Applied Mathematical
Sciences. Springer verlag édition.
[13] LETELLIER C. Introduction. Le chaos dans la nature. Paris : Vuibert, 2006, 1-5.
[14] POINCARÉ H. Science et Méthode. Paris : 1908.
[15] KELLER S. In the wake of chaos. Chicago and London : The University of Chicago
Press, 1993.
[16] KAPLAN, D. et GLASS, L. Finite-difference equations. Understanding nonlinear
dynamics. New-York : Springer-Verlag, 1995, 1-53.
[17] HILBORN, R. Chaos and Nonlinear Dynamics an Introduction for Scientists and
Engineers, Oxford Student Edition, 1994.
[18] FORTRAT, J.O. YAMAMOTO, Y. et HUGHSON, R.L. Respiratory influences on
nonlinear dynamics of heart rate variability in humans. Biol Cybern 1997, 77, 1,
1-10.
82
BIBLIOGRAPHIE 83
[56] Holland, J. H. Genetic Algorithms and the Optimal Allocation of Trials, SIAM
Journal on Computing, vol. 2, p. 88-105. 1973.
[57] Michalewicz, Z. Genetic algorithms + Data structures = evolution programs. Sprin-
ger, 1999.
[58] Back, T. Hammel, U. Schwefel, H.-P. Evolutionary Computation : Comments on
the History and Current State. IEEE Transactions on Evolutionary Computations,
1(1), 3-17 (1997).
[59] Schoenauer, M. Michalewicz, Z. Evolutionary Computation : An Introduction.
Control and Cybernetics, Special Issue on Evolutionary Computation, 26 (3), pp.
307-338, 1997.
[60] J. R. Koza, Genetic Programming. MIT Press. 1992.
[61] Burgin, G. H. On playing two-person zero-sum games against non-minimax players.
IEEE Transactions on Systems, Man, and Cybenetics, 5(4), pp. 369-370. 1968.
[62] Ibbitt,R. P. Donnell, T. Designing conceptual catchment models for automatic
fitting methods. IAHS Publication n° 101, 462-475, 1971.
[63] Johnston,P. R. Pilgrim, D. H. Parameter optimization for watershed models. Water
Resources Research, 12(3), 477-486. 1976. .
[64] X.X. Wu, Z. Chen, Introduction of Chaos Theory, Shanghai Science and Techno-
logy, Biblio- graphic Publishing House, 1996.
[65] Strogatz SH. Nonlinear dynamics and chaos. Massachussets : Perseus Publishing ;
2000.
[66] Alligood KT, Sauer TD, Yorke JA. Chaos : an introduction to dynamical systems.
London, UK : Springer ; 1996.
[67] Wu, X.X. Chen, Z. Introduction of Chaos Theory, Shanghai Science and Techno-
logy, Bibliographic Publishing House, 1996.
[68] Bucolo, M. Caponetto,R. Fortuna, L. Frasca, M. Rizzo, A. Does chaos work better
than noise ? IEEE Circuits and Systems Magazine 2 (3) (2002) 4-19.
[69] Caponetto, R. Fortuna, L. Fazzino, S. Xibilia, M.G. Chaotic sequences to improve
the performance of evolutionary algorithms, IEEE Transactions on Evolutionary
Computation 7 (3) (2003) 289-304.
[70] Chen, L. Aihara, K. Optimization by chaotic simulated annealing, in : Proceedings
of the International Conference of Sino-Japanese Young Scientist, 1995, pp. 3-57.
[71] Li, B. and Jiang, W. "Chaos optimization method and its application".Control
Theory and Application, vol. 14, Aug. 1997, pp. 613-615.
[72] B. Li, W. Jiang, Optimization of complex functions by chaos search, International
Journal of Cybernetics and Systems 29 (4) (1998) 409-419.
BIBLIOGRAPHIE 86
[73] Zhang, T. Wang, H. Wang, Z. Mutative scale chaos optimization algorithm and its
application, Control and Decision 14 (3) (1999) 285-288.
[74] C. Zhang, X. Li, H. Shaho, Chaos optimization algorithm based on linear search
and its application to nonlinear constraint optimization problems, Control and
Decision 16 (1) (2001) 120-125.
[75] Xu, H.P. Zhu, H. Zhang,T. Wang, Z.C. Application of mutation scale chaos algo-
rithm in power plant and units economics dispatch, Journal of Harbin Institute of
Technology 32 (4) (2000) 55-58.
[76] Hu, Y. Li, Y.C. Yu, J.X. Chao, H.D. Steeped-up chaos optimization algorithm and
its application, Journal of System Engineering 17 (1) (2002) 41-44.
[77] Y.D. Li, S.Y. Li, A new generic chaos optimization combination method, Control
Theory and Application 19 (1) (2002) 143-145.
[78] Liu, S.S. Hou, Z.J. Weighted gradient direction based chaos optimization algorithm
for nonlinear programming problem, in : Proceedings of the 4th World Congress
on Intelligent Control and Automation, 2002, pp. 1779-1783.
[79] Li, W. Liang, X.M. A hybrid algorithm based on chaos optimization and steepest
decent, Algorithm, Computing Technology and Automation 22 (2) (2003) 12-14.
[80] Xu, L. Zhou, S.O. Zhang, H.M. A hybrid chaos optimization method and its ap-
plication, System Engineering and Electronics 25 (2) (2003) 226-228.
[81] Yang,J. Zhou, J. Wu, W. Liu, F. Zhu, C. Cao, G. A chaos algorithm based on
progressive optimality and Tabu search algorithm, in : Proceedings of the 4th
Conference on Machine Learning and Cybernetics, 2005, pp. 2977-2981.
[82] Coelho, L.D.S. : Tuning of PID Controller for an Automatic Regulator Voltage
System using Chaotic Optimization Approach. Chaos, Solitons and Fractals. 39(4),
1504-1514 (2009)
[83] Shayeghi, H. Jalilzadeh, S. Shayanfar, H.A. Safari, A. : Robust PSS Design using
Chaotic Optimization Algorithm for a Multimachine Power System. ECTI-CON
2009, Pattaya, Thailand. 40-43 (2009)
[84] Shayeghi, H. Shayanfar, H.A. Jalilzade, S. Safari,A. A PSO based Unified Power
Flow Controller for Damping of Power System Oscillations. Energy Conversion and
Management. 50(10), 2583-2592 (2009)
[85] Hamaizia, T., Lozi, R. :Improving Chaotic Optimization Algorithm using a new
global locally averaged [Link] ENPACS. (2011)
[86] Hamaizia, T. Lozi, R. Improving Chaotic Optimization Algorithm using a new
global locally averaged [Link] ENPACS. (2011)
[87] Wolpert, D.H. Macready, W.G. The No Free Lunch Theorems for Optimization.
IEEE Transactions on Evolutionary Computation, 1(1), 67-82 (1997).
Résumé : Le chaos, phénomène typique des systèmes non linéaires, est aujourd’hui
très largement étudié, en raison de ses propriétés et des nombreuses applications poten-
tielles. En effet, on peut observer du chaos dans de nombreux phénomènes physiques,
chimiques, météorologiques, démographiques ou économiques et ses caractéristiques
"font qu’on peut envisager de l’utiliser à des fins applicatives". Ces dernières années,
les intérêts de plus en plus de l’ingénierie ont stimulé les études de contrôle du chaos,
le chaos synchronisation, et l’optimisation du chaos.
Le Chaos est une sorte des caractéristiques des systèmes non linéaires, qui est un
comportement dynamique instable borné que "les expositions" sensibles dépendance
aux conditions initiales et comprend une infinité de mouvements périodiques instables.
Bien qu’il semble être aléatoire, il se produit dans un système déterministe non-linéaire
dans des conditions déterministes.
La combinaison de méthodes d’optimisation et les fondements des systèmes chaotiques
est une question importante dans les sciences nonlinéaires, a attiré les intérêts de
divers domaines ces dernières années et a reçu beaucoup d’attention dans la littérature.
L’optimisation Chaotique est un nouveau algorithme d’optimisation stochastique,
qui utilise directement les variables chaotiques pour rechercher la solution optimale.
La sensibilité aux conditions initiales et la propriété stochastiques du chaos font
l’optimisation chaotique pour mieux obtenir la solution optimale globale que d’autres
méthodes ayant été adoptée avant. Il peut facilement s’échapper de minima locaux que
les autres algorithmes stochastiques. Pour cette these, nous cherchons des contributions
originales sur tous les aspects liés aux méthodes d’optimisation avec l’utilisation de
concepts de séries temporelles chaotiques, les attracteurs, les exposants de Lyapunov.
Ces algorithmes permettent de trouver avec certitude un proche voisinage l’optimum
global.