Optimisation Multiobjectif en Informatique
Optimisation Multiobjectif en Informatique
spécialité : Informatique
par
Alain Berro
Optimisation multiobjectif et
stratégies d'évolution
en environnement dynamique
Jury composé de :
Université des Sciences Sociales Toulouse I, 1 place Anatole France 31042 Toulouse Cedex
Remerciements
Merci à tous.
- Page 2 -
Table des matières
Remerciements 2
Introduction 9
- Page 3 -
2.5.1 Théorie................................................................................................................................... 32
[Link] Axiome fondamental........................................................................................................ 32
[Link] Les modèles additif et multiplicatif ................................................................................. 33
[Link] Difficultés issues de ces modèles..................................................................................... 33
2.5.2 Les techniques ....................................................................................................................... 34
[Link] La moyenne pondérée...................................................................................................... 34
[Link] Goal programming........................................................................................................... 36
[Link] Le min-max...................................................................................................................... 36
[Link] Goal attainment................................................................................................................ 37
[Link] La méthode ε-contrainte .................................................................................................. 38
2.6 Les méthodes non agrégées, non Pareto......................................................................................... 38
2.6.1 Théorie................................................................................................................................... 38
2.6.2 Les techniques ....................................................................................................................... 38
[Link] Vector Evaluated Genetic Algorithm (VEGA) ................................................................ 38
[Link] Utilisation des genres....................................................................................................... 40
[Link] La méthode lexicographique............................................................................................ 41
[Link] A Non Generational Genetic Algorithm .......................................................................... 42
[Link] Une méthode élitiste ........................................................................................................ 45
2.7 Les méthodes Pareto....................................................................................................................... 46
2.7.1 Théorie................................................................................................................................... 46
[Link] Optimum de Pareto .......................................................................................................... 46
[Link] La notion de dominance................................................................................................... 46
[Link] La frontière de Pareto ...................................................................................................... 47
[Link] La notion de domination-contrainte................................................................................. 48
2.7.2 Les techniques non élitistes ................................................................................................... 49
[Link] Multiple Objective Genetic Algorithm (MOGA) ............................................................ 49
[Link] Non dominated Sorting Genetic Algorithm (NSGA)....................................................... 50
[Link] Niched Pareto Genetic Algorithm (NPGA) ..................................................................... 52
2.7.3 Les techniques élitistes .......................................................................................................... 53
[Link] Strength Pareto Evolutionary Algorithm (SPEA) ............................................................ 54
[Link] Pareto Archived Evolution Strategy (PAES) ................................................................... 56
[Link] Pareto Envelope based Selection Algorithm (PESA) ...................................................... 58
[Link] NSGA II........................................................................................................................... 60
[Link] PESA II : Region-Based Selection .................................................................................. 63
[Link] Micro-Genetic Algorithm (micro-GA) ............................................................................ 64
[Link] Memetic-PAES ................................................................................................................ 65
2.8 Conclusion sur les méthodes d'optimisation multiobjectifs ........................................................... 67
2.8.1 Difficultés des méthodes d'optimisation multiobjectifs ......................................................... 67
[Link] Guider le processus de recherche vers la frontière de Pareto........................................... 67
[Link] Maintenir la diversité sur la frontière de Pareto............................................................... 68
2.8.2 La mise en œuvre................................................................................................................... 69
[Link] Le paramétrage ................................................................................................................ 69
[Link] La définition d'un critère d'arrêt....................................................................................... 69
2.9 Les problèmes de test ..................................................................................................................... 72
- Page 4 -
[Link] Crowding ......................................................................................................................... 79
[Link] Age des individus ............................................................................................................ 80
3.5.3 Discussion.............................................................................................................................. 81
3.6 Les méthodes à mémoire................................................................................................................ 81
3.6.1 Heuristique ............................................................................................................................ 81
3.6.2 Les techniques ....................................................................................................................... 82
[Link] La diploïdie...................................................................................................................... 82
[Link] Représentation multiniveau des gènes ............................................................................. 82
[Link] Méthode par expérience................................................................................................... 82
[Link] Thermodynamical Genetic Algorithm (TDGA)............................................................... 84
3.6.3 Discussion.............................................................................................................................. 84
3.7 Approche par multipopulation........................................................................................................ 85
3.7.1 Heuristique ............................................................................................................................ 85
3.7.2 Multinational evolutionary algorithm.................................................................................... 85
3.8 Conclusion sur les méthodes d'optimisation en environnement dynamique .................................. 87
- Page 5 -
6.4.3 Résultats .............................................................................................................................. 126
6.5 Conclusion ................................................................................................................................... 127
Bibliographie 150
- Page 6 -
Liste des figures
- Page 7 -
Figure 47 : Détection des autres agents dans le voisinage............................................................................. 113
Figure 48 : Résultats pour le problème de Viennet 1 .................................................................................... 114
Figure 49 : Choix du décideur ....................................................................................................................... 114
Figure 50 : Résultat pour le problème de Viennet 2 ...................................................................................... 115
Figure 51 : Zones Pareto-optimales locale et globale.................................................................................... 116
Figure 52 : Le gène représentant une succursale ........................................................................................... 124
Figure 53 : Chromosome représentant une entreprise ................................................................................... 125
Figure 54 : Résultats des simulations ............................................................................................................ 127
Figure 55 : Matrice des demandes................................................................................................................. 131
Figure 56 : Matrice des gains ........................................................................................................................ 131
Figure 57 : Matrice des paiements................................................................................................................. 140
Figure 58 : Découpage de l'espace de demandes........................................................................................... 141
Figure 59 : Caractères génétiques d'un individu............................................................................................ 141
Figure 60 : Passage d'une génération i à i+1 ................................................................................................. 164
Figure 61 : Schéma de la roulette pipée ........................................................................................................ 166
Figure 62 : Croisement avec un point de coupe ............................................................................................ 167
Figure 63 : Croisement avec deux points de coupe ....................................................................................... 167
- Page 8 -
_____________________________________________________________________________ Introduction
Introduction
Ces travaux de recherches s'inscrivent dans un projet regroupant des chercheurs de l’Institut de
Recherche en Informatique de Toulouse (IRIT) et du Laboratoire d’Etudes et de Recherche sur
l’Economie, les Politiques et les Systèmes sociaux (LEREPS). Le projet initial est de réaliser une
plate-forme de simulation économique et de poser les bases de modèles génériques d'agents
économiques. Ces modèles seront basés sur des techniques évolutionnaires issues de la vie
artificielle. Le choix de ces techniques peut être apprécié en fonction de différents points de vue.
Les modèles économiques sont très souvent construits sur des hypothèses fortes qui limitent la
plausibilité et l'utilité du modèle pour expliquer les phénomènes observés dans le monde réel. Par
exemple, il est peu probable que tous les agents économiques suivent les mêmes principes de
comportement. En général, un agent obéit à des règles propres, forgées par son histoire, son
éducation et son apprentissage de l'environnement. Il est donc impossible d'identifier tous les
stimuli externes d'un agent et les réponses à ceux-ci, comme il est également très difficile de
modéliser l'ensemble des relations stimulus/réponse. La forte interaction entre agents d'un même
système et la grande incertitude sur les relations de ce système empêchent une analyse totale. En
économie comme dans de nombreux domaines scientifiques, l'analyse systémique est souvent
découpée en deux axes : un axe global et un axe local. La macroéconomie explique le
fonctionnement global d'une économie et la microéconomie explique son fonctionnement local. La
macroéconomie se libère des contraintes de chaque acteur en agrégeant ou moyennant les
comportements et explique l'économie par des faits généraux, des ratios... La microéconomie
enferme l'acteur dans un monde restreint, sans surprise, et explique son comportement de manière
systématique. L’acteur est assimilé à un automate piloté par des règles. Les techniques issues de la
vie artificielle se détachent de ce découpage en essayant, à partir d'une modélisation simple des
acteurs, de retrouver les modèles globaux connus, d’analyser et de comprendre l'émergence de
nouveaux comportements individuels ou collectifs.
- Page 9 -
_____________________________________________________________________________ Introduction
Actuellement, la naissance d'apprentis sorciers maîtrisant les techniques génétiques peut être
dangereuse car si nous brisons le cercle vertueux (hasard, diversité, vie) nous risquons de
condamner notre espèce. La maîtrise du hasard peut réduire la diversité et entraîner un déclin des
espèces vivantes. Ce cycle est donc essentiel à tous systèmes vivants. Pour fonctionner, l'économie
a également besoin de cette diversité, et la modélisation à l’aide de techniques évolutionnaires
apporte tous les concepts et les outils pour introduire et maintenir la diversité dans un tel système.
Si la diversité est source de vie, elle est également source de difficultés pour la conception de
modèles. En économie, la multiplicité des acteurs de par leur nombre, leur forme et leur
comportement rend un problème apparemment simple très difficile à modéliser car chaque fois que
l’on relâche une contrainte cela pose de nouvelles questions et remet en cause certaines hypothèses.
En plus de cette diversité, la forte interaction entre les différents types d'acteurs rend la science
économique difficile à modéliser par des techniques mathématiques.
Outre la diversité des acteurs et la forte interaction d’un système économique, d'autres facteurs
rendent l'analyse, la modélisation et la simulation très délicates :
• Le temps : peu d'activité économique sont régies par des lois à la temporalité bien établie.
Il existe une synchronisation dans les transactions mais pas dans les décisions. L’échelle
de temps n’est pas la même pour un acheteur et pour une entreprise. Ce concept est
d'autant plus délicat que les simulations sur ordinateur sont décrites à l'aide d'un
algorithme1.
• Rationalité limitée : cette notion est en partie une conséquence des deux précédentes. La
rationalité limitée est induite par un espace qu’un seul individu ne peut connaître et une
capacité de mémorisation finie dans le temps. La capacité informationnelle d’un individu
ou d’un groupe est inévitablement limitée par leur capacité à traiter, mémoriser et utiliser
l'information disponible.
1
Méthode de résolution d'un problème utilisant un nombre fini de règles exécutées en séquence.
2
Célèbre effet papillon du météorologue Edward Lorenz.
- Page 10 -
_____________________________________________________________________________ Introduction
Ces dernières années ont vu l'émergence de techniques de vie artificielle imitant les processus
naturels de l'évolution pour résoudre des problèmes complexes. Ces méthodes d'optimisation ou
d’apprentissage permettent de résoudre des problèmes auxquels les méthodes classiques
n'apportent pas de réponses satisfaisantes. Ces algorithmes dits évolutionnaires regroupent
notamment les algorithmes génétiques [Holland 1975, Goldberg 1989], la programmation
génétique [Koza 1992], les systèmes de classifieurs [Goldberg 1989] et les stratégies d’évolution
[Rechenberg 1973]. L’application de ces procédés à la modélisation et la simulation d’acteurs
économiques permet d’envisager de nouvelles formes de modélisation de comportements collectifs
et individuels dans un environnement dynamique.
Dans mes travaux de recherche, je me suis intéressé plus particulièrement aux problèmes
d'optimisation multiobjectifs et/ou en environnement dynamique. Plusieurs raisons ont motivé ce
choix :
Tout d'abord, le champ d'application qui me passionne, l'économie, ne connaît pratiquement pas de
problèmes à objectif unique et en environnement stable. L'économie est probablement le champ
d'application le plus riche en problèmes multiobjectifs et/ou dynamiques.
L'autre raison principale est que ces deux domaines, l'optimisation multiobjectif et l'optimisation en
environnement dynamique, sont actuellement en pleine progression. Même si les méthodes de
résolution de problèmes multiobjectifs ne sont pas un sujet récent, celui-ci vit un renouveau depuis
quatre ou cinq ans. Pour preuve, les publications sur ce sujet sont très abondantes actuellement et
de nombreux domaines scientifiques tentent d’appliquer ces méthodes à leurs problèmes
spécifiques. On peut attribuer le regain d'intérêt pour ces techniques à l'augmentation de la
puissance des ordinateurs qui permet de simuler en temps interactif des systèmes composés de
plusieurs centaines d'acteurs. Le champ de recherche sur les problèmes en environnement
dynamique est en train de devenir un domaine à part entière qui étudie les mécanismes de suivi et
de conservation d'un optimum.
Enfin une autre raison a été de choisir un thème de recherche peu exploré au sein de notre équipe
de recherche dans le but d’apporter un nouveau point de vue pour des simulations
comportementales d'agents. Les premiers travaux de simulation à travers une approche cognitive
ont été introduits par Yves Duthen dans le projet IN VitrAM [Duthen 1993]. Cette approche s'est
ouverte aux techniques évolutionnaires pour la création de formes et de comportement en réalité
virtuelle. La thèse [Luga 1997] a présenté un état de l'art des techniques évolutionnistes et un
ensemble d'applications pour la synthèse de formes et de comportements. Les recherches
commencées dans mon DEA, effectué en 1995 au sein de l'équipe d'images de synthèse de l'IRIT,
m'ont permis de découvrir les algorithmes génétiques comme méthode d'exploration. Le sujet était
de retrouver l'équation mathématique d'un volume 3D aux courbes arrondies. Pour cela nous avons
- Page 11 -
_____________________________________________________________________________ Introduction
utilisé une équation de surfaces isopotentielles comme unité de base de notre modèle géométrique
et un algorithme génétique pour effectuer le paramétrage et le mélange de ces surfaces [Berro
1997]. Par la suite, Cedric Sanza a continué l'élargissement de ce champ de connaissance sur les
algorithmes évolutionnaires en axant ses recherches sur les mécanismes d'apprentissage à l'aide de
systèmes de classifieurs [Sanza 2001].
Après une introduction rapide sur les problèmes d'optimisation, nous présentons un état de l'art des
méthodes de résolution de problèmes multiobjectifs. Ces méthodes sont classées en trois catégories.
Après une brève introduction théorique, nous présentons les méthodes le plus usités de chaque
catégorie. Nous terminons ce chapitre en présentant une synthèse des caractéristiques principales
de ces méthodes et de leurs difficultés d'utilisation et de mise en œuvre.
Ensuite nous présentons un état de l'art des méthodes d'optimisation en environnement dynamique.
Les méthodes sont classées en fonction de leurs approches de détection et de réponse à un
changement d'environnement. Dans notre synthèse sont mises au premier plan leur capacité de
détection endogène ou exogène d'un changement et leur approche discriminante ou non
discriminante de l'espace de recherche.
Dans une deuxième partie nous développons, pour la résolution de problèmes multimodaux3 en
environnement dynamique, une méthode d'optimisation multiagent utilisant des mécanismes issus
des stratégies d'évolution. La plupart des méthodes en environnement dynamique présentées dans
l'état de l'art ont une approche non discriminante de l'espace de recherche. Dès lors, le temps de
réponse au changement de l'environnement et le risque de détruire des niches situées dans d'autres
régions de l'espace sont augmentés. Les apports originaux de notre méthode sont l'introduction de
la notion de zone d'influence et l'utilisation d'un facteur de précision pour rechercher les optima.
Ces caractéristiques procurent à notre méthode une forte capacité discriminante de l'espace de
recherche et une capacité endogène de détection du changement. Lors de la conception de cette
méthode, nous nous sommes également attachés à réduire le nombre de paramètres de réglage et à
rendre ces paramètres intelligibles pour l'utilisateur.
Nous présentons ensuite une généralisation de cette méthode à des problèmes multiobjectifs en
utilisant la notion de dominance au sens de Pareto. Nous redéfinissons la notion de zone d'influence
pour ce type de problème et nous proposons une interprétation de cette notion.
Nous terminons par la présentation des perspectives ouvertes par ces travaux et les futures
directions de recherches envisagées.
3
Un problème multimodal est un cas particulier de problème multiobjectif.
- Page 12 -
Partie I.
Les problèmes d’optimisation
- Page 13 -
___________________________________________________ Introduction sur les problèmes d'optimisation
Chapitre 1.
Introduction
Les problèmes d'optimisation occupent actuellement une place de choix dans la communauté
scientifique. Non pas qu'ils aient été un jour considérés comme secondaires mais l'évolution des
techniques informatiques a permis de dynamiser les recherches dans ce domaine.
Cette liste n'est évidemment pas exhaustive, et un problème peut être à la fois multiobjectif et
dynamique.
Dans les paragraphes suivants, nous n'aborderons que les problèmes à variables continues. Pour les
problèmes combinatoires le lecteur pourra se référer à [Ehrgott and Gandibleux 2000].
1.1 Définitions
Un problème d'optimisation est défini par un espace d'état4, une ou plusieurs fonction(s)
objectif(s)5 et un ensemble de contraintes6.
L'espace d'état est défini par l'ensemble des domaines de définition des variables du problème.
Dans la plupart des problèmes, cet espace est fini car la méthode de résolution utilisée a besoin de
travailler dans un espace restreint (Exemples : la méthode Monte-Carlo, les algorithmes
4
Syn. Espace de recherche des solutions.
5
Syn. Critère.
6
Syn. Condition.
- Page 14 -
___________________________________________________ Introduction sur les problèmes d'optimisation
génétiques). Cette limitation n'est pas problématique car lorsqu'un problème est posé, le décideur7
précise un domaine8 de valeurs envisageable à chacune des variables. De plus, pour des raisons
opératoires9 et de temps de calcul, il est préférable de travailler sur des domaines finis.
Les variables du problème peuvent être de nature diverse (réelle, entière, booléenne, etc.) et
exprimer des données qualitatives ou quantitatives. Nous ne développerons pas ce thème mais le
paragraphe [Link] montre la difficulté de mise en œuvre de certaines méthodes si les variables sont
de types différents.
Une fonction objectif représente le but à atteindre pour le décideur (minimisation de coût, de
durée, d'erreur, etc.). Elle définit un espace de solutions potentielles au problème.
L'ensemble de contraintes définit des conditions sur l’espace d’état que les variables doivent
satisfaire. Ces contraintes sont souvent des contraintes d'inégalité ou d’égalité et permettent en
général de limiter l’espace de recherche.
La séparation entre les fonctions objectifs et les contraintes peut paraître artificielle car nous
pourrions considérer qu'une contrainte est un objectif à atteindre. Mais elle se justifie de deux
manières différentes. D'une part, les contraintes sont appliquées sur l'espace de recherche alors que
les objectifs définissent l'espace des solutions. D'autre part, dans de nombreuses méthodes les
contraintes et les objectifs sont traités par des procédures différentes.
Une méthode d'optimisation recherche le point10 ou un ensemble de points de l'espace des états
possibles qui satisfait au mieux un ou plusieurs critère(s). Le résultat est appelé valeur optimale ou
optimum.
7
Le terme de décideur sera souvent utilisé pour identifier l'utilisateur d'une méthode.
8
La détermination d'un domaine vient de l'expérience du décideur ou du simple bon sens.
9
Un domaine infini de valeurs n’est pas représentable en code binaire.
- Page 15 -
___________________________________________________ Introduction sur les problèmes d'optimisation
une solution satisfaisante. Cette méthode, apparemment simpliste, est à la base d'un très grand
nombre de méthodes d'optimisation.
Il existe de nombreuses méthodes d'optimisation déterministes. Les méthodes locales qui assurent
la convergence vers l’optimum de la fonction le plus proche de la solution courante en explorant
son voisinage et les méthodes globales qui s’attachent à faire converger la solution vers l’optimum
global de la fonction.
Nous allons présenter les méthodes de gradient, la méthode multistart et brièvement la méthode du
simplexe qui sont des méthodes de recherche locale. D’une manière générale ces méthodes
obéissent à l’algorithme suivant :
c) Si f(j) est meilleur que f(i) alors j devient la solution courante puis retour en b)
Ensuite nous présentons les méthodes de recherche globale que sont la méthode de séparation -
évaluation (branch and bound) et la méthode de tunneling. Les méthodes homotopiques,
l'algorithme A* et la programmation linéaire qui sont également des méthodes d'optimisation
globale ne seront pas présentés.
10
Dans le cadre de problèmes d’aide à la décision, un point est appelé action et un optimum est une action efficace.
11
Syn. Méthodique.
- Page 16 -
___________________________________________________ Introduction sur les problèmes d'optimisation
On choisit un point de départ x0 et on calcule le gradient ∇f(x0) en x0. Comme le gradient indique la
direction de plus grande augmentation de f, on se déplace d'une quantité λ0 dans le sens opposé au
gradient et on définit le point x1 :
∇f(x0)
x1 = x0 - λ0 1)
∇f(x0)
Cette procédure est répétée et engendre les points x0, x1, …, xk. Ainsi, pas à pas, la distance entre le
point d'indice k et l'optimum diminue.
∇f(xk )
xk+1 = xk - λk où ∀k, λk > 0 2)
∇f(xk )
Actuellement, la méthode la plus usitée de cette famille est la méthode de la plus forte pente. Elle
permet de se libérer du choix d'un λk mais elle introduit un critère d'arrêt. Le but de cette méthode
est de minimiser la fonction de λ :
b) A l'itération k : dk = -∇f(xk).
xk+1 = xk + λ[Link].
L'algorithme de la plus forte pente est à la base de l'algorithme de Hill-Climbing appelé également
algorithme de descente de gradient.
12
Pour plus de détails, on se reportera au paragraphe 3 chapitre 4 de [Minoux 1983].
- Page 17 -
___________________________________________________ Introduction sur les problèmes d'optimisation
Difficultés
Le défaut majeur de cette méthode est que la convergence peut être ralentie dans certains types de
fonctions.
• Si la fonction présente des zones raides, la recherche va être fortement influencée par ces
pentes plus que par la progression vers le sommet.
Difficultés
Les méthodes multistart sont efficaces dans de nombreux problèmes et sont simples à mettre en
œuvre. L'inconvénient principal est le choix du maillage de l'espace de recherche qui doit être
13
Une fonction f : Rn → R est convexe si elle vérifie ∀x, y ∈ Rn et ∀a ∈ [0, 1], f(a.x + (1-a).y) ≤ a.f(x) + (1-a).f(y).
14
Le terme de vallée est utilisée car nous considérons que nous sommes dans un problème de minimisation. Si nous
étions dans un problème de maximisation, nous utiliserions le terme de pic.
15
Une technique de création de clusters dans le cadre de problèmes multiobjectifs est présentée en annexe.
- Page 18 -
___________________________________________________ Introduction sur les problèmes d'optimisation
suffisamment précis pour être efficace, sinon la convergence vers l'optimum global ne peut pas être
assurée. L'alternative pour s'exempter du maillage est de générer les points de manière aléatoire.
Les méthodes utilisant cette technique sont nommées méthodes random multistart.
Critique
L'inconvénient majeur des deux types de méthodes présentés ci-dessus est leur hypothèse de
dérivabilité qui les rend inaptes à traiter beaucoup de problèmes réels. De plus, leur déplacement
déterministe dans l'espace d'état engendre des temps de calcul très importants dans certaines
conditions :
Cette méthode locale effectue une recherche multidirectionnelle dans l'espace d'état [Nelder and
Mead 1965]. Soit une fonction f à minimiser, on appelle simplexe de Rn tout ensemble (x0, x1, …,
xn) de points de R tel que f(x0) ≥ f(xi) ∀ i ∈ [1..n]. x0 est donc le meilleur élément.
Après la construction d'un simplexe initial, l'algorithme va modifier celui-ci en appliquant des
calculs de réflexions, expansions et contractions jusqu'à la validation d'un critère d'arrêt.
Critique
16
Inférieure dans le cas d'une minimisation, supérieure dans le cas d'une maximisation.
- Page 19 -
___________________________________________________ Introduction sur les problèmes d'optimisation
l’algorithme à explorer tout l’espace de recherche. L’utilisation de cette méthode reste limitée à des
espaces de petites dimensions.
Cette méthode est essentiellement utilisée sur des problèmes discrets. Couplée avec une méthode
d’analyse d’intervalle [Messine 1997] elle peut être également utilisée dans le cadre de problèmes
continus avec l’avantage de ne pas exiger la continuité de la fonction et d’éviter que la propagation
d'erreurs numériques empêche la validation d’une solution.
Si on se place dans le cas d'une fonction f à minimiser, la première phase peut utiliser une méthode
de gradient pour trouver le minimum local f* = f(x*).
La deuxième phase consiste à trouver un point x dans une autre vallée à l'aide d'une fonction T de
tunneling du type : T(x) = f(x) - f* ≤ 0
f(x)
min
min
tunnel
tunnel
x1 x2 x3 x
Critique
[Link] Conclusion
Les méthodes déterministes vues ci-dessus sont très efficaces sur des problèmes particuliers et en
général de petite taille. Mais sur des problèmes de grande taille, la probabilité de trouver l'optimum
global en un temps raisonnable dépend essentiellement de la bonne connaissance du problème par
le décideur. Ainsi, ce dernier pourra choisir avec précision la bonne méthode et les bons
paramètres.
Si les conditions exposées ci-dessus ne sont pas réunies, le décideur devra plutôt s'orienter vers des
méthodes stochastiques.
- Page 20 -
___________________________________________________ Introduction sur les problèmes d'optimisation
Ces méthodes sont utilisées dans des problèmes où on ne connaît pas d'algorithme de résolution en
temps polynomial et pour lesquels on espère trouver une solution approchée de l'optimum global.
Dans la pratique, les méthodes stochastiques qui connaissent le plus de succès sont : la méthode
Monte Carlo, le recuit simulé, les algorithmes évolutionnaires, le branch and bound stochastique et
la méthode tabou. Leurs atouts principaux sont les suivants :
• facilité d'implantation,
D'un point de vue théorique, il existe des théorèmes de convergence pour les algorithmes
génétiques [Goldberg 1989, Raphaël Cerf 1994] et pour le recuit simulé [Hajek 1988] qui justifient
l’usage de ces méthodes. En général, il est établi que l'on a une probabilité très élevée de trouver
une solution optimale, si un temps de calcul très important est alloué.
Algorithme
a) On génère un point initial x dans l'espace d'état, considéré comme solution courante.
17
La création des points est aléatoire mais en la conditionnant dans un intervalle de valeurs, la création devient guidée.
- Page 21 -
___________________________________________________ Introduction sur les problèmes d'optimisation
grande énergie et peut effectuer de grands déplacements aléatoires dans la matière. Au fur à mesure
que la température est abaissée, chaque particule perd de l'énergie et sa capacité de déplacement se
réduit. Les différents états transitoires de refroidissement permettent d'obtenir des matériaux très
homogènes et de bonne qualité.
Algorithme
a) A partir d'un point initial x0, on effectue un déplacement aléatoire (changement d’état).
b) Si le déplacement mène à x1 tel que f(x1) < f(x0) alors x1 est accepté.
Au début de la simulation, les points ont une grande capacité d'exploration de l'espace d'état car
l'algorithme accepte des déplacements très importants. De nombreux points n'améliorant pas leur
valeur dans f sont acceptés car la probabilité p est grande. Au fur et à mesure que T diminue (p
augmente), la capacité de déplacement d'un point diminue et les points améliorant leur valeur sont
de plus en plus nombreux. Quand T → 0, seuls les points améliorant leur valeur sont acceptés.
Schéma de fonctionnement
Supposons une bille qui glisse le long d'une surface. Si cette dernière est convexe la bille va
atteindre le point minimal de la surface après plusieurs oscillations.
Si cette surface n'est pas convexe, c'est-à-dire si elle possède au moins un optimum local, la bille
risque de se bloquer dans un optimum (Figure ci-dessous) si son énergie de départ n'est pas assez
importante. Avec une énergie initiale importante, la bille pourra éviter le piège.
- Page 22 -
___________________________________________________ Introduction sur les problèmes d'optimisation
Le fait de partir d'un niveau de température élevée donne à l'algorithme une bonne capacité
d'exploration et un refroidissement assez lent évite que la recherche s'arrête sur un minimum local.
• Un processus de création aléatoire d'un individu. Cette caractéristique offre une capacité
exploratoire importante à la méthode.
Les algorithmes génétiques [Holland 1975, Goldberg 1989] sont inspirés des mécanismes de
l'évolution naturelle. Une description est présentée en annexe (p. 162).
La programmation génétique est une extension des algorithmes génétiques dans laquelle les
individus sont des programmes. Le génotype d'un individu est constitué d'un alphabet et se présente
sous forme arborescente [Koza 1992].
Les systèmes de classifieurs sont des mécanismes d'apprentissage basés sur un ensemble de règles
condition/action. Chaque règle est notée en fonction du résultat de l'action produite et un
algorithme génétique est utilisé pour générer de nouvelles règles [Goldberg 1989].
- Page 23 -
___________________________________________________ Introduction sur les problèmes d'optimisation
Les stratégies d'évolution [Rechenberg 1973] sont des algorithmes itératifs dans lesquels un
parent génère un enfant (1+1)-ES. Le meilleur des deux survit et devient le parent de la génération
suivante. La généralisation de ce processus a donné les algorithmes (µ+λ)-ES dans lesquels µ
parents génèrent λ enfants. Les µ meilleurs survivent.
Avantages
• Elles sont flexibles par rapport aux nouvelles contraintes et nouveaux critères à prendre
en compte.
Inconvénients
• Elles n'offrent aucune garantie de trouver l'optimum en un temps fini. Mais cela est vrai
pour toutes les méthodes d'optimisation globales.
• Le réglage des paramètres est largement inspiré du essai/erreur sauf pour les stratégies
d'évolution qui sont auto-adaptatives.
L'élément fondamental de la méthode tabou est l'utilisation d'une mémoire dynamique dite liste
tabou qui permet d'enregistrer les informations pertinentes des étapes de recherche précédentes.
Cette liste empêche le blocage de la recherche sur un optimum local en interdisant à plus ou moins
court terme de revenir sur des solutions précédemment visitées de l'espace d'état, solutions dites
taboues. La durée de cette interdiction dépend d'un paramètre k appelé teneur tabou. Ce dernier est
- Page 24 -
___________________________________________________ Introduction sur les problèmes d'optimisation
difficile à déterminer18 car il est très dépendant de la nature du problème. Si la valeur est faible la
méthode risque de se bloquer sur un optimum local alors qu'une valeur élevée diminuera la capacité
de la méthode à exploiter le voisinage de la solution courante.
La méthode Tabou est souvent utilisée avec des techniques dites d'intensification et de
diversification. L'intensification est fondée sur l'enregistrement des propriétés des situations a priori
de bonne qualité afin de les exploiter ultérieurement. La diversification cherche à diriger
l'algorithme vers des régions de l'espace de recherche non encore explorées.
La capacité d'exploration est l'aptitude d'une méthode à explorer avec efficacité l'espace d'état.
Cette aptitude a tendance à ralentir la convergence.
Lors de la conception d'une méthode d'optimisation, le chercheur doit choisir entre maintien de la
diversité et convergence alors que le décideur doit choisir entre efficacité et efficience d'une
méthode.
Une méthode efficace fournira un résultat optimal ou proche de l'optimum. Dans ce cas, le temps
de calcul n'a aucune importance. Pour assurer un résultat optimal, ces méthodes sont obligées
d'effectuer une recherche exploratoire très importante de façon à ne laisser aucune partie de
l'espace des états non visitée. Ces méthodes optent pour un maintien de la diversité dans le temps.
Or, si l'on fait l'hypothèse d'une population de taille fixe, ce maintien entraîne un ralentissement de
la convergence.
Une méthode efficiente est une méthode capable de donner un résultat satisfaisant en un temps de
calcul relativement court19. Dans ce genre de méthode, le décideur privilégie le temps de calcul à la
précision du résultat. La conception de ces méthodes est basée sur une capacité d'exploitation
importante des résultats précédents. Ainsi, le processus de convergence est accéléré au risque de
voir la méthode trompée et dirigée dans une zone de l'espace non optimale. Cette réutilisation
systématiquement des caractères des générations passées entraîne une perte rapide de diversité.
L'adaptation des individus n'a pas le temps de devenir optimale.
Les méthodes Monte Carlo ont une bonne capacité d'exploration mais une mauvaise capacité
d'exploitation. Dans les méthodes de gradient ou multistart, l'exploitation des résultats précédents
est efficace mais leur capacité d'exploration est limitée. Les méthodes de recuit simulé et les
18
Peut être fixé de façon statique ou dynamique.
- Page 25 -
___________________________________________________ Introduction sur les problèmes d'optimisation
algorithmes génétiques offrent pour certains types de problèmes un bon compromis entre
exploration et exploitation qui dépend du choix judicieux des paramètres de réglages.
Après cette introduction synthétique sur les problèmes d'optimisation, nous allons nous intéresser
plus particulièrement aux problèmes d'optimisation multiobjectifs.
19
La durée du calcul est à apprécier au regard du type de problème traité.
- Page 26 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Chapitre 2.
Les problèmes d’optimisation
multiobjectifs
2.1 Introduction
Dans ce chapitre, nous présentons tout d'abord un ensemble de définitions liées aux problèmes
d'optimisation multiobjectif. Ensuite, nous exposons la problématique issue de ces problèmes et les
deux types de classification des méthodes de résolution. Pour terminer, nous présentons un large
éventail de ces méthodes en essayant d'apporter un regard critique sur chacune d'elles.
2.2 Définitions
Par la suite, nous allons voir que les problèmes d'optimisation ont en général plusieurs solutions car
la définition d'un optimum ne peut pas être établie dans les problèmes multiobjectifs.
Définition
- Page 27 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Un problème d'optimisation recherche l'action x* telle que les contraintes gi(x*) soient satisfaites
pour i = 1, ..., m et qui optimise la fonction f : f(x*) = (f1(x*), f2(x*), …, fk(x*))
L'union des domaines de définition de chaque variable et les contraintes définies en 5) forment un
ensemble E que nous appelons l'ensemble des actions réalisables.
x2 f2
f : (f1,f2)
F
E
x1 f1
Figure 4 : Définition de E, F et f.
x0 = (x10, …, xn0) 7)
La condition nécessaire et suffisante pour que ce vecteur idéal soit atteint est que les fonctions
objectifs soient indépendantes. Si cette condition est réalisée alors la résolution du problème
multiobjectif est transformée en une résolution de plusieurs problèmes uniobjectifs.
20
Contraintes d’égalité ou d’inégalité.
21
Dans le cas de fonction f de maximisation, il suffit de minimiser – f.
- Page 28 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
2.2.3 Convexité
L'ensemble F est dit convexe si tout segment joignant deux points quelconques de F est inclus dans
F.
2.3 Problématique
La difficulté principale d'un problème multiobjectif est qu'il n'existe pas de définition de la solution
optimale. Le décideur peut simplement exprimer le fait qu'une solution est préférable à une autre
mais il n'existe pas une solution meilleure que toutes les autres.
Dès lors résoudre un problème multiobjectif ne consiste pas à rechercher la solution optimale mais
l'ensemble des solutions satisfaisantes pour lesquelles on ne pourra pas effectuer une opération de
classement. Les méthodes de résolution de problèmes multiobjectifs sont donc des méthodes d'aide
à la décision car le choix final sera laissé au décideur.
La principale qualité d'un solveur multiobjectif est donc de rendre les décisions plus faciles et
moins subjectives en proposant un sous-ensemble représentatif de F.
- Page 29 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Détermination
du poids de
Problème chaque
Multiobjectif objectif
Préférences Problème
minimiser f1 du décideur simple
... objectif
minimiser fn
?
Solveur Solveur
Multiobjectif Simple
Objectif
Supposons que l'on souhaite minimiser deux fonctions. La figure ci-dessous présente l'espace des
objectifs réalisables.
f2 min
A
Espace des
objectifs
w2 réalisables
B
w1
f1 min
Figure 7 : Problématique
Si le décideur opte pour une méthode agrégée avec w1 et w2 comme poids des objectifs alors le
solveur simple objectif va faire converger la solution vers les solutions A ou C. Or toutes les
solutions sur la portion de courbe entre A et C peuvent également satisfaire le décideur.
- Page 30 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
L'utilisation d'un solveur multiobjectif permet d'obtenir un ensemble de points situés entre A et C
donnant ainsi au décideur une plus vaste gamme d'actions.
2.4 Classification
Dans les différentes publications, nous rencontrons deux classifications différentes des méthodes de
résolution de problèmes multiobjectifs. Le premier classement adopte un point de vue utilisateur22,
les méthodes sont classées en fonction de l'usage que l'on désire en faire. Le deuxième classement
est plus théorique, plus conceptuel, les méthodes sont triées en fonction de leur façon de traiter les
fonctions objectifs.
2.4.1 Utilisateur
Cette classification est essentiellement utilisée en recherche opérationnelle. Les décisions étant
considérées comme un compromis entre les objectifs et les choix spécifiques du décideur
(contraintes de coût, de temps, etc.), un décideur choisit une méthode en fonction de l'aide qu'elle
va lui apporter.
Les solutions les plus intuitives pour résoudre des problèmes multiobjectifs consistent souvent à
combiner les différentes fonctions objectifs en une fonction d'utilité suivant les préférences du
décideur. Dans ce cas le décideur est supposé connaître a priori le poids de chaque objectif afin de
les mélanger dans une fonction unique. Cela revient à résoudre un problème simple objectif.
Cependant dans la plupart des cas, le décideur ne peut pas exprimer clairement sa fonction d'utilité,
soit par manque d'expérience ou d'informations, soit parce que les différents objectifs sont non
commensurables23.
Le décideur prend sa décision d'après un ensemble de solutions calculées par un solveur. Dans ce
cas la qualité de la décision dépend du choix de la méthode de résolution. Car celle-ci va devoir
donner un ensemble de résultats le plus représentatif de l'espace des objectifs efficaces.
Dans ces méthodes, les processus de décision et d'optimisation sont alternés. Par moment, le
décideur intervient de manière à modifier certaines variables ou contraintes afin de diriger le
processus d'optimisation. Le décideur modifie ainsi interactivement le compromis entre ses
22
Syn. Décideur.
23
Des objectifs sont non commensurables s'ils sont exprimés dans des unités différentes.
- Page 31 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
2.4.2 Concepteur
Ce classement adopte un point de vue plus théorique articulé autour des notions d'agrégation et
d'optimum de Pareto. Ces notions sont développées dans les sections suivantes car nous adoptons
cette classification pour présenter les différentes méthodes.
Ces méthodes sont fondées sur la notion de dominance au sens de Pareto26 qui privilégie une
recherche satisfaisant au mieux tous les objectifs.
Certaines méthodes n'utilisent aucun des deux concepts précédents. Alors que l'agrégation ou
l'utilisation de la dominance de Pareto traitent les objectifs simultanément, en général, les méthodes
dites non agrégées et non Pareto possèdent un processus de recherche qui traite séparément les
objectifs.
2.5.1 Théorie
[Link] Axiome fondamental
L'ensemble de ces méthodes repose sur l'axiome suivant : tout décideur essaye inconsciemment de
maximiser une fonction d'utilité U.
24
La relation de dominance est essentiellement utilisée dans les méthodes a posteriori. Une définition est donnée au
paragraphe [Link].
25
Terme utilisé pour identifier les méthodes d'agrégation.
26
Cette notion est définie au paragraphe 2.7.1.
- Page 32 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
k
U= ∑U (f )
i =1
i i 9)
et le modèle multiplicatif
∏U (f )
i =1
i k 10)
27
Exprimés dans la même unité.
- Page 33 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
grenouille et le steak tartare) ne sont pas préférentiellement indépendants du dernier (note pour les
palourdes), car en fonction de la valeur de celui-ci les préférences sont inversées.
k
min ∑w f (x) avec w ≥ 0
i =1
i i i 11)
k
wi représente le poids affecté au critère i et ∑w = 1
i =1
i
Critique
Cette méthode est simple à mettre en œuvre et elle est d'une grande efficacité.
Une solution au 1) est d'utiliser une combinaison linéaire des objectifs et de faire varier les poids de
façon à constater l'influence de tel ou tel objectif sur le résultat. Cette approche est facile à
implémenter mais tous les résultats obtenus appartiennent à des zones convexes de l'espace des
objectifs réalisables (Figure 7). Les solutions potentielles situées dans des portions concaves sont
oubliées.
Le deuxième problème est plus délicat à résoudre car il existe plusieurs types d'interaction entre
deux critères i et j qui sont difficiles à exprimer à l'aide d'une somme pondérée :
• La dépendance préférentielle.
- Page 34 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Dans [Marichal 1999a], l'auteur propose une axiomatique basée sur l'intégrale de Choquet
[Choquet 1953] qui permet de prendre en compte les différentes interactions ci-dessus. Il a
également proposé une méthode permettant de déterminer l'ensemble des poids d'interaction entre
critères, et étendu ses travaux [Marichal 1999b, Marichal 2000] à l'agrégation de critères qualitatifs
par utilisation de l'intégrale de Sugeno [Sugeno 1974].
Considérons trois actions a, b et c évaluées en fonction d'un critère "coût" de poids 4/5 et
d'un critère "quantité de déchets" de poids 1/5. Sachant que les déchets sont exprimés en
tonne dans la colonne de gauche et en kilogramme dans celle de droite, on constate que ce
changement d'échelle provoque une inversion des rangs des actions.
La compensation entre les différents critères. Une valeur basse d'un critère peut être compensée
par les valeurs des autres critères. Cela peut entraîner le décideur à faire le mauvais choix.
Exemple :
Pour éviter ce genre de situation, la somme pondérée des résultats est souvent renforcée par
des contraintes de seuil.
- Page 35 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
k
min ∑ f (x)−T
i =1
i i avec x ∈ F 12)
Différentes variantes et applications de cette technique ont été proposées [Ignizio 1981, Van
Veldhuizen 1999].
Critique
Nous pouvons reprendre la critique faite pour la somme pondérée. La méthode est facile à mettre
en œuvre mais la définition des poids et des objectifs à atteindre est une question délicate qui
détermine l'efficacité de la méthode.
Cette méthode a l’avantage de fournir un résultat même si un mauvais choix initial a conduit le
décideur a donné un ou plusieurs but(s) Ti non réalisable(s).
[Link] Le min-max
Cette méthode est assez proche de la précédente. Elle minimise le maximum de l'écart relatif entre
un objectif et son but associé par le décideur.
f (x)−Ti
min maxi i avec i = 1, …, k 13)
Ti
Dans [Coello 1995], l'auteur présente précisément plusieurs variantes de la méthode min-max ainsi
que diverses applications de celles-ci.
- Page 36 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Ti + α.wi ≥ fi(x)
k
avec ∑w =1
i =0
i
f2 min
A
A_T2
Espace des
objectifs
Opt réalisables
w2
w1
B_T2
B
B_T1 A_T1
f1 min
Les objectifs Ti représentent le point de départ de la recherche dans l'espace et les poids wi
indiquent la direction de recherche dans l'espace. Dans la figure ci-dessus, A et B représentent deux
buts à atteindre auxquels est associé le même couple de poids pour les deux fonctions objectifs. On
remarque que si α est négatif, cela indique que le but peut être atteint alors que si α est positif le
but ne pourra pas être atteint.
Critique
Contrairement à la somme pondérée, cette méthode peut générer des solutions sur la frontière de
Pareto28 en faisant varier les valeurs des wi, même dans le cas d'une surface concave [Chen and Liu
1994].
28
Cette notion est introduite au paragraphe [Link] page 47.
- Page 37 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
fj(x) ≤ εj, ∀ j ≠ i
De cette manière, un problème simple objectif sous contraintes peut être résolu. Le décideur peut
ensuite réitérer ce processus sur un objectif différent jusqu’à ce qu’il trouve une solution
satisfaisante. Cette méthode a été testée avec un algorithme génétique dans [Ritzel 1994] avec
différentes valeurs de εj pour générer différentes valeurs Pareto-optimales.
Critique
La connaissance a priori des intervalles appropriés pour les valeurs de εj est exigée pour tous les
objectifs.
2.6.1 Théorie
En général, les méthodes dites non agrégées et non Pareto possèdent un processus de recherche qui
traite séparément les objectifs.
- Page 38 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Sous-
population
sélectionnée
en fonction
de l'objectif
n°1
Population
. Population après
Population après application
initiale de .
mélange des des
n individus . k sous- opérateurs
populations génétiques
Sous-
population
sélectionnée
en fonction
de l'objectif
n°k
Discussion
La méthode VEGA a tendance à créer des sous-populations dont les meilleurs individus sont
spécialisés pour un objectif particulier. L'évolution de la population favorise l'apparition des
espèces. En effet, comme la méthode de sélection ne tient compte que d'un seul objectif, elle
privilégie les individus qui obtiennent une bonne performance pour cet objectif. Dès lors ces
individus ne seront sélectionnés que lorsqu'on effectuera la sélection sur cet objectif. Les individus
que Schaffer appelle les individus "milieu", parce qu'ayant une performance générale acceptable
mais ne possédant aucun critère fort, vont être éliminés car ils ne seront sélectionnés dans aucune
sous-population. Cette disparition entraîne la spécialisation des individus pour chaque objectif. Ce
résultat est contraire au but initial de la méthode qui était de trouver un compromis entre les
différents critères.
• La première est un croisement restreint qui ajoute une préférence pour sélectionner les
parents non dominés. Cette méthode a tendance à éviter la disparition des individus
"milieu" mais elle a tendance également à accentuer la convergence.
Critique
Malgré ces imperfections, cette méthode est très souvent utilisée car facilement implémentable
dans un algorithme génétique classique. L'utilisateur peut associer à VEGA n'importe quel mode de
sélection (tournoi, roulette, rang). Mais comme le tournoi est une technique de sélection plus
élitiste que les deux autres méthodes, son utilisation accentue le phénomène de spécialisation.
- Page 39 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
• utilisation d'un vecteur contenant les probabilités d'utiliser un certain objectif lors de la
sélection [Kurwase 1984].
Algorithme
Allenson utilise un algorithme génétique classique dans lequel un nombre égal d'individus des deux
genres sera maintenu. La population est initialisée avec autant de males que de femelles, puis à
chaque génération, les enfants remplacent les plus mauvais individus du même genre.
Allenson apporte une petite différence au niveau de la sélection. Il introduit le principe d'attracteur
pour éviter que des individus trop éloignés au niveau de leur note puissent être croisés et pour
permettre à des individus faibles de s'accoupler. Il espère ainsi maintenir plus longtemps la
diversité dans la population et prévenir une convergence prématurée. En s'inspirant des stratégies
d'évolution (µ+λ), l'attracteur donne la capacité à chaque individu de s'accoupler avec un individu
meilleur que lui. Dans son exemple, Allenson définit un attracteur comme un intervalle du type
10%-20% pour chaque individu et il utilise le rang de l'individu comme le point d'attraction
génétique.
La création des enfants s'effectue par croisement mais leur genre est choisi aléatoirement et leur
attracteur est créé en fonction de plusieurs heuristiques différentes (aléatoire, clonage ou
croisement).
En 1996 Lis et Eiben ont également réalisé un algorithme basé sur l'utilisation des genres mais dans
ce cas l'algorithme n'est pas limité à deux genres [Lis and Eiben 1996]. Il peut y avoir autant de
genres que d'objectifs du problème. Ils ont également modifié le principe de croisement. Pour
générer un enfant, un parent de chaque genre est sélectionné. Ensuite un croisement multipoint est
effectué et le parent ayant participé le plus, en nombre de gènes, à l'élaboration de l'enfant transmet
- Page 40 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
son genre. En cas d'égalité le choix s'effectue aléatoirement entre les parents égaux. L'opérateur de
mutation effectue un simple changement de genre.
Critique
L'utilisation de genre est un bon moyen de maintenir la diversité dans la population pour chaque
objectif. De plus, le fait qu'un individu ne transmette pas systématiquement son genre va éviter la
création d'espèces comme dans la méthode VEGA.
Par contre, l'augmentation du nombre d'objectifs accroît le temps de calcul car le croisement
multipoint devient de plus en plus coûteux, alors que VEGA est très peu sensible à cela.
Le principe d'attracteur introduit par Allenson est une nouvelle façon d'effectuer des croisements
restreints basée sur le phénotype des individus.
Soient les fonctions objectifs fi avec i = 1, …, k, supposons un ordre tel que f1 f f2 f ... f fk. Il
faut :
minimiser f1(x)
Soit x1*, la meilleure solution trouvée avec f1* = f1(x1*). f1* devient alors une nouvelle contrainte.
L'expression du nouveau problème est donc :
minimiser f2(x)
et f1(x) = f1*
29
Genre : masculin ou féminin.
- Page 41 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
La procédure est répétée jusqu'à ce que tous les objectifs soient traités. La solution obtenue à l'étape
k sera la solution du problème.
Fourman a proposé une autre version de cet algorithme qui choisit aléatoirement la fonction
objectif devant être prise en compte. Il en déduit que cela marche aussi bien. Cette façon de
procéder équivaut à une somme pondérée dans laquelle un poids correspond à la probabilité que la
fonction objectif associée soit sélectionnée.
Critique
Le risque essentiel de cette méthode est la grande importance attribuée aux objectifs classés en
premier. La meilleure solution f1* trouvée pour l'objectif le plus important va faire converger
l'algorithme vers une zone restreinte de l'espace d'état et enfermer les points dans une niche30.
Un classifieur possède une caractéristique, appelée force, qui représente son adaptation à son
environnement. Cette force évolue dans le temps de façon incrémentale en fonction des
récompenses obtenues lors de réponses positives à des stimuli. [Valenzuela and Uresti 1997]
proposent de transposer ce comportement à des individus qui recherchent la frontière de Pareto
d'un problème multiobjectif.
Leur algorithme est décomposé en deux parties. Une première partie dans laquelle la fitness des
individus est mise à jour et une seconde partie qui crée de nouveaux individus après sélection,
croisement et mutation.
L'évaluation d'un individu i est basée sur deux mesures, δi et wi, calculées incrémentalement. Ces
mesures sont mises à jour chaque fois que l'on trouve un individu j qui domine i.
30
Analogie avec les niches écologiques : ensemble d'individus situés dans un espace restreint.
31
Syn. LCS : Learning Classifier System.
- Page 42 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
1) minimiser la dominance,
cd et cw sont des constantes choisies arbitrairement qui expriment le compromis entre ces 2
objectifs.
Si l'on compare les équations ci-dessus à l'équation d'évolution de la force d'un classifieur, D(t) et
sh(d) représentent la récompense du classifieur et les paramètres kδ et kw représentent le coût
d'activation d'un classifieur. Dans leurs expérimentations, les auteurs affectent sans aucune
justification, les valeurs 0 et 1/n1 respectivement à kδ et kw. De manière générale, ces deux
paramètres peuvent être utilisés afin d'atténuer l'influence des valeurs passées sur les valeurs
présentes.
Algorithme
- Page 43 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Fin Pour
Fin Pour
/*----- Boucle principale -----*/
Répéter
Pour i de 1 à n2
/*----- Evaluation -----*/
Deux individus i et j sont choisis aléatoirement
Si j domine i alors Di ← 1 sinon Di ← 0
Si i domine j alors Dj ← 1 sinon Dj ← 0
δi ← δi - kδ.δi + Di
δj ← δj - kδ.δj + Dj
wi ← wi - [Link] + sh(dij)
wj ← wj - [Link] + sh(dij)
fi ← cδ.δi + [Link]
fj ← cδ.δj + [Link]
Fin Pour
/*----- Sélection, croisement et mutation -----*/
fmax ← max(fi)
Sélection de deux parents proportionnellement à (fmax - fi)
Création d'un nouvel individu par croisement et mutation
Supprime un individu i tel que fi = fmax
Soit i le nouvel individu
N ← n1 /*----- Sélection aléatoire de n1 Individus -----*/
Pour chaque j ∈ N
Si j domine i alors δi ← δi + 1
Si i domine j alors δj ← δj + 1
wi ← δi + sh(dij)
wj ← δj + sh(dij)
Fin Pour
Jusqu'à un critère de terminaison
- Page 44 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Critique
Cette méthode non générationnelle obtient de meilleurs résultats que NPGA32 dans trois
optimisations à deux objectifs en terme de nombre de points sur la surface de Pareto et en nombre
total d'évaluations.
Même si cette technique obtient de bons résultats, elle apparaît moins flexible que les précédentes.
Il apparaît difficile pour un décideur de pouvoir exprimer ses préférences sur un ou plusieurs
objectif(s). De plus, l'introduction de nombreux paramètres (cd, cw, kδ, kw, n1, n2) supplémentaires,
en plus des paramètres liés à l'algorithme génétique, rend difficile le réglage de l'algorithme.
Algorithme
b) Calcul des notes des individus et stockage des individus non dominés dans une
population externe appelée NOND de taille N.
d) Croisement et mutation.
f) Application d'une stratégie de recherche locale sur tous les individus de la population.
Critique
L'utilisation d'une population externe pour stocker les individus non dominés et d'une recherche
locale apporte à cette méthode une capacité élitiste très importante.
Nous allons voir dans la section suivante que l'introduction de ce mécanisme de stockage associé
aux stratégies de mise à jour de cette population externe et de réinjection des individus dans la
population courante va inspirer beaucoup de chercheurs.
32
Méthode présentée au paragraphe [Link] page 52.
33
La notion de dominance est introduite dans le paragraphe suivant. Bien que Ishibuchi et Murata utilise cette notion,
leur méthode n’est pas classée dans les méthodes de Pareto car la notion de dominance n’est pas utilisée dans le
processus de sélection.
- Page 45 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Dans les paragraphes suivants, nous définissons tout d'abord la notion de dominance au sens de
Pareto, la frontière de Pareto et la notion de domination contrainte. Ensuite, nous présentons les
techniques évolutionnaires utilisant cette notion.
2.7.1 Théorie
[Link] Optimum de Pareto
Au XIXième siècle, Vilfredo Pareto, un mathématicien italien, formule le concept suivant [Pareto
1896] : dans un problème multiobjectif, il existe un équilibre tel que l'on ne peut pas améliorer un
critère sans détériorer au moins un des autres critères.
Cette équilibre a été appelé optimum de Pareto. Un point x est dit Pareto-optimal s'il n'est dominé
par aucun autre point appartenant à E. Ces points sont également appelés solutions non inférieures
ou non dominées.
- Page 46 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Dans l'exemple ci-dessous, les points 1,3 et 5 ne sont dominés par aucun autre. Alors que le point 2
est dominé par le point 1, et que le point 4 est dominé par les points 3 et 5.
f2 min
1
4
3
0
f1 min
Un point x ∈ E est dit faiblement non dominé, si il n'existe pas de point x' ∈ E tel que :
Un point x ∈ E est dit fortement non dominé, si il n'existe pas de point x' ∈ E tel que :
- Page 47 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
f2 min f2 max
f1 min f1 min
f2 min f2 (max)
f1 max f1 max
Dans l'exemple de la Figure 10, la frontière de Pareto est composée des points 1,3 et 5.
• elle ne fait pas la différence entre deux individus ayant la même note dont l'un viole des
contraintes et l'autre pas.
Une première définition de la domination contrainte a été donnée par Jiménez et Verdegay
[Jiménez and Verdegay 1998]. Ils utilisent un tournoi à deux individus i et j. Si i donne une
solution réalisable et j donne une solution non réalisable alors i est choisi. Si les deux individus
donnent des solutions réalisables alors ils sont comparés avec un sous ensemble d'individus choisis
aléatoirement34. Si les individus donnent des solutions non réalisables alors ils sont comparés avec
un ensemble d'individus du même type. Le meilleur des deux ou celui qui est situé dans la plus
petite niche sera sélectionné.
34
Cette technique de tournoi a été introduite par Horn et Napfliotis (voir le paragraphe [Link]).
- Page 48 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Une autre définition a été proposée dans [Deb and al 2000]. Une solution i domine avec contrainte
une solution j si un des cas suivants est réalisé :
• Les deux solutions i et j ne sont pas réalisables mais i a le plus petit total de violation de
contrainte.
L'utilisation de cette notion exige que l'on puisse mesurer le niveau de violation de chaque
contrainte du problème.
Soit un individu xi à la génération t, dominé par pi(t) individus. Le rang de cet individu est :
Tous les individus non dominés sont de rang 1. Dans l'exemple (Figure 10), le tableau de
dominance est le suivant :
[Fonseca and Fleming 1993] calculent la fitness de chaque individu de la façon suivante :
35
On parle aussi de fonction de scaling.
- Page 49 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
diminuer l'importance des meilleurs rangs ou d'atténuer la largeur de l'espace entre les
individus de plus fort rang et de plus bas rang.
Discussion
L'utilisation de la sélection par rang a tendance à répartir la population autour d'un même optimum.
Or cela n'est pas satisfaisant pour un décideur car cette méthode ne lui proposera qu'une seule
solution. Pour éviter cette dérive, les auteurs utilisent une fonction de sharing36. Ils espèrent ainsi
répartir la population sur l'ensemble de la frontière de Pareto.
Critique
Le sharing utilisé dans cette méthode agit sur l'espace des objectifs. Cela suppose que deux actions
qui ont le même résultat dans l'espace des objectifs ne pourront pas être présentes dans la
population.
Cette méthode obtient des solutions de bonne qualité et son implémentation est facile. Mais les
performances sont dépendantes de la valeur du paramètre σshare utilisé dans le sharing. Dans leur
article Fonseca et Fleming expliquent comment choisir au plus juste la valeur de σshare.
a) Dans la population entière, on recherche les individus non dominés. Ces derniers
constituent la première frontière de Pareto.
b) On leur attribue une valeur de fitness factice. Cette valeur est supposée donner une
chance égale de reproduction à tous ces individus. Mais pour maintenir la diversité dans
la population, il est nécessaire d'appliquer une fonction de sharing sur cette valeur.
36
Cette technique est décrite dans le paragraphe [Link]. On parle également d'heuristique de partage.
- Page 50 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
L'algorithme se déroule ensuite comme un algorithme génétique classique. Srivinas et Deb utilisent
une sélection basée sur le reste stochastique. Mais leur méthode peut être utilisée avec d'autres
heuristiques de sélections (tournoi, roulette pipée, etc.).
Début
Population
initiale;
nbgen = 0;
Front = 1
Croisement
Sharing
Mutation
Front + 1
Oui
nbgen < max ?
Non
Stop
Critique
Cette méthode paraît moins efficace en temps de calcul que la méthode MOGA car le temps de
calcul de la notation (tri de la population et sharing) est important. Mais l'utilisation d'un sharing
sur l'espace d'état et le tri des solutions en différentes frontières semblent plus appropriés à
maintenir une grande diversité de la population et à répartir plus efficacement les solutions sur la
frontière de Pareto. De plus, cette méthode est applicable dans des problèmes avec un nombre
quelconque d'objectifs.
- Page 51 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
• Son approche non élitiste37. Le tri de la population est une heuristique intéressante pour
distribuer la population sur l'ensemble de la frontière de Pareto mais cette procédure
ralentit le processus de convergence de l'algorithme. De plus, cet effet est accentué par
l'utilisation de la méthode de sélection par reste stochastique.
Le paramètre tdom permet d'exercer une pression variable sur la population et ainsi d'augmenter ou
de diminuer la convergence de l'algorithme. Par exemple, si tdom = 2 la convergence sera très lente.
A travers leurs expérimentations [Horn and Napfliotis 1993] établissent le constat suivant :
• Si tdom ≈ 10% de N, une bonne distribution des individus est obtenue. Cette valeur apporte
un bon compromis entre élitisme et représentativité statistique de la population. Elle
permet non seulement d'exercer une pression suffisante sur la sélection des individus,
mais également d'éviter une convergence non désirée due à une sélection effectuée sur un
échantillon non représentatif de la population.
• Si tdom >> 20% de N, il y a une convergence prématurée, car la pression est trop
importante lors de la sélection.
On retrouve des conclusions identiques, à l'échelle près, à l'action du paramètre tsize38 sur l'élitisme
de la sélection par tournoi.
37
Comme nous le verrons dans les paragraphes suivants, les auteurs ont tendance à qualifier d'élitiste : une méthode qui
utilise une population externe pour stocker les solutions Pareto-optimales trouvées jusqu'alors.
38
Nombre d'individus participant au tournoi.
- Page 52 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Critique
Outre les paramètres de sharing l'utilisation de cette méthode ajoute un paramètre supplémentaire à
fixer par l'utilisateur, tdom. Ce dernier permet de régler aisément la pression sur la population. Mais
il faut faire attention au compromis entre représentativité et élitisme car la taille de l'échantillon
sélectionné est plus influente dans ce cadre de problème que dans une utilisation de la sélection par
tournoi classique.
Les solutions trouvées sont de bonne qualité et cette approche est plus rapide que les approches
précédentes car le sharing n'est appliqué que sur une portion de la population.
Pour résoudre les difficultés ci-dessus, de nouvelles techniques ont été appliquées.
- Page 53 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Les paragraphes suivants présentent les différentes évolutions des méthodes élitistes.
• La fitness de chaque individu est calculée par rapport aux solutions stockées dans
l'archive.
• Une méthode de clustering39 est utilisée pour réduire l'ensemble de Pareto sans supprimer
ses caractéristiques.
• Une nouvelle méthode de niche, basée sur Pareto, est utilisée afin de préserver la
diversité. L'avantage essentiel est qu'elle n'exige pas de réglage de paramètres de sharing.
Algorithme
Le passage d'une génération à une autre commence par la mise à jour de l'archive. Tous les
individus non dominés sont copiés dans l'archive et les individus dominés déjà présents sont
supprimés. Si le nombre d'individus dans l'archive excède un nombre donné, on applique une
technique de clustering pour réduire l'archive. Ensuite la fitness de chaque individu est mise à jour
avant d'effectuer la sélection en utilisant les deux ensembles. Pour terminer, on applique les
opérateurs génétiques de modification.
39
Cette technique est décrite en annexe page 169.
- Page 54 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Ensemble étendu
Réduction de l'ensemble
Ensemble réduit
Sélection
Ensemble sélectionné
Croisement et mutation
1) On attribue une valeur s ∈ [0, 1], appelée force40, à chaque individu de l'ensemble Pareto-
optimal. Cette valeur est proportionnelle au nombre d'individus de la population qu’il
domine. s est égale au nombre d'individus dominés, divisé par le nombre d'individus de la
population + 1. La force s représente également la fitness des solutions Pareto-optimales.
2) La fitness fi d'un individu de la population est égale à la somme des forces des individus
Pareto-optimaux qui le dominent + 1.
40
Ce terme est tiré des systèmes de classifieurs.
- Page 55 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
11/8 16/8
19/8
f2 min
3/8
16/8
13/8
13/8
5/8
11/8
3/8
0
f1 min
Critique
Cette méthode distribue efficacement les solutions sur la frontière de Pareto. La technique de
notation permet de bien échantillonner les individus dans l'espace (Figure ci-dessus). Le concept de
force associé à la technique de clustering entraîne la formation de niches dont la note des individus
dépend de leur position par rapport aux individus Pareto-optimaux.
Le point négatif est que la notation est dépendante de la taille de la population externe choisie par
l'utilisateur.
• Elle n'est pas basée sur une population. Elle n'utilise qu'un seul individu à la fois pour la
recherche des solutions.
• Elle utilise une population annexe de taille déterminée permettant de stocker les solutions
temporairement Pareto-optimales.
• L'algorithme utilisé est très simple et inspiré d'une stratégie d'évolution (1+1)
[Rechenberg 1973].
- Page 56 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Algorithme
c) Si (c domine m)
alors on écarte m.
sinon si (m domines c)
alors on remplace c par m et ajout de m à l'archive.
sinon si (m est dominé par un membre de l'archive)
alors on écarte m.
sinon on applique une fonction de test (c, m, archive) qui
détermine la nouvelle solution courante.
d) On recommence en b)
41
Cette technique est décrite dans le paragraphe [Link].
- Page 57 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Pour mesurer l'encombrement d'une zone, cette méthode utilise un crowding basé sur un découpage
en hypercubes de l'espace des objectifs. Cette technique offre deux avantages par rapport aux
méthodes de sharing classiques :
Une grille divise l'espace des phénotypes en hypercubes, chaque dimension est découpée en krange/2l
parties. krange représente l'écart pour un objectif entre la plus grande valeur et la plus faible dans
l'archive, et l est le paramètre de subdivision. Les auteurs utilisent une représentation récursive42 de
la grille afin d'accélérer la recherche ou la mise à jour de la position d'une solution dans l'espace.
Mais cette représentation devra être totalement recalculée lorsque l'ajout d'un individu dans
l'archive entraînera le changement d'un krange.
Dans leur article, une généralisation à un algorithme (µ+λ)-PAES est proposée. Les tests effectués
par les auteurs montrent que les algorithmes (1+λ)-PAES et (µ+λ)-PAES n'apportent pas un gain
significatif par rapport à (1+1)-PAES.
Critique
Cette méthode est relativement simple à mettre en œuvre. De plus, n'étant pas basée sur un
algorithme génétique, elle évite à l'utilisateur le réglage de tous les paramètres de celui-ci. Mais son
efficacité va dépendre du choix d'un nouveau paramètre : l le paramètre de discrétisation de
l'espace des objectifs.
La technique de crowding utilisée dans PAES permet une mise à jour de l'archive plus rapide lors
des dépassements de capacité que celle de SPEA.
Algorithme
42
Dans un problème à deux objectifs, la grille sera représentée sous forme de quadtree.
- Page 58 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
d) On recommence au b)
Une solution courante de PI peut entrer dans l'archive PE si elle est non dominée dans PI et si elle
est non dominée dans PE. Une fois, la solution insérée dans l'archive, on supprime tous les
membres de l'archive qu'elle domine. Si l'ajout crée un dépassement de capacité de PE alors le
membre de l'archive ayant le paramètre squeeze_factor le plus élevé est supprimé.
Génération i PI PE
PE étendu
Sélection
Croisement et mutation
Le paramètre squeeze_factor est égal au nombre d'individus qui appartiennent au même hypercube.
Il est utilisé comme fitness des individus qui appartiennent à cette zone. Par exemple, dans la figure
ci-dessous, les points B et D ont un squeeze_factor égal à 1 et C a un squeeze_factor égal à 3. Ce
paramètre est utilisé pour la sélection ainsi que pour la mise à jour de l'archive alors que dans
PAES, la mesure d'encombrement n'est utilisée que pour la mise à jour de l'archive.
- Page 59 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
f2 min
f1 min
Lors de la sélection par tournoi, le candidat choisi sera celui qui a le plus petit facteur
d'encombrement. Ainsi les recherches seront orientées vers des zones de la frontière de Pareto qui
sont le moins représentées dans la population courante.
Les auteurs comparent PESA à SPEA et à PAES sur les trois premières fonctions de test de Deb
[Deb 1999]. Ils trouvent que PESA est la meilleure des trois méthodes en pourcentage de solutions
sur la frontière de Pareto avec un nombre limité d'itérations.
Critique
Les critiques faites précédemment sur la méthode de crowding de PAES peuvent être réitérées pour
PESA.
La différence essentielle par rapport à PAES est que la sélection est basée sur la mesure
d'encombrement de l'espace des objectifs. Si cela permet une bonne répartition des individus dans
l'espace d'état, en contre-partie cela augmente la dépendance de l'efficacité de la méthode par
rapport au facteur de discrétisation de l'espace.
[Link] NSGA II
Dans cette deuxième version de NSGA [Deb 2000], l'auteur tente de résoudre toutes les critiques
faites sur NSGA : complexité, non élitisme et utilisation du sharing.
La complexité de l'algorithme NSGA est notamment due à la procédure de création des différentes
frontières. Pour diminuer la complexité de calcul de NSGA, Deb propose une modification de la
procédure de tri de la population en plusieurs frontières.
- Page 60 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Algorithme
b) Il identifie les points tels que ni = 0. Ces points forment la frontière F1.
L'autre critique sur NSGA est l'utilisation du sharing, méthode qui exige le réglage d'un ou
plusieurs paramètre(s) et qui est également forte consommatrice de calculs. Dans NSGA II,
Kalyanmoy Deb remplace la fonction de sharing par une fonction de crowding. Il attribue deux
caractéristiques à chaque individu :
Pour estimer la densité au voisinage d'une solution i, il calcule la distance moyenne sur chaque
objectif, entre les deux points les plus proches situés de part et d'autre de la solution. Cette quantité
appelée idistance sert d'estimateur de taille du plus large hypercube incluant le point i sans inclure un
autre point de la population. L'algorithme de calcul est de complexité O([Link](N)). Cette distance
de crowding va être utilisée pour guider le processus de sélection.
- Page 61 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
f2 min
f1 min
Pour répondre à la critique de non élitisme, Deb utilise dans cette méthode une sélection par
tournoi et modifie la procédure de passage entre deux générations. Si deux solutions sont
sélectionnées pour participer au tournoi, la solution de plus bas rang irank sera retenue. Mais si les
deux rangs sont identiques, il est préférable d'utiliser le point situé dans une région dépeuplée, c'est-
à-dire avec une valeur idistance importante. Deb définit sa notion de préférence entre deux solutions
de la façon suivante :
Algorithme de NSGA II
c) On mélange Pt et Qt : Rt = Pt ∪ Qt.
d) Calcul de toutes les frontières Fi de Rt et ajout dans Pt+1 jusqu'à ce que la taille de Pt+1 soit
égale à N.
Les éléments de la dernière frontière calculée sont triés en fonction de la préférence citée
ci-dessus. Seuls les éléments permettant à Pt+1 d'atteindre la taille N sont sélectionnés.
e) On recommence en b)
Les auteurs effectuent une comparaison avec PAES, ils en déduisent que NSGA II est meilleure
pour la répartition des individus sur la frontière de Pareto.
Critique
- Page 62 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Par exemple dans la figure ci-dessous, les 10 points sont répartis dans 6 cubes. Si l'on considère un
tournoi binaire alors la probabilité de sélectionner la solution A est :
f2 min
f1 min
Critique
PESA II a permis de faire évoluer positivement la sélection de manière à privilégier les zones de
l'espace les moins encombrées. Mais, même si cette technique de crowding basée sur un découpage
de l'espace est très supérieure en temps de calcul au sharing, elle possède ses propres difficultés.
Dans la figure ci-dessus, le point B a la même probabilité de sélection que A alors que B n'est pas
situé dans une zone désertique43. On peut aussi remarquer que si le découpage avait été de 4 cubes
au lieu de 16 alors la probabilité de sélectionner la solution A serait passée de 0,31 à 0,89. Cela
montre la très forte influence de la discrétisation de l'espace sur cette méthode.
43
Si l'on regarde la frontière de Pareto dans son ensemble.
- Page 63 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Au début de l'algorithme du micro GA, la population est constituée à l'aide d'individus sélectionnés
aléatoirement dans la population externe. Ensuite l'algorithme se déroule de manière classique. En
fin de cycle, lorsque la population du micro GA a perdu sa diversité, deux individus non dominés
sont sélectionnés pour mettre à jour l'archive. L'approche utilisée est similaire à celle de PAES.
Ensuite ces deux mêmes individus sont comparés à deux individus de la partie non remplaçable. Si
l'un des deux premiers domine l'un des deux autres alors il le remplace dans la partie non
remplaçable.
44
Cette heuristique permet de répartir uniformément les individus sur la frontière de Pareto. L'auteur utilise la technique
de crowding proposée par Knowles et Corne pour la méthode PAES.
- Page 64 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Population extérieure
Population initiale
Algorithme
Génétique
N
Convergence ?
Archive
Les tests effectués par l'auteur montrent que cette approche est capable de converger plus
rapidement vers la surface de Pareto (en terme de temps CPU). Mais dans le cas de fonctions
contraintes la méthode a été moins bonne que NSGA II. Dans quelques cas, cette méthode produit
une meilleure distribution des points sur la surface de Pareto.
Critique
[Link] Memetic45-PAES
Cette méthode proposée par Knowles et Corne est une extension de la recherche locale (1+1)-
PAES combinée avec l'utilisation d'une population P [Knowles and Corne 2000c]. Périodiquement,
celle-ci utilise le croisement pour combiner les optima locaux trouvés par la procédure (1+1)-
PAES. La mise à jour de l'archive est un peu plus compliquée que pour PAES.
Dans PAES, l'archive sert à mémoriser les solutions non dominées trouvées jusque là et d'ensemble
de comparaison pour évaluer la dominance des nouveaux individus. Pour effectuer cela M-PAES a
besoin de deux archives car les phases de recherche locale et globale doivent être indépendantes :
45
Le terme "memetic algorithms" a été utilisé pour la première fois par Pablo Moscato [Moscato 1989]. Les "memetic
algorithms" combinent une heuristique de recherche locale avec des opérateurs de croisement sur une population.
- Page 65 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
une archive globale G pour mémoriser un ensemble de solutions non dominées et une archive
locale H utilisée comme échantillon de comparaison lors des recherche locales.
Algorithme
M-PAES se déroule en deux phases : une première phase de recherche locale suivie d'une phase de
combinaison.
Au début de chaque génération, H est vidée puis remplie avec des solutions de G qui ne dominent
pas la solution courante c. Ensuite, H est utilisée comme dans (1+1)-PAES. La seule différence
entre la recherche locale de PAES et M-PAES est la façon dont se termine la recherche. M-PAES
s'arrête lorsque le nombre l_opt de mouvements de recherche locale est atteint ou lorsque le
nombre d'échecs l_fails est atteint. Ce dernier est incrémenté chaque fois que le mutant obtenu est
dominé par la solution courante et remis à zéro à chaque mouvement de la solution.
Lors de la phase de combinaison, deux parents sont choisis aléatoirement parmi P ∪ G et l'enfant
généré sera accepté s'il domine certains membres de G ou s'il est situé dans une région peu
encombrée à condition qu'il ne soit dominé par aucun membre de G. Cette procédure est répétée
jusqu'à ce qu'un enfant soit accepté, pendant un nombre maximum de fois trials_max.
Les tests effectués par les auteurs montrent que M-PAES est supérieure dans tous les cas à (1+1)-
PAES. Mais la comparaison avec SPEA a produit des résultats équivalents bien qu'il soit difficile
de comparer ces deux algorithmes.
Critique
Bien que l'algorithme soit plus complexe que les précédents, cette nouvelle méthode de Knowles et
Corne apporte des perspectives intéressantes. L'utilisation combinée d'une recherche locale et d'une
population permet d'associer la capacité exploratoire locale à une capacité d'exploration globale par
deux mécanismes indépendants.
La même critique pourrait être faite pour le paramètre trials_max mais nous sommes dans le cadre
d'un algorithme élitiste. Donc le fait de refuser la création d'un enfant moins bon que ses parents
nous oblige à imposer un nombre maximal de tentatives car les parents peuvent être totalement
incompatibles, c'est-à-dire qu'ils ne généreront jamais un enfant meilleur qu'eux.
- Page 66 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
• maintenir une diversité des solutions pour assurer une bonne répartition sur la frontière de
Pareto.
L'accomplissement de ces tâches est très délicat car les difficultés rencontrées dans un problème
multiobjectif sont identiques à celles d'un problème simple objectif mais elles sont amplifiées par la
présence d'objectifs dépendants les uns des autres.
La multimodalité
Une fonction est dite multimodale si elle possède plusieurs d'optima globaux (Figure 20). Dès lors,
chaque optimum exerce sur les individus d'une population une attraction différente qui peut piéger
le processus de convergence de l'algorithme. Ce problème peut être évité en utilisant une technique
de répartition (Partie I.3.5) des individus de type sharing ou crowding [Mahfoud 1995].
- Page 67 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Il existe des problèmes dans lesquels un optimum peut être entouré de grandes zones pratiquement
plates. Cet optimum se trouve alors isolé car l'espace de recherche qui l'entoure ne peut pas guider
vers lui les individus de la population.
Pour toutes les méthodes présentées ci-dessus, il est très difficile de garantir au décideur que ce
type d'optimum peut être trouvé. Par contre les méthodes utilisant une population externe comme
archive (Partie I.2.7.3) semblent plus aptes à maintenir un optimum isolé que celles qui n'en
utilisent pas.
La tromperie
Un problème est trompeur (Figure 21) lorsqu'il guide la convergence vers une zone non optimale
de la fonction.
f(x) f(x)
x x
Dans les deux problèmes ci-dessus, nous voyons que la probabilité de choisir aléatoirement un
point dans une zone sous-optimale est très grande. Donc, dans un premier temps, les méthodes ont
une tendance à converger vers des optima locaux. Par la suite, le processus de mutation entretient
ce phénomène de tromperie.
Certains problèmes ont une frontière de Pareto non convexe. Les méthodes dont le calcul de la
fitness est basé sur le nombre d'individus dominés (MOGA Partie I.[Link], SPEA Partie I.[Link])
vont être moins efficaces.
- Page 68 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Discontinuité
Si une frontière de Pareto est discontinue, nous retrouvons le même principe que pour une fonction
multimodale. Les différentes parties de cette frontière vont exercer proportionnellement à leur
taille, une attraction plus ou moins importante sur les individus d'une population. Certaines d'entre
elles pourront donc ne pas être découvertes.
Les méthodes basées sur une population génétique sont plus sensibles à ce phénomène que les
méthodes utilisant des stratégies d'évolution.
Les solutions sur la frontière de Pareto peuvent ne pas être réparties uniformément. La raison
principale vient du choix des fonctions objectifs. Par exemple, si une des fonctions objectifs est
multimodale, elle va influencer de manière très différente la répartition des solutions sur la
frontière de Pareto.
Si la compréhension des interactions entre paramètres peut être aisément appréhendée sur des
exemples simples, elle reste une question délicate pour les nouveaux venus dans ce domaine. Car
déterminer la taille de la population, le taux de croisement et le taux de mutation n'est pas une
chose aisée. Si en plus on ajoute une heuristique de partage, il faut également prendre en compte
les paramètres de définition du voisinage.
Les méthodes basées sur une stratégie d'évolution sont algorithmiquement plus simples. Mais
l'usage systématique d'une population externe pour maintenir les meilleurs individus exige la
détermination de stratégies de mise à jour et de réutilisation basées sur une heuristique de
remplacement géographique qui suppose la définition d'un maillage de l'espace de recherche.
- Page 69 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Le critère le plus usité pour stopper la recherche d'un algorithme génétique est la perte de diversité
génétique. Or celui-ci n'a plus de sens dans des méthodes qui maintiennent la diversité génétique de
la population pour permettre une recherche plus efficace. Peu d'auteurs expriment clairement leur
critère d'arrêt de l'algorithme. Mais en pratique, cela n'est pas critiquable car l'utilisation de ces
méthodes par un décideur pourra se faire de manière interactive.
Dans la méthode Memetic PAES (Partie I.[Link]), basée sur une stratégie d'évolution, les auteurs
définissent un critère d'arrêt basé sur le nombre d'échecs consécutifs de la recherche locale. Dans ce
cas il est difficile pour un décideur d'établir une relation de cause à effet entre le nombre d'échecs et
la qualité du résultat.
Nous verrons que dans la méthode que nous avons réalisée (Partie II), nous nous sommes attachés à
réduire ces deux dernières difficultés tout en conservant les qualités de convergence et de maintien
de la diversité du processus d'optimisation.
Le tableau récapitulatif suivant regroupe les caractéristiques essentielles des méthodes vues
précédemment. Il met particulièrement l'accent sur le grand nombre de paramètres utilisés dans la
plupart de ces méthodes. Le lecteur pourra appréhender la difficulté de mise en œuvre de ces
méthodes car la relation entre la valeur d'un paramètre et son action sur la résolution du problème
est très difficile à contrôler sans une parfaite connaissance de la méthode employée. De plus,
beaucoup de ces paramètres ont peu de sens pour le décideur. Dans la méthode que nous avons
développée, un accent tout particulier est mis sur un paramétrage simple et compréhensible pour un
non initié.
- Page 70 -
_______________________________________________________________________________________________________ Les problèmes d'optimisation multiobjectifs
Légende : EO : appliqué dans l'espace des objectifs, EE : appliqué dans l'espace des états.
- Page 71 -
____________________________________________________ Les problèmes d'optimisation multiobjectifs
Dans [Deb 1999], l'auteur propose un ensemble de caractéristiques spécifiques pour construire des
problèmes de test pour des méthodes d'optimisation multiobjectifs. Il propose une ensemble de six
fonctions et effectue un test sur plusieurs des méthodes présentées ci-dessus [Zitzler and Deb
1999].
La même année, David Van Veldhuizen propose dans [Van Veldhuizen 1999], un récapitulatif des
fonctions utilisées pour tester les méthodes d'optimisation multiobjectifs.
Génotype Phénotype
Discontinue
Discontinue
Nom de
Symétrique
Nombre de
Nombre de
contraintes
Géométrie
d'objectifs
Continue
Continue
variables
Convexe
Concave
Nombre
la
Fonction
Viennet 1 X X 2 3 2 Surface X
Viennet 2 X 2 3 2 Surface X
Viennet 3 X 2 3 2 Courbe X
f1(x, y) = x2 + (y-1)2
f2(x, y) = x2 + (y+1)2
f3(x, y) = (x-1)2 + y2 + 2
- Page 72 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
Chapitre 3.
Les problèmes d’optimisation en
environnement dynamique
3.1 Définition
Un problème d'optimisation en environnement dynamique est un problème dont la fonction
objectif change au cours du temps. Cette dynamique implique une nouvelle problématique pour les
méthodes d'optimisation.
3.2 Problématique
Pour résoudre ce type de problème, les méthodes d'optimisation doivent être capables non
seulement de trouver l'optimum de la fonction mais également de suivre cet optimum au cours du
temps. Deux stratégies différentes peuvent être envisagées pour maintenir cet optimum :
• savoir retrouver très rapidement l'optimum lorsqu'il a été modifié suite à un changement,
Dans un système dynamique, la qualité de la solution trouvée sera un critère moins déterminant que
pour les méthodes d'optimisation en environnement stationnaire. Par contre, la robustesse de ces
méthodes sera évaluée par rapport à leurs capacités à :
• détecter un changement,
Nous dirons qu'une méthode a une réponse appropriée si son approche est discriminante, c'est-à-
dire, si sa réponse au changement d'environnement prend en compte la zone de l'espace dans
laquelle a eu lieu cet évènement.
- Page 73 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
• Les méthodes qui réagissent au changement. Ces dernières sont utilisées de manière
classique mais lorsqu'on détecte un changement, des actions extérieures permettent
d'augmenter la diversité de la population et facilitent ainsi la recherche du nouvel
optimum.
• Les méthodes qui maintiennent la diversité. En conservant une bonne répartition des
individus dans l'espace, on espère pouvoir réagir plus efficacement au changement.
• Les méthodes qui utilisent une mémoire permettant de conserver les optima passés. Mais
elles ne sont utilisables que dans les cas pour lesquels l'optimum a un mouvement
périodique.
• Les méthodes qui utilisent plusieurs populations réparties de manière à suivre les optima
locaux et à rechercher le nouvel optimum.
3.4.1 Heuristique
Le principe général des méthodes réactives est d'effectuer une action extérieure suite à la détection
d'un changement de l'optimum. En général, cette action a pour but d'augmenter la diversité
génétique de la population. Cela va permettre à l'algorithme de retrouver sa capacité de recherche.
Les méthodes basées sur l'utilisation de populations d'individus perdent de la diversité lorsqu'elles
convergent vers un optimum. Ce manque de diversité devient handicapant lorsqu'il y a perte de
l'optimum et que l'algorithme doit recommencer sa recherche. Donc, en augmentant à nouveau la
diversité de la population, le processus de recherche est relancé.
- Page 74 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
Elle effectue des tests sur une fonction unimodale dépendante du nombre de générations du type :
sin(α.génération) + 1 23)
Lors de ses expériences, elle utilise comme paramètre de performance la moyenne sur dix tests du
meilleur individu à chaque génération.
Dans [Varak 1997b], l'auteur propose une stratégie pour adapter le taux de mutation.
3.4.3 Discussion
Les deux méthodes ci-dessus sont très simples à mettre en œuvre, mais elles demandent de
répondre aux questions suivantes :
La détection du changement est une étape très importante car la réponse sera d'autant plus
efficace si la détection s'effectue relativement tôt, et, en cas d'échec de la détection ces
méthodes ne fonctionneront pas correctement. Les techniques de détection les plus
simples à mettre en œuvre sont des techniques d'études statistiques. Mais le bon
fonctionnement de ces méthodes demande une bonne connaissance a priori du problème
par le décideur pour pouvoir régler les paramètres.
Pour une majorité des problèmes, il n'existe pas de règles permettant de fixer le taux
optimal de mutation fixe, alors déterminer un taux variable n'est réalisable que pour des
problèmes biens définis. De plus, l'utilisation d'un taux de mutation automatique peut
induire des difficultés lorsqu'il n'y a pas ou peu de variation d'environnement.
46
Le taux sera bas en situation stationnaire et élevé en situation non stationnaire.
- Page 75 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
De plus en introduisant un taux de mutation trop important ces méthodes risquent de dégrader le
processus de convergence.
Leur mise en place n'implique pas un surcoût en temps de calcul très important. Mais la technique
de détection du changement peut nécessiter plus de calculs que la réponse elle-même.
Enfin, la réponse de ces méthodes à un changement n'est pas discriminante. Elle s'effectue sur
l'ensemble de la population sans prendre en compte la zone de l'espace dans laquelle a eu lieu le
changement. Pour preuve, à chaque détection d'un changement, la fitness de tous les individus doit
être recalculée.
Les méthodes que nous allons voir maintenant adoptent une stratégie différente.
3.5.1 Heuristique
Ces méthodes tentent de maintenir la diversité de la population en espérant que lors d'une
modification de la fonction objectif, la répartition des individus dans l'espace d'état permettra de
retrouver plus rapidement le nouvel optimum.
L'avantage de cette méthode par rapport aux précédentes est qu'elle permet d'introduire de la
diversité tout en diminuant le risque de dégradation du processus de convergence.
[Link] Sharing
La technique de sharing, appelée heuristique de partage, a été proposée par Goldberg [Goldberg
1989]. Le but de cette technique est d'éviter le regroupement des individus autour d'un optimum
local lors de la recherche de l'optimum global dans un problème multimodal. Sans une telle
47
Même si Grefenstette ne le précise pas, nous pouvons supposer que ceux sont les plus mauvais individus qui sont
remplacés dans la population.
- Page 76 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
heuristique, la population a tendance à converger vers l'optimum local qui influence le plus tôt une
partie significative de la population. Cette convergence entraînant une perte de diversité génétique,
l'algorithme est par la suite dans l'impossibilité de trouver l'optimum global. Pour éviter ce
phénomène, l'heuristique de partage modifie la note de l'individu proportionnellement à son
isolement. En d'autres termes, on préférera un individu i isolé avec une note moyenne plutôt qu'un
individu j avec une très bonne note mais dans une zone très peuplée. Ainsi la probabilité de
sélection de i sera équivalente ou supérieure à celle de j. L'heuristique de partage permet de répartir
l'ensemble des individus de la population dans différentes niches et évite ainsi une convergence
prématurée.
L'application du sharing suppose la définition d'une fonction de distance d(xi, xj), et la fixation d'un
seuil de voisinage σshare. On peut également définir un valeur d'influence α qui amplifiera ou
diminuera l'influence de la proximité de j par rapport à i.
fi
fi' = avec 25)
mi
j=N
mi = ∑S(d(x ,x )) et
j =1
i j 26)
d α
1 − si d > σ share
S(d) = σ share 27)
0 sinon
- Page 77 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
Dans [Goldberg & Richardson 1987], les auteurs proposent une extension pour des problèmes
d'optimisation multidimensionnelle.
En 1991 Andersen examine les effets de l'heuristique de partage appliquée sur le génotype et le
phénotype pour suivre le mouvement d'un optimum [Andersen 1991]. Il pense que le maintien de la
diversité de la population par le sharing permettra un suivi plus efficace. Il conclut que le sharing
augmente énormément la capacité d'un algorithme génétique à suivre un optimum à condition que
l'environnement change doucement.
Critique
L'utilisation de l'heuristique de partage suppose que l'on puisse définir une notion de distance entre
individus. Dans [Largeron et Auray], les auteurs proposent un ensemble de mesures de proximité
dans le cas de variables quantitatives et qualitatives nominales ou ordinales.
Cette technique demande un temps de calcul supplémentaire important d'ordre O(N2). Pour réduire
cette complexité on peut recourir à un sharing clusterisé de complexité O([Link](N)) ou à une
méthode de niche dynamique de complexité O(q.N) [Gan and Warwick, Miller and Shaw 1995]
avec q le nombre d'optima locaux de la fonction. L'autre inconvénient de cette technique est le
réglage des paramètres σshare et α qui est très dépendant du problème et du type de la mesure de
distance définie.
- Page 78 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
Dans le cadre d'un problème dynamique, la probabilité que le nouvel optimum global soit un
ancien optimum local est importante. Donc si ce dernier a été oublié par l'heuristique de partage, le
processus de recherche du nouvel optimum va être inefficace. De plus, cette inefficacité est
amplifiée par le fait que la vitesse de redistribution dans l'espace d'état des individus est lente lors
d'un changement d'environnement.
[Link] Crowding
Le crowding ou l'heuristique de remplacement a été introduit par De Jong [De Jong 1975]. Le
principe originel consiste à remplacer des éléments d'une population par d'autres éléments
similaires et meilleurs qu'eux. Cette heuristique est une analogie des systèmes vivants en
compétition pour une ressource. Dans les problèmes d'optimisation, la ressource est l'optimum à
atteindre. Donc, des individus situés dans des zones différentes de l'espace d'état ne sont pas en
concurrence pour le même optimum, alors que des individus proches sont en compétition. En
remplaçant les individus semblables, le crowding permet de conserver les différentes niches de la
population tout en accélérant la convergence.
a) On sélectionne deux parents, puis on génère deux enfants par croisement et mutation.
b) Ensuite on forme tous les couples parent-enfant et on calcule la similarité entre le parent
et l'enfant.
c) Pour finir, le couple le plus proche est sélectionné et inséré dans la population suivante.
Cedeno et Vemuri utilisent cette technique dans le cadre d'un problème dynamique. Ils montrent
que cette approche est capable de maintenir différentes solutions dans la population [Cedeno and
Vemuri 1997].
Critique
Les différentes recherches ont montré que les résultats en terme de maintien de la diversité et de
répartition de la population dans l'espace sont moins bons pour le crowding que pour le sharing
dans le cadre de problèmes uniobjectifs ou multimodaux. Par contre l'utilisation du crowding dans
- Page 79 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
la cadre de problèmes multiobjectifs se montre aussi efficace à répartir les individus sur la frontière
de Pareto que le sharing. Mais en terme d'efficacité de calcul, le crowding est dans tous les cas
supérieur au sharing.
Le lecteur pourra trouver une analyse complète des techniques de formation de niches dans
[Mahfoud 1995].
Ghosh utilise une fonction d'âge h(ai) conçue de manière à favoriser les individus d'âge moyen par
rapport aux individus jeunes ou vieux. Il respecte ainsi l'analogie avec les systèmes vivants.
La fitness effective d'un individu i est une combinaison de la valeur fi de la fonction objectif et de la
fonction d'âge h de l'individu :
Fitness
Age
Critique
En diminuant la fitness des jeunes individus, cette heuristique ralentit leur influence. Cela évite une
convergence prématurée due à un individu trop fort par rapport au reste de la population. Mais cette
action peut aussi avoir un effet négatif, car elle peut faire disparaître l'individu. Cela signifie la
perte de bons caractères génétiques. Si l'individu était né suite à un croisement, la perte génétique
sera faible car les parents ou des enfants proches existent dans la population. Par contre, si sa
naissance était due à une mutation, la probabilité de retrouver l'individu sera très faible.
48
Par exemple : une fonction de mise à l'échelle.
- Page 80 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
La limitation de la fitness des individus âgés évite qu'un individu ne subsiste pendant une longue
période de temps.
En freinant la convergence rapide d'une part, et en limitant l'existence d'un individu d'autre part,
cette heuristique permet d'augmenter la diversité de la population et de répondre au changement de
l'environnement, mais aucune comparaison avec les techniques précédentes n'a été faite.
3.5.3 Discussion
A l'opposé des méthodes réactives, ces dernières agissent de manière à prévenir le changement.
Ainsi, il n'est pas nécessaire de définir une technique de détection du changement.
Dans certains cas, la réponse de ces méthodes à un changement est plus appropriée que la réponse
des méthodes réactives. Si le changement d'optimum s'effectue dans une zone proche d'un ancien
optimum local autour duquel s'est formée une niche, la réponse sera rapide et ciblée. Le risque est
que le changement s'effectue dans une zone dépeuplée. Le temps de réponse va alors être plus
important et la probabilité de détruire des niches situées dans d'autres régions de l'espace n'est pas
négligeable. Donc nous ne pouvons pas dire que ces méthodes ont une approche discriminante49.
Ces méthodes préventives sont plus coûteuses en temps de calcul que les méthodes réactives et sont
également plus complexes à mettre en œuvre.
3.6.1 Heuristique
Ces méthodes utilisent une mémoire qui enregistre l'évolution des différentes positions de
l'optimum afin de pouvoir les réutiliser un peu plus tard. Bien évidemment, ces méthodes ne
peuvent aboutir à de bons résultats que si le changement de position de l'optimum est périodique.
Par rapport aux méthodes précédentes que nous avions qualifiées de réactives et préventives, ces
méthodes pourrait être dites anticipatives.
La mise en place d'une mémoire dans une population peut se faire d'une manière implicite ou de
manière explicite.
Les approches implicites utilisent une représentation différente du génotype afin d'inclure
l'historique d'évolution de l'optimum dans son génome.
Les approches explicites utilisent une mémoire externe et nécessite la définition de stratégies
d'utilisation de cette mémoire (mise à jour et réutilisation des optima stockés).
- Page 81 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
[Link] La diploïdie
En 1998 Lewis utilise la diploïdie dans le cadre de problèmes dynamiques [Lewis 1998]. Il espère
que l'information stockée dans le double chromosome permettra d'assurer la diversité au cours de la
simulation et permettra au système de répondre plus vite et de façon plus robuste au changement
d'environnement. Il teste différents algorithmes diploïdes avec et sans mécanisme de dominance
génétique sur plusieurs problèmes. Il en conclut que cette technique n'est pas assez flexible pour
répondre aux problèmes dynamiques. Les tests effectués montrent qu'une méthode utilisant un
chromosome haploïde avec une technique d'hypermutation est plus efficace.
L'avantage d'une telle représentation est que les gènes de haut niveau peuvent explorer un espace
très large alors que les gènes de bas niveau continuent à effectuer une recherche plus locale. Dans
un problème dynamique ce type de représentation est donc intrinsèquement meilleur pour retrouver
les bons schèmas par rapport à une représentation classique.
Par contre, cette représentation exige plus de mémoire pour stocker le génome d'un individu, et elle
est très difficile à mettre en œuvre.
L'approche suivante utilise également une mémoire mais celle-ci est extérieure aux individus.
Le raisonnement par expérience est basé sur l'idée qu'une décision ou une explication peut être
meilleure lorsqu'elle fait référence aux cas déjà trouvés dans le passé. Lorsque le décideur est
49
Rappel : une approche est dite discriminante, si la réponse au changement d'environnement prend en compte la zone de
l'espace dans laquelle a eu lieu cet évènement.
50
Trad. Case-based reasoning (CBR).
- Page 82 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
confronté à un problème, il essaie de retrouver le cas le plus similaire dans sa mémoire et il tente
ensuite de l'adapter au problème présent.
Pour simuler ce genre de raisonnement dans un algorithme génétique, les auteurs enregistrent le
meilleur individu de la population à intervalle régulier. Après un changement, la population est
réinitialisée, une partie de 5 à 10% est remplacée par les informations stockées dans la mémoire et
le reste des individus est initialisé aléatoirement.
Après leurs expériences, Xu et Louis constatent qu'utiliser une population de sauvegarde trop
grande ou injecter un pourcentage trop important d'anciennes solutions est pénalisant pour la
convergence. Ils constatent également que leur méthode échoue si l'environnement se modifie trop
souvent.
Préalablement Ramsey avait également couplé un raisonnement par expérience avec un algorithme
génétique incorporé dans un système d'apprentissage [Ramsey 1993]. Ce dernier est composé d'un
module d'exécution et d'un module d'apprentissage.
Le module d'exécution est constitué d'une base de connaissances active qui représente les
meilleures règles trouvées, et d'un moniteur capable d'indiquer au module d'apprentissage un
éventuel changement dans l'environnement. Périodiquement, une règle est sélectionnée dans la base
du module d'apprentissage pour être ajoutée à la base active.
Critique
L'avantage d'utiliser une base de connaissances externe au système d'apprentissage est double. Tout
d'abord, elle permet de maintenir une stabilité comportementale par rapport à l'environnement. Si
ce dernier ne se modifie pas trop souvent, cette approche est bénéfique. Enfin, cette base permet de
réinitialiser en partie l'algorithme génétique sur des connaissances passées. La convergence peut
ainsi être accélérée si le changement d'environnement n'a pas été trop important.
Par contre les inconvénients de cette technique, utilisation d'un moniteur de détection de
changement et nombre important de paramètres à régler, la rendent difficile à mettre en œuvre et
peu flexible.
- Page 83 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
F = 〈E〉 - HT 29)
La diversité de la population est contrôlée en ajustant T dans le temps comme dans le recuit simulé.
Sélection
Pop n enfants
Mutation
3.6.3 Discussion
L'utilisation de mémoire implicite ou explicite n'est efficace que si l'évolution de l'optimum définit
un cycle de temps ou repasse à proximité d'une ancienne solution. Dans le cas contraire, ces
méthodes échouent systématiquement.
Ces méthodes sont en général très complexes à mettre en œuvre. Les approches implicites
demandent la création délicate d'un génotype et les approches explicites basées sur l'expérience
exigent de se poser les questions suivantes : Quelle taille de la population externe ? Quelle stratégie
de mise à jour ? Quelle périodicité de mise à jour ? Quelle stratégie de remplacement ? Quel taux
de remplacement ?
- Page 84 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
Enfin, si le changement de l'environnement est trop rapide par rapport à la diffusion des bons
schémas, dans le génome des individus pour les approches implicites et dans la population externe
pour les approches explicites, ces méthodes vont échouer.
Un moyen de réduire les difficultés liées à ces méthodes est de recourir à des méthodes utilisant
plusieurs populations.
3.7.1 Heuristique
Ces approches emploient plusieurs populations de manière à répartir les individus sur plusieurs
sommets. Ainsi en suivant plusieurs optima différents, la probabilité de suivre l'optimum global est
renforcée.
Cette méthode est basée sur l'analogie avec les sociétés humaines et introduit les notions de
gouvernement et de nation51. La fonction de notation, appelée Hill-valley, est utilisée pour détecter
les vallées dans l'espace de recherche, faire migrer les individus et décider de regrouper deux
nations en une seule.
Une nation regroupe l'ensemble des individus autour d'un même pic et possède un gouvernement
et un ensemble de règles d'évolution.
Le gouvernement de chaque nation est constitué des meilleurs individus de celle-ci. Il permet de
calculer la valeur approchée du sommet en effectuant la moyenne des positions des individus le
constituant.
L'ensemble des règles d'évolution détermine le comportement de tous les individus qui
appartiennent à la nation. Les règles établies par Ursem sont :
- Page 85 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
• l'élection du gouvernement,
• le croisement restreint,
Pour rechercher les vallées situées entre deux individus ip et iq, Ursem utilise l'algorithme suivant :
Fin Pour
c) Retourne 0
Le paramètre exple est un tableau de valeurs comprises entre 0 et 1 qui permet de calculer les
positions des points intérieurs iintérieur. Dans le cas d'un espace à deux dimensions :
Si la fonction retourne 0, cela signifie que l'algorithme n'a pas trouvé de point intérieur donc qu'il
n'y a pas de vallée entre les points ip et iq.
iq
ip Nation
Nation
iintérieur
51
Notion similaire à celle de niche écologique.
- Page 86 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
Critique
Le point positif de cette méthode est son approche discriminante. En effet, lors d'un changement,
seules les nations proches de lui subiront une modification, le reste de la population ne changera
pas. Cela permet de réduire le temps de calcul et de ne pas détruire les nations situées dans d'autres
régions de l'espace.
Dans les méthodes présentées ci-dessus, la détection du changement se fait soit de manière
endogène soit de manière exogène. La qualité de réponse des méthodes qui utilisent un mécanisme
externe de détection de changement, est totalement dépendante de celui-ci. De plus une seule
méthode propose une approche discriminante de réponse au changement d'environnement. Mais
cette méthode utilise un grand nombre de paramètres de réglage qui la rend peu flexible à mettre en
œuvre.
- Page 87 -
_______________________________________ Les problèmes d'optimisation en environnement dynamique
Détection du Approche
Méthode Action Type
changement discriminante
Augmentation de la
Hypermutation Réactive Exogène Non
mutation
Augmentation de la
VLS Réactive Exogène Non
mutation
Random Injection de
Préventive Endogène Non
immigrants nouveaux individus
Modification de la
Sharing fitness en fonction du Préventive Endogène Non
voisinage
Sélection en fonction
Crowding de la similarité des Préventive Endogène Non
individus
Modification de la
Age des individus fitness en fonction de Préventive Endogène Non
l'âge des individus
Modification de la Mémoire
Diploïdie Endogène Non
structure des gènes implicite
Modification de la Mémoire
Gène multiniveau Endogène Non
structure des gènes implicite
Injection d'anciens Mémoire
Expérience Exogène Non
individus explicite
Sélection en fonction
Mémoire
TDGA d'une énergie Endogène Non
explicite
minimale + archive
Utilisation de
Multinational Multipopulation Endogène Oui
plusieurs populations
Dans la méthode que nous proposons (Partie II), nous utilisons un système multiagent. Chaque
agent est doté d'un comportement de recherche locale qui lui permet de progresser vers un
optimum, et d'un comportement de développement qui lui permet de défendre l'optimum trouvé et
de créer d'autres agents. Ces comportements procurent à l'agent une capacité endogène de détection
d'un changement dans voisinage et une capacité de réponse rapide et ciblée.
- Page 88 -
Partie II.
La méthode
des gouttes d'eau
(water drops)
- Page 89 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Chapitre 4.
Méthode de recherche des optima locaux
d’une fonction multimodale en
environnement dynamique
Nous présentons dans ce chapitre la méthode que nous avons développée. Nous expliquons dans un
premier temps les raisons pour lesquelles nous avons choisi une approche locale et multiagent.
Ensuite nous décrivons le fonctionnement de notre méthode et nous présentons des résultats
obtenus.
Nous avons appelé cette méthode, les gouttes d'eau par analogie au phénomène météorologique.
Lorsqu'il pleut, une goutte d'eau tombe sur le sol puis ruisselle jusqu'à ce qu'elle s'arrête au fond
d'un trou. Ensuite, l'arrivée d'autres gouttes d'eau dans ce trou vient faire grossir la première goutte
pour former une flaque. Au bout d'un certain temps, la flaque remplit le trou et elle déborde en
envoyant une partie de ses gouttes d'eau remplir le trou voisin. Et ainsi de suite…
Ce phénomène schématise très bien notre méthode. Un agent (la goutte) glisse vers un optimum (le
trou) puis il augmente sa zone d'influence (la flaque) et génère d'autres agents pour explorer les
optima voisins (le débordement).
- Page 90 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Dans le cas de fonctions multimodales, les méthodes basées sur les algorithmes génétiques exigent
l'utilisation d'une heuristique de répartition et un nombre important d'individus pour pouvoir
trouver tous les optima locaux. Les temps de calcul sont importants et la qualité des solutions n'est
pas satisfaisante. En effet, ces méthodes ne peuvent pas garantir que tous les optima seront trouvés
car elles oublient les petites niches qui ne possèdent pas un pouvoir d'attraction suffisant.
De plus, si un décideur veut utiliser les résultats obtenus, ces méthodes ne peuvent pas lui fournir
une estimation de l'erreur faite sur la position de l'optimum trouvé. Donc le risque pris par le
décideur ne peut pas être évalué.
Dans le cas d'un environnement dynamique, la plupart des méthodes présentées dans le chapitre
précédent ont une approche non discriminante. Dès lors, le temps de réponse au changement de
l'environnement et le risque de détruire des niches situées dans d'autres régions de l'espace sont
augmentés.
Nous avons développé une méthode multiagent qui utilise une approche de recherche locale
inspirée des stratégies d'évolution.
L'approche multiagent doit engendrer une forte capacité d'exploration de tout l'espace de recherche
ainsi qu'une capacité discriminante de l'espace.
L'approche locale doit engendrer une forte capacité d'exploitation et d'exploration locales.
Les apports originaux de cette méthode sont l'introduction de la notion de zone d'influence d'un
agent et l'utilisation d'un facteur de précision pour rechercher les optima.
Lors de la conception de cette méthode, nous nous sommes attachés à réduire le nombre de
paramètres de réglage et à rendre ces paramètres intelligibles pour l'utilisateur.
• le système de contrôle,
• les agents.
- Page 91 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Système de contrôle
Création ou suppression
Le paramètre force permet de déterminer la proportion du nombre de points que l'agent va tester à
chaque étape de son évolution. Plus ce paramètre est élevé, plus le calcul est lent mais la recherche
de l'agent est plus efficace.
Le paramètre epsilon détermine la précision souhaitée par l'utilisateur. Chaque agent utilise ce
paramètre pour arrêter sa recherche de l'optimum et pour gérer les calculs de ses zones de
recherche et d'influence. Pour un décideur ce paramètre représente le taux d'erreur
acceptable.
• il crée périodiquement des agents qui sont positionnés aléatoirement dans l'espace de
recherche,
La génération aléatoire d'agents apporte à la méthode une bonne capacité d'exploration de l'espace
de recherche car chaque point de l'espace a la même probabilité d'être atteint.
L'élimination des agents inefficaces permet de réduire le nombre d'agents présents dans l'espace de
recherche. Comme nous le verrons par la suite, cette suppression permet d'accélérer le processus de
recherche sans diminuer sa capacité de prospection.
- Page 92 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Notre système de contrôle ne possède pas de critère d'arrêt, il effectue perpétuellement le cycle
d'exécution suivant :
d) Retourner en a).
Plusieurs manières pour fixer le nombre d'agents à ajouter dans l'espace de recherche à chaque
début de cycle ont été envisagées :
La première solution est très simple à implanter et n'exige aucun réglage de paramètre.
Finalement, nous avons choisi de privilégier la première solution car elle exempte l'utilisateur du
choix d'un ou plusieurs paramètre(s).
• Il développe autour de lui une zone de recherche variable dans laquelle il effectue sa
recherche de l'optimum.
• Il est mu par un but à atteindre (par exemple : trouver le maximum ou le minimum d'une
fonction).
- Page 93 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
• Après avoir colonisé un optimum, il tente de le protéger en calculant une zone d'influence
autour de cet optimum. Ainsi tout agent pénétrant dans cette zone sera éliminé par le
système de contrôle.
• Il est doué d'autonomie, c'est-à-dire qu'il n'est pas dirigé par l'utilisateur ou par le système
de contrôle. Il possède une fonction d'évolution qui lui permet de modifier sa position
dans l'espace de recherche en fonction du but à atteindre.
• Il ne communique pas avec les autres agents mais il perçoit leur présence.
On dit qu'un agent est valide lorsqu'il a trouvé un optimum52. Par opposition, un agent est dit non
valide s'il n'est pas situé sur un optimum.
Pour déterminer s'il est situé sur un optimum local, l'agent va tester la valeur de la fonction pour
des points de son voisinage situés à une distance epsilon53. Si aucun de ces points n'est meilleur que
la position de l'agent alors on peut considérer que l'agent est sur un optimum local.
52
Local ou global. Aucune différence ne peut être faite à ce niveau là.
53
Paramètre défini dans le paragraphe 4.2.1
- Page 94 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Agent
- epsilon + epsilon
- epsilon
+ epsilon
Le schéma ci-dessus montre la différence entre un agent valide (à droite) et un agent non valide (à
gauche) pour une fonction f : R → R. Nous pouvons remarquer sur le schéma de droite que l'agent
n'est pas exactement sur l'optimum. Il est tout de même valide car l'erreur, différence entre sa
position et la position de l'optimum, est inférieure à epsilon.
L'état de l'agent détermine son comportement d'évolution. Si l'agent est non valide, il adopte un
comportement de recherche d'optimum (stratégie de recherche). Dans le cas contraire, il adopte un
comportement de développement qui comprend l'augmentation de sa zone d'influence (stratégie de
défense) et la création d'autres agents (stratégie de diffusion).
A sa naissance un agent est non valide. Il adopte donc une stratégie de recherche de l'optimum.
Système de
contrôle
L'agent pénètre
Naissance Comportement de dans la zone Mort de
d'un agent recherche d'influence d'un l'agent
autre agent
Nous avons choisi d'appeler nos différents algorithmes "des stratégies" en raison des similitudes
entre les stratégies d'évolution adaptatives et notre méthode. En effet nos agents testent un ou
plusieurs points de leur voisinage, choisissent la position du meilleur pour se déplacer et adaptent
automatiquement leurs paramètres à la topologie de la fonction.
- Page 95 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Cette stratégie est basée sur l'utilisation d'une zone de recherche ZR qui est agrandie ou réduite en
fonction de la monotonie de la fonction objectif dans cette zone. ZR est définie par la position de
l'agent et par une valeur de voisinage intervrech similaire à la valeur σshare utilisée dans l'heuristique
de partage.
intervrech
A chaque cycle d'évolution, l'agent recherche une zone de monotonie ZM, incluse dans ZR, autour
de lui. Puis il recherche dans ZM une position meilleure que sa position courante P et se place sur
cette position si elle existe.
Si l'agent perçoit que sa zone de recherche ZR est monotone alors il l'agrandit, sinon il réduit ZR à
la plus grande zone de monotonie trouvée. Ce mécanisme permet à l'agent de régler
automatiquement sa vitesse de progression vers un optimum en fonction de la topologie de l'espace.
Les figures ci-dessous décrivent le mouvement d'un agent ainsi que l'évolution de sa zone de
recherche. Du schéma 1 au schéma 2 de la figure ci-dessous, l'agent se déplace et agrandit sa zone
de recherche. Du schéma 2 au schéma 3, l'agent se déplace et réduit sa zone de recherche car il a
détecté un changement de monotonie de la courbe.
- Page 96 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
1
2
Agent
Zone de
recherche Max
• il acquiert les capacités de développer une zone d'influence et de créer d'autres agents,
A l'aide des schémas n°1 et 2 de la figure ci-dessus nous pouvons voir comment l'agent évalue la
monotonie d'une fonction à une variable. Les points choisis aléatoirement dans son voisinage sont
classés par abscisses croissantes. Ensuite l'agent teste le sens de variation de la fonction entre sa
position et le point d'abscisse la plus proche et il réitère ce test de variation pour chaque couple de
points d'abscisses consécutives. Si le sens de variation n'est pas modifié alors la fonction est
monotone sur cette zone sinon l'agent enregistre le point au delà duquel la fonction n'est plus
monotone. Cette information lui permet de modifier la dimension de sa zone de recherche.
Dans le cas d'une fonction à deux variables, une grille de points choisis aléatoirement peut être
envisagée pour analyser la monotonie de la fonction.
Pour les fonctions à n variables il est préférable d'utiliser une technique de type "lancer de rayons".
L'agent choisit un nombre force de valeurs vi comprises entre 0 et 1. Ces valeurs vi sont triées par
- Page 97 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
ordre croissant de façon que vi ≤ vi+1. Ensuite l'agent54 choisit aléatoirement un point (y0, y1, …, yn)
situé à la limite de sa zone de recherche. Pour terminer il teste l'évolution du sens de variation de la
fonction pour la suite de points zi de coordonnées (vi.(y0-x0)+x0, vi.(y1-x1)+x1, …, vi.(yn-xn)+xn) avec i
∈ [1..force]. Au total l'agent lance [Link] rayons pour tester la monotonie de la fonction dans sa
zone de recherche.
Stratégie de diffusion
Lorsqu'un agent valide détecte un changement de monotonie dans sa zone de recherche, ne pouvant
occuper deux optima à la fois, il crée un autre agent qui va aller coloniser l'optimum situé au-delà
de ce changement de monotonie. Cette capacité permet au processus de recherche de se diffuser
localement dans l'espace. Ce mécanisme est schématisé ci-après (Figure 33).
Cette stratégie est basée sur le développement d'une zone d'influence ZI autour de la position de
l'agent (Figure 33). Cela va permettre de supprimer tous les agents qui essayeront de coloniser ce
sommet.
La zone d'influence d'un agent valide est l'espace qui l'entoure dans lequel l'agent ne détecte aucun
changement de monotonie de la fonction objectif.
Cette stratégie peut être qualifiée de stratégie de formation de niche. Car, en agrandissant sa zone
d'influence, l'agent définit un voisinage autour de l'optimum similaire à l'espace qu'occuperait une
niche composée de plusieurs individus.
54
La position de l'agent est notée : x0, x1, …, xn.
- Page 98 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Agent
valide
Nouvel
agent
Zone
d’influence
Si il y a monotonie
- Page 99 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
L'utilisation combinée des agents et du système de contrôle donne à cette méthode une bonne
capacité d'exploration ainsi qu'une bonne capacité d'exploitation.
La capacité d'exploitation de cette méthode est due aux caractéristiques de l'agent. La stratégie de
recherche utilisée permet aux agents de progresser rapidement vers les optima.
Lorsqu'un agent a trouvé un optimum, il acquiert la capacité de création. Les nouveaux agents vont
ainsi explorer le voisinage à la recherche d'autres optima. La répétition de ce phénomène va
permettre de visiter tout l'espace de recherche.
Dynamique du système
A tout moment l'environnement de l'agent peut être modifié. Les agents subissant ce changement se
redistribuent très vite dans l'espace de recherche afin de résoudre le nouveau problème. Comme
chaque agent surveille sa zone d'influence, il peut percevoir le changement d'environnement et à
partir de sa position il va recommencer sa recherche d'un optimum.
- Page 100 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Agent non
Mouvement de valide
Agent valide l'optimum
Dans l'exemple de dynamique de la figure ci-dessus, la position de l'optimum est modifiée. L'agent
précédemment positionné sur cet optimum détecte ce changement et modifie son état. Il devient
non valide. A partir du cycle suivant, il adopte une stratégie de recherche de l'optimum.
Le schéma ci-dessous montre l'apparition d'un optimum dans le voisinage d'un agent valide.
Nouvel
optimum
Nouvel
agent
L'utilisation de la zone d'influence des agents valides permet d'éliminer les agents qui progressent
vers un optimum déjà colonisé. Ainsi le système de contrôle régule lui-même le nombre d'agents
dans l'espace de recherche. Plus le nombre d'agents valides augmente, plus le total des zones sous
influence augmente. Donc l'espace restant à explorer diminue. Une autre conséquence bénéfique
est la diminution du nombre d'agents présents dans l'espace de recherche. Cette caractéristique est
montrée par le résultat obtenu (Figure 39) pour l'optimisation d'une fonction fortement multimodale
(Figure 38).
Cette caractéristique est la qualité principale de cette méthode. En effet, vous avons vu dans les
chapitres précédents que les méthodes qui n'ont pas une approche discriminante ne peuvent pas
- Page 101 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
donner une réponse appropriée au changement. De plus, ces méthodes risquent de détruire des
niches situées dans d'autres régions de l'espace.
Notre méthode, par l'intermédiaire des agents, permet d'apporter une réponse précise et rapide au
changement d'environnement (Figure 34 et Figure 35). Car seul(s) le ou (les)55 agent(s) situé(s)
dans la zone de changement sera(seront) impliqué(s). Tous les autres agents n'auront même pas
connaissance de ce changement et ils n'en subiront aucune conséquence.
Détection endogène
Notre méthode n'a pas besoin d'un mécanisme extérieur de détection de changement de
l'environnement. Ainsi sa robustesse ne dépend pas de ce mécanisme ou d'un paramétrage que
devra effectuer l'utilisateur.
La détection est basée sur une procédure simple de détection de changement de monotonie.
4.4 Résultats
Nous présentons dans cette section les résultats obtenus par cette méthode. Nous montrons tout
d'abord les capacités de cette méthode à trouver tous les optima locaux d'une fonction dans des
problèmes multimodaux et à réguler automatiquement le nombre d'agents présents dans l'espace de
recherche. Ensuite nous présenterons le test que nous avons mis en place pour tester cette méthode
dans un environnement dynamique.
55
Dans les schémas de la Figure 35, au pire, deux agents devront modifier leur stratégie.
- Page 102 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Figure 36 : Fonction f1
Figure 37 : Fonction f2
Nous pouvons constater que l'utilisation d'une technique de sharing classique avec un algorithme
génétique permet de distinguer les 3 optima de f1. Mais cette technique a du mal à trouver tous les
optima de f2. Beaucoup de petites niches ne sont pas détectées. Pour f2, il faut également
remarquer le nombre important d'individus dans la population.
Notre méthode distingue très bien dans les deux cas tous les optima locaux et l'optimum global.
Nous pouvons aussi constater le nombre très faible d'individus nécessaires pour explorer l'espace
de recherche (10 pour la fonction f1 et 62 pour la fonction f2) après stabilisation du système. C'est-
à-dire après que tous les optima ont été trouvés et que chaque agent sur un optimum a développé sa
zone d'influence.
Dans l'exemple ci-dessous, la fonction possède 761 optima dont 18 optima globaux. On constate
que tous les optima ont été trouvés, et on aperçoit clairement les zones d'influence de chaque agent
(Figure 38).
- Page 103 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
5 5
f(x,y) = ∑
i =1
i*cos((i +1)*x +i) * ∑(−i*sin((i +1)* y+i))*(i+1)
i =1
+
5 5
∑i =1
i*cos((i +1)* y +i) * ∑(−i*sin((i +1)*x+i))*(i+1)
i =1
Le graphique ci-dessous représente l'évolution du nombre d'agents dans l'espace de recherche par
rapport au nombre d'agents valides56 pour la fonction multimodale présentée ci-dessus.
Dans un premier temps, l'évolution est approximativement linéaire car les zones d'influence ne sont
pas assez nombreuses pour compenser l'introduction des nouveaux agents par le système de
contrôle.
A partir du 250ième optimum trouvé, les zones d'influence compensent de plus en plus
l'augmentation du nombre d'agents dans l'espace de recherche. Cela explique le début d'inflexion de
la courbe.
A partir du 500ième optimum trouvé, l'inflexion de la courbe s'accentue. Le nombre d'agents dans la
population diminue car les zones d'influence permettent de supprimer plus d'agents que le système
de contrôle n'en crée.
Une fois que tous les optima sont trouvés et que chaque agent valide a développé sa zone
d'influence, le nombre total d'agents se stabilise57 au alentour de 950. En effet le nombre d'agents
56
C'est-à-dire par rapport au nombre d'optima trouvés car un agent dit valide est un agent qui a trouvé un optimum.
57
N'apparaît pas sur ce type de courbe.
- Page 104 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
créés par le système de contrôle ou par les agents valides qui détectent un changement de
monotonie, est proche du nombre d'agents détruits car entrés dans une zone d'influence. La
différence entre le nombre total d'agents et le nombre d'agents valides représente les agents en
situation de recherche d'optimum.
1400
1300
1200
1100
1000
Nombre d'agents
900
800
700
600
500
400
300
200
100
0
1 51 101 151 201 251 301 351 401 451 501 551 601 651 701 751
Figure 39 : Courbe d'évolution du nombre total d'agents par rapport au nombre d'agents valides
Par opposition, l'utilisation d’un algorithme génétique dans ce type de problème exige que le
nombre d’individus dans la population soit approprié par rapport au nombre d'optima de la
fonction. Cela implique que l'utilisateur ait une connaissance a priori du problème.
Lobo et Harik ont essayé de créer une méthode basée sur les algorithmes génétiques qui tente de
réguler automatiquement le nombre d’individus [Harik and Lobo 1999]. Dans leur approche, ils
démarrent avec une population très faible, puis ils doublent la taille de la population chaque fois
que la perte de diversité génétique est trop rapide. Cette méthode demande de nombreux tests avant
de trouver la taille adéquate de la population et elle dépend de la mesure de la perte de diversité.
- Page 105 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Au départ, la boule de billard est située en haut à gauche de l'espace de recherche. Elle est donc
l'optimum de la fonction. Ensuite elle parcourt le chemin indiqué en pointillé en 2000 pas de temps.
Au fur et à mesure de son déplacement la boule de billard modifie la courbe. Les points formant la
courbe étant classés par ordre d'abscisse croissante, chaque fois que la boule de billard change de
position dans le classement la ligne brisée est modifiée.
Optimum
fixe
A certaines périodes, la boule de billard modifie également la position de l'optimum global (Figure
42). Deux périodes sont intéressantes à étudier (du temps 1 à 300 et du temps 1400 à 2000). En
effet durant ces périodes la position de l'optimum de la fonction est modifiée à chaque cycle
d'exécution. En dehors de ces périodes, l'optimum représenté par le point appelé "optimum fixe" ne
change pas.
- Page 106 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Position optimale
450
400
350
300
250
200
150
100
50
0
1 201 401 601 801 1001 1201 1401 1601 1801
• Un algorithme génétique simple doté d'un taux de mutation de 5%. Ce taux élevé permet
de simuler l'hypermutation décrite au paragraphe [Link]. La population est de 100
individus et le taux de croisement est de 60%.
• Un algorithme génétique avec sharing classique qui a une population de 400 individus, un
taux mutation de 0,5% et un taux de croisement de 60%.
Pour effectuer les mesures présentées dans les graphiques ci-dessous nous avons synchronisé le
mouvement de la boule de billard avec notre méthode et avec les algorithmes génétiques. La boule
de billard est déplacée d'une valeur ∆x sur l'axe des x et ∆y sur l'axe des y, à chaque génération pour
les algorithmes génétiques, à chaque cycle d'exécution pour notre méthode.
340
320
300
280
260
240
220
200
1 51 101 151 201 251
- Page 107 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Position optimale
400 AG hypermutation
AG avec sharing
380
Multiagent
360
340
320
300
280
260
240
220
200
1 51 101 151 201 251 301 351 401 451 501 551 601
Les graphiques ci-dessus représentent les évolutions des meilleurs individus à chaque cycle
d'exécution. Nous pouvons ainsi comparer l'efficacité de notre méthode à celle d'une méthode
utilisant l'hypermutation et d'une méthode utilisant le sharing dans un environnement dynamique.
Dans la période 1 (Figure 43), notre méthode est plus proche de l'optimum dans 74% des cycles
d'exécution par rapport à l'algorithme génétique avec l'hypermutation, et dans 68% pour
l'algorithme avec sharing.
Dans la période 2 (Figure 44), notre méthode est plus proche de l'optimum dans 85% des cycles
d'exécution par rapport aux deux algorithmes génétiques. Les résultats sont meilleurs dans la
période 2 car, lorsque cette période commence, la plus grande partie de l'espace de recherche est
sous influence d'un agent. Donc, la réponse de notre méthode est plus rapide.
Le scénario de la période 1 est le pire des cas pour notre méthode car, dès le départ, l'optimum est
en mouvement. A ce moment là, il n'y a qu'un seul agent dans tout l'espace de recherche contre 100
individus pour la méthode utilisant l'hypermutation. Il faut donc un certain laps de temps (environ
50 cycles d'exécution) pour que le nombre d'agents soit suffisant pour découvrir l'optimum global.
On peut également remarquer sur les deux graphiques que notre méthode ne subit pas la tromperie
de la courbe multimodale. Par moment, les deux méthodes utilisant un algorithme génétique ont un
maximum qui descend sous la valeur 270. Cette valeur est l'optimum fixe (Figure 41) et seule la
boule de billard peut avoir une valeur plus grande qu'elle. Donc, si une méthode ne trouve pas la
boule de billard, elle devrait se positionner en second lieu sur cet optimum. Or, on constate que la
méthode basée sur l'hypermutation est trompée très souvent et ses résultats sont parfois très
éloignés de l'optimum. La méthode basée sur le sharing résiste beaucoup mieux à cette tromperie.
- Page 108 -
_______ Méthodes de recherche des optima locaux d'une fonction multimodale en environnement dynamique
Notre méthode n'est jamais trompée car un des agents s'est positionné sur l'optimum fixe et le
maintient durant toute la simulation.
4.5 Conclusion
Nous avons réalisé une méthode multiagent qui permet de rechercher tous les optima d'une
fonction multimodale à epsilon près. Cette méthode est également capable de répondre de manière
discriminante au changement d'environnement. Ceci lui procure une capacité à être utilisée dans les
problèmes en environnement dynamique. Comme nous l'avons constaté dans les résultats, elle ne
subit pas la tromperie de la fonction car elle arrive à positionner un agent sur chaque optimum
local. Cette méthode est également très simple à paramétrer pour un utilisateur et ses paramètres
sont compréhensibles.
Bien évidemment ces conclusions devront être confirmées par un plus grand nombre de tests. Nous
espérons aussi développer un ensemble de problèmes pour tester les méthodes en environnement
dynamique car il n'existe actuellement aucun jeu de test validé par la communauté scientifique
permettant d'effectuer une comparaison entre les différentes méthodes.
Suite à ces résultats encourageants, nous avons souhaité généraliser cette approche pour résoudre
des problèmes multiobjectifs.
- Page 109 -
_______________________________________Généralisation à des problèmes d'optimisation multiobjectifs
Chapitre 5.
Généralisation à des problèmes
d'optimisation multiobjectifs
Dans ce chapitre nous présentons la généralisation de notre méthode multiagent à des problèmes
d'optimisation multiobjectifs. Ensuite, nous commentons les résultats obtenus sur ce type de
problèmes et nous posons la réflexion suivante : la zone d'influence de l'agent peut-elle être
interprétée par le décideur comme une mesure de marge de sécurité ?
5.1 Introduction
La méthode présentée dans le chapitre précédent utilise un système multiagent pour rechercher
l'ensemble des optima d'une fonction mutimodale. Nous souhaitions conserver les principales
qualités de cette approche pour l'optimisation de problèmes multiobjectifs :
Nous utiliserons la dominance58 au sens de Pareto pour effectuer une comparaison entre les
différentes solutions et pour diriger les agents dans l'espace de recherche. Donc, dans les problèmes
multiobjectifs, nos agents ne recherchent pas un optimum mais une zone Pareto-optimale, c'est-à-
dire une zone dans laquelle tous les points sont non dominés.
Comme pour l'approche précédente le cycle de vie d'un agent est décomposé en deux phases. Une
première phase de recherche dans laquelle l'agent cherche une zone Pareto-optimale et une
deuxième phase de développement dans laquelle l'agent augmente sa zone d'influence et génère
d'autres agents pour explorer le voisinage.
- Page 110 -
_______________________________________Généralisation à des problèmes d'optimisation multiobjectifs
• le mouvement de l'agent,
Un agent sera dit valide s'il a développé autour de lui une zone d'influence. Dans cette approche, la
zone d'influence est appelée zone de dominance car elle détermine la région autour de l'agent dans
laquelle toutes les solutions potentielles sont non dominées.
Zone de recherche
Zone de
dominance
Agent
58
Définie au paragraphe [Link].
- Page 111 -
_______________________________________Généralisation à des problèmes d'optimisation multiobjectifs
Zone de recherche
force = 3
- Page 112 -
_______________________________________Généralisation à des problèmes d'optimisation multiobjectifs
Ce nouveau paramètre introduit n'est pas primordial pour notre méthode car il n'a aucun effet sur le
comportement d'optimisation de l'agent. Il a été introduit pour éviter qu'un agent essaie d'augmenter
sa zone de dominance alors que cette zone a atteint son maximum. Cela permet une économie de
calculs.
j j
i
i
Ce mécanisme de répulsion permet de disperser les agents valides sur l'ensemble de la zone Pareto-
optimale. Ainsi nous n'avons pas besoin d'utiliser une heuristique de répartition.
Pour le premier problème, nous avons effectué une comparaison entre avec la méthode NPGA59 et
notre méthode. Les résultats sont montrés ci-dessous, NPGA (Figure de gauche) et notre méthode
(Figure de droite). Le triangle présent sur les deux figures représente l'ensemble Pareto-optimal.
59
Décrite au paragraphe [Link].
- Page 113 -
_______________________________________Généralisation à des problèmes d'optimisation multiobjectifs
La première caractéristique que l'on remarque est la différence de représentation des solutions
obtenues. Dans la méthode NPGA, comme dans toutes les méthodes décrites dans le Chapitre 2, les
solutions sont représentées par des points alors que notre méthode présente les solutions sous forme
de zones Pareto-optimales. Cette représentation permet une description plus fine de l'ensemble
Pareto-optimal du problème et mène à la réflexion suivante :
La zone d'influence, ou zone de dominance, de l'agent peut-elle être interprétée par le décideur
comme une mesure d'une marge de sécurité ?
A priori, le décideur ne connaît pas la forme de l'ensemble Pareto-optimal avant de résoudre son
problème. Une méthode comme NPGA va proposer un ensemble de solutions Pareto-optimales.
Ensuite il va choisir une des solutions en fonction de ses préférences sur les résultats obtenus.
Envisageons le cas présenté dans la figure suivante :
Les résultats
Les deux solutions A et B offrent des résultats équivalents, le décideur opte pour la solution A. Or
on constate sur la figure que A est relativement proche de la zone non optimale alors que B est plus
éloigné de cette zone. Donc en choisissant A le décideur prend plus de risque car, si pour une raison
- Page 114 -
_______________________________________Généralisation à des problèmes d'optimisation multiobjectifs
quelconque une des composantes de l'action A doit être légèrement modifiée, A deviendra non
Pareto-optimale.
L'utilisation d'une méthode basée sur un algorithme génétique n'offre aucune information
supplémentaire pour permettre une meilleure prise de décision alors que notre méthode propose en
plus de la solution Pareto-optimale une mesure permettant d'estimer la marge de sécurité du
décideur. Cette mesure est la largeur de la zone de dominance de l'agent. Par exemple, dans le
résultat de notre méthode Figure 48, l'agent situé au centre du schéma possède une grande zone de
dominance par rapport aux autres agents. Donc en choisissant la solution proposée par cet agent, le
décideur se donne une marge de sécurité par rapport à l'action à effectuer.
Nous avons également testé notre méthode sur le problème n°2 de Viennet. Dans ce cas, l'ensemble
des solutions Pareto-optimales est non convexe.
On peut constater que notre méthode arrive également à définir un ensemble Pareto-optimal non
convexe.
5.4 Conclusion
La généralisation de notre approche à des problèmes multiobjectifs n'a pas nécessité l'abandon de
ses caractéristiques principales. Notre méthode est simple à paramétrer et le nombre d'agents
s'adapte automatiquement au problème à optimiser. Par contre nous ne sommes pas capables, faute
de tests sur des problèmes dynamiques et multiobjectifs, de confirmer ses capacités de détection
endogène du changement et de réponse discriminante.
- Page 115 -
_______________________________________Généralisation à des problèmes d'optimisation multiobjectifs
Nous devons également tester notre approche sur un plus large éventail de problèmes
multiobjectifs, notamment sur des problèmes dont la frontière de Pareto est non convexe. Les
problèmes 1 et 2 exposés par Viennet ont une frontière de Pareto convexe, donc toute solution
Pareto-optimale locale est une solution Pareto-optimale globale. Si un problème a une frontière de
Pareto non convexe alors il apparaît une distinction entre les solutions Pareto-optimales locales et
les solutions Pareto-optimales globales (schéma ci-dessous). Or l'état actuel d'avancement de notre
méthode ne lui permet pas de distinguer ces deux types de solutions.
f2 min
Zones Pareto-
optimales
Zone Pareto- locales
optimale
globale
f1 min
L'apport intéressant de notre méthode multiobjectif est cette présentation différente des solutions
Pareto-optimales. Au lieu de donner au décideur un ensemble de solutions Pareto-optimale, notre
approche lui indique un ensemble de zones Pareto-optimales. Cette représentation lui apporte ainsi
une meilleure connaissance du problème.
Nous avons enfin émis une réflexion sur l'interprétation possible de la taille de la zone de
dominance de nos agents comme l'évaluation d'une marge de sécurité pour le décideur.
- Page 116 -
Partie III.
Simulations économiques
- Page 117 -
Nous présentons dans cette partie deux applications de méthodes évolutionnaires dans le cadre de
problèmes économiques. Le lecteur sera sûrement étonné de constater que la méthode des gouttes
d'eau que nous développons dans la partie précédente de cette thèse n'est pas utilisée dans ces
simulations. La première application qui sera présentée dans cette partie constitue le point de départ
de cette thèse. Il s'agissait de réaliser une plate-forme générique pour la simulation de coopération
et de compétition entre acteurs économiques. Les recherches et les réflexions menées pour réaliser
les modèles de simulation ont progressivement orienté nos travaux théoriques vers les problèmes
d'optimisation multiobjectifs et dynamiques. Ensuite, nous n'avons pas eu le temps de mettre en
œuvre cette méthode dans le cadre de problèmes économiques.
Dans une première partie nous présentons une plate-forme générique pour la simulation de
coopération et de compétition entre agents économiques. Cette partie se termine par un exemple
d'application effectué en collaboration avec un étudiant en DEA 2IL, Stéphane Sanchez. Cette
application utilise un algorithme génétique pour optimiser le placement des succursales d'une
entreprise en fonction de la répartition géographique des consommateurs.
Dans une deuxième partie nous présentons un travail effectué en collaboration avec Isabelle
Leroux, étudiante préparant une thèse en économie au sein du LEREPS. Cette simulation porte sur
l'évolution des comportements de négociations. Dans ce cas l'algorithme génétique n'est pas utilisé
comme une méthode d'optimisation mais comme un mécanisme évolutionnaire. En effet le but de
cette étude n'est pas d'optimiser une fonction mais d'étudier l'évolution des proportions des
différents types d'individus présents dans la population. Nous verrons comment cet algorithme nous
permet d'obtenir des équilibres entre différents groupes d'individus constituant la population.
- Page 118 -
__________________________________________________ Une plate-forme générique pour la simulation
Chapitre 6.
Une plate-forme générique pour la
simulation de coopération et de
compétition entre agents économiques
6.1 Introduction
Peu de modèles actuels de simulation économique prennent en compte à la fois les notions de
temps et d'espace géographique dans lequel les acteurs sont répartis. Ce chapitre discute de la mise
en place d'une plate-forme de simulation économique visant à maintenir la réelle complexité du
système60. L’objectif est de réaliser un ensemble d'outils génériques qui permettent, à un
économiste ou un informaticien, de créer et de faire interagir les différents agents économiques : les
entreprises, les ménages, les institutions financières et l’état. Cette plate-forme doit permettre
également d’ajouter des facteurs exogènes aux agents, c’est-à-dire des facteurs qui échappent à tout
contrôle des agents (conditions climatiques, sources de matières premières, etc.). Dans une
première partie, nous présentons les différents modèles nécessaires à une simulation réaliste d'une
société économique. Ensuite nous présentons le moteur d'algorithme génétique que nous avons
conçu afin de résoudre des problèmes d'optimisation uniobjectifs ou multiobjectifs. Enfin nous
présenterons une première utilisation du moteur développé : une entreprise proposant plusieurs
services essaie d'optimiser le placement de ses succursales dans un espace géographique dans
lequel les consommateurs sont répartis de façon non homogène.
60
Pour comprendre un système compliqué, il faut le simplifier, pour comprendre un système complexe on doit le
modéliser car la simplification amène à détruire son intelligibilité, Jean Louis Le Moigne.
- Page 119 -
__________________________________________________ Une plate-forme générique pour la simulation
Nous allons discuter maintenant de la façon de modéliser nos différents acteurs économiques.
Dans un premier temps nos travaux portent essentiellement sur la modélisation des entreprises et
des ménages afin de pouvoir mettre en oeuvre très rapidement des simulations de marchés virtuels
de consommation. Les modélisations des institutions financières et de l'état ont été simplifiées car
ces derniers ne jouent pas, pour le moment, un rôle très important dans nos simulations.
[Link] L’état
Le rôle de l’état est d’imposer des règles communes à tous les acteurs ou à une certaine catégorie
d’acteurs. Ces règles sont vues par les agents économiques comme des contraintes
environnementales dont ils doivent tenir compte dans leur recherche d'un comportement adapté.
- Page 120 -
__________________________________________________ Une plate-forme générique pour la simulation
Pour créer un environnement dynamique dans lequel la consommation évolue dans le temps mais
aussi dans l'espace, le consommateur sera modélisé par un ensemble de caractéristiques propres
(âge, revenu, nombre d'enfants, etc.) et par un module comportemental simple qui lui permettra de
faire un classement des produits qu'il désire acquérir en fonction de ses goûts et de ses besoins.
L'évolution du goût du consommateur s'effectuera soit de façon aléatoire, soit par imitation de ses
voisins, soit en recherchant le produit qui satisfait au mieux sa demande.
Parmi les modélisations d'agents économiques qui doivent être effectuées, celle du comportement
d'une entreprise est la plus délicate. En ce qui concerne le consommateur, nous avons considéré que
celui-ci évoluait indépendamment des autres consommateurs, or le comportement d'une entreprise
doit tenir compte non seulement de son environnement mais aussi du comportement des autres
entreprises. Sa pérennité dépend non seulement de son système de production mais aussi des
décisions prises en matière de production, de recherche et développement et de
coopération/concurrence.
- Page 121 -
__________________________________________________ Une plate-forme générique pour la simulation
Le système de décision qui représente l'équipe dirigeante pourra être modélisé par un système de
classifieurs. Son but est de diriger les systèmes de production et de recherche et de développement
en fixant les objectifs à atteindre. Dans le cas où le système de production peut influencer plusieurs
variables de sortie, le système de décision pourra lui imposer d'optimiser une variable particulière.
Le système de production sera modélisé par un algorithme génétique. Son but sera d'optimiser une
ou plusieurs variables en sortie (outputs) en fonction de variables en entrée (inputs) et des
contraintes environnementales.
Le paragraphe suivant présente le moteur générique d'algorithme génétique que nous avons réalisé.
La classe Gene est une classe polymorphe. L'utilisateur peut en fonction de son problème créer ses
propres gènes. Il suffit pour cela qu'il définisse les fonctions d'initialisation, de mélange et de
mutation de son gène. Ensuite celui-ci pourra être utilisé comme les gènes de base (bit, entier et
réel) déjà inclus dans la plate-forme. L'utilisateur peut aussi créer un gène complexe en combinant
plusieurs gènes de base.
La classe Chromosome est décomposée en deux sous classes : les chromosomes de taille fixe et les
chromosomes de taille variable. Chacune de ces classes offre à l'utilisateur plusieurs modes de
croisement et de mutation paramétrés à la création du chromosome mais pouvant être changés
durant le processus d'évolution.
- Page 122 -
__________________________________________________ Une plate-forme générique pour la simulation
La classe Population regroupe les caractéristiques de tous les individus et les paramètres de
l'évolution (taux de mutation, taux de croisement, nombre d'individus, mode de sélection, mode de
mutation) ainsi que des fonctions statistiques pour les contrôler.
La classe Evolution est une tâche Java. L'utilisateur doit simplement spécifier la condition d'arrêt,
s'il y en a une, de l'évolution. Les tâches Java permettent de réaliser facilement des simulations
dans lesquelles peuvent évoluer plusieurs agents avec un comportement différent. Ce style de
conception est très utile pour créer des environnements dans lesquels des agents évoluent
indépendamment de leurs voisins. Dans les systèmes ainsi créés, les agents participent à une
coévolution par l'intermédiaire d'une mise en concurrence autour du partage d'une ou de plusieurs
ressources communes. Une interface permettant de modifier les paramètres de l'algorithme
génétique pendant l'évolution a aussi été créée.
Cette librairie a été réalisée avec le souci de simplifier l'implémentation d'un problème
d'optimisation basé sur un algorithme génétique. L'utilisateur doit :
Le paragraphe suivant présente la première réalisation issue de cette librairie. Nous souhaitions
réaliser un outil générique qui permette à une entreprise de calculer un placement optimal de ses
points de vente ou de ses points de production dans un environnement complexe contenant des
consommateurs et des concurrents.
- Page 123 -
__________________________________________________ Une plate-forme générique pour la simulation
Chaque consommateur est défini par des critères physiques et sociaux. Les critères physiques sont :
la position dans l'espace, l’âge et le sexe. Les critères sociaux sont : le nombre d'enfants et le statut
(salarié, étudiant, marié…). L'ensemble de ces critères permet de sélectionner un segment de
consommateurs afin de le mettre en relation avec le service correspondant proposé par l'entreprise.
La répartition des consommateurs dans l'espace géographique est faite de façon à simuler une
situation réaliste. Des zones denses représentent les villes et les critères sociaux sont répartis dans
toute la population.
Pour cette première étude les consommateurs n'ont pas de comportement évolutif, il n’y aura donc
pas de déplacement de population ni de vieillissement ou de changement de statut social.
L'entreprise
L’entreprise est représentée par l’ensemble de ses succursales. Chacune d’entre elles est définie par
sa position (x, y), son rayon d'influence r et sa capacité de traitement cap. Le rayon d'influence
permet de simuler l'attraction exercée par une succursale sur le segment de consommateurs visé. Ce
critère symbolise le type ou le nombre de services que propose une succursale. La capacité de
traitement représente le nombre de consommateurs que peut prendre en charge correctement une
succursale. Ce critère symbolise la taille d'une succursale et permettra d’évaluer l’efficacité de
celle-ci. Si sa capacité est trop faible, une succursale ne pourra pas traiter correctement tous ses
consommateurs potentiels situés dans son rayon d’influence et, au contraire, si elle est trop
importante une partie de sa capacité de traitement sera inexploitée.
L'ensemble des succursales d'une entreprise est représenté par un chromosome composé de gènes
définis précédemment.
61
Chaque service dépend d'un type de succursales et il est adapté à un segment particulier de la population.
- Page 124 -
__________________________________________________ Une plate-forme générique pour la simulation
x1 y1 cap1 xn yn capn
L'optimisation est effectuée par une seule entreprise. Mais il est possible d'intégrer au modèle : la
concurrence déjà en place, les équipements de transports ou tout autre élément pouvant influencer
l'optimisation.
6.4.2 La fitness
La résolution du problème se base uniquement sur la qualité de recouvrement de l’ensemble des
succursales sans tenir compte du coût de leur implantation. Cependant la prise en compte de ces
critères est facilement intégrable au modèle en modifiant la fonction d'évaluation.
Le calcul de la note finale du génome est basé essentiellement sur le compte du nombre de
consommateurs recouverts par l'ensemble des succursales constituant le chromosome. Cependant,
considérer un tel compte comme seul élément d’évaluation ne permet pas d’obtenir un résultat
optimal. En effet, cela conduit à une solution où tout l’espace de travail est recouvert de façon
aléatoire sans aucun souci d’optimisation. Donc, pour que l’algorithme converge vers un résultat
optimal, c'est-à-dire avec un recouvrement intersuccursales quasi nul et une bonne adaptation des
capacités de traitement de chaque succursale, il a fallu introduire des variables supplémentaires
pour l’évaluation de la note finale du génome.
NCgenei
CAPgenei si NCgenei ≤CAPgenei
EFFgenei = 30)
CAPgenei sinon
NCgenei
62
Certaines succursales peuvent proposer un ou plusieurs services identiques. Donc elles se concurrencent sur une partie
- Page 125 -
__________________________________________________ Une plate-forme générique pour la simulation
TailleC hom o
f(t) = NCchromo *100 −
NCseg ∑(1−EFFgene )
i =1
i 31)
f(t) représente l'efficience du chromosome moins un malus qui dépend de l'efficacité de chaque
succursales qui le compose. Cette fonction d'évaluation s'avère efficace, mais elle a cependant une
faiblesse. En effet, un consommateur n’est jamais compté deux fois au cours de l’évaluation mais,
en raison du malus minoré par l’efficacité des succursales, des phénomènes de recouvrements plus
ou moins importants entre les zones d'influence des succursales d'un même chromosome
apparaissent. Le calcul de f(t) ne permet pas de savoir si une zone est traitée par plusieurs agences
de petite taille ou par une seule agence de capacité plus importante. Afin de minimiser ces
recouvrements entre succursales, un traitement préliminaire sur les chromosomes est appliqué :
• les succursales sont comparées entre elles de manière à détecter si elles se recouvrent ou
non, un seuil de tolérance du recouvrement étant possible,
• si le recouvrement entre deux succursales est intolérable alors la plus efficace est
maintenue et l'autre est éliminée du chromosome,
• le nouveau chromosome est réévalué, en interdisant cette fois qu'un consommateur soit
compté plusieurs fois.
6.4.3 Résultats
Dans les résultats présentés, nous travaillons sur une population de 10000 consommateurs répartis
dans un espace de 400x400. Des zones plus denses représentant 85% de la population sont créées
afin de simuler des pôles d'attraction.
• 500 individus,
de la population.
- Page 126 -
__________________________________________________ Une plate-forme générique pour la simulation
100 90
90 80
80
70
70
60
60
50
50
40
40
30
30
20 Nombre de succursales
20 Nombre de succursales
Note maximale
Note maximale
10 10 Note moyenne
Moyenne
0 0
1 201 401 601 801 1001 1201 1401 1 201 401 601 801 1001 1201 1401
Génération Génération
Ces deux méthodes obtiennent des résultats satisfaisants car elles arrivent à répartir correctement
les succursales en fonction de la densité de la population. Pour la stratégie utilisant le chromosome
variable, 84% des consommateurs sont traités par 33 succursales. Pour l'autre stratégie, 87% des
consommateurs sont traités par 32 succursales. D'un point de vue de temps de calcul, la stratégie
utilisant un chromosome fixe est nettement plus rapide.
6.5 Conclusion
Les premières simulations ont donné des résultats encourageants notamment sur la qualité de la
solution trouvée par l'algorithme génétique. De plus, la souplesse de conception du moteur
d'algorithme génétique nous permet d'ajouter facilement de nouvelles contraintes
environnementales ou de modifier les objectifs de l'entreprise.
- Page 127 -
__________________________________________________ Une plate-forme générique pour la simulation
Actuellement notre moteur d'algorithme génétique a été utilisé pour résoudre des problèmes de
placement d'objets dans une scène 3D construite par un modeleur déclaratif et a été inséré dans un
système de classifieurs.
Dans nos prochaines simulations nous souhaiterions doter nos consommateurs d'un comportement
qui leur permettra de se déplacer dans l'espace géographique. Nous souhaitons ainsi voir émerger
de la simulation les phénomènes d'agglomérations locales observés dans la réalité.
- Page 128 -
____________________________________________________Simulation de comportement de négociation
Chapitre 7.
Simulation de comportements de
négociation
7.1 Introduction
La notion de coordination a très souvent été associée dans la littérature économique à celle de
coopération, oubliant les conflits d'intérêt et les conflits de pouvoir dont le traitement peut conduire
à un résultat coopératif. Or l'enjeu actuel est justement de donner un contenu à cette notion de
coordination, en pénétrant les mécanismes qui conduisent effectivement les différents acteurs
économiques à se coordonner dans le temps et dans l'espace des activités économiques, au-delà des
conflits d'intérêts et de pouvoir. Et pénétrer dans la boîte noire de la coordination revient selon nous
à pénétrer dans les mécanismes d'élaboration et de sélection des règles de négociation. Dans cette
perspective, l'objet de ce travail est d'offrir un éclairage particulier à la notion de négociation en
choisissant comme voie de recherche une approche comportementale basée sur la vie artificielle.
Nous prenons comme point de départ le modèle évolutionniste d'Ellingsen [Ellingsen 1997] qui
pose les bases d'une approche de la négociation en termes d'asymétrie communicationnelle. Cet
auteur développe en effet une réflexion sur les comportements à la fois adaptatifs et
communicationnels d'un jeu de demande de Nash sous ultimatum. Il montre ainsi la convergence
systématique vers des stratégies d'appropriation dites justes, où chacun des agents demande 50% du
gâteau plutôt que d'adopter des stratégies sophistiquées coûteuses.
Cependant, au-delà du modèle original d'Ellingsen, il s'agit ici de construire les bases d'une analyse
évolutionniste des comportements de négociation exprimés non seulement en termes de partage,
mais aussi en termes de pouvoir. Les simulations, basées sur un algorithme génétique, feront ainsi
apparaître qu'une négociation n'est pas toujours l'expression d'un altruisme partagé, mais au
contraire un équilibre dissymétrique entre domination et concession. Nous mettrons en évidence
- Page 129 -
____________________________________________________Simulation de comportement de négociation
i si i + j ≤ 1
Π ij = i + j 32)
0 sinon
Remarque : Dans le cas où la demande cumulée est inférieure strictement à la taille du gâteau
(i+j<1) alors il existe un surplus (1-i-j). Ce dernier est partagé proportionnellement à la demande
de chaque agent.
• La stratégie obstinée. L'agent adoptant cette stratégie n'est pas capable d'identifier le type
(obstiné ou sophistiqué) de son adversaire, et sa demande de part de gâteau est fixée
indépendamment de la demande de l'adversaire (stratégie aveugle).
- Page 130 -
____________________________________________________Simulation de comportement de négociation
Obstiné Sophistiqué
i 1-j
Obstiné
j j
i 1/2
Sophistiqué
1-i 1/2
L'ensemble des demandes possibles i (stratégie obstinée) est supposé fini et noté I ⊂ [0, 1]. La
demande r d'une stratégie responsable est noté {r}. Et enfin, la réunion de ces deux ensembles de
stratégies est noté S. S unit d'une part l'ensemble de toutes les demandes possibles pour la stratégie
obstinée i, et d'autre part la stratégie sophistiquée r : S = I ∪ {r}.
Les stratégies obstinées telles que i < 1/2 sont appelées modestes, et les stratégies telles que i > 1/2
sont appelées immodestes. Ellingsen fait l'hypothèse que les stratégies dites justes (i = 1/2) et
avides (i = 1) sont toujours comprises dans I.
La matrice suivante présente la matrice des gains p de chaque acteur lorsqu’il y a réussite de la
négociation. On a alors πir = i, πri = 1-i, πrr = 1/2.
Obstiné Sophistiqué
i/(i+j) 1-j
Obstiné
j/(i+j) j
i 1/2
Sophistiqué
1-i 1/2
Figure 56 : Matrice des gains
Ellingsen note G = 〈S,π〉, le jeu dans lequel chaque agent de la population exerce une stratégie s∈S
et dont la matrice des gains est π.
- Page 131 -
____________________________________________________Simulation de comportement de négociation
U(es,n) = ∑ n .π
s'∈S
s' ss' 33)
Le paiement moyen d'une population n qui rencontre les membres d'une population ñ est :
U(n,ñ) = ∑ ∑n .ñ .π
s∈S s'∈S
s s' ss' 34)
Par ailleurs, Ellingsen utilise la technique du réplicateur comme outil de sélection et de réplication
des populations. Pour cela il fait l'hypothèse selon laquelle à chaque stratégie de jeu correspond un
réplicateur particulier. Dans une population, chaque réplicateur est associé à un degré d'adaptabilité
fi et représente une proportion de population pi. La dynamique du réplicateur, c'est à dire l'évolution
des proportions de chaque réplicateur dans la population, est donnée par l'équation différentielle :
dp
= p.(fi − f) avec f le degré d’adaptabilité moyen 35)
dt
Pour définir l'état d'équilibre, c'est-à-dire la stratégie évolutionnairement stable, Ellingsen s'appuie
sur le critère de stabilité de Lyapunov qui suppose qu'un petit choc exogène ne modifie pas l'état
d'équilibre de la population63. Dans cette perspective, un choc est l'introduction d'une population de
mutants dans la population d'équilibre. L'évolution va alors modifier la composition de la
population et converger vers un nouvel équilibre. Si le nouvel équilibre est identique à celui qui
précédait le choc, alors l'équilibre est dit évolutionnairement stable.
63
Ce critère de stabilité ne prend en compte que la résistance de l'équilibre à un seul choc.
- Page 132 -
____________________________________________________Simulation de comportement de négociation
Le paiement moyen des mutants est U(nˆ,n~ ) et le paiement moyen de la population incubée est
U(n,n~) . Dans cette perspective, une population est dite évolutionnairement stable si pour chaque
nˆ ≠ n , il existe un intervalle Eˆ =(0,εˆ) tel que pour chaque ε ∈ Eˆ , U(n,n~) > U(nˆ,n~ ) . Une population
est donc évolutionnairement stable si la population incubée gagne en moyenne strictement plus que
toute population mutante. Ainsi, une population mutante n'aura aucune chance de pouvoir envahir
la population incubée car son espérance de gain est plus faible. En développant, l'équation de
stabilité, on obtient :
• Etape 2, il introduit une hypothèse d'incertitude probabiliste ad hoc sur la taille du gâteau,
et étudie la version perturbée du modèle.
• Etape3, il relâche l'hypothèse selon laquelle toutes les stratégies sophistiquées sont
implémentées à un coût nul.
Pour chaque étape, Ellingsen s'attache à montrer l'existence d'une population d'équilibre stable.
La première étape du jeu montre que seule la population d'agents dits justes est capable de
participer au maintien de l'équilibre stable. En effet, recourir à la stratégie immodeste est inopérant
pour deux raisons :
Par conséquent, la seule population capable de donner lieu à un équilibre évolutionnairement stable
est la population juste qui opte pour un partage 50%-50%. Dans ce cas, le recours à la stratégie
- Page 133 -
____________________________________________________Simulation de comportement de négociation
responsable permet d'obtenir des gains égaux à la stratégie juste, elle peut donc constituer une
partie de la population stable mais à condition que sa proportion soit inférieure à 1/2 (dans le cas
contraire, l'équilibre devient instable). On a donc coexistence des justes et des responsables autour
d'un partage 50%-50%.
La seconde étape du jeu consiste en l'introduction d'une hypothèse ad hoc : l'incertitude probabiliste
sur la taille du gâteau. Ellingsen pose la probabilité τ pour laquelle le gâteau a une taille comprise
entre 1-δ et 1. Il fait également l'hypothèse que les agents sophistiqués ont connaissance de τ, alors
que les obstinés n'en ont pas connaissance. Le changement principal, dans cette seconde étape du
modèle, est que deux obstinés qui se rencontrent avec une demande cumulée comprise entre 1-δ et
1 obtiendront un gain nul. Si l'on note π~ la nouvelle fonction de paiement associée à la réduction δ
~
du gâteau, le nouveau jeu perturbé est G= S,π~ . Ellingsen montre ainsi que dans les
environnements avec bruits, c'est-à-dire si le gâteau est plus petit que prévu, les comportements
sophistiqués apparaissent autant que les obstinés. Et cela conduit selon Ellingsen au conflit, c'est-à-
dire à une issue qui n'est pas un équilibre évolutionnairement stable. En effet, l'incertitude entraîne
dans un premier temps le développement de la stratégie responsable, sur laquelle s'appuie dans un
second temps l'invasion d'un groupe de mutants avides (greedy strategy). Finalement, les mutants
avides sont menés à l'échec et ne constituent donc pas une population évolutionnairement stable.
Dans une troisième étape, Ellingsen introduit un coût k>0 de recours à la stratégie sophistiquée.
Dans ce cas, la nouvelle fonction de paiement est la suivante : π rsk =π rs −k et π ssk ' =π ss' . Les résultats
montrent que le recours à la stratégie sophistiquée étant coûteux, cette dernière ne se développe
pas. De ce fait, les échecs deviennent plus fréquents du fait de la forte proportion d'immodestes
dans la population. On se retrouve donc dans une configuration proche de la première étape, et in
fine la seule population capable de donner lieu à un équilibre évolutionnairement stable est la
population juste qui opte pour un partage 50%-50%.
Ainsi, les trois étapes du modèle montrent la convergence quasi systématique vers des stratégies
d'appropriation justes, où chacun des agents tend à demander 50% du gâteau plutôt que d'adopter
des stratégies sophistiquées coûteuses. Par ailleurs, le modèle montre le caractère équilibré des
relations de domination dans une négociation. En effet, l'excès de domination, qui correspond aux
stratégies immodestes, conduit à l'échec. On voit bien qu'une négociation débouche sur une issue
favorable lorsque les agents optent pour des stratégies dites justes, qui correspondent au
renoncement du recours à la domination.
- Page 134 -
____________________________________________________Simulation de comportement de négociation
• La première est celle des conditions dans lesquelles sont initialisées les négociations, et
sur lesquelles Ellingsen reste silencieux. Certaines conditions initiales favorisent-elles ou
non les comportements de domination, ou au contraire de concession ?
• La seconde est celle de l'exercice du pouvoir dans la négociation. En effet, le pouvoir est
ici un attribut des joueurs, au sens où il est contenu dans la définition même des stratégies
et des profils. Une stratégie avide sera une stratégie de domination, alors qu'une stratégie
modeste ou bien une stratégie responsable relèvent pour la première de la modestie et
pour la seconde de la concession. Le pouvoir est par ailleurs présent dans les règles du
jeu. En effet, l'ultimatum n'est autre qu'une menace coercitive qui requiert un
assujettissement collectif des joueurs. Cependant se pose ici la question de l'exercice du
pouvoir dans la négociation. En effet, ce dernier étant fixé par les règles, il n'est pas
possible d'en faire apparaître une quelconque instrumentalisation dans le déroulement de
la négociation.
- Page 135 -
____________________________________________________Simulation de comportement de négociation
dans un jeu de négociation inspiré du modèle d'Ellingsen. Nous nous appuierons donc sur le jeu de
négociation communicationnelle d'Ellingsen pour montrer que dès lors que l'on instrumentalise le
pouvoir, il est possible d'en faire apparaître une autre dimension : le pouvoir du faible mis en
évidence par [Link] [1960]. Or une simulation peut permettre la mise en perspective de
l'exercice du pouvoir dans une négociation sous ultimatum. Il sera ainsi possible de faire apparaître
des temporalités associées aux comportements de négociation, et plus particulièrement des
dynamiques de phasage favorisant cycliquement ou successivement certains comportements. Il
s'agira aussi de tester le rôle d'une "mémoire des négociations antérieures" dans la persistance de la
stabilité ou de l'instabilité.
Ce travail s'inscrit dans le cadre des travaux menés dans le domaine de la vie artificielle, qui
substitue la problématique de l'émergence des règles en environnement complexe à la
problématique traditionnelle de l'équilibre. L'intérêt d'une simulation, en effet, est qu'elle s'inscrit
dans une démarche cognitive articulée autour du triptyque perception/raisonnement/prise de
décision [Haton 1993]. La perception renvoie aux mécanismes d'acquisition d'informations qui
vont donner aux agents une représentation particulière de l'environnement à un moment donné. Le
raisonnement renvoie quant à lui aux mécanismes d'apprentissage qui vont permettre l'ajustement
des comportements individuels en fonction de l'état de l'environnement, c'est-à-dire en fonction des
informations reçues. Le processus de décision, enfin, marque l'issue d'un raisonnement, c'est-à-dire
le choix délibéré d'une action. Il s'agit donc d'un processus de recherche heuristique de la solution
d'un problème spécifié, la simulation conférant aux agents une capacité d'exploration et
d'évaluation de l'espace des actions possibles dans un environnement changeant. La simulation est
techniquement réalisée sur la base de l'implémentation d'opérateurs d'évolution, comme le
croisement et la mutation, qui rendent possible l'émergence de ce type de comportements agrégés
dits "intelligents".
Dans la perspective d'apporter des éléments de réponse à nos questionnements sur le pouvoir et sur
sa temporalité, nous proposons ici une adaptation du modèle d'Ellingsen autour de trois simulations
progressives S1, S2 et S3 :
- Page 136 -
____________________________________________________Simulation de comportement de négociation
dans une telle configuration, et si cet avantage tourne au conflit dans un second temps.
Nous poserons pour cela l'hypothèse selon laquelle ni les obstinés, ni les sophistiqués
n'ont connaissance de la taille réelle du gâteau64. Ils devront donc l'évaluer sur la base
d'opérateurs de croisement et de mutation.
Cette hypothèse a une conséquence forte : les sophistiqués peuvent être conduits à l'échec,
puisqu'ils doivent eux aussi évaluer la taille du gâteau.
Dans la simulation S1, nous simulons le modèle d'Ellingsen dans sa forme de base.
Dans la simulation S2, le modèle d'Ellingsen suppose que la taille du gâteau varie à la baisse. En
effet, Ellingsen pose la probabilité τ pour laquelle le gâteau a une taille comprise entre 1-δ et 1. Le
problème de l'incertitude est réduit dans ce cas à celui de la surestimation de la taille du gâteau, qui
conduit au conflit. Cela signifie que les agents ne modifient pas leurs demandes et que leur
incapacité à s'adapter conduit à l'échec généralisé, c'est-à-dire à l'absence d'équilibre
évolutionnairement stable.
Dans notre modèle de simulation, la taille du gâteau est totalement inconnue et les agents doivent
en faire l'apprentissage. Ils peuvent donc aussi bien se trouver dans une situation où ils surestiment
64
Dans le modèle d'Ellingsen, seuls les obstinés ont méconnaissance de la taille réelle du gâteau. Nous complexifions
donc ici le problème en posant que les sophistiqués n'ont pas connaissance de la taille du gâteau.
- Page 137 -
____________________________________________________Simulation de comportement de négociation
la taille du gâteau, que dans une situation où ils la sous-estiment. L'apprentissage porte sur la taille
espérée du gâteau teg, dont l'évaluation conduit à une modification de leur demande d. Les agents
sont donc dotés d'une capacité endogène à modifier leur demande d. Pour prendre en compte ces
comportements nous avons décomposé la demande d d'un obstiné en deux composantes : la taille
du gâteau espérée et la portion de gâteau demandée. Ainsi :
avec
donc
Dans le cas de notre simulation S2, l'essentiel n'est pas que les individus trouvent la taille exacte du
gâteau mais qu'ils se rapprochent le plus possible de celle-ci afin de déboucher, en fonction de leur
stratégie de demande, sur un maximum de négociations réussies donc un maximum de gain.
Dans la simulation S3, toute négociation a coût : un coût lié au temps passé à négocier, un coût
d'échec de négociation, un coût d'observation de la stratégie de l'adversaire, ou bien encore un coût
d'observation du gâteau. Ellingsen retient dans son modèle deux coûts principaux : le coût lié à
l'incertitude sur la taille du gâteau, et le coût d'observation de la stratégie de l'adversaire. Le coût
d'observation de la stratégie de l'adversaire consiste à affecter un coût k à la stratégie sophistiquée.
Le coût lié à l'incertitude est exprimé en terme de perturbation δ associée à une probabilité τ de
repartir les mains vides. Cependant, ces coûts affectent les stratégies et non les résultats de la
négociation.
Lorsqu'une négociation est longue et fastidieuse, elle engendre des coûts qui viennent réduire les
gains finaux : coûts liés au temps passé à négocier, coût d'observation des stratégies adversaires etc.
Lorsqu'une négociation est réussie, elle entraîne des externalités positives : facilités de
renégociation, confiance, coopération. Implicitement cela revient à augmenter la taille du gâteau.
- Page 138 -
____________________________________________________Simulation de comportement de négociation
Ce type de simulation que nous qualifierons de rebouclante, est très compliquée. En effet, par leur
choix, les individus agissent directement sur les futures évaluations. Dans le cadre de notre étude,
cela signifie que nous risquons de ne pas trouver d'équilibre entre nos différentes stratégies.
Tout comme dans le modèle d'Ellingsen, nos simulations sont fondées sur l'interaction entre des
agents capables de reconnaître leurs stratégies mutuelles. Celles-ci sont au nombre de deux :
A chaque période les agents sont aléatoirement regroupés par paires, chaque paire ayant pour tâche
de se partager un gâteau de taille T. Quand deux agents se rencontrent, ils déterminent la stratégie
de l'adversaire (obstinée ou sophistiquée) avec qui ils vont jouer, s'il s'agit de sophistiqués. S'il
s'agit d'agents obstinés, alors ces derniers sont incapables d'identifier leur adversaire et établissent
leur demande en aveugle. Ils posent donc leurs demandes respectives, en fonction de ce qu'ils ont
appris ou non de l'adversaire, mais aussi en fonction des évaluations respectives concernant la taille
du gâteau.
di si di + d j ≤ T
Π ij = 39)
0 sinon
Comme dans le modèle initial, si la somme de di et dj excède la taille réelle du gâteau T, alors il y a
échec de négociation, et les deux joueurs n'obtiennent aucun gain. Dans le modèle initial, Ellingsen
redistribuait les surplus à chaque joueur à proportion de leurs demandes respectives. Dans notre
modèle les surplus ne sont pas redistribués et sont considérés comme perdus. En effet, ils nous
paraissait contradictoire de redistribuer le surplus dans des simulations de stratégies de négociation
qui doivent découvrir la taille réelle du gâteau. Car en évaluant la différence entre le gain et la
demande, on peut immédiatement découvrir la taille réelle du gâteau.
Les agents sophistiqués, dont la stratégie est notée r, sont sensés identifier la stratégie de
l'adversaire et adapter leur demande à la demande espérée de l'adversaire. Donc, quand un agent
- Page 139 -
____________________________________________________Simulation de comportement de négociation
sophistiqué rencontre un obstiné qui demande di, il fait la demande r = tegr - di. Néanmoins, alors
que ce n'était pas le cas dans le modèle d'Ellingsen, les sophistiqués peuvent aussi être menés à
l'échec s'ils surestiment la taille du gâteau. Un sophistiqué qui rencontre un obstiné obtient donc
La stratégie tegr/2 est appelée "fair strategy" ou stratégie juste, et toute stratégie pour laquelle
di→teg est appelée "greedy strategy" ou stratégie avide.
Obstiné di Sophistiqué r
di tegr-dj
Obstiné dj
dj dj
di tegr/2
Sophistiqué r
tegr-di tegr/2
Figure 57 : Matrice des paiements
A partir de cette matrice des paiements, nous avons mis en place la fonction de notation d'un
individu qui permet de calculer les gains espérés de cet individu en fonction de son profil.
Un échantillon de la population est choisi aléatoirement. Ensuite tous les individus de la population
négocient le partage du gâteau avec chaque membre de l'échantillon. La somme des gains obtenus
par l'individu représente sa fitness. La taille de cet échantillon est choisie de manière à être
représentative de la population. Dans nos simulation, cette taille est égale à 10% de la taille de la
population.
- Page 140 -
____________________________________________________Simulation de comportement de négociation
Valeurs 7 21 35 50 64 78 92
Intervalles 0 14 28 42 57 71 85 100
Pour représenter les différents profils des stratégies, nous avons créé un génotype constitué de deux
caractères génétiques. Le premier caractère identifie le type de stratégie de l'individu et le second
caractère est la taille du gâteau espérée par l'individu.
Profil teg
3) La sélection est le processus par lequel des individus sont choisis pour être répliqués, les
plus favorisés étant les individus qui ont la fitness la plus élevée.
6) retour au 2.
- Page 141 -
____________________________________________________Simulation de comportement de négociation
La sélection est un opérateur d'évolution centrifuge, qui, pour une population donnée, va entraîner
dans le temps la convergence vers une solution résolvant le problème d'adaptabilité posé par la
fonction fitness. Dans notre cas, les individus dotés d'un réplicateur, c'est-à-dire d'un profil, leur
permettant une grande adaptabilité vont être reproduits en plus grand nombre dans la population à
la période suivante. La taille de la population étant constante, les individus les plus forts survivent
et les individus les plus faible disparaissent. On obtient ainsi une population dont la diversité et la
proportion de comportement des individus ne varient plus.
[Link] Le croisement
Le croisement permet à partir de deux individus (les parents) d'obtenir deux autres individus (les
enfants) dont les caractères génétiques sont un mélange des caractères des parents. L'idée
fondamentale est que les enfants peuvent hériter par croisement des meilleurs gènes de leurs
parents et ainsi devenir des individus mieux adaptés. Le croisement porte sur la taille espérée du
gâteau, et la répétition dans le temps de cet opérateur va entraîner la convergence vers une solution
potentielle. Dans nos simulations, nous appliquons un croisement restreint basé sur le profil des
individus.
[Link] La mutation
La mutation, quant à elle, consiste à altérer aléatoirement un ou plusieurs caractère(s) génétique(s)
d'un individu.
Pour la simulation S1, la mutation utilisée modifie le profil d'un individu alors que pour les
simulations S2 et S3, la mutation modifie soit le profil de l'individu soit sa taille espérée du gâteau.
Considérons tout d'abord le cas d'une simulation où la population était au départ répartie de
manière équilibrée entre les 8 profils :
- Page 142 -
____________________________________________________Simulation de comportement de négociation
0,9
0,8 1
0,9
zoom Obs92 Obs7
0,7 0,8
Obs21
0,7
0,6 Obs35
0,6
0,5 Obs50
0,5
0,4 Obs64
0,3
0,4 Obs78
0,2
Obs92
0,3 0,1
0 Soph Soph
1 11 21 31
0,2
0,1
0
1 51 101 151 201 251 301 351 401 451 501
Cette première simulation montre que les comportements de négociation évoluent en deux phases
distinctes. Dans un premier temps, il y a suprématie de la stratégie sophistiquée sur les autres
stratégies (de la période 1 à la période 10, cf. fenêtre zoom ci-dessus). Cette suprématie des
sophistiqués permet l'émergence dans un second temps (au-delà de la période 10) de la stratégie
obstinée la plus dominatrice. Cette première simulation vient donc infirmer les résultats du modèle
original d'Ellingsen. On montre ainsi que les forts taux d'échec conduisent dans un premier temps à
des comportements concessionnaires. Ensuite ce sont ces comportements concessionnaires qui
ouvrent la voie au développement de comportements ultra-dominateurs. Et l'équilibre final de
négociation se stabilise autour d'une majorité d'agents obstinés dominateurs dont l'existence est
maintenue du fait même de la présence d'une petite population de sophistiqués concessionnaires.
Cela signifie qu'une négociation peut s'équilibrer autour d'un rapport dominant-dominé.
Testons à présent le cas où les agents dits justes sont majoritairement présents dès l'initialisation du
jeu :
- Page 143 -
____________________________________________________Simulation de comportement de négociation
0,9
0,8
Obs7
0,7
Obs21
0,6 Obs50 Obs35
Obs50
0,5
Obs64
0,4 Obs78
Soph Obs92
0,3
Soph
0,2
0,1
0
1 51 101 151 201 251 301 351 401 451 501
On obtient donc un équilibre entre agents dits justes uniquement si la population d'obstinés dont la
demande est 50% était majoritaire à l'initialisation du jeu. La stratégie 50% est adoptée par les
sophistiqués et se généralise. Ce qui peut signifier du point de vue économique qu'une négociation
ne débouche sur un partage égalitaire que si dès le départ les agents obstinés non dominateurs sont
majoritaires dans la population. Plus loin, cela montre le rôle fondamental que jouent les conditions
initiales dans le déroulement d'une négociation.
1
0,9
Obs64 Obs7
0,8
Obs21
0,7
Obs35
0,6
Obs50
0,5
Obs64
0,4
Obs78
0,3
Obs92
0,2 Obs78 Soph
Soph
0,1
0
1 51 101 151 201
Les résultats montrent de nouveau l'existence d'une évolution en deux phases. Une première phase
courte (des périodes 1 à 15) caractérisée par l'accroissement de la population des sophistiqués, et
une seconde phase caractérisée par la forte présence des obstinés. L'équilibre final s'établit ici entre
les obstinés demandant 64% et les sophistiqués. Cela conduit à plusieurs remarques. En premier
- Page 144 -
____________________________________________________Simulation de comportement de négociation
lieu, l'incertitude allonge considérablement les temporalités. Alors que l'équilibre était atteint au
bout d'une cinquantaine de périodes dans la simulation S1, ici il faut attendre en moyenne 200
périodes. En second lieu, les demandes espérées des obstinés sont révisées à la baisse, et la série
Obs64 est à présent majoritaire dans la distribution. En effet, la possibilité d'échec étant plus forte,
les agents adoptent dans un premier temps des comportements concessionnaires pour ensuite
demander un peu plus de la moitié de ce qu'ils pensent être la taille du gâteau. Les stratégies sont
donc plus prudentes. Les agents ont tendance à faire des concessions pour éviter le conflit, mais
cela ouvre ensuite la voie à des stratégies de domination opportunistes. L'analyse du graphe
correspondant à l'évolution des tailles moyennes espérées du gâteau montre l'équilibre entre les
agents obstinés qui en ont légèrement surestimé la taille et les agents sophistiqués qui en ont sous-
estimé la taille.
Si l'on réalise à présent une seconde simulation caractérisée par une forte présence d'agents
obstinés justes à l'initialisation du jeu, on obtient de nouveau (tout comme dans S1) un équilibre
entre les sophistiqués et les obstinés qui demandent 50%.
1
0,9
Obs50 Obs7
0,8
Obs21
0,7
Obs35
0,6
Obs50
0,5
Obs64
0,4
Obs78
0,3
Obs92
0,2
Soph Soph
0,1
0
1 11 21 31 41 51 61 71 81 91 101
- Page 145 -
____________________________________________________Simulation de comportement de négociation
1
0,9
Soph Obs7
0,8
Obs21
0,7
Obs35
0,6
Obs50
0,5
Obs64
0,4
Obs92 Obs78
0,3
Obs92
0,2
Soph
0,1
0
1 11 21 31 41 51 61 71 81 91 101
Ce résultat montre que les agents passent séquentiellement d'un comportement à l'autre pour
maintenir la taille du gâteau tout en satisfaisant leur intérêt individuel d'appropriation. Ainsi, on
observe successivement le passage de stratégies concessionnaires à des stratégies plus dominatrices
dès lors que le gâteau atteint une taille proche du seuil maximum. Ce résultat met donc en évidence
la question de la flexibilité et de la dynamique de phasage des comportements dans une
négociation.
Par ailleurs, on appréhende très bien le pouvoir du faible. En effet, la négociation est maintenue
dans le temps du fait même de la présence des sophistiqués. Et pour que ces derniers soient
maintenus dans le jeu, il est nécessaire que les obstinés revoient leurs prétentions à la baisse. Les
obstinés ont donc tout intérêt à ce qu'il y ait une présence minimale de concessionnaires pour
exercer leur domination et se maintenir dans le jeu.
- Page 146 -
____________________________________________________Simulation de comportement de négociation
la présence de comportements concessionnaires, et les agents dominateurs vont mettre en place des
stratégies de demande qui permettent implicitement la survie de ces derniers. C'est ce que l'on
appelle ici le pouvoir du faible qui met bien en évidence l'interdépendance de joueurs en situation
d'asymétrie communicationnelle.
Plus globalement, ces simulations apportent une clef de lecture des comportements de négociation
dans un système agrégé de négociations bilatérales. Elles marquent une première étape dans une
perspective de recherche qui se veut double. Tout d'abord, il s'agira de dépasser la limite liée à la
non variabilité, dans la sélection, des stratégies obstinées/sophistiquées. Le travail à venir
consistera à introduire des opérateurs de variabilité susceptibles de faire émerger des règles
stratégiques nouvelles. Ensuite, ces simulations ont vocation à être appréhendées en fonction de
leur portée heuristique, et par conséquent à poser un certain nombre de questions qui peuvent
orienter les investigations de terrain. Il s'agira dans cette perspective d'étudier des situations de
négociation sur le terrain, à la lumière des variables mises en évidence : les différentes acceptions
du pouvoir, les dynamiques stratégiques de phasage, et les logiques d'appropriation.
- Page 147 -
_________________________________________________________________ Conclusions et perspectives
Conclusions et perspectives
Nous avons présenté dans cette thèse les travaux de recherche sur les méthodes d'optimisation de
problèmes multiobjectifs. Nous avons vu que cette problématique est abordée par la communauté
scientifique suivant deux approches. La première approche tente de ramener un problème
multiobjectif à un problème simple objectif au risque d'enlever toute signification au problème. La
deuxième approche adopte un point de vue plus global en prenant en compte l'ensemble des critères
et en utilisant la notion de dominance au sens de Pareto. Nous avons également constaté que ce
domaine scientifique utilise abondamment les algorithmes évolutionnaires pour apporter une
réponse à leurs problèmes. Les premières recherches ont simplement modifié l'heuristique de
sélection des algorithmes génétiques. Par la suite, une heuristique de partage a été introduite pour
répartir les solutions sur l'ensemble Pareto-optimal. Récemment, une population externe, appelée
archive, sert à stocker les meilleurs individus. Cette archive exige la mise en place d'une stratégie
de mise à jour et de réutilisation de son contenu fondée sur des heuristiques de remplacement. Les
derniers travaux proposent l'utilisation de méthodes inspirées des stratégies d'évolution. Cette
richesse d'idée pour augmenter l'efficience de ces méthodes a pourtant un prix : l'augmentation du
nombre des paramètres de réglage et la complexification de l'écriture des algorithmes.
Ensuite nous avons présenté un domaine de recherche relativement récent qui s'intéresse à
l'optimisation en environnement dynamique. La problématique issue de ce domaine est différente
de celle des problèmes d'optimisation classiques. Le but n'est pas de trouver le plus rapidement ou
le plus précisément possible un optimum mais d'être capable de suivre cet optimum lors de
changements de l'environnement. Dans notre synthèse sur ces méthodes nous avons proposé de
caractériser ces méthodes en fonction à leur capacité de détection endogène ou exogène d'un
changement et, de leur approche discriminante ou non discriminante de l'espace de recherche.
Dans la deuxième partie nous avons développé une méthode multiagent, appelée la méthode des
gouttes d'eau, qui permet d'optimiser une fonction multimodale en environnement dynamique.
Chaque agent possède une recherche locale inspirée des stratégies d'évolution. Nous avons
introduit la notion de zone d'influence qui joue le rôle d'une technique de formation de niches.
Cette notion de zone d'influence, associée à cette approche multiagent, procure à notre méthode
une capacité de détection endogène du changement, une capacité discriminante de l'espace de
- Page 148 -
_________________________________________________________________ Conclusions et perspectives
La généralisation de notre méthode à des problèmes multiobjectifs est fondée sur l'utilisation de la
notion de dominance au sens de Pareto. Nous avons modifié la définition de la zone d'influence
mais le principe général de la méthode et le nombre de paramètres de réglage n'ont pas été
modifiés. L'apport original de notre méthode multiobjectif est une présentation différente des
solutions Pareto-optimales. Nous nous sommes également interrogé sur l'interprétation de la zone
d'influence de l'agent pour un décideur.
Actuellement, notre méthode pour la résolution de problèmes multiobjectifs n'est pas capable de
faire la différence entre les solutions Pareto-optimales locales et les solutions Pareto-optimales.
Elle n'a pas été testée sur des problèmes multiobjectifs variés et elle n'intègre pas la notion de
domination contrainte.
Nos futurs travaux de recherche essayeront d'enrichir notre méthode pour pouvoir l'appliquer à un
plus large éventail de problèmes multiobjectifs. Nous souhaitons également apporter une réponse à
l'interprétation de la zone d'influence.
Nous espérons aussi développer un ensemble de problèmes pour tester les méthodes en
environnement dynamique. Actuellement, il n'existe aucun jeu de test validé par la communauté
scientifique qui permet d'effectuer une comparaison entre les différentes méthodes.
- Page 149 -
____________________________________________________________________________ Bibliographie
Bibliographie
[Allenson 1992] Robin Allenson, Genetic Algorithm with Gender for Multi-
Function Optimisation, TR. EPCC-SS92-01, Edinburgh Parallel
Computing Center, Edinburgh, Scotland, 1992.
[Baricelli 1962] Nils Aall Baricelli, Numerical Testing of Evolution Theories, Part
II Preliminary Tests of Performance, Symbiogenesis and terrestrial
life, Acta Biotheoretica, XVI, p.99-126, 1962.
[Cedeno and Vemuri 1997] W. Cedeno and V. R. Vemuri, On the Use of Niching for
Dynamic Landscapes, Proceedings of the 4th IEEE Int. Conf. on
Evolutionary Computation (ICEC'97), IEEE Publishing, Inc., p.
361-366, 1997.
[Raphaël Cerf 1994] Raphaël Cerf, Une Théorie Asymptotique des Algorithmes
Génétiques, Thèse de doctorat de l'Université Montpellier II, 1994.
- Page 150 -
____________________________________________________________________________ Bibliographie
[Chen and Liu 1994] Y. L. Chen and C. C. Liu, Multiobjectif VAR Planning using the
Goal Attainment Method, Proceedings on Generation,
Transmission and Distribution, 141, p. 227-232, 1994.
- Page 151 -
____________________________________________________________________________ Bibliographie
[Duthen 1993] Yves Duthen, Les projets VOXAR et IN VitrAM : Synthèse des
travaux, Habilitation à diriger des recherches, Université Paul
Sabatier Toulouse III, 1993.
[Ehrgott and Gandibleux 2000] Matthias Ehrgott and Xavier Gandibleux, A Survey and
Annotated Bibliography of Multiobjective Combinatorial
Optimization, OR Spektrum, 22, p. 425-460, 2000.
[Fishburn 1970] P. C. Fishburn, Utility Theory for Decision Making, John Wiley,
New-York, 1970.
[Fonseca and Fleming 1993] Carlos M. Fonseca and Peter J. Fleming, Genetic Algorithm for
Multiobjective Optimization : Formulation, Discussion and
Generalization, In Proceedings of the Fifth International
Conference on Genetic Algorithms, San Mateo, California, p. 416-
423, 1993.
- Page 152 -
____________________________________________________________________________ Bibliographie
[Gan and Warwick] Justin Gan and Kevin Warwick, A Genetic Algorithm with
Dynamic Niche Custering for Multimodal Function Optimisation.
[Glover and Laguna 1997] F. Glover and M. Laguna, Tabu Search, Kluwer Academic
Publishers, 1997.
[Goldberg 1989a] David E. Goldberg, Sizing Populations for Serial and Parallel
Genetic Algorithms, In J. David Schaffer Ed., Proceedings of the
Third International Conference on Genetic Algorithm, p. 70-79,
San-Mateo, California, 1989.
[Goldberg & Richardson 1987] Davis. E. Goldberg and J. J. Richardson, Genetic Algorithm
with Sharing for Multimodal Function Optimisation, Genetic
Algorithms and their Applications : Proceedings of the Second
ICGA, Lawrence Erlbaum Associates, Hillsdales, p. 41-49, 1987.
[Goldberg and Deb 1992] David E. Goldberg, Kalyanmoy Deb and Jeffrey Horn, Massive
Multimodality, Deception and Genetic Algorithms, Ed. R. Männer,
B. Manderick, Parallel Problem Solving from Nature 2, Brussels,
p. 37-46, 1992.
- Page 153 -
____________________________________________________________________________ Bibliographie
[Haton 1993] J.P. Haton and M. C. Haton, L'Intelligence Artificielle, Que sais-
je ?, n°2444, 3e éd. corrigée, PUF, 1993.
[Harik and Lobo 1999] G. Harik and [Link], A Parameter-less Genetic Algorithm,
ILLIGAL TR. n° 99009, 1999.
[Horn and Napfliotis 1993] J. Horn and N. Nafpliotis, Multiobjective Optimisation using the
Niched Pareto Genetic Algorithm, Illigal TR. n° 93005, July 1993.
[Ishibuchi and Murata 1996] Hisao Ishibuchi and Tadahiko Murata, Multi-Objective Genetic
Local Search Algorithm. In Toshio Fukuda and Takeshi Furuhashi,
editors, Proceedings of the 1996 International Conference on
Evolutionary Computation, p. 119-124, Nagoya, Japan, 1996.
[Knowles and Corne 1999] Joshua D. Knowles and David W. Corne, The Pareto Archived
Evolution Strategy : A New Baseline Algorithm for Multiobjective
Optimisation, Congress on Evolutionary Computation, p. 98-105,
Washington, July 1999.
[Knowles and Corne 2000a] Joshua D. Knowles and David W. Corne, Approximating the
Non Dominated Front using the Pareto Archived Evolution
Strategy, Evolutionary Computation 8(2), p. 149-172, 2000.
[Knowles and Corne 2000b] Joshua D. Knowles, David W. Corne, and Martin J. Oates, The
Pareto-Envelope based Selection Algorithm for Multiobjective
Optimization, In Proceedings of the Sixth International Conference
- Page 154 -
____________________________________________________________________________ Bibliographie
[Knowles and Corne 2000c] Joshua D. Knowles and David W. Corne, M-PAES : A Memetic
Algorithm for Multiobjective Optimization, In Proceedings of the
2000 Congress on Evolutionary Computation, p. 325-332, 2000.
[Levy and Montalvo 1985] A. V. Levy and A. Montalvo, The Tunneling Algorithm for
Global Minimization of Functions, SIAM Journal of Scientific and
Statistical Computing, vol. 6, n° 1, p. 15-29, 1985
[Lis and Eiben 1996] J. Lis and A. E. Eiben, A Multi-Sexual Genetic Algorithm for
Multiobjective Optimization, In T. Fukuda and T. Furuhashi ed.,
Proceedings of the 1996 International Conference on Evolutionary
Computation, Nagoya, Japan, p. 59-64, 1996.
[Luga 1997] Hervé Luga, Vie artificielle et Synthèse d'images : Etude des
mécanismes évolutionnistes pour la synthèse de formes et de
comportements, Thèse de doctorat de l'Université Paul Sabatier
Toulouse III, 1997.
- Page 155 -
____________________________________________________________________________ Bibliographie
[Miller and Shaw 1995] Brad L. Miller and Michael J. Shaw, Genetic Algorithms with
Dynamic Niche Sharing for Multimodal Function Optimisation,
ILLiGAL Report N°95010, University of Illinois, December 1995.
[Nelder and Mead 1965] J. A. Nelder and R. Mead, A Simplex Method for Function
Minimization, Comput. J., vol. 7, p. 308-313, 1965.
- Page 156 -
____________________________________________________________________________ Bibliographie
[Richardson 1989] J. T. Richarson and al, Some Guidelines for Genetic Algorithms
with Penalty Functions, In J.D. Schaffer Ed., Proceedings of the
Third International Conference on Genetic Algorithm, p. 191-197,
1989.
[Ritzel 1994] B. Ritzel and al, Using Genetic Algorithms to Solve a Multiple
Objective Groundwater Pollution Containment Problem. Water
Resources Research 30, p. 1589-1603, 1994.
[Schoenauer et Sebag 1996] Marc Schoenauer et Michèle Sebag, Contrôle d'un Algorithme
Génétique, Revue d'Intelligence Artificielle, vol. 10, n° 2-3, p.
389-428, 1996.
[Sugeno 1974] M. Sugeno, Theory of Fuzzy Integrals and its Applications, Ph. D.,
Tokyo Institute of technology, Tokyo, 1974.
- Page 157 -
____________________________________________________________________________ Bibliographie
[Srivinas and Deb 1993] N. Srivinas and K. Deb, Multiobjective Optimization using
Nondominated Sorting in Genetic Algorithms, Technical Report,
Departement of Mechanical Engineering, Institute of Technology,
India, 1993,
[Valenzuela and Uresti 1997] Manuel Valenzuela and Eduardo Uresti-Charre, A Non-
Generational Genetic Algorithm for Multiobjective Optimization,
Proceedings of the Seventh International Conference on Genetic
Algorithms, p. 658-665, 1997.
[Xu and Louis 1996] Z. Xu and S. J. Louis, Genetic Algorithms for Open Shop
Scheduling and Re-Scheduling, In Proceedings of the ISCA 11th
International Conference on Computers and Their Applications., p.
99-102, Raleigh, NC, USA. International Society for Computers
and Their Applications, 1996.
- Page 158 -
____________________________________________________________________________ Bibliographie
[Zitzler and Deb 1999] Eckart Zitzler, Kalyanmoy Deb and Lothar Thiele, Comparison
of Multiobjective Evolutionary Algorithms : Empirical Results,
Tech. Report n° 70, Swiss Federal Institute of Technology (ETH),
Zurich, 1999.
[Zitzler and Thiele 1998] Eckart Zitzler and Lothar Thiele, An Evolutionary Algorithm for
Multiobjective Optimization : The Strength Pareto Approach, TIK-
Report n° 43, 1998.
- Page 159 -
____________________________________________________________________________ Bibliographie
[Berro 2001] Alain Berro et Yves Duthen, Search for optimum in dynamic
environment : a efficient agent-based method, GECCO'2001
Workshop on Evolutionary Algorithms for Dynamic Optimization
Problems, p. 51-54, San Francisco, California, 2001.
[Berro 2001] Alain Berro et Yves Duthen, Recherche d'optimum d'une fonction
multimodale, 3ième journée francophones de recherche
opérationnelle, FRANCORO'2001, Québec, 2001.
- Page 160 -
Partie IV.
Annexes
- Page 161 -
________________________________________________________ Rappels sur les algorithmes génétiques
Annexe A.
Rappels sur les algorithmes génétiques
Jusqu'à la fin du XIXième siècle la grande majorité des naturalistes admettaient que les espèces
n'évoluaient pas.
Pourtant, dès 1809, Jean-Baptiste Lamarck, naturaliste français fondateur du transformisme, émit
l'hypothèse d'une évolution des organes d'un animal en fonction de ses besoins, l'adaptation des
espèces se faisant selon l'influence du milieu de vie.
En 1859, Charles Darwin, naturaliste britannique, publia son ouvrage "L'origine des espèces par
voie de sélection naturelle" [Darwin 1859]. Dans son livre, il tenta de défendre le transformisme
mais sans reprendre les hypothèses de lamarck. Il émit l'idée que, dans chaque espèce, la nature
sélectionne les meilleurs. Chaque individu donnant naissance à beaucoup plus d'individus qu'il n'en
peut survivre, cela entraîne la destruction d'un grand nombre d'entre eux et la conservation des plus
aptes. C'est ce qu'il appela la sélection naturelle. Par le jeu de la sélection, les caractères avantageux
se propagent peu à peu dans la population, et au bout d'un certain nombre de générations, l'espèce
se trouve modifiée et mieux adaptée aux conditions d'existence. Donc les espèces se transforment.
Cette théorie a été appelée le Darwinisme et le courant de pensée reprenant ces concepts
l'évolutionnisme.
En 1901, De Vries, botaniste néerlandais, exposa sa théorie du mutationnisme selon laquelle les
variations responsables de l'évolution ne se faisaient pas dans le temps mais de façon soudaine et se
produisaient dans l'œuf. Il appela cela des mutations.
Aujourd'hui, on admet qu'ils avaient tous les trois en partie raison. Les bases de l'évolution étaient
posées :
- Page 162 -
________________________________________________________ Rappels sur les algorithmes génétiques
• L'adaptation des espèces sous la pression de leur environnement. Les individus mal
adaptés disparaissent.
• La mutation qui crée des variations génétiques néfastes ou bénéfiques pour l'individu.
D'autres chercheurs se sont intéressés aux principes biologiques des mécanismes de l'évolution.
Dès 1948, les scientifiques avaient remarqué qu'une substance colorait particulièrement bien le
noyau de la cellule et faisait apparaître des filaments.
En 1866, Gregor Johann Mendel, botaniste autrichien, fut reconnu comme le fondateur de la
génétique moderne. Il démontra l'existence de facteurs héréditaires par des expériences sur des
petits pois.
En 1902, Walter Sutton proposa le chromosome comme site des caractères transmissibles,
constituant le lieu physique de chaque caractéristique d'un être vivant.
Ces découvertes vont être reprises et utilisées dans un autre domaine scientifique : l'informatique.
Dès 1960, de nombreux chercheurs essayèrent d'appliquer les connaissances sur l'évolution
naturelle à des problèmes informatiques. [Baricelli 1957, Baricelli 1962, Fraser 1962] tentèrent de
simuler l'évolution naturelle par des programmes informatiques. Mais ces tentatives furent
infructueuses, probablement à cause de l'utilisation seule de la mutation.
En 1975, John Holland proposa une première solution [Holland 1975] appelée algorithme
génétique65. Ses recherches sur les processus d'adaptation des systèmes naturels ont permis la
découverte de cette nouvelle technique d'exploration. Les mécanismes de base de ces algorithmes
sont très simples mais les raisons pour lesquelles cette méthode fonctionne si bien sont plus
complexes et subtiles. Les fondements mathématiques des algorithmes génétiques ont été exposés
par Goldberg [Goldberg 1989].
La simplicité de mise en œuvre, l'efficacité et la robustesse sont les caractéristiques les plus
attrayantes de l'approche proposée par Holland. La robustesse de cette technique est due à une
sélection intelligente des individus les plus proches de la solution du problème.
- Page 163 -
________________________________________________________ Rappels sur les algorithmes génétiques
Génération i Population i
Notation
Sélection
Croisement
Mutation
A.2.2 L'évaluation
Dans la nature, l'adaptation d'un individu traduit sa capacité de survie dans son environnement
(savoir trouver de la nourriture, échapper aux prédateurs, résister aux maladies, etc.). Cette pression
exercée sans cesse sur les espèces provoque, par disparition des plus faibles, une sélection des
meilleurs.
Dans la cadre d'un algorithme servant à résoudre un problème, l'adaptation d'un individu va être
traduite par une mesure de sa capacité de vie qui est appelée fitness ou fonction de notation. Celle-
ci sera définie par l'utilisateur.
A chaque début de génération, tous les individus sont notés pour permettre aux techniques de
sélection de comparer les individus.
65
En anglais : Simple Genetic Algorithm.
- Page 164 -
________________________________________________________ Rappels sur les algorithmes génétiques
L'adoption d'une notation doit être faite avec soin car la convergence de l'algorithme en dépend. La
notation ne doit pas être trop sévère car elle risque de privilégier les individus les plus forts et
entraîner une convergence rapide qui peut s'avérer par la suite néfaste. Au début d'une simulation,
les meilleurs individus sont éloignés de la solution optimale, si l'on favorise trop tôt ces individus,
l'algorithme va converger vers une solution non optimale. Il ne faut pas tomber dans l'effet inverse
en optant pour une notation trop lâche qui n'exercera pas une pression suffisante sur la population.
Dans ce cas la convergence sera trop lente ou n'existera pas.
• Une notation assez souple dans les premières générations dont la sévérité augmente au fur
et à mesure.
A.2.3 La Sélection
La sélection conditionne la capacité d'un individu à se reproduire. Elle décide également de la
survie ou de la disparition de certains individus. Elle crée une population intermédiaire constituée
de copies des individus de la population courante.
Il existe de multiples heuristiques de sélection. Nous allons voir les plus connues, la roulette pipée,
le reste stochastique, le tournoi et la sélection par rang.
- Page 165 -
________________________________________________________ Rappels sur les algorithmes génétiques
B
D
A.2.3.3 Le tournoi
Cette technique de sélection s'effectue en deux phases. Tout d'abord on réalise un tirage aléatoire
sur l'ensemble de la population des n individus qui vont participer au tournoi. Dans cette première
phase tous les individus ont la même chance d'être sélectionnés. Dans une deuxième phase on
compare les notes des n individus sélectionnés pour garder le meilleur.
Cette technique de sélection est plus élitiste que les deux précédentes car la probabilité qu'un
mauvais individu soit sélectionné est très faible. Mais cet élitisme peut être contrôlé en limitant le
nombre de participants au tournoi. Plus ce nombre est élevé plus cette technique est élitiste.
La sélection par rang est souvent couplée avec une fonction de mise à l'échelle67 qui permet de
réduire ou d'augmenter l'influence des meilleurs rangs.
A.2.4 La modification
La modification d'un individu peut s'effectuer de deux manières différentes : par croisement ou par
mutation.
66
La méthode du reste stochastique est moins biaisée que la roulette pipée sur des populations de petite taille.
67
Fonction de scaling.
- Page 166 -
________________________________________________________ Rappels sur les algorithmes génétiques
Le rôle de ces opérateurs est d'explorer l'espace autour des valeurs présentes dans la population
(recherche locale) mais aussi d'explorer les zones inconnues (recherche globale). Ces deux objectifs
sont profondément antagonistes, car les individus n'ont pas une fonction spécifique d'exploration
mais participent tous à la fois à la recherche d'une solution locale et à la recherche de solutions
potentielles éloignées. Un autre antagonisme vient de l'utilisation conjuguée de la sélection et des
opérateurs de modification. La sélection joue un rôle centrifuge alors que le croisement et la
mutation jouent un rôle centripète68. Les avantages de cette capacité centrifuge/centripète sont
d'assurer une certaine robustesse à la méthode.
A partir de la population des individus précédemment sélectionnés, les individus sont regroupés par
paire. Chaque paire subit l'opérateur de croisement avec une probabilité tcrois appelée taux de
croisement. La nouvelle population de taille n ainsi formée contient tcrois*n nouveaux individus.
Ensuite chaque individu subit l'opérateur de mutation avec une probabilité tmut appelé taux de
mutation. La population après application de la mutation constitue la génération suivante.
A.2.4.1 Le croisement
Le croisement est l'opérateur qui va permettre le brassage des caractères génétiques de la
population. Cet opérateur va créer deux enfants en effectuant un mélange des chromosomes de
deux parents.
point de croisement
points de croisement
Les figures ci-dessus illustrent deux manières possibles d'effectuer un croisement. En général la
technique de croisement utilisée est très dépendante du codage de chromosomes car elle doit faire
en sorte de produire des enfants génétiquement corrects.
68
Goldberg D.E. [1989] a identifié ce dilemme sous le nom d'EVE (Exploitation versus Exploration). Cette capacité d'un
algorithme génétique à converger vers une solution locale tout en recherchant une meilleure solution éloignée lui
donne toute sa robustesse.
- Page 167 -
________________________________________________________ Rappels sur les algorithmes génétiques
A.2.4.2 La mutation
La mutation consiste à altérer le codage d'un chromosome. Son rôle est de faire émerger de
nouveaux génotypes en explorant des zones de l'espace de recherche qui pourraient ne pas être
visitées par simple application de l'opérateur de croisement. Ainsi la mutation lutte contre la dérive
génétique.
• Arrêt de l'algorithme lorsque le meilleur individu n'a pas été amélioré depuis un certain
nombre de générations.
- Page 168 -
__________________________________________________________________ La technique de clustering
Annexe B.
La technique de clustering
B.1 Définition
Dans certain cas de problèmes multiobjectifs, l'ensemble Pareto-optimal étant trop grand, on utilise
alors une technique de clustering pour supprimer une certain nombre de solutions. Le but est
d'alléger un ensemble de points tout en conservant une représentativité assez élevée [Morse
1980].Cet élagage est justifié par plusieurs raisons :
• présenter toutes les décisions aux décideurs est inutile si leur nombre est très important,
• dans le cas d'une frontière de Pareto continue, garder toutes les solutions n'est pas
nécessaire,
• éviter des temps de calculs importants lorsque l'ensemble de Pareto est relativement
grand.
B.2 Algorithme
L'algorithme suivant présente la technique de cluster utilisée pour la réduction d'un ensemble de
Pareto-optimal.
- Page 169 -
__________________________________________________________________ La technique de clustering
minDistance = ∞;
Pour tous les couples {x, y} de l'ensemble de Pareto faire
Si la distance entre x et y < minDistance alors
cluster1 = x;
cluster2 = y;
minDistance = distance entre x et y;
Fin Si
Fin Pour
/*----- Regroupement des deux clusters -----*/
nouveauCluster = cluster1 ∪ cluster2;
ensCluster = ensCluster \ {cluster1, cluster2};
ensCluster = ensCluster ∪ {nouveauCluster};
Fin Tant Que
/*----- Calcul du centre de chaque cluster -----*/
ensPareto = {};
Pour c ∈ ensCluster faire
i = CalculBarycentreCluster(c);
ensPareto = ensPareto ∪ {i};
Fin Pour
- Page 170 -