These Bommel
These Bommel
THESE
Discipline : Informatique
par
Pierre Bommel
Le 7 mai 2009
Titre :
_______
______
JURY
***
PLAN
INTRODUCTION.........................................................................................................................................................12
1.1 PRESENTATION DE LA PROBLEMATIQUE .......................................................................................................12
1.1.1 La validation des modèles multi-agents .......................................................................................................12
1.1.2 La fiabilité des modèles multi-agents ...........................................................................................................14
1.1.3 La réplication et la lisibilité des modèles multi-agents ................................................................................15
1.2 LA GESTION DES RESSOURCES RENOUVELABLES ..........................................................................................16
1.2.1 La gestion des ressources renouvelables nécessite une approche transdisciplinaire ..................................16
1.2.2 Le développement durable............................................................................................................................17
1.2.3 Une posture originale pour appuyer le développement durable ..................................................................18
1.2.4 Intégrer les connaissances pour accompagner la décision ..........................................................................19
1.3 OBJECTIF DE LA THESE .................................................................................................................................21
1.4 ORGANISATION DU DOCUMENT.....................................................................................................................21
PREMIERE PARTIE : ROLE, EVALUATION ET USAGES DE LA MODELISATION MULTI-AGENT
POUR L’AIDE A LA GESTION DES RESSOURCES RENOUVELABLES ........................................................23
CHAPITRE 1 QUE SIGNIFIE LA VALIDATION D’UN MODELE ?..........................................................24
1.1 DEFINITIONS DE VALIDATION ET SES SOUS-ENTENDUS .................................................................................24
1.2 QUE PROUVE UN BON AJUSTEMENT A DES DONNEES ? ..................................................................................25
1.3 LA QUESTION DE LA PREUVE ET DE LA VERITE ..............................................................................................27
1.3.1 La vérité du rat superstitieux........................................................................................................................27
1.3.2 Petit détour du côté de l'épistémologie.........................................................................................................29
1.4 DISCUSSION : EVALUATION DES MODELES....................................................................................................35
1.4.1 Pas de validation définitive ..........................................................................................................................35
1.4.2 Modèles Ad Hoc ...........................................................................................................................................36
1.4.3 La valeur informative du modèle..................................................................................................................37
1.4.4 La confirmation d'anticipation .....................................................................................................................37
1.4.5 Alignement de modèles .................................................................................................................................38
1.5 CONCLUSION DU CHAPITRE...........................................................................................................................38
CHAPITRE 2 POURQUOI MODELISER ?.....................................................................................................40
2.1 ROLE ET STATUT DES MODELES ....................................................................................................................40
2.1.1 Modèles prédictifs et modèles explicatifs .....................................................................................................40
2.1.2 L'origine étymologique de « modèle » possède deux significations .............................................................40
2.2 MODELISER POUR IMITER ?...........................................................................................................................41
2.3 MODELISER POUR PREDIRE ?.........................................................................................................................42
2.3.1 Déterminisme et sciences prédictives ...........................................................................................................42
2.3.2 Déterminisme et hasard : théorie du chaos déterministe .............................................................................43
2.3.3 Démarches prospectives pour découvrir le champ des possibles.................................................................43
2.4 MODELISER POUR GENERER DES SCENARIOS PROSPECTIFS ...........................................................................44
2.5 MODELISER POUR COMPRENDRE : UN MODELE JOUE LE ROLE DE FILTRE DISCRIMINANT...............................47
2.5.1 Le modèle, filtre discriminant pour résumer la réalité en une photo plus explicite .....................................47
2.5.2 Un filtre discriminant selon les points de vue...............................................................................................49
2.6 DU FILTRE PASSIF A L'AFFIRMATION D'UN REGARD CONSTRUIT ....................................................................50
2.7 MODELISER POUR APPRENDRE ......................................................................................................................52
2.7.1 Nous pensons par modèles ...........................................................................................................................52
2.7.2 La modélisation est un processus itératif d'apprentissage ...........................................................................53
2.8 LE QUESTIONNEMENT, POINT D’ENTREE DE LA MODELISATION ....................................................................54
2.8.1 Le modèle scientifique repose sur une question ...........................................................................................54
2.8.2 La modélisation a pour rôle de proposer des questions ...............................................................................55
2.9 CONCLUSION DU CHAPITRE...........................................................................................................................56
2.9.1 Un modèle n'est pas neutre...........................................................................................................................56
2.9.2 La modélisation commence par des questions..............................................................................................57
2.9.3 Générer des scénarios pour anticiper des futurs possibles ..........................................................................57
CHAPITRE 3 LES AVANTAGES DE LA MODELISATION MULTI-AGENT..........................................58
3.1 LES GRANDES CATEGORIES DE MODELES DE SIMULATION ............................................................................58
3.1.1 Modèles mathématiques et prise en compte des interactions .......................................................................59
3.1.2 Modèles multi-agents et modèles individus-centrés .....................................................................................61
3.2 DEFINITIONS DES AGENTS ET DES SYSTEMES MULTI-AGENTS ........................................................................62
3.3 SMA ET ORGANISATION ...............................................................................................................................64
3.4 LES RELATIONS ENTRE LES NOTIONS D'AGENT ET D'OBJET ............................................................................66
3.5 LES SMA SONT PARTICULIEREMENT ADAPTES A L’AIDE A LA GESTION DES RESSOURCES RENOUVELABLES 67
3.5.1 Aborder la complexité par une démarche de modélisation systémique........................................................67
3.5.2 Importance de l'espace et des interactions en écologie................................................................................69
3.5.3 Coupler les dynamiques naturelles et les dynamiques sociales pour la gestion des ressources
renouvelables ........................................................................................................................................................71
3.6 COMMOD : LA MODELISATION COMME OBJET DE MEDIATION .......................................................................73
3.6.1 De l'aide à la décision pour piloter un système… ........................................................................................73
3.6.2 … à l'accompagnement du processus de décision ........................................................................................74
3.6.3 Générer des scénarios exploratoires par simulation interactive..................................................................77
3.7 CONCLUSION DU CHAPITRE...........................................................................................................................78
CHAPITRE 4 LE STATUT DE LA SIMULATION ET SES CONSEQUENCES POUR LA
« VALIDATION » DES SYSTEMES MULTI-AGENTS..........................................................................................79
4.1 DISTINGUER "MODELE" ET "SIMULATION" ....................................................................................................79
4.2 LA SIMULATION REVELE L'IMPORTANCE DU TEMPS.......................................................................................80
4.2.1 Prise en compte progressive du temps dans les modèles..............................................................................80
4.2.2 Distribution des interactions au cours du temps ..........................................................................................81
4.3 LA SIMULATION REVELE LA COMPLEXITE .....................................................................................................81
4.3.1 La complexité selon Von Neumann...............................................................................................................81
4.3.2 ECEC : un exemple de modèle simple et de résultats non triviaux ..............................................................81
4.4 LA SIMULATION : UNE EXPERIENCE INCOMPRESSIBLE ...................................................................................83
4.4.1 Une expérience sans raccourci… .................................................................................................................83
4.4.2 … qui ne peut se démontrer..........................................................................................................................84
4.5 LA SIMULATION ET LA NOTION D'EMERGENCE ..............................................................................................86
4.5.1 Préambule ....................................................................................................................................................86
4.5.2 Une notion délicate qui lie un phénomène global à des comportements individuels ...................................87
4.5.3 Surprise et observateur.................................................................................................................................87
4.5.4 Définition édifiante de l'émergence ..............................................................................................................88
4.5.5 Emergence faible – émergence forte ............................................................................................................89
4.5.6 Auto-organisation et autonomie ...................................................................................................................90
4.6 DISCUSSION : LA SIMULATION ET SES CONSEQUENCES POUR LA "VALIDATION" DES SYSTEMES MULTI-
AGENTS 91
4.6.1 Importance de distinguer "modèle", "simulation" et "simulateur"...............................................................91
4.6.2 Vérification et "validation” : "Building the model right" et "Building the right model" .............................92
4.6.3 Fiabilité du simulateur .................................................................................................................................94
4.6.4 Réplication et alignement de modèles ..........................................................................................................95
4.6.5 La lisibilité des modèles multi-agents...........................................................................................................96
4.6.6 Traçabilité et robustesse du modèle .............................................................................................................96
4.6.7 Autonomie et modèle Ad Hoc .......................................................................................................................96
4.7 CONCLUSION DU CHAPITRE...........................................................................................................................97
DEUXIEME PARTIE : LES ARTEFACTS LIES A LA GESTION DU TEMPS ET DES INTERACTIONS ..98
CHAPITRE 5 GESTION DU TEMPS DANS LES SIMULATIONS ..............................................................99
5.1 LES TEMPS ....................................................................................................................................................99
5.2 TEMPS DISCRET ET TEMPS CONTINU DES MODELES MATHEMATIQUES ...........................................................99
5.2.1 Modèles à temps continu ..............................................................................................................................99
5.2.2 Exemple de modèle à temps continu : le modèle de Verhulst .....................................................................100
5.2.3 Modèles à temps discret : Systèmes dynamiques discrets ..........................................................................102
5.2.4 Exemple de modèle à temps discret : équation logistique discrète.............................................................103
5.2.5 Alors… discret ou continue ? .....................................................................................................................104
5.3 LES POLITIQUES DE GESTION DU TEMPS DES SMA ......................................................................................106
5.3.1 Les modèles à événements discrets : simulation dirigée par les événements .............................................106
5.3.2 Les modèles à pas de temps : simulation dirigée par l'horloge..................................................................112
5.3.3 Biais liés à la séquentialisation du temps...................................................................................................116
5.3.4 Alors… gestion événementielle ou par horloge ?.......................................................................................126
5.3.5 Résolution de conflit : aucune politique de gestion n'y échappe ................................................................130
5.3.6 Les plates-formes multiprocesseurs ne constituent pas une solution .........................................................130
5.3.7 Problème de simultanéité ou problème d'interaction ? ..............................................................................132
5.3.8 Un exemple : le pompier incompétent ........................................................................................................132
5.4 CONCLUSION DU CHAPITRE.........................................................................................................................138
CHAPITRE 6 LA NOTION D'AUTONOMIE ................................................................................................139
6.1 QUELLES AUTONOMIES ? ............................................................................................................................139
6.1.1 Autonomie biologique et sociale.................................................................................................................139
6.1.2 Autonomie informatique .............................................................................................................................141
6.2 AUTONOMIE FORTE : PROTEGER L'INTEGRITE INFORMATIQUE DE L'AGENT .................................................143
6.2.1 Action de l'agent : manipulation directe de l'environnement .....................................................................143
6.2.2 Principe "Influences–Réaction" : séparer le geste et le résultat du geste ..................................................143
6.2.3 Principe "Influences–Réaction" renforcé : séparer le corps et l'esprit ......................................................146
6.2.4 Réification des interactions : le modèle MIC* {Mouvement Interaction Calcul}* ....................................150
6.3 CONCLUSION DU CHAPITRE.........................................................................................................................152
CHAPITRE 7 GESTION DES INTERACTIONS APPLIQUEE AUX MODELES DES RESSOURCES
RENOUVELABLES...................................................................................................................................................154
7.1 QUELLES INTERACTIONS ? ..........................................................................................................................154
7.1.1 Actions simultanées ....................................................................................................................................154
7.1.2 Interactions Co-X .......................................................................................................................................155
7.1.3 Actes de langages .......................................................................................................................................156
7.1.4 Protocoles d'interaction .............................................................................................................................156
7.2 INTERACTION FORTE – INTERACTION FAIBLE ..............................................................................................158
7.2.1 Modèle de reproduction croisée : interaction forte....................................................................................158
7.2.2 Modèle de consommation d'une ressource commune : interaction faible ..................................................162
7.2.3 Modèle sans interaction .............................................................................................................................169
7.3 DISCUSSION ................................................................................................................................................170
7.4 CONCLUSION ..............................................................................................................................................172
TROISEME PARTIE : AMELIORER LA FIABILITE ET LA LISIBILITE DES MODELES MULTI-
AGENTS ......................................................................................................................................................................174
CHAPITRE 8 EXPLORATION DES MODELES..........................................................................................175
8.1 ANALYSE DE LA STRUCTURE : VERIFIER LA COHERENCE DES COMPORTEMENTS INDIVIDUELS ....................176
8.2 ANALYSE DE SENSIBILITE ...........................................................................................................................178
8.2.1 Choix des indicateurs (sondes)...................................................................................................................178
8.2.2 Enquête sur un modèle ...............................................................................................................................180
8.2.3 Sensibilité locale.........................................................................................................................................180
8.2.4 Sensibilité globale ......................................................................................................................................193
8.3 ANALYSE DES CONFIGURATIONS INITIALES ................................................................................................196
8.3.1 Niveau initial d'énergie des plantes du modèle ECEC ...............................................................................196
8.3.2 Fragmentation de l'espace..........................................................................................................................197
8.4 DISCUSSION ................................................................................................................................................201
8.4.1 Vérifier, comprendre et simplifier ..............................................................................................................201
8.4.2 Sensibilité et robustesse..............................................................................................................................201
8.4.3 Importance des configurations initiales .....................................................................................................202
8.5 CONCLUSION DU CHAPITRE.........................................................................................................................203
CHAPITRE 9 DECRIRE POUR PERMETTRE LA CRITIQUE ET LA REPLICATION .......................205
9.1 LA REPLICATION : UNE NECESSITE POUR TOUTE DEMARCHE SCIENTIFIQUE .................................................205
9.1.1 Pourquoi répliquer ? ..................................................................................................................................205
9.1.2 Répliquer des résultats de simulations à partir de spécifications ..............................................................206
9.1.3 Exemple : [Rouchier, 2003] à partir des spécifications de [Duffy, 2001] .................................................207
9.1.4 Exemple : [Rand & Wilensky, 2006] à partir des spécifications de [Axelrod & Hammond, 2003]...........208
9.1.5 Exemple : [Edmonds & Hales, 2003] à partir des spécifications de [Riolo et al. , 2001] .........................208
9.1.6 Qualité du générateur de nombres pseudo-aléatoires................................................................................210
9.1.7 Problème récurrent de la gestion du temps et des interactions..................................................................211
9.2 ATTENTION PARTICULIERE DANS LA DESCRIPTION DES MODELES ...............................................................212
9.2.1 Une nouvelle phase dans le cycle de la modélisation.................................................................................212
9.2.2 Protocole ODD...........................................................................................................................................216
9.2.3 UML ...........................................................................................................................................................217
9.3 CONCLUSION : PENSER PAR DIAGRAMME....................................................................................................223
CHAPITRE 10 CONCLUSION : DES MODELES SIMPLES, FIABLES, EXPLICITES ET
REPRODUCTIBLES POUR RETROUVER LA COMPLEXITE ........................................................................224
10.1 FAIBLESSES DES MODELES MULTI-AGENTS .................................................................................................224
10.1.1 Un SMA révèle des propriétés non prouvables ........................................................................................224
10.1.2 Boite noire ................................................................................................................................................225
10.1.3 Gestion délicate du temps et des interactions...........................................................................................226
10.1.4 "The ghost in the model" ..........................................................................................................................228
10.1.5 Passage par le codage..............................................................................................................................230
10.1.6 Complexification sans fin .........................................................................................................................231
10.2 KISS OU KIDS ? ........................................................................................................................................231
10.2.1 Préambule : l'efficacité n'implique pas la complexité ..............................................................................231
10.2.2 KIDS .........................................................................................................................................................233
10.2.3 KISS..........................................................................................................................................................234
10.2.4 Discussion ................................................................................................................................................235
10.2.5 Modèles géographiques : modèles-cathédrales ou modèles-Kleenex ?....................................................237
10.3 DU MODELE DESCRIPTIF AU MODELE ADAPTATIF EN CIBLANT LA QUESTION DE RECHERCHE ......................239
10.4 CONCLUSION GENERALE .............................................................................................................................241
CHAPITRE 11 APPLICATION DE LA METHODOLOGIE : EXEMPLE DU MODELE
TRANSAMAZON 244
11.1 LE CONTEXTE AMAZONIEN .........................................................................................................................244
11.2 LOCALISATION DU SITE D'ETUDE ................................................................................................................246
11.3 OBJECTIFS DU MODELE ...............................................................................................................................247
11.3.1 La question de recherche, point d’entrée de la modélisation {chap. 2} ...................................................247
11.3.2 Autres modèles et avantages de la modélisation multi-agent {chap. 3} ...................................................248
11.4 DESCRIPTION DU MODELE : OUVRIR LA BOITE NOIRE {CHAP. 9} .................................................................250
11.4.1 Délimitations ............................................................................................................................................250
11.4.2 Description de la structure .......................................................................................................................252
11.4.3 Description des dynamiques.....................................................................................................................259
11.5 GESTION DU TEMPS, DE L’AUTONOMIE ET DES INTERACTIONS {PARTIE 2}..................................................261
11.5.1 Un modèle sans difficultés pour l'activation des entités {chap. 6} ...........................................................261
11.5.2 Simplification des interactions : échanges de lots par la technique du commissaire-priseur {chap. 7} ..262
11.5.3 Pas de protection particulière de l’autonomie {chap. 6} .........................................................................263
11.6 PREMIERS RESULTATS ................................................................................................................................263
11.6.1 Le simulateur............................................................................................................................................263
11.6.2 Exemple d’une simulation ........................................................................................................................263
11.6.3 Analyse de sensibilité {chap. 8}................................................................................................................267
11.6.4 Réplication................................................................................................................................................270
11.7 DISCUSSION ................................................................................................................................................270
11.8 PERSPECTIVES ............................................................................................................................................272
11.9 CONCLUSION ..............................................................................................................................................272
BIBLIOGRAPHIE......................................................................................................................................................274
ANNEXES ...................................................................................................................................................................289
1 EXEMPLE DE MODELE MATHEMATIQUE : LE MODELE DE VOLTERRA ...............................................................289
2 MODELE D'INTERACTION INDIRECTE : CONSOMMATION D'UNE RESSOURCE COMMUNE....................................292
3 LE MODELE ECEC : EVOLUTION DE LA COOPERATION DANS UN CONTEXTE ECOLOGIQUE ...............................295
4 DESCRIPTIONS SUPPLEMENTAIRES DU MODELE TRANSAMAZON .....................................................................299
Résumé
Les potentialités des SMA ne doivent pas cacher les difficultés qui guettent le modélisateur. Plus
précisément, c'est la question de la validation des modèles qui est régulièrement soulevée. Car,
contrairement aux modèles mathématiques, il est impossible de prouver les caractéristiques d’un
SMA. De plus, les probabilités de faire apparaître des erreurs ou des biais ne sont pas négligeables.
On peut alors légitimement s’interroger sur la fiabilité des simulateurs. Or il s’agit moins d’erreurs
de codage que de problèmes de gestion approximative des interactions ou d’activation des agents
qui peuvent remettre en cause cette fiabilité. Souvent sous-estimés, ces approximations produisent
des artéfacts et on risque d'attribuer par erreur des propriétés à un modèle.
Certaines techniques limitent l’apparition de ce genre de biais en renforçant par exemple
l’autonomie des agents. En effet, en protégeant leur intégrité informatique, ces architectures
empêchent les interactions directes de gré à gré. Elles obligent donc un traitement dévié vers une
entité d’ordre supérieur (l’environnement ou l’univers) en charge de résoudre les interactions, les
conflits et les traitements parallèles. Néanmoins, ces techniques informatiques sont contraignantes
et difficiles à mettre en œuvre. Seules, elles apportent rarement de réponses satisfaisantes pour
empêcher l’apparition de biais. Il importe plutôt de connaître les zones sensibles susceptibles de
générer des artefacts et d’utiliser des procédures standards en les adaptant au domaine modélisé.
Ceci ne veut pas dire qu’il faille sophistiquer les interactions entre les agents ou bien imposer un
système particulier de gestion du temps. Au contraire, il est nécessaire d’aborder ces points
sensibles en proposant des modèles simples et contrôlables et en considérant que l’activation et les
interactions font partie intégrante du modèle.
La modélisation des socio-éco-systèmes n’est pas juste une spécialité informatique, mais demande
un véritable savoir-faire et le modélisateur doit garder un regard critique sur ses outils. Non
seulement il faut connaître par avance les points sensibles des SMA mais il faut également
s’assurer de la robustesse de ses résultats en montrant que le simulateur exhibe des comportements
relativement stables. La réplication indépendante du simulateur renforce encore sa fiabilité.
D'ailleurs, vérifier et reproduire une expérimentation, quelle qu'elle soit, apparaît comme la règle
de toute démarche scientifique rigoureuse. Mais les difficultés de la réplication sont à attribuer au
manque de lisibilité des SMA. Il est donc indispensable de décrire son modèle de façon claire et
non ambiguë. Après la mise en place d'un simulateur, un travail de re-présentation reste à mener
pour proposer des diagrammes réorganisés qui mettent la lumière sur les points essentiels et
autorisent des discussions et des critiques.
Nous défendons l'idée d'une modélisation exposée, qui doit assumer ses choix sans imposer ses
points de vue. Il est urgent d’abandonner la vision naïve qui consiste à penser qu'un modèle est
objectif. La notion de modèle neutre qui ne serait qu'une copie du réel in silico, impliquerait que le
modélisateur n'a aucun présupposé sur le système qu'il étudie et que le monde se reflète dans sa
pensée comme une image dans un miroir. Or, que ce soit intentionnel ou non, un modèle est
forcément une représentation subjective. Il faut donc expliciter ses choix et les présenter de la
façon la plus lisible possible pour qu'ils puissent être compris, partagés ou critiqués. Suite aux
défauts de fiabilité des SMA et aussi à cause de démarches naïves de la modélisation, il est
préférable, dans l'état actuel des SMA, d'opter pour des modèles simples plutôt qu'une approche
descriptive qui chercherait à introduire dans le modèle le maximum d'informations considérées
comme données par nature.
Abstract
The potentialities of the MAS should not hide the difficulties the modelisator can encounter. More
precisely, the question of models validation is regularly mentioned. On the contrary of
mathematical models, it is impossible to prove the characteristics of a MAS. Moreover, the
probabilities of revealing errors or bugs are not negligible. One can then legitimately wonder about
the reliability of the simulators. However, the main problems don’t come from errors of coding but
rather from the management of the interactions or activations of the agents. Often underestimated,
a rough management may produce artifacts and one can give by mistake the wrong properties to a
model.
Some techniques limit the emergence of this kind of bias by reinforcing for example the autonomy
of the agents. Indeed, by protecting their data integrity, these architectures prevent the direct
interactions between agents. Thus, they necessitate a treatment deviated towards a higher nature
entity (environment or universe) in charge of solving interactions, conflicts and parallel treatments.
Nevertheless, these techniques are constraining and difficult to implement. Single-handedly, they
bring hardly satisfactory answers to prevent from bias appearance. It is rather important to be
aware of the hot areas that are likely to generate artifacts and to use standard procedures by
adapting them to the modeled field. This does not mean that it is necessary to sophisticate the
interactions between the agents or to impose a particular system of time management. On the
contrary, it is necessary to handle these vulnerable points by proposing simple and controllable
models and by considering that activation and interaction are at the heart of a model.
The modeling of the socio-ecosystems is not just a data-processing speciality, but request a
confirmed know-how and the modelisator must take a critical look at its own tools. It is necessary
to know by advance the vulnerable points of the MAS but it is also necessary to improve the
robustness of its results by showing that the simulator exhibits relatively stable behaviors. The
independent replication of a simulator reinforces its reliability. Moreover, to check and reproduce
experimentation (whatever type) appear as the rule of any rigorous scientific method. But the
difficulties of replication are affected by miss readability of the MAS. It is thus essential to
describe its model in a clear and non-ambiguous way. After the implementation of a simulator, a
work of re-presentation must be carried out to design reorganized diagrams that put the light on the
essential points of the model and authorize discussions and criticisms.
We defend the idea of an exposed modeling that must assume its choices without imposing its
points of view. It is urgent to give up the naive vision which consists in thinking that a model is
objective. The idea of neutral model as a simple copy of reality in silico would imply that the
modelisator has no presupposed on the studied system and that the world is reflected in its thought
like an image in a mirror. However, a model is inevitably a subjective representation. It is thus
necessary to clarify its choices and to present them in the most readable way so that they can be
understood, shared or criticized. Due to the lack of reliability of the MAS and also to the naive
approaches of modeling, it is preferable, in the actual position of the MAS, to choose simple
models rather than a descriptive approach which would seek to introduce into the model the
maximum of information considered as given by nature.
Resumo
O paradigma multi agente que propõe uma maneira original de modelar o mundo, é considerado
como um modo relevante de representação dos conhecimentos. Mas estas potencialidades não
devem esconder as dificuldades que vigiam o modelizador. Frequentemente subestimadas, estas
podem questionar a sua legitimidade científica. Então, a pergunta da validação dos SMA é
levantada e mais especificamente a sua fiabilidade.
Contrariamente aos modelos matemáticos, um SMA não pode provar os seus resultados nem
abstrair-se da simulação. No momento da passagem da sua concepção á sua aplicação, numerosos
problemas podem aparecer. Alguns são ligado à erros de programação ou de cálculo, mas a maior
parte provem de uma gestão aproximativa do tempo e das interações entre agentes. Arrisca-se
assim atribuir por erro as propriedades de um modelo. Ora a técnica informática única não resolve
estas obliqüidades. O modelizador deve conhecer as zonas sensíveis susceptíveis de gerar produtos
manufaturados e de considerar-o no âmbito do domínio tratado. Após ter efetuado análises
exploratórias, ele controla melhor o seu sistema e é capaz de explicar todos os resultados
produzidos.
A partir de ces constats, la modélisation multi-agent, si elle veut perdurer, doit proposer des
méthodes pour aider à la conception de modèles plus fiables et mieux présentés. C'est grâce à la
mise en place de ces méthodes que l'on pourra résoudre en partie les problèmes liés à la validation
des modèles.
L'approche méthodologique que je présenterai, s'oriente autour des expériences que j'ai acquises au
Cirad 1 sur la gestion des ressources renouvelables, en tant que modélisateur impliqué dans des
1
Centre de coopération internationale en recherche agronomique pour le développement. www.cirad.fr
projets de développement mais aussi comme enseignant 2. En effet, si les SMA peuvent être
appliqués à un grand nombre de domaines, leur utilisation dans le cadre de l'aide au
développement en agronomie nécessite une démarche particulière : une posture de recherche-
action qui place l'acteur au centre des préoccupations. Quelques précisions sur ces notions
apparaissent nécessaires.
2
Dans le cadre de la diffusion des connaissances et suite à de nombreuses demandes, l'UR GREEN a mis en place
une formation intitulée ”Simulation de Systèmes Complexes : Systèmes Multi-Agents et Gestion des Ressources
Renouvelables”. Cette formation de deux semaines a été dispensée en France et dans de nombreux pays (cf.
http://cormas.cirad.fr/fr/formati/passe.htm). Elle est destinée à des non-informaticiens désirant s'initier à la
modélisation. Le cours dresse un panorama des différents outils de modélisation. Il présente également l'approche
objet et la formalisation UML. Des exemples d'applications multi-agents sont exposés ainsi que leur utilisation pour la
gestion des ressources renouvelables. Des travaux pratiques sont menés en groupe permettant de suivre un processus
complet de modélisation multi-agent, depuis la conception participative du modèle jusqu'à son implémentation sur la
plate-forme CORMAS (voir à la fin de ce chapitre).
Interactions :
Gestion des
ressources
renouvelables
Figure 1 : Dynamiques des ressources naturelles renouvelables en interaction avec des dynamiques sociales.
Pour ces systèmes complexes, on observe d'une part des dynamiques naturelles à l'échelle d'un organisme,
d'une population ou de peuplements, et d'autre part, des dynamiques sociales à l'échelle des individus ou des
organisations.
Aider à la gestion durable nécessite donc des compétences scientifiques variées qui doivent
s'articuler dans un dialogue transdisciplinaire. Il s'avère alors que la modélisation multi-agent peut
jouer un rôle particulièrement intéressant pour favoriser ce dialogue et pour aider à comprendre les
points de vue de chacun.
Figure 3 : Les différents niveaux d'étude pour aborder l'étude des systèmes de production, d'après [Rossi &
Courdin, 2006].
1.3 OBJECTIF DE LA THESE
En partant de l'hypothèse que le défaut de validation, ou plus justement que les problèmes
d'évaluation reprochés aux SMA, sont le plus souvent à attribuer à une insuffisance de fiabilité, à
la pauvreté de leur description et à la difficulté à les répliquer, cette thèse a pour objectif de définir
un cadre méthodologique pour la conception de modèles multi-agents appliqués à la gestion des
ressources renouvelables. Il ne s'agit pas de décrire une méthodologie complète qui guiderait un
apprenti modélisateur, de a à z, à concevoir et utiliser des SMA, mais bien d'un cadre pour en
tracer les grands principes et les limites. J'essaierai ainsi d'apporter des éléments afin d'identifier
ces faiblesses pour les traiter de façon appropriée. Même si ce cadre peut s'appliquer à d'autres
domaines, je l'ai restreint ici à la seule modélisation des ressources renouvelables dont je maîtrise
davantage les techniques.
Dans ce contexte, je défendrai tout au long de cette thèse l'idée d'une modélisation exposée, c'est-
à-dire d'une modélisation qui doit assumer ses choix sans imposer ses points de vue. Il faut
abandonner la vision naïve de la modélisation qui consisterait à penser qu'un modèle est objectif.
En effet, la notion de modèle neutre qui ne serait qu'une copie du réel in silico, impliquerait que le
modélisateur n'a aucun présupposé sur le système qu'il étudie et que le monde se reflète dans sa
pensée comme une image dans un miroir. Or, il n'en est rien. Que ce soit fait d'une manière
intentionnelle ou, comme c'est souvent le cas, de manière involontaire, un modèle est forcément
une représentation subjective du monde. Il est donc essentiel d'expliciter ses choix et de les
présenter de la façon la plus lisible possible pour qu'ils puissent être compris, partagés ou critiqués.
En défendant l'idée que la modélisation multi-agent pour la gestion des ressources renouvelables
est une véritable discipline et non pas juste une spécialité informatique, j'exposerai mes points de
vue sur les différentes démarches de modélisation, sur la validation des modèles, la fiabilité des
simulateurs et la nécessité d'une représentation claire et compréhensible par tous.
En m'appuyant sur certains concepts épistémologiques qui dépassent largement le cadre de cette
thèse, j'essaierai néanmoins d'aborder le problème de l'évaluation des connaissances et
j'expliquerai pourquoi il est préférable d'éviter d'employer le terme validation qui véhicule l'idée de
certitude.
Par conséquent, suite aux défauts reprochés aux SMA trop souvent sous-estimés, mais aussi à
cause d'une certaine approche naïve de la modélisation, il est préférable, dans l'état actuel des
SMA, d'opter pour des modèles simples (démarche KISS pour “Keep It Simple Stupid”) plutôt
qu'une approche descriptive (KIDS pour “Keep it Descriptive Stupid”) comme le proposent
[Edmonds & Moss, 2004]) qui chercherait à introduire dans le modèle le maximum d'informations
considérées comme données par nature.
RESSOURCES RENOUVELABLES
Chapitre 1
Comme il a été dit en introduction de cette thèse, une critique récurrente faite aux modèles multi-
agents porte sur la difficulté voire l'impossibilité de leur validation. A la question incessante qui
inquiète le modélisateur sur la validité de son travail, il semble nécessaire de réfléchir sur la portée
de cette question et les présupposés qu'elle véhicule. Car la meilleure réponse à cette question
consiste dans un premier temps à retourner la question : quels sont les critères qui permettraient
d'affirmer qu'un modèle multi-agent est validé ?
D'ailleurs, pourquoi cette difficulté serait-elle le ”privilège” des SMA ? La question de la
validation ne se pose-t-elle pas aux autres catégories de modèles ? C'est la raison pour laquelle ce
chapitre essaie de répondre à ces questions en les étendant à tous les types de modèles pris dans un
sens large.
exact, fidèle, juste). Or, cette vision classique de la validation qui est largement partagée, demeure
problématique car elle véhicule une idée inquiétante : l'idée de vérité, d'une connaissance
(contenue dans le modèle) sans faille, affirmant une explication juste du monde. La déclaration de
validité n’empêcherait alors plus aucune précaution et l’on pourrait substituer le modèle à la réalité
et prendre des décisions importantes en se reposant sur la certitude de ses résultats. Car le terme
validation renvoie à valide dont une des définitions du Larousse est ”Proposition valide : énoncé
qui est vrai en vertu de sa seule forme”. Certes, la validation a aussi des significations moins
extrêmes (valider une élection), dans le sens ”qui est valable”, c'est-à-dire ”qui a un fondement
accepté et reconnu, qui est vraisemblable” 3.
La validation sous-entend donc deux significations distinctes : la vérité et la vraisemblance. De la
première signification que je nomme ”validation forte”, découle la certitude qui est une notion
dangereuse surtout si on l'applique aux systèmes sociaux et environnementaux. A l'opposé, la
vraisemblance souligne un caractère bien plus nuancé (likelihood en anglais est encore plus joli et
subtil) : la connaissance ou l'explication semble juste mais il faut cependant essayer de la faire
admettre. Dans ce sens, la validation que je nomme ”validation faible”, n'est plus une certitude
absolue mais permet de considérer les conclusions comme recevables. Néanmoins, la tentation est
grande de considérer qu'à partir du moment où un modèle est déclaré comme valide, la
connaissance qu'il véhicule est vraie.
D'autre part, la confrontation de ses résultats avec ”le système réel” comme il est trop souvent
énoncé, pose aussi problème. Comme on le verra au cours du chapitre 2, la notion de réel est un
concept délicat. Il est vrai que beaucoup d'auteurs ([Edmonds, 2000a], [Thom, 1978]) avertissent
que l'interprétation des résultats de simulations ne doit pas se faire en fonction de l'objet réel X,
mais bien en fonction de son abstraction (l'analogue de X, voir graphique 2-7 page 55) :
The most common error in this sort of modelling is that modellers conflate the abstraction and the
target in their minds and attempt to interpret the results of their MAS model directly in terms of the
target system. [Edmonds, 2000a]
Par conséquent, sur la base de ces définitions et sur les présupposés que laissent entendre la
validation (forte), il est nécessaire pour la suite de ce chapitre de comprendre ce que signifie
l'ajustement correcte à des données mais aussi de savoir comment prouver la véracité
d’explications scientifiques.
3
Définition du Trésor de la Langue Française Informatisé : http://atilf.atilf.fr/
26
Figure 1-1 : Corrélation apparente entre l'évolution de la densité des tâches solaires et des captures de Lynx
issues des registres de la compagnie de la baie d’Hudson au Canada, d'après le cours de J. R. Lobry [2008].
Cette coïncidence curieuse avait été remarquée par Elton dès 1924.
Dans le même ordre d'idées, le modèle des astres conçu par Ptolémée, qui décrit les trajectoires des
planètes gravitant autour de la Terre, constitue un autre exemple de bonne corrélation entre des
mesures et un modèle erroné.
Ainsi, un modèle peut exhiber des résultats cohérents avec des données empiriques alors même
que son contenu est clairement éloigné des dynamiques qu’il est supposé représenter.
Toujours à partir de ces données sur les lynx et les lièvres d’Amérique (établie d'après le nombre
de peaux vendues chaque année dans les comptoirs du Canada), Odum a tracé le graphique
suivant :
Figure 1-2 : Le graphique d’Odum [Odum, 1971], dessiné à partir des données de MacLulich, 1937.
Les évolutions des effectifs des deux populations sont donc bien corrélées. Elles présentent des
oscillations qui ne semblent pas dues aux rythmes des saisons mais plutôt aux interactions entre
proies et prédateurs. Suite à des comparaisons avec d'autres données de population en interaction
de prédation, on a cherché une explication par un modèle générique. A l'issue de la première
guerre mondiale et à partir des données expérimentales d’Umberto D’Ancona (captures de pêche
en Adriatique), Vito Volterra propose alors un modèle proie-prédateur encore fameux aujourd’hui
[Volterra, 1926]. Ce modèle, présenté en annexe 1 (p. 289), montre des courbes de populations de
proies et de prédateurs oscillantes dont les cycles sont légèrement décalés dans le temps. Le
modèle de Volterra, une fois paramétré, montre que ses résultats sont assez bien corrélés à ces
données de pêches (sardines – sélaciens) ou à celles des captures de lièvres et de lynx. Néanmoins,
27
les deux séries périodiques observées sur le graphe ci-dessus ne sont pas déphasées comme le
voudrait le modèle 4.
En ce qui concerne les données de capture de lynx et de lièvres, il a été constaté plus tard que cette
série de données reflétait plutôt les cycles du marché américain des fourrures : la demande
fluctuante pour les fourrures de lynx influait fortement les captures [Lobry, 2007].
Par conséquent, les résultats d'un modèle peuvent apparaître cohérents avec des données
empiriques alors même que celles-ci sont inhérentes à un facteur externe non pris en compte par le
modèle.
4
A ce sujet, [Israel, 1996] rapporte une lettre qu’Umberto D’Ancona écrivit à Vito Volterra en 1935 :
Je serai bien heureux si l’on pouvait donner des démonstrations expérimentales précises de vos théories
mathématiques. [...] Malheureusement, mes observations statistiques peuvent être aussi interprétées dans un
autre sens et Pearson, Bodenheimer et Gause sont de cet avis. Voilà pourquoi moi aussi je dois admettre que
ces critiques ont un fondement sérieux.
Bien que les sélaciens soient des prédateurs des sardines et malgré la bonne corrélation des sorties du modèle (qu'à
l'époque on nommait théorie) avec les données relevées, D'Ancona considère que le modèle n’est pas corroboré par les
données statistiques. Toutefois, il ne rejette pas le modèle de Volterra malgré l’absence de corroboration :
Votre théorie n’est pas le moins du monde touchée par toute cette question.[...] il vaut mieux pour vous ne pas
lier votre théorie à une base expérimentale qui est sans doute moins solide que la théorie elle-même.
La prudence que D'Ancona montre à l'égard du modèle de Volterra prouve son profond respect pour les outils
mathématiques et les théories. L'absence de corroboration ne lui permet pas de rejeter le modèle.
28
que le rat trouve des aliments sur le plateau, cela confirme sa conviction que cette conduite
particulière est à l'origine de la délivrance de nourriture.
Ces conduites sont l'équivalent évident de superstitions humaines compulsives souvent fondées sur
la conviction vague qu'elles sont exigées par un ”expérimentateur divin”. ”Selon un mode de
comportement humain caractéristique, le rat préférera à l'incontournabilité des faits, une vision de
la réalité conforme à ses convictions” [Watzlawick, 1978]. Des expériences plus sophistiquées
menées avec des êtres humains ont montré comment, dans une situation d'incertitude ou
d'angoisse, une explication séduisante du réel peut devenir une certitude irréfutable. Une fois
enracinées comme l'interprétation d'événements, cette vision de la réalité résiste à toutes
objections. Cette résistance aux ”changements” [Watzlawick et al., 1975] 5 est confirmée par
d'autres expériences montrant qu'il est très difficile de modifier ces croyances, même si une
information vient les contredire. Parfois même, des éléments qui contredisent ”l'explication” ne
conduisent pas à sa correction, mais au contraire la renforcent. En effet, une situation d'incertitude
crée une angoisse et une attente, et nous préférons, pour éviter toute gêne, faire ressembler la
réalité à la solution adoptée, plutôt que sacrifier cette dernière. Pour atténuer l'angoisse d'une
situation incertaine, la recherche de sens (ou recherche de relations causales) conduit à une
nouvelle conception de la réalité (une re-présentation).
Par ailleurs, Watzlawick identifie deux réalités que nous confondons communément :
La réalité de premier ordre, qui a trait aux ”propriétés physiques, objectivement sensibles
des choses”, est liée à la perception sensorielle que l'on en a, et est une réalité
scientifiquement vérifiable.
La réalité de second ordre se rattache à la signification et à la valeur que l'on attribue à ces
choses perçues. Elle se fonde sur la communication. ”Conflits interpersonnels, différences
de normes culturelles montrent que ces deux réalités sont très différentes. La réalité de
second ordre, qui repose sur des règles subjectives et arbitraires, n'est pas renseignée par la
réalité de premier ordre” [ibid.].
L'auteur donne un exemple simple : un adulte et un petit enfant voient un feu rouge. Il s'agit bien
du même objet, de la même couleur pour tous les deux, mais il signifiera ”ne traversez pas”
uniquement pour l'adulte.
Watzlawick explique que nous avons tendance à penser que la réalité correspond à la façon dont
nous voyons les choses, qu'il existe pour chacun d'entre nous une réalité de second ordre ”réelle”
et que tout point de vue divergent est pour nous celui d'un ”méchant ou d'un fou”.
« De toutes les illusions, la plus périlleuse consiste à penser qu’il n’existe qu’une seule réalité. En
fait, ce qui existe, ce sont différentes versions de la réalité, dont certaines peuvent être
contradictoires, et qui sont toutes l’effet de la communication et non le reflet de vérités objectives et
éternelles. […] De la réalité chacun se fait son idée. Dans les discours scientifiques et politiques,
dans les conversations de tous les jours, on s’en réfère toujours en dernière instance à la référence
suprême : le réel. Mais où donc est ce réel ? Et surtout, existe-t-il réellement ?! » [Watzlawick,
1978].
Considérant la réalité comme construction mentale, la contribution de l'école de Palo Alto au
constructivisme est essentielle (ce concept sera abordé au chapitre suivant). Après avoir montré la
fragilité de la notion de vérité, il est maintenant nécessaire de comprendre la signification de la
preuve scientifique.
5
Dans "Changements", les auteurs expliquent par ailleurs qu'ils se sont "servis de la théorie des groupes comme
d'un modèle conceptuel et non pour apporter une preuve mathématique" [ibid.].
29
1.3.2.2 L'inductivisme
Selon l'approche inductiviste (ou analytique), l'idée de vérité scientifique vient de la répétition d'un
phénomène. On ne tient pour vrai que ce qui peut être reproductible. Selon cette école de pensée,
les savoirs scientifiques c'est-à-dire les lois, théories et modèles se construisent à partir de données
d'observation qui constituent des fondements sûrs. Ainsi, sur la base d'observations, une théorie
(ou un modèle) est établie a posteriori en suivant une démarche inductive basée sur la logique qui
peut se résumer de cette façon : si au cours d'une série limitée d'observations d'objets O, une
propriété P apparaît pour chaque objet, alors on en induit que tous les O possèdent P. ”Tous les O
possèdent P” devient une généralisation légitime (une loi) uniquement si les observations de P sont
menées dans un grand nombre de conditions différentes.
A partir d'un corpus de lois, de plus en plus important au fur et à mesure de la progression de la
science, on peut expliquer des phénomènes sur une base logique. Par déduction, on est aussi
capable de prédire l'évolution d'un système ou l'apparition d'événements. Ainsi, les lois de
l'optique, induites d'expériences de laboratoire, sont utilisées avec succès pour concevoir des
instruments d'optique ou pour expliquer la formation d'un arc-en-ciel. De même, les lois de
30
l'astronomie induites de l'observation des planètes permettent de prédire l'occurrence des éclipses.
Le schéma suivant résume les deux démarches inductive et déductive de l'approche analytique.
Lois et
Lois et
théories
théories
dé
on du
u cti LOGIQUE cti
on
in d
Faits établis par Prédictions
Prédictionsetet
Faits établis par
l'observation explications
l'observation explications
6
Les faits, les propositions; à distinguer des prémices !
31
chats ont 5 pattes ; (2) Minouchat est un chat, donc (3) Minouchat à 5 pattes. La proposition (1) est
fausse mais le déroulement logique est juste. L'expérience du rat superstitieux que j'ai relatée
précédemment est une illustration plus concrète. Les mimiques qu'il développe pour attendre les
huit secondes nécessaires à la libération de la nourriture, lui paraissent la meilleure explication
logique. La répétition de ses expériences prouvera sa vision de la réalité et confirmera ses
convictions. Une fois enracinée, cette interprétation des événements résiste à toutes objections, car
elle paraît logique.
Enfin certains refusent l'idée d'une seule logique possible. ”La méthodologie analytique est
volontiers tenue pour LA méthode scientifique par excellence” [Le Moigne, 1990]. La Logique
Formelle, encore appelée Logique Disjonctive (logique du "OU") repose sur les 3 axiomes
d'Aristote. Les bases de la réflexion analytique n'affectent pas ces 3 axiomes, ”tant ils sont
présumés donnés par la nature des problèmes”. Aussi, ”s'il s'avère qu'aucun système logique
existant ne convient à une certaine problématique scientifique, alors il faut inventer un nouveau
système logique” [Feyerabend 1987, cité dans Le Moigne, 1990].
On peut également objecter que des théories nouvelles ne sont pas toujours conçues selon le
schéma de l'inductivisme naïf. Elles peuvent par exemple apparaître grâce à des éclairs
d'inspiration comme la découverte de la loi de gravitation apparue par Newton observant la chute
d'une pomme, ou par accident comme Roentgen qui découvrit les rayons X en se demandant
pourquoi ses plaques photographiques avaient noirci alors qu'elles étaient rangées dans un tiroir à
proximité d'un tube à décharge. Par ailleurs, beaucoup de théories sont conçues (en physique
principalement) avant que des observations puissent les tester.
1.3.2.4 Le falsificationisme
Sous l'impulsion des travaux de Karl Popper, la critique de l'inductivisme a ouvert la voie au
falsificationisme (ou réfutationnisme) qui porte un regard différent sur ce qu'est une théorie ainsi
que sur les conditions et les méthodes de son évolution. Popper rejette l'idée selon laquelle la
science avance par déductions. Elle ne fabrique pas de théories par inductions logiques à partir
d'instances particulières (des observations empiriques) : ”l'induction, c'est à dire la déduction à
partir de nombreuses observations, est un mythe” [Popper, 1985].
Sa critique s'appuie sur l'exemple suivant : observer que tous les cygnes que j'ai vus jusqu'à présent
sont blancs ne permet pas d'affirmer (d'induire) que tous les cygnes sont blancs. Cette critique de
l'induction le conduit à remettre en cause l'idée de preuve. Au terme vérification qu'il réprouve,
Popper propose celui de corroboration, c’est-à-dire d'une observation qui ne contredit pas une
théorie (une nouvelle observation d'un cygne blanc). Par conséquent, un grand nombre
d'expériences qui corroborent une théorie, ne permettent pas de conclure à sa validité. La répétition
d'observations et les expérimentations fonctionneraient alors comme des tests de ces conjectures 7
c'est-à-dire comme des essais de réfutations. Selon Popper, il n'y a pas de validation définitive; il
n'y a pas de preuve absolue d'une théorie mais uniquement des réfutations de conjectures
mauvaises. On ne retient une hypothèse que lorsqu'on ne peut pas la réfuter. Ainsi, une preuve
reste une preuve... tant qu'elle n'a pas de réfutation. Contrairement à la vision inductiviste selon
laquelle la science se développe de façon continue sur des succès, le falsificationisme explique que
la connaissance scientifique progresse plutôt par bonds et par essais et erreurs
Le falsificationisme se sert des observations (des énoncés singuliers) pour tester une théorie (un
énoncé universel). Un seul contre-exemple suffit alors à réfuter un énoncé universel. D'après
Popper, ”toute théorie étant intrinsèquement fausse”, il est préférable de découvrir au plus tôt ses
faiblesses au lieu de perdre son temps à essayer de la corroborer.
7
Il considère que les théories sont des conjectures (ou des suppositions spéculatives) inventées pour décrire, donner
sens ou résoudre des problèmes.
32
"Si notre préférence va à une telle démarche, c'est que nous estimons être ainsi en mesure de tirer un
enseignement de nos erreurs en découvrant que la conjecture en question était fausse, nous aurons
beaucoup appris quant à la vérité, et nous nous en seront d'avantage approchés" [Popper, 1985].
Souvent présentées comme opposées, ces deux approches (inductivisme et falsificationisme) sont
pourtant complémentaires sur certains points : l'inductivisme décrit une méthodologie de
construction de théories quand le falsificationisme définit un cadre de validation des théories
construites.
8
Une volonté de ”combattre la science sur son propre terrain, trouver et promouvoir les preuves scientifiques en
faveur d’une interprétation littérale de la Genèse biblique. Ainsi la terre n’aurait que 6000 ans et les fossiles seraient
expliqués par le déluge. Deux siècles de géologie et de paléontologie sont réinterprétés de fond en comble ; au besoin
par le moyen d’expérimentations, et la biologie évolutionniste niée de manière à ce que la bible soit « scientifiquement
prouvée » ”. [Lecointre, 2004]
34
communication consiste alors à affirmer que la théorie darwinienne ”n’est qu’une théorie”,
suggérant par-là qu'elle n'est pas plus valable qu'une autre 9.
S'il est indispensable pour l'ouverture d'esprit, le doute scientifique ne doit pas céder la place à un
relativisme absolu où toutes opinions se vaudraient, où les croyances et les savoirs seraient du
même ordre. Maturana et Varela ne partageraient peut-être pas cet avis lorsqu'ils écrivent que :
"Une explication est toujours une proposition qui reformule ou recrée les observations d'un
phénomène, dans un système de concepts acceptables par un groupe de gens partageant les mêmes
critères de validation. La magie par exemple, est une explication aussi valable pour ceux qui
l'acceptent que la science pour ceux qui l'acceptent”. [Maturana & Varela, 1994]
Mais ce qui différencie la magie ou la croyance d'une connaissance scientifique c'est peut-être bien
la méthode basée sur la réfutation. Les auteurs proposent alors de distinguer quatre conditions
essentielles à l'élaboration d'une explication scientifique :
a) Décrire le phénomène d'une façon acceptable par un groupe d'observateurs.
b) Proposer un système conceptuel capable d'engendrer le phénomène à expliquer d'une
manière acceptable par un groupe d'observateurs (hypothèse explicative).
c) Obtenir à partir de (b) d'autres phénomènes non considérés de façon explicite dans cette
proposition, et décrire leurs conditions d'observation par un groupe d'observateurs.
d) Observer ces autres phénomènes obtenus à partir de (b).[ibid.]
Pour ce dernier point (d), l'observation effective de phénomènes, initialement prévus par la théorie
ou le modèle mais non explicités, joue comme la confirmation d'une prévision (cf. la découverte
de Neptune). Mais le fait de décrire ”d'autres phénomènes” qui peuvent être observés, range à mon
sens cette proposition dans la démarche falsificationiste. Le degré de falsifiabilité permet de
classifier des propositions en leur donnant une valeur informative.
9
Cela suggère également une dépréciation des théories par rapport aux faits ”Cette vision implique que seul le
fait, n’importe quel fait, serait noble et surtout s’exprimerait de lui-même, laissant les théories au niveau des
spéculations sans fondements ni preuves.[…] Par conséquent, tout manipulateur habile a recours aux seuls «faits». Le
mot est d’autant plus martelé que l’on veut vous empêcher d’identifier toute la construction théorique ou la
représentation du monde qu’il y a derrière.” [Lecointre, 2004]
35
Neptune échappait à la mécanique newtonienne parce qu'elle était la dernière planète du système
solaire. Cet ajustement est ad hoc (donné pour l'occasion) et irréfutable dans le sens où il n'existe
aucun moyen de le démentir. Il appauvrit la théorie. On a par contre proposé une autre hypothèse
réfutable : l'orbite d'Uranus serait en fait perturbée par une autre planète dont les moyens
d'observation de l'époque ne rendaient pas compte. Cette seconde hypothèse est réfutable car elle
prend le risque d'affirmer la présence d'un autre corps céleste dont la position et la masse sont
définies à partir de la formule de Newton. La découverte de Neptune a posteriori a corroboré cette
hypothèse et a renforcé dans le même temps la théorie newtonienne. Mais si les nouvelles lunettes
astronomiques n'avaient pas décelé cette planète, alors la réfutation aurait été avérée 10.
On conçoit donc qu'une "bonne théorie est audacieuse". Si l'on veut progresser dans la
connaissance, il faut prendre des risques : risques de formuler des hypothèses non évidentes et
surtout falsifiables. La théorie produite acquiert alors une valeur informative. De plus, une théorie
doit être plus falsifiable encore que celle qu'elle cherche à remplacer. Elle doit par exemple oser
décrire un nouveau phénomène que l'ancienne théorie n'avait pas envisagé.
Somme toute, confirmer une conjecture prudente est peu informatif : passer son temps à faire
tomber des pommes ne nous apprend plus grand chose ! Il en va de même pour la réfutation d'une
conjecture audacieuse : montrer qu’une idée extravagante est fausse n’est finalement pas très
instructif. Par contre, confirmer une conjecture audacieuse ou falsifier une conjecture prudente
produisent des informations significatives qui contribuent à enrichir les savoirs :
"La croissance du savoir se produit soit par confirmation d'une conjecture audacieuse, soit lors de la
falsification d'une conjecture prudente. En même temps la confirmation d'une théorie audacieuse se
traduit par une falsification d'une partie du savoir acquis" [Chalmers, 1982]
10
Autre exemple : la découverte par Galilée des cratères sur la Lune s'opposait à la théorie aristotélicienne qui
imposait que les corps célestes soient des surfaces lisses. Pour contredire Galilée on a alors imaginé que les mers de la
Lune étaient recouvertes d'une substance invisible qui lui conférait la forme d'une sphère. Cet ajustement est
irréfutable car il n'y a aucun moyen de détecter cette substance. Pour contrer ses adversaires, Galilée a utilisé des
arguments dignes de la méthode de Watzlawick : il feignit d'admettre la présence de cette substance mais prétendit
qu'elle était au contraire située sur les montagnes de la Lune !
36
1978]. Concernant le problème de la validation, l'auteur rajoutait alors que la notion même de «
vérité » ou de « fausseté » d'un modèle n'est guère pertinente :
un modèle (M) est satisfaisant, s'il fournit une réponse satisfaisante à la question ( Q̂ ) qui a motivé la
modélisation. Encore faut-il préciser ce qu'on entendra par réponse satisfaisante : ce sera, très
souvent, une réponse qui permet la prédiction temporelle sur le comportement du système (X)
modéliser. Mais ce pourra être, tout aussi bien, une réponse qui, tout en améliorant en rien nos
capacités prédictives sur (X) contribue à améliorer le caractère énigmatique du comportement de
(X). [ibid., voir graphique 2-7]
Cependant, je demeure très circonspect sur l'emploi du terme prédiction cité par Thom, tout
spécialement à l'encontre des systèmes complexes. Mais je ne suis pas le seul. Dans son article
intitulé ”Futures, prediction and other foolishness”, [Bradbury, 2002] fustige les notions de vérité,
validation et prédiction qui gravitent souvent autour des discussions sur les modèles. Les systèmes
étudiés dans le cadre des ressources renouvelables sont souvent bien plus complexes que ceux sur
lesquels l'épistémologie s'appuie. Ce sont généralement des systèmes adaptatifs avec un grand
nombre d'entités pouvant évoluées. Or si la mécanique newtonienne permet de prévoir précisément
la dynamique de quelques objets (dans un certain domaine), un modèle climatique, un modèle de
marché boursier ou encore un modèle de paysage n'est capable d'aucune prédiction exacte sur son
évolution.
Du reste, le même constat est avoué dans le domaine des systèmes naturels. Dans un article paru
dans ”Science” intitulé "Verification, Validation and Confirmation of numerical models in the
earth sciences" et qui fit grand bruit, [Oreskes et al., 1994] lancent cet avertissement sur
l'impossibilité de validation. Ils expliquent cette incapacité par le fait que les systèmes naturels ne
sont jamais des systèmes fermés et que les résultats des modèles ne sont jamais uniques.
pas produit de modèles théoriques simples. La parcimonie des paramètres est donc la
caractéristique souhaitable de tout modèle” [McCullagh et Nelder, 1989].
D'autre part, il ne s'agit évidemment pas d'adhérer au mieux aux données qui serviraient au calage
du modèle, mais plutôt d'étendre au maximum son domaine d'application. La comparaison doit
alors s'appliquer à de nouveau jeux de données. Plus on en dispose et plus elles ont été recueillies
dans des conditions variées, meilleure sera la confiance dans le modèle s'il surmonte ces tests.
Malheureusement la quantité de données nécessaires pose problème, d’autant plus si l'on travaille
dans le champ des sciences humaines et sociales où les expérimentations sont difficilement
concevables, les collectes sont difficiles à réaliser (voire impossibles) et les données collectées
sujettes à caution.
repérer des changements de régime, des points de bifurcation ou des transitions de phase, alors ”les
processus computationnels auront donc démontré leur capacité à mimer l'émergence” [livet, 2006].
Mais même ainsi, il est nécessaire de garder une distance critique vis-à-vis de cet outil avant de
prendre quelques décisions :
The highest degree of confidence is provided by successful independent predictions, which indicate
that the model is structurally realistic. But even after successfully testing a model's independent
predictions, we must remember that the model is still just a model and will never be able to represent
all aspects of the real system. Modeling and models have momentum of their own, and models that
are initially successful pose the risk that modelers will stop distinguishing sufficiently between the
real system and their model. [Grimm & Railsback, 2005]
11
La question par exemple est de savoir si le scénario du présent siècle sera celui d’un changement violent (+2°C de
température moyenne du globe) ou très violent (5 à 6°C) du climat planétaire. L’un des facteurs à l’origine de cet écart
dans les modèles semble être la plus ou moins grande rigueur des politiques de maîtrise et de réduction des émissions
qui pourront être menées dans les prochaines années.
39
prend le risque d'être réfuté. Un bon modèle est donc réfutable. On peut alors le mettre à l'épreuve
en évaluant les niveaux de similarité avec des jeux de données (ou s'il en manque, en le comparant
à d'autres modèles). Plus on en dispose, meilleure sera la confiance dans le modèle s'il surmonte
ces tests. S'il échoue, il faut alors le réviser ou réduire son domaine de validité. Cependant, étant
donné qu'il demeure une représentation abstraite, les approximations et même les erreurs lui sont
inhérentes [Hagget, 1973].
Le modèle doit également permettre de retracer des évolutions rétrospectives ou d'anticiper des
réactions face à des évènements probables. On teste ainsi s'il est capable de mimer les réactions du
système cible. Mais il ne s'agit pas forcément de comparer ses résultats avec des données
observées. S'il mime les grandes tendances ou s'il permet de détecter les changements de phase,
alors il n'est pas besoin de calcul de coefficient de corrélation ou de test du χ2 pour augmenter
notre confiance en lui. D'ailleurs, il est plus essentiel de montrer la robustesse de ses résultats que
des corrélations fines sur des valeurs précises de paramètres.
Par conséquent, on peut partager les constats que Volker Grimm présente dans le domaine de
l'écologie qui peuvent tout à fait s'appliquer pour la modélisation des anthropo-socio-éco-
-systèmes :
There are no true or false models because all models are, necessarily and deliberately, false to some
degree. The only useful general classification of models is ‘useful’ and ‘not useful’ with respect to
the purpose for which the model was designed.[Grimm, 1999]
Ainsi, la notion d'objectif est prépondérante pour évaluer la pertinence d'un modèle. Alors, la
définition la plus adéquate de la validation-évaluation d'un modèle est celle énoncée par [Balci,
1998] : évaluer la pertinence d'un modèle consiste à prouver que, dans son domaine d'applicabilité,
celui-ci se comporte avec une justesse satisfaisante en accord avec ses objectifs. Par conséquent, si
l'évaluation doit s'effectuer en fonction des objectifs du modèle, il est nécessaire d'en présenter les
grandes lignes. C'est l'objet du chapitre suivant.
Chapitre 2
POURQUOI MODELISER ?
« Nous ne pouvons connaître la réalité en soi ; nous ne connaissons
que les noms, les représentations de cette réalité »
Guillaume d’Ockham (1285 – 1349)
L'évaluation d'un modèle peut-elle être dissociée de l'usage que l'on souhaite en faire ? Ce chapitre
passe en revu les objectifs qui sont habituellement reconnus aux modèles. Il décrit les différents
types de modèles, allant de la représentation statistique d'un grand nombre de données jusqu'aux
modèles multi-agents en passant par les outils plus standards de la modélisation mathématique.
Dès son origine, le terme de modèle oscille donc entre deux significations : l'objet matériel et la
norme abstraite. Aujourd'hui, le mot « modèle » synthétise les deux sens opposés de la notion
d'imitation et de référence. En effet, le modèle désigne soit un objet jouant le rôle d'idéal ou
d'étalon que l'on se doit d'imiter (l'exemple à suivre, le modèle du peintre, le modèle du maître vis-
à-vis du disciple, le top model qui véhicule les canons de la beauté et s'impose comme la norme),
soit un concept ou un objet qui tente d'imiter une réalité (le modèle réduit, la maquette, le modèle
du scientifique). C'est évidemment à cette deuxième signification que nous nous référerons pour la
suite de cette thèse, mais il est intéressant de garder à l'esprit cette double acceptation : le modèle
du scientifique peut par moment devenir une référence, un modèle du genre, qui parfois peut
même jouer le rôle de ”modèle totalitaire” lorsqu'on l'applique par analogie à d'autres domaines
que ceux pour lequel il était conçu [Danchin, 1978]. Les réflexions par analogie peuvent s'avérer
fructueuses dans certains cas, mais peuvent parfois conduire à une ”nomadisation prétentieuse et
obscurantiste”, comme le souligne [Gayon, 2002] à propos des méthodes de dynamique des
populations appliquées de manière autoritaire à l’évolution culturelle, ou encore à propos du
concept de capacité de charge qui depuis son invention il y a 70 ans s'est déplacé du domaine de la
démographie à l'écologie, aux dynamiques des populations pour aujourd'hui être utilisé dans le
domaine des décideurs politiques [Le Bras, 1996].
touches de couleur suggérant une autre perception de la réalité. La peinture se détache désormais
du souci d'imitation. Ainsi, dans le domaine de l'art, le modèle quitte le rôle d'objet à imiter et
devient source d'inspiration pour créer une émotion.
Sur cette conception, Casti [1997] décrit les différents types de modèles en raisonnant par
analogie. Il compare deux portraits d'une femme (Gertrude Stein), l'un photographié et l'autre peint
par Picasso. Si le premier portrait tente d'imiter la réalité, le second met en avant le caractère
intime du personnage en capturant seulement certaines parties de son visage. En discutant des
avantages et désavantages de chaque représentation, Casti explique que nous comprenons
davantage la personnalité de Mme Stein à partir du tableau plutôt qu'en regardant la photographie.
D’ailleurs, Picasso lui-même expliquait que « l'art est un mensonge qui nous fait nous rendre
compte de la vérité ». En conclusion, Casti associe ces deux portraits à deux approches de la
modélisation : l'une est descriptive quand l'autre est explicative. A la lumière de ces réflexions, on
peut reconsidérer l'interrogation que Guillaume d’Ockham se posait déjà au Moyen-âge :
"L’ordre que nous percevons n’est peut être pas l’ordre réel de la nature"
Guillaume d’Ockham (1285 – 1349)
Il me paraît donc important d'être prudent avec cette notion d'imitation, d'autant plus que l'idée
d'une réalité allant de soi est également une notion délicate qu'il faut aborder avec circonspection.
Nous reviendrons sur ces notions relevant du constructivisme dans ce chapitre et plusieurs fois au
cours de la thèse.
D'après la conception déterministe (ou mécaniciste), le futur est entièrement contenu et déterminé
par le présent. En acceptant cette idée et en faisant l'hypothèse de pouvoir connaître parfaitement
les lois de l'univers ainsi que l'ensemble des conditions initiales, nous serions capables de
déterminer avec certitude le futur même dans un avenir lointain. Ce qui signifie qu'en ayant une
parfaite connaissance de tous les éléments constitutifs, toutes les relations existantes dans un
système, il serait possible d'en prévoir exactement l’évolution.
Donc, en se basant sur les relations de causalité, s'approprier le présent d’un système permettrait
non seulement de connaître son passé et mais également de se projeter dans son futur. C'est ce que
qu’affirmait Laplace lorsqu’il écrivait : ”nous devons donc envisager l’état présent de l’univers
comme l’effet de son état antérieur et comme cause de celui qui va suivre”.
suivra ces séries passées. Depuis quelques années, les prévisions météorologiques par exemple
reposent sur ce principe. Mais sur ce terrain, nous entrons dans la catégorie des modèles prédictifs
esquissés au début de ce chapitre.
Toujours est-il que dans le cas des modèles de simulation à portée explicative, il est illusoire de
croire que les mécanismes qu’ils mettent en œuvre et qui sont censés représenter ceux du système
étudié sont suffisants pour prédire complètement et exactement son évolution, pour peu que ce
système soit complexe, vivant et ouvert. La prédiction reste donc un terme embarrassant dont
l'emploi devrait être évité pour cette catégorie de modèles : les modèles scientifiques ne sont pas
des boules de cristal qui révéleraient l’avenir.
Car il ne s'agit pas de considérer l'avenir comme une chose déjà décidée et qui petit à petit se
découvrirait à nous, mais comme une chose à faire [Berger, 1958]. Au terme prévision, Gaston
Berger préfère celui de prospection, qui est une démarche globale consistant à mieux anticiper les
futurs possibles : le champ des possibles. Dans le même sens, Bergson estime que si le futur est en
grande partie imprévisible, ce n'est pas simplement en raison d'une insuffisance de nos moyens de
connaître la complexité du réel, mais c'est en raison de cette complexité même, qui paraît infinie.
Pour Bergson qui considère que ”notre durée est irréversible”, ”nous sommes, dans une certaine
mesure, ce que nous faisons, et que nous nous créons continuellement nous-mêmes” [Bergson,
1907]. Alors, en opposition à la conception mécaniciste de Laplace, il estime que prétendre prévoir
complètement le futur, c'est déjà le penser comme passé 12.
Si dans le domaine de la physique, les prédictions s'avèrent délicates, les prévisions à long terme
ne sont pas envisageables dans le champ économique et social [Godard & Legay, 1992]. Elles ne
sont que partiellement décidables [Bousquet et al., 1996].
Toujours dans le domaine de l'économie, [Boussard et al., 2005] expliquent, dans une étude
critique du modèle d'équilibre général mondial, que du fait des changements de politique, il est
impossible de comparer le modèle avec la réalité comme le voudrait la rigueur expérimentale.
"C'est bien là un des défauts de la science économique que de ne pas autoriser ce type
d'investigation. En revanche, l'intérêt du modèle est de permettre de pousser la logique d'une
politique jusqu'à ses conséquences extrêmes sur une longue période de temps" [ibid.].
Dans le domaine des sciences sociales et de la gestion des ressources renouvelables, il faut
également rester très circonspect quant à l'emploi de la prédiction.
« Parce qu’il se situe hors de portée de toute prévision, prendre en compte le très long terme dans
l’analyse des problèmes d’environnement implique de se donner des repères ou des objectifs de très
long terme par rapport auxquels les chemins d’évolution, possibles ou impossibles seraient
envisagés. L’approche du long terme ne peut guère relever que du scénario. » [Weber et Bailly,
1993].
12
”L’essence des explications mécaniques est de considérer l’avenir et le passé comme calculables en fonction du
présent, et de prétendre ainsi que tout est donné”. Bergson s'oppose à une perception mécaniste et finaliste de
l'évolution : ”Sans doute mon état actuel s'explique par ce qui était en moi et par ce qui agissait sur moi tout à l'heure
[...] Mais une intelligence, même surhumaine, n'eût pu prévoir la forme simple, indivisible, qui donne à ces éléments
tout abstraits leur organisation concrète. Car prévoir consiste à projeter dans l'avenir ce qu'on a perçu dans le passé, ou
à se représenter pour plus tard un nouvel assemblage, dans un autre ordre, des éléments déjà perçus. Mais ce qui n'a
jamais été perçu, et ce qui est en même temps simple, est nécessairement imprévisible.”
45
En réfléchissant sur ces notions, Gaston Berger a créé le concept de prospective qui cherche à
connaître les avenirs possibles [Berger, 1958]. Ce terme agrège en fait deux autres concepts : la
prospection qui est l'exploration de domaines nouveaux, et la perspective qui véhicule les notions
de point de vue, de lignes de fuite (en dessin) et de futur. Il s'agit donc d'essayer d'explorer
différents futurs possibles vus sous des angles divers.
Ni prophétie ni prévision – concept théologique réservé à la connaissance que seul Dieu aurait
de l’avenir, disait Voltaire – la prospective n’a pas pour objet de pré-dire l’avenir – de nous le
dévoiler comme s’il s’agissait d’une chose déjà faite – mais de nous aider à le construire. Elle
nous invite donc à le considérer comme à faire, à bâtir, plutôt que comme quelque chose qui
serait déjà décidé et dont il conviendrait seulement de percer le mystère. [Jouvenel, 1999]
Ainsi, la prospective s’interroge sur le ”que peut-il advenir ?”. Mais aussitôt elle rajoute ”que puis-
je faire ?”, ”que vais-je faire ?” et ”comment le faire ?” [Godet, 1991]. L'auteur distingue alors
trois attitudes face aux incertitudes de l’avenir : l'attitude passive qui attend de subir le
changement, l'attitude réactive qui consiste à attendre le changement pour réagir et l'attitude
prospective qui cherche à anticiper les changements. On différencie alors la pré-activité et la pro-
activité : ”La pré-activité, écrit-il, c’est se préparer à un changement anticipé alors que la pro-
activité, c’est agir pour provoquer un changement souhaitable” [ibid.].
La prospective se partage en deux courants de pensée. L'un s'attache à la construction logique de
scénarios quand l'autre est davantage orienté sur l'intuition en imaginant l'avenir sur des bases qui
ne sont pas forcément du domaine de la logique. Par ailleurs, la prospective peut sembler le
pendant de la rétrospective qui cherche à reconstruire l'histoire en y apportant des explications.
Néanmoins, comme on vient de le voir, un modèle capable d’expliquer la succession d’événements
du passé et d’en reproduire le cheminement, n’est pas forcément le meilleur candidat pour aider à
anticiper le futur. Mais à nouveau, nous dérivons vers les problèmes de prévisions, alors que la
prospective cherche davantage à explorer des alternatives possibles en élaborant des scénarios.
Une définition du scénario souvent citée est celle proposée par [Kahn & Wiener, 1967] :
Scenarios are hypothetical sequences of events constructed for the purpose of focussing attention
on causal processes and decision points
Sur ce sujet, [Börjeson et al., 2006] dressent une typologie des approches par scénarios. Leur étude
dépasse un peu le cadre fixé par [Kahn & Wiener, 1967] car elle englobe aussi les approches
prédictives. La classification qu'ils proposent est basée sur les principales questions que l'on peut
se poser au sujet du futur : ”Que va-t-il se passer ?” (prédiction), ”Que peut-il se passer ?”
(éventualités) et ”Comment atteindre un but spécifique ?” (recherche opérationnelle) 13. Pour
chacune de ces questions, [Börjeson et al., 2006] rajoutent deux autres aspects : la structure du
système et les facteurs internes et externes, c'est-à-dire les facteurs contrôlables ou non par les
acteurs du système en question. Le graphique suivant rend compte de cette typologie :
13
Pour la suite de cet exposé, je laisse les termes en anglais qui sont plus classiques et courants :”What will
happen?, What can happen? and How can a specific target be reached? ” [Börjeson et al., 2006]
46
Les scénarios prédictifs cherchent à répondre à la question ”What will happen?”. Ils se
divisent en deux catégories :
o ”Forecast scenarios” : la prédiction simple où l'on cherche à connaître l'évolution
naturelle du système sans intervention. On suppose alors que les lois qui dirigent
l'évolution du système continueront à s'exercer pendant la période choisie.
o ”What-if scenarios” : des prédictions sont pronostiquées en fonction d'événements
qui pourraient survenir au présent ou dans le futur proche, que ce soient des
événements externes ou liés à des décisions internes. Ces scénarios génèrent donc
des groupes de prévisions en fonction de quelques événements ou décisions qui
pourraient provoquer des bifurcations.
Les scénarios exploratoires cherchent à répondre à la question : ”What can happen?”. Cette
approche génère des familles de scénarios qui pourraient éventuellement se produire. En
cela, ils ressemblent aux scénarios de type ”What-if” mais sur du plus long terme et
prennent en compte des éventualités qui pourraient survenir à des moments plus éloignés
sans aucune certitude de ce qui se passera effectivement. Parce qu'elle véhicule l'idée de
mieux se préparer à l'éventualité de certaines situations, cette approche est parfois appelée
”Thinking by alternatives”. Les scénarios exploratoires se divisent en deux catégories :
o Les ”external scenarios” cherchent à savoir ce qui pourrait se passer sous
l'éventualité de facteurs externes, hors du contrôle des acteurs impliqués (de type
climatique par exemple). Ils permettent de développer des stratégies capables de
surpasser ces événements externes. Ils sensibilisent les personnes impliquées à mieux
percevoir les signaux même faibles qui pourraient néanmoins être à l'origine de
changements radicaux 14.
o Les ”strategic scenarios” incluent des mesures prises par les parties prenantes. Le but
est donc de décrire les conséquences probables de décisions stratégiques. On
cherchera par exemple à tester des décisions politiques et à décrire leurs effets
possibles.
Les ”Normative scenarios” doivent permettre de trouver les façons d'atteindre un objectif
donné. Ces approches incluent les techniques de la recherche opérationnelle, de la
programmation dynamique et de la programmation linéaire pour essayer de résoudre des
problèmes d'optimisation. Concrètement, cela signifie d'établir la manière la plus efficace
14
On peut citer ici l'exemple de la planification stratégique de la société SHELL pendant les années 70 et 80. L'un
de ses responsables a utilisé la méthode des scénarios comme méthode d'apprentissage. ”Il montrait comment l'étude
de scénarios à probabilité d'occurrence faible par l’ensemble de la Direction, ainsi que les discussions concernant les
politiques qu'il faudrait alors choisir, avaient permis à la SHELL d'accroître ses résultats (donc sa « viabilité »)
quelques années plus tard, lorsque la situation internationale vit apparaître ces conjonctures supposées a priori
improbables” [Alcaras & Lacroux, 1994]
47
2.5.1 Le modèle, filtre discriminant pour résumer la réalité en une photo plus
explicite
En modélisation descriptive, une analyse de données de type ACP (Analyse en Composantes
Principales) est probablement la technique de réduction de dimensionalité la plus répandue. Elle
opère sur des tableaux de données mettant en jeu de nombreuses variables. Issue du traitement
mathématique des matrices et basée sur des principes de géométrie spatiale, elle permet de
synthétiser de grandes quantités de données et d'en dégager les principaux facteurs. Pour cette
raison, elle est aussi appelée analyse factorielle. L'ACP, très utilisée comme méthode descriptive,
permet de convertir un tableau de données quantitatives, en images synthétiques qui en dégagent
les principales structures. Elle opère en détectant des redondances linéaires entre variables, puis en
utilisant ces redondances pour effectuer un changement de repère approprié. Mais la
représentation du nuage de points dans un hyper-espace étant impossible, on cherche à visualiser le
nuage obtenu en le projetant sur la "meilleure" photo possible. On considérera empiriquement que
48
la meilleure photo est celle où l'objet "photographié" s'étale au maximum, parce qu'on espère ainsi
en voir le mieux les détails. C'est ce principe d’étalement maximum qui fonde toute l'analyse
factorielle : elle permet de résumer la diversité en un petit nombre de facteurs [Bommel, 1996].
Figure 2-2 : La projection du nuage de points à N dimensions sur un plan fonde le principe de l'ACP. Figure
extraite de [Bry, 1995]
De façon plus mathématique, le problème de trouver la "bonne" photo revient à trouver un plan
(sous-espace de l'espace multidimensionnel des données) qui reconstruit au mieux l'inertie du
système. La variance des distances entre les images projetées doit être maximale. La projection des
points-individus s'étire alors au maximum sur le plan dont les axes, déterminés à partir des valeurs
propres de la matrice, expliquent les caractéristiques principales des données.
Ainsi, un modèle statistique permet de séparer et de classer des variables pour déceler un ordre
caché dans un ensemble de données et pour estimer les facteurs qui en expliqueraient le mieux les
raisons. Alors, on comprend que d'un point de vue général, "l'intérêt d'un modèle est d'abord d'être
plus explicite, plus simple et plus facile à manipuler que la réalité qu'il est censé représenter. Les
modèles éliminent ainsi un grand nombre de détails considérés comme inutiles par le modélisateur
afin de mieux se consacrer aux données que celui-ci jugent pertinentes relativement au problème
qu'il désire résoudre" [Ferber, 1995].
Déduction, raisonnements,
calculs Prévisions,
Modèle abstrait
compréhension
Abstraction, Application,
modélisation évaluation
Anticipation,
Phénomène
compréhension du
observé Questionnement phénomène
Figure 2-3 : "La prévision et la compréhension de phénomènes passent par l'élaboration de modèles", d'après
[Ferber, 1995].
49
Dynamique spatiale
Figure 2-4 : Evolution de la forme des objets spatiaux en lien avec des processus naturels et des stratégies
d'agents. L'évolution de la végétation, par croissance et diffusion produit des faciès de végétation. Ces derniers
conditionnent les stratégies que les acteurs agricoles mettent en œuvre. Celles-ci modifient à rebours les
formes des objets spatiaux.
Positon de la
cellule
changeant
d’état
Figure 2-5 : Evolution d'un agrégat spatial en fonction de l'apparition ou de la disparition de l'état d'une
cellule de même caractéristique.
50
Ce travail a donné lieu à un outil générique d'agrégation spatiale intégré à la plate-forme Cormas
[Le Page et al., 1999]. Mais cette généricité s'arrête à quelques fonctions disponibles pour
instancier des objets agrégats. Car ces entités spatiales qui peuvent former une hiérarchie de
niveaux d'organisation proviennent de représentations propres à chaque agent. Elles évoluent
naturellement mais chaque agent se construit sa propre organisation de l'espace 15.
Ainsi, le concept de groupe ou d’agrégat permet de structurer (strutere = construire) notre
représentation de l’espace. Le procédé consistant à regrouper des éléments entre eux, parce qu’il
semble évident qu’ils sont reliés, relève en vérité d'un processus bien plus complexe. Expliciter
une structuration de l’espace dépend de l’observateur qui décrit ce paysage et de ses objectifs.
Selon la personne qui observe, la structuration spatiale qui ressort de cette description peut être
très différente d’un acteur à l’autre. Tout se passe comme si chacun percevait le paysage à travers
un filtre de perception. Ce dernier dépend du rôle de l'observateur, de son histoire, de sa culture et
de sa langue. Ainsi, un berger n’aura pas la même perception d'un paysage qu’un propriétaire
foncier ou qu’un technicien EDF ou encore qu’un touriste de passage. La vision n'est pas le
résultat d'une simple projection du monde sur notre rétine, mais participe d'une série de processus
beaucoup plus complexes.
Dans son traité sur ”La mathématisation du réel”, Giorgio Israel encourage le renoncement à toute
tentative d’aboutir à une image unifiée de la nature. Il explique qu' ”un modèle mathématique est
un fragment de mathématique appliqué à un fragment de réalité. Non seulement un seul modèle
peut décrire différentes situations réelles, mais le même fragment de réalité peut être représenté à
l’aide de modèles différents” [Israel, 1996].
15
Prenons l'exemple de la fusion de plusieurs agrégats en un seul : la croissance naturelle de deux bosquets proches
peut déboucher sur un contact et une fusion en une forêt. De quel bosquet initial, ce nouvel agrégat hérite-t-il ses
caractéristiques ? Quel sera son nom par exemple ? De plus, comment prévenir les agents situés dans ce paysage
virtuel que les bosquets qu'ils connaissaient ont fusionné ? On voit avec ce petit exemple que les entités du monde,
même pour des agents informatiques, ne sont pas données par nature mais procèdent d'une perception et d'une
construction mentale.
51
Ainsi, la vue n'est pas la simple projection de l'extérieur sur notre rétine. La vision est
essentiellement sélective. Elle est le fruit d’une discrimination perceptive et ”le monde qui se
dégage de [notre] exploration perceptive n’est pas immédiatement donné. Certains de ses aspects
se forment vite, d’autres lentement ; et ils doivent tous être continuellement confirmés, réévalués,
modifiés, complétés, corrigés, approfondis” [ibid].
Dans un domaine bien différent, les réflexions sur la notion de représentation conduisent le
neurobiologiste A. R. Damasio à affirmer que notre cerveau produit constamment des images.
Mais d'après lui, ”les images que nous voyons mentalement ne sont pas des fac-similés de l'objet
donné mais plutôt des images des interactions qui se nouent entre chacun d'entre nous et un objet
auquel notre organisme est exposé, interactions construites sous forme de configuration neuronale
déterminée par les caractéristiques propres de l'organisme” [Damasio, 1999]. L'auteur explique
alors que ”le cerveau est un système créatif qui ne se contente pas de refléter l'environnement
autour de lui […] : chaque cerveau construit des cartes du même environnement en fonction de ses
propres paramètres et de sa structure interne”. Ces notions de neurobiologie confirment les
hypothèses des constructivistes. Damasio constate que le concept de représentation est chargé de
présupposés. Il explique alors que ce n'est pas tant l'ambiguïté du terme représentation qui pose
problème, mais ”son association avec l'idée selon laquelle l'image mentale ou la configuration
neuronale représenterait au sein du cerveau et de l'esprit avec un certain degré de fidélité, l'objet
auquel la représentation fait référence, comme si la structure de l'objet était reproduite dans la
représentation”.
Ces idées n'auraient certainement pas été contredites par Maturana et Varela [1994] qui rejettent
l'idée selon laquelle l'environnement imprime ses objets dans le système nerveux. Pour ces auteurs,
la représentation mentale est toujours indissociable de l'acte de connaissance. Ils remettent ainsi en
question l'existence d'une réalité objective indépendante de la manière dont on l'apprend. En
d'autre terme, la perception, loin d'être l'enregistrement passif d'un stimulus, est toujours une
opération active de l'esprit : un phénomène cognitif.
On conçoit alors qu'un modèle ne peut pas être neutre : il est le produit de notre interprétation du
monde, qui donne sens. Que la modélisation soit descriptive ou explicative, le souci de neutralité
dont certains se targuent, est un argument irrecevable 16. Quelle objectivité peut-on démontrer dans
une peinture, une photographie, une carte ou une analyse de données ? Cette façon d'envisager la
modélisation est également partagée par J.L. Le Moigne dans sa "théorie de la modélisation" [Le
Moigne, 1977] où il explique qu'il faut exclure l’illusoire objectivité de la modélisation et
”convenir que toute représentation est partisane, non pas par oubli du modélisateur, mais
délibérément”.
Cependant, tous ces propos sur la construction des représentations n'excluent pas une même
manière de voir le monde. A ce sujet, Damasio explique que ”lorsque nous regardons des objets
extérieurs à nous-mêmes, nous construisons des images comparables dans nos cerveaux respectifs.
Nous le savons parce que nous sommes en mesure de décrire l'objet en des termes très proches,
jusque dans les plus petits détails. Mais cela ne veut pas dire que l'image que nous voyons est la
copie de l'objet extérieur, quel qu'il puisse être”. L'auteur conclut que ”c'est parce que nous
sommes entre nous suffisamment proche biologiquement parlant pour construire une image
16
[David et al., 2005] notent à ce sujet la distance qui existe entre la spécification, le programme et l'interprétation
d'une simulation d'un modèle multi-agent en sciences sociales. Ils concluent leur article en rejetant la neutralité
présumée du concepteur d'une simulation sociale :
"If in computer science there is no computation without representation, and as such there is no computation
without interpretation, in social simulation there is no computation without intention. […There is no] presumable
neutrality of the implementer, the social sciences have created, by means of a multiparadigmatic logic, a new
methodological conception in computer science, where the implementer plays a decisive role. We are convinced that
there will not be consensual methods in social simulation."
52
semblable d'un même objet que nous pouvons accepter sans protester l'idée conventionnelle selon
laquelle nous avons l'image exactement ressemblante de cet objet. Ce qui n'est pas le cas”. Je
rajouterai que le fait de partager une culture et une langue commune et d'y être complètement
immergé, nous permet d'échanger nos points de vue et de croire à l'illusion d'une représentation
identique.
Pour résumer, il me paraît très important d'insister sur le fait que la neutralité n'existe pas en
modélisation. Pire que cela, prétexter et se conforter dans ce souci d'objectivité et de neutralité
pour un modélisateur, est la porte ouverte à toutes sortes de manipulations.
son exécution" [cité dans MCX APC 17]. Pour une application de ces concepts aux SMA, on peut
se référer à [Doniec et al., 2005 & 2007] et [Stinckwich, 2003].
Ainsi, le besoin de comprendre et d'anticiper nous oblige à concevoir des modèles maniables et à
les projeter dans le futur pour imaginer les résultats possibles de nos actions.
EVALUER QUESTION
COMPARER
17
[MCX APC] Dictionnaire de l'association MCX APC : http://www.mcxapc.org. Programme européen MCX :
"Modélisation de la CompleXité"; Association pour la Pensée Complexe dont les piliers sont J.L. Le Moigne et E.
Morin.
54
De mon point de vue, cette notion de modélisation, de processus dynamique me semble plus
important encore que le modèle en tant que tel, c'est-à-dire le produit fini. Le fait d'aborder les
problèmes par une démarche constructive d'apprentissage me paraît plus enrichissante encore
qu'une représentation déjà conçue à laquelle il faudrait faire confiance et qu'il faut intégrer.
D'après ce schéma, il s'ensuit que l'évaluation (ou la "validation") n'est pas le stade ultime de la
modélisation, comme on le voit souvent, mais un point essentiel de la boucle d’apprentissage.
? Vérification
Question (Q̂) Etre énigmatique (X)
expérimentale
Réponse (R̂)
Analogie (A)
Figure 2-7 : Les relations entre un modèle et un système réel énigmatique, d'après [Thom, 1978].
Donc, avant même de commencer à concevoir un modèle, il est nécessaire de s'interroger sur "les
questions pertinentes que je puis me poser au sujet de (X) ?" ou encore de se demander "de quoi
dois-je m'étonner ?". On comprend ainsi, qu'au lieu de répondre à des questions, la modélisation
ait maintenant pour rôle de proposer des questions. D'ailleurs, "un même (X) peut être modélisé
d'une infinité de manières et c'est le type de questions ( Q̂ ) qui restreint le mode de modélisation à
choisir". En d'autres termes, "c'est la demande ( Q̂ ) qui doit déterminer la construction du modèle
(M), et non l'inverse" [ibid.]. E. Ramat utilise cette prédominance de la question pour expliquer le
rôle même du modèle :
Il ne faut pas penser que le but est d’offrir le modèle le plus complet et le plus ”beau”. Il faut
construire le meilleur modèle avec le formalisme le plus adapté pour répondre à la question posée.
En effet, la modélisation n’est qu’un maillon dans la chaîne de la construction de la Connaissance
du Monde : on ne fait pas de la modélisation pour la modélisation mais pour comprendre le
fonctionnement du Monde et comprendre les impacts de certaines perturbations sur ce Monde.
[Ramat, 2006]
Bien évidemment, les questions ne sont pas immanentes au système observé. Après avoir décrit ce
système, la plus grande difficulté consiste justement à poser les bonnes questions. Le Moigne
explique ainsi la différence entre l'analyste et le modélisateur :
L’analyste […] est l’homme capable de comprendre le problème qui se pose. Le concepteur
alors sera celui qui saura que les problèmes ne se posent pas tout seul, et qu’il doit être capable
de les poser. Modéliser systémiquement, ce n’est pas résoudre un problème supposé bien posé
(un objet) en cherchant un modèle déjà formulé dans le portefeuille accumulé par les sciences
depuis des millénaires ; c’est d’abord chercher à formuler — à identifier — le problème que se
posent les modélisateurs (un projet), en mettant en œuvre une procédure de modélisation dont
les règles sont intelligibles et acceptées. [Le Moigne, 1977]
description de celui-ci. Il faut aussi insister sur le fait que cette mise en perspective permet à ceux
qui découvrent le modèle de comprendre pourquoi certains aspects du système étudié ont été
ignorés [Grimm & Railsback, 2005]. Toutefois il faut le reconnaître, expliciter ses questions de
recherche n'est pas un exercice trivial. Car à nouveau, comme l'exprime Gaston Bachelard, ”les
problèmes ne se posent pas d'eux-mêmes. C'est précisément ce sens du problème qui donne la
marque du véritable esprit scientifique... S'il n'y a pas eu de question, il ne peut y avoir de
connaissance scientifique”.
Lors de la conception d'un modèle et pour aiguiller ce cheminement difficile, il est souvent
intéressant de se projeter dans le futur en imaginant que son modèle est achevé. On peut alors
s'interroger à nouveau sur l'objectif de ce travail et se demander par anticipation de quoi devrait-on
s'étonner ?
La démarche est donc inverse à la conception naïve exprimée précédemment (à savoir créer par
imitation un modèle réduit pour ensuite lui poser des questions) : la modélisation doit commencer
à partir d'une question ou d'un ensemble restreint de questions qui fixent les objectifs du modèle.
Figure 3-1 : Classification des formalismes selon l’aspect continu ou discret des variables, du temps et de
l’espace, d'après [Ramat, 2006]
Cette classification laisse deviner deux grandes catégories d'outils conceptuels pour formaliser et
concevoir des modèles de simulation : d'un côté le formalisme mathématique (la grande famille
des modèles à équations) et de l'autre, le formalisme informatique (automates cellulaires et SMA).
Au moment du choix des outils pour élaborer leur modèle, certains préfèrent opter pour les SMA
en considérant qu'ils sont les mieux à même de traiter des interactions et de la spatialité. Mais,
contrairement à certaines idées reçues, la prise en compte des interactions entre les entités d'un
système n'est pas l'apanage des seuls SMA.
modèle de Volterra [Volterra, 1926], déjà mentionné au chapitre 1, est succinctement expliqué en
annexe 1 (page 289). Ce modèle traite des relations qu'entretient une population de prédateurs avec
ses proies. Il est si connu qu'il demeure une référence incontournable et il sera discuté à plusieurs
moments de la thèse. La figure suivante présente le modèle mathématique et un résultat d'une
simulation.
2
Proies (x)
1
Predateurs (y)
dx n.x p.x.y
dt
dy
dt m.y p.x.y
0
0 20 40 60 80 100
Figure 3-2 : Système d'équation différentiel du modèle de Volterra et évolutions temporaires des populations
de proies et de prédateurs qui oscillent de façon endogène au modèle. (n est le taux de natalité des proies; m, le
taux de mortalité des prédateurs ; le paramètre p représente l’efficacité de la prédation. Pour cette simulation
particulière, n=m=p=1).
Malgré sa simplicité, le modèle proie-prédateur laisse apparaître des rythmes endogènes, liés
uniquement aux interactions entre les deux populations. C’est un résultat important du point de vue
biologique qui montre qu'en l’absence de toute perturbation extérieure, il peut arriver que des
populations en interaction fluctuent grandement. C'est cette idée qui a orienté le travail de V.
Volterra qui réfléchissait sur les raisons des fluctuations des populations de sardines et de requins
en mer Adriatique :
Certainement, il existe des circonstances ambiantes périodiques comme celles, par exemple qui
dépendent de la succession des saisons, et qui produisent des oscillations forcées ou de caractère
externe, dans le nombre des individus des diverses espèces. A côté de ces actions périodiques
externes qui ont été plus spécialement étudiées du côté statistique, n'y en a-t-il pas d'autres de
caractère interne avec des périodes propres, indépendantes des causes externes et qui se
superposent à celles-ci ?
Leçons sur la Théorie Mathématique de la Lutte pour la Vie. [Volterra, 1931]
Ainsi, il est faux de dire comme on l'entend parfois que les modèles mathématiques ne peuvent pas
prendre en compte les interactions. Mais ici, ces interactions qui sont présentées par des variables
d'une équation dans une autre (la variable x se trouve dans l'équation de dy par exemple), ne sont
pas des interactions entre individus proies et prédateurs mais elles sont conceptualisées au niveau
de chaque population d'animaux.
En effet, tous les modèles dont je viens de parler supposent que les individus sont interchangeables
: c'est l'hypothèse d'interchangeabilité de deux individus pris au hasard dans une population. En ne
considérant que la taille X d'une population, on ne s'intéresse pas à la situation spatio-temporelle de
chaque entité mais on suppose que tous les individus contenus dans X sont équivalents.
D'autres modèles mathématiques dits orientés-individus ne traitent pas non plus (contrairement à
leur appellation) des individus mais des distributions d'individus en classes d'âge. Ce sont des
modèles matriciels de dynamique de populations, dont font partie les modèles de Leslie qui
spécifient des taux de croissance, de reproduction et de survie différents selon l'âge des individus
[Leslie, 1945].
61
F2 F3
1 G1 2 G2 3 G3 4
P1 P2 P3 P4
Figure 3-3 : Exemple de graphe de cycle de vie d’une population découpée en classes de taille. D'après
[Charles-Bajard, 2004].
Dans l'exemple ci-dessus, l’intervalle de temps est l’année et les individus sont divisés en quatre
classes : les jeunes de l’année, les juvéniles, les femelles matures, et les femelles âgées qui ne se
reproduisent plus. D’un pas de temps au suivant, une femelle mature (classe 3) par exemple peut
soit passer dans la classe suivante (4, femelle sans reproduction) avec une probabilité G3, soit
rester dans la même classe avec une probabilité P3. Dans le même temps, elle peut créer un nouvel
individu avec une probabilité F3. En fait, cette activité de reproduction est traduite par le modèle
de la façon suivante : pendant un pas de temps, le stock des femelles matures (X3) augmente d'une
valeur égale à P3.X3 et il fait croître le stock des jeunes (1) de F3.X3 et celui des femelles âgées de
G3.X3. La matrice du modèle correspondante s’écrit alors :
0 F2 F3 0
A G1 P2 0 0
0 G2 P3 0
0 0 G3 P4
Puisque la première classe dure un an comme le pas de temps, on a P1 = 0. L'équation matricielle
de ce modèle s'écrit alors : Nt 1 A.Nt où le vecteur Nt décrit la distribution de la population au
temps t. On retombe donc sur une équation récurrente dont les variables sont des matrices.
Contrairement aux idées souvent répandues, les modèles mathématiques peuvent aussi traiter de
l'hétérogénéité spatiale. Ainsi, [Angelis et al., 1979] utilisent les concepts du modèle de Lotka-
Volterra pour introduire des modèles logistiques multi-sites : les phénomènes de prédation du
modèle originel sont adaptés pour décrire des migrations d'une partie de la population d'un site
vers un autre. Sur un principe équivalent, [Lebreton, 1996] adapte les modèles matriciels pour
créer des matrices de Leslie multi-sites dans lesquels les classes présentées précédemment
correspondent à des patchs. On peut donc utiliser le formalisme standard des mathématiques pour
étudier l’impact de l’hétérogénéité spatiale, ainsi que celui des déplacements, sur la stabilité d'un
système de type proies-prédateurs [Auger & Poggiale, 1996], [Poggiale & Auger, 2004] 18.
18
Les auteurs étudient un système prédateur–proie dans un environnement divisé en seulement deux sites : l'un est
un refuge pour les proies et l’autre contient des prédateurs. L’hétérogénéité spatiale est obtenue en supposant que les
paramètres démographiques (taux de croissance et taux de mortalité) dépendent du site. Comme les déplacements sont
supposés plus rapides que la croissance et que les processus de prédation, les auteurs prennent en compte deux
échelles de temps différentes [Auger & Poggiale, 1996]. Mais avec deux sites, peut-on réellement parler
d'hétérogénéité spatiale ?
62
patchs), ils rajoutent l'hypothèse que chaque individu interagit de façon identique avec ses
congénères ou ceux d'autres populations. Comme l'explique [Ferber, 1995], les modèles
mathématiques (ou modèles agrégés) s'attachent à décrire des variables se situant toutes au même
niveau. Il n'est pas possible de relier la valeur d'une variable au niveau agrégé à des
comportements individuels : ”les niveaux d'analyse sont étanches” [ibid.]. En d'autres termes, les
modèles agrégés peuvent décrire des populations qui interagissent (proies-prédateurs) sans décrire
le comment.
Dans un modèle centré-individu par contre, cette hypothèse d'interchangeabilité et d'équivalence
des individus n'est pas postulée. Un agent est principalement affecté par les conditions
environnementales qui se trouvent dans son voisinage ainsi que par sa situation dans un réseau
social. Les interactions qu'il entretient avec son environnement pris au sens général, sont localisées
dans le temps et dans l'espace. Son histoire est différente des autres et il peut à ce titre influencer le
cours des choses. Il n'est pas rare que le comportement d’un seul individu puisse entraîner des
changements du système en entier. Ainsi, la variabilité inter-individuelle peut être à l'origine de
phénomènes plus globaux.
En cherchant à reproduire le comportement des individus, les modèles individus-centrés, tels que
les modèles multi-agents (aussi appelés IBMs en écologie, pour Individual-Based Models)
permettent de suivre l'évolution de chaque agent et ses interactions avec les autres. L'approche
individu-centrée permet alors d'étudier les phénomènes globaux d'un système en spécifiant
uniquement les comportements individuels. A l'opposé des modèles mathématiques qui abordent la
modélisation selon une approche dite ”top-down”, les modèles orientés-individus misent sur une
démarche dite ”bottom-up” 19.
19
La thèse de C. Lett traite de façon plus détaillée des intérêts réciproques des modèles agrégés
et des modèles individus-centrés dans le cadre des systèmes forestiers [Lett, 1999].
63
- dont le comportement tend à satisfaire ses objectifs, en tenant compte des ressources et des
compétences dont elle dispose et en fonction de sa perception, de ses représentations et des
communications qu’elle reçoit.
A la différence des objets, le concept d’agent est souvent associé aux capacités d’autonomie et de
pro-activité. Sur cette base, Ferber définissait les SMA ainsi :
Un système multi-agent est composé de :
- Un ensemble d’agents agissant et communicant
- Un mode d’organisation et de coordination
- Un point de vue de l’observateur
- Un environnement
- Des objets passifs
- Des agents
- Un ensemble d’interactions
- Des opérateurs pour la perception, la communication, la production, la consommation et la
transformation de ces objets
- Des opérateurs pour la mise à jour de l’environnement
Pour mieux visualiser ces définitions, [Ferber, 1995] propose un schéma qui résume bien les
principaux concepts véhiculés :
Représentations
Soi
Monde
Les autres
Buts
But: B
Communications
Perception
Action
Environnement
Figure 3-4 : ”Représentation imagée d'un agent en interaction avec son environnement et les autres agents”,
d'après [Ferber, 1995].
Evidemment, il existe des SMA purement communicants, sans environnement et sans objets
inertes, mais aussi des agents non-cognitifs sans fonction de représentation (dans le sens d'une
modélisation de leur environnement). Par ailleurs, il manque à ce schéma le ou les regards de
l'observateur. Mais sa grande qualité, de mon point de vue, est de montrer les agents comme des
entités stylisées sous forme de robots. Car pour présenter ce domaine de l'intelligence artificielle à
des néophytes, il faut rapidement démystifier l'idée d'une ”intelligence” qui s'apparenterait à celle
des humains. On a d'ailleurs souvent classifié les SMA en fonction d'un gradient d'intelligence, des
agents purement réactifs jusqu'aux agents cognitifs :
Agents Agents
réactifs cognitifs
Mais restons réalistes : les capacités humaines et celles du monde vivant sont, de façon
incommensurable, bien supérieures à celle d'une machine, même la plus évoluée. Les capacités
cognitives d'un agent le dotent ”d'une intelligence très artificielle !” [F. Laloe, comm. pers.].
64
A partir de la définition ci-dessus, on constate aisément que les recherches sur les SMA portent
essentiellement sur les problèmes de coordinations entre agents. On les dérive en problèmes de
contrôle et de communication. Cependant, nous verrons ultérieurement que ces questionnements
touchent finalement au problème de l'autonomie (chap. 6).
20
L'environnement est le milieu dans lequel les agents sont plongés. Dans la plupart des applications multi-agents,
il implique généralement une dimension spatiale, mais d'autres environnements peuvent être considérés.
21
”Façon dont un ensemble est constitué en vue de son fonctionnement” Petit Robert.
22
A ne pas confondre avec le constructivisme (ou l'épistémologie constructiviste), courant de pensée initié par Jean
Piaget (cf. chapitre précédent). A la différence de l'approche analytique d'un côté (qui étudie un système élément par
élément) ou de l'approche systémique ou holistique (qui étudie le comportement global du système) de l'autre,
l'approche constructiviste permet de construire le comportement global du système en ne s’intéressant qu'aux
comportements des individus.
65
Emergence /
Contraintes
Organisation
sociales
constitution
Figure 3-5 : La relation micro-macro dans les systèmes multi-agents, d'après [Ferber, 1995].
Ce graphe montre l'articulation entre le niveau des agents (micro) et le niveau de l'organisation
(macro) et résume de façon claire et synthétique ce que sont les SMA. En s'appuyant d'avantage
sur l'aspect comportemental des interrelations, [Ferber, 1994] développe le concept de Kénétique.
Dans la lignée des travaux de [Maturana & Varela, 1994] sur les systèmes autopoïétiques
(explications page 140), il considère qu'un système est une entité auto-organisatrice dont
l'évolution est issue des comportements d'un ensemble de sous-unités en interactions. Il existe
donc une dualité agents - organisation avec des régulations possibles à chaque niveau. Par ailleurs,
l'articulation micro-macro est également indissociable de la notion d'émergence. C'est un concept
essentiel des SMA qui nécessite une présentation plus détaillée (voir chapitre suivant).
Les systèmes multi-agents sont habituellement rangés dans le domaine de l'IAD (intelligence
artificielle distribuée). En effet, les SMA s’intéressent aux systèmes complexes où des entités
artificielles ou naturelles interagissent pour produire des comportements collectifs. Mais au lieu de
considérer uniquement les facultés cognitives d'un individu, l’IAD postule que l’intelligence
"émerge" des interactions que les agents entretiennent entre eux et avec leur environnement.
D'ailleurs, l'une des grandes sources d'inspiration des SMA a été l'étude des comportements
d'animaux sociaux, particulièrement des sociétés d'insectes (fourmis, termites, abeilles), mais aussi
d'autres animaux se déplaçant en formation tels que les bancs de poissons ou les meutes de loups
en chasse. Ces études caractérisent ce qu'on appelle maintenant l'intelligence collective. Cette idée
est également défendue par certains dans le domaine des sociétés humaines qui revendiquent l'idée
d'organisation sociale non-dirigée [Lévy, 1994].
Pour certains, l'organisation désigne simplement la manière dont les éléments du système sont
agencés et de la façon dont ils interagissent. Mais on peut également voir l'organisation comme
une entité à part entière avec ses propres règles qui influence et dirige les comportements de ses
composants (contraintes, règles conventionnelles, etc). En s'interrogeant sur les ”croyances
sociales”, André Orléan [Orléan, 2004] définit le groupe ou l'objet social comme une entité
abstraite dotée d’une autonomie propre par rapport aux individus qui la compose. Il prend
l'exemple de la phrase suivante : ”le marché croit que cette devise est sous évaluée”. Evidemment,
le marché financier en tant que tel n'a pas la faculté de croire. Mais il a une existence propre qui
dépasse la simple composition des agents économiques : ”du point de vue historique et social, les
collectivités ne sont justement pas des collections d’individus, puisque leur identité n’est pas fixée
par une liste d’individus” [Descombes, 1996, cité dans Phan, 2007]. Les marchés ne peuvent être
réduits à l’ensemble des agents qui y participent à un moment donné mais ils perdurent malgré le
flux d'agents qui en sortent ou qui y entrent. ”Cette structure sociale complexe est ainsi porteuse
d’un sens qui se maintient dans le temps indépendamment des agents qui y participent et qui
dépasse leur dimension individuelle” [ibid.].
66
En fonction de la façon dont on perçoit une organisation, on pourra alors la représenter comme la
résultante des interactions entre les entités ou si on lui reconnaît une certaine autonomie par
rapport à ses constituants, on peut la modéliser comme un agent. 23
Tous les grands concepts de la programmation orientée objet sont d'ores et déjà présents dans
Simula qui inaugure les notions de classes, d'instanciation, de polymorphisme, d'encapsulation,
etc.
A la différence des approches procédurales, la modélisation objet propose au concepteur de réifier
les entités qu'il perçoit, de les organiser en décrivant leurs relations et d'étudier leurs évolutions sur
des scénarios d'interactions.
Les inférences intellectuelles proposées qui consistent à regrouper et abstraire d'une part (pour
définir concept ou classes), à spécialiser ou généraliser d'autre part (pour ordonner) sont à la fois
naturelles et élégantes. La démarche itérative consistant à affiner progressivement les modèles
obtenus en jouant sur les mécanismes suscités est aussi très souple et les interactions entre
partenaires de la modélisation peuvent largement être prises en compte. Le fait que les classes d'un
schéma soient organisées en hiérarchie de spécialisation / généralisations, en hiérarchie de
composition / agrégation, et ceci, à plusieurs niveaux, est aussi parfaitement en adéquation avec les
degrés de raffinement que les concepteurs peuvent souhaiter exploiter. [Libourel, 2003]
Ainsi, ”la pensée objet” qui s'apparente plus à une culture implicite, permet de concevoir des
modèles dans tous les domaines et de partager cette conception avec les disciplines impliquées
sous forme d'un débat interdisciplinaire. Enfin, les principes de factorisation et de réutilisation
dont l'approche se prévaut, permettent de définir des motifs de structuration et de comportements
(des patrons) correspondant à des situations de modélisation récurrentes.
La pensée objet permet de concevoir un programme non plus comme une entité monolithique mais
comme un ensemble d’entités élémentaires qui interagissent par l’intermédiaire d’envois de
messages. Pratiquement, on pourrait utiliser les concepts initiaux avancés par les pionniers de la
pensée objet pour définir les SMA : en génie logiciel ”orienté-agent”, le programme est vu comme
23
Le chapitre 3 de la thèse d'Olivier Gutknecht traite de façon plus approfondie les relations de l'agent avec
l'organisation [Gutknecht, 2001].
67
une société d'agents autonomes ayant chacun des compétences distinctes mais étant capable de
coopérer et de s'auto-organiser.
Pourtant les objets ne sont pas réellement autonomes et Ferber déplore l'appauvrissement des idées
initiales qui animaient les pionniers des concepts objets :
La notion d’objet en génie logiciel apportait tout un ensemble de concepts, de technologies et de
méthodologies. Il est apparu alors que dans bon nombre de cas, les enjeux initiaux des objets, et
notamment ici aussi le concept d’autonomie, n’avaient pas vraiment trouvé de réelles solutions
technologiques. Les langages objets dont on dispose aujourd’hui ne sont que des pâles reflets des
idées initiales qui avaient habité les pionniers du domaine, à savoir Alan Kay avec Smalltalk et Carl
Hewitt avec Plasma. [Ferber, 2006]
Si ces déceptions sur les objets sont avérées, on peut penser qu'il en va autrement pour les agents
qui sont censés être des entités autonomes, proactives et interagissantes. En d'autre terme, une
tortue bien réelle s'avère plus indépendante qu'un objet informatique qui est souvent défini comme
une entité devant offrir et exécuter des services. La traduction en agent tortue devrait exprimer
cette indépendance. Or il s'avère que c'est rarement le cas comme le déplorent [Drogoul et al.,
2003] qui se demandent ”où sont les agents ?”. Les auteurs expliquent que si ces propriétés
d'agents sont monopolisées à un niveau métaphorique, dans les faits, elles ne sont pas traduites en
propriétés computationnelles. ”Les agents computationnels décrits en IAD ou en SMA ne sont tout
simplement pas utilisés par la [simulation orientée-agent]” [ibid.].
En revenant sur la représentation imagée de la Figure 3-4, la notion d'agent paraît associer à
l'aspect animé de l'entité par rapport aux objets qui s'apparentent plus à des entités passives et
inanimées. Ainsi, [Treuil & Mullon, 1996] proposent de ”rétablir la séparation entre la catégorie
d'agent (animé), et la catégorie d'objet (inanimé), libre à chacun ensuite, selon son style et sa
vision du domaine, de classer telle entité dans telle catégorie”. Toutefois, l'évolution des
différentes définitions des agents que l'on trouve dans la littérature me prête à penser que la notion
d'autonomie demeure le point essentiel : l'autonomie apparaît comme une dimension indispensable
pour caractériser les agents. Le chapitre 6 de la thèse est consacré à cette notion qui n'est
finalement pas si simple.
"Aujourd'hui la science se trouve en quelque sorte sur une ligne de partage. Pendant deux
siècles elle a étudié des systèmes intrinsèquement simples... Le fait qu'un dogme comme 'faire
varier les facteurs un par un' ait pu être admis pendant un siècle, montre que l'objet des
recherches scientifiques était dans une large mesure les systèmes qu'autorisait justement cette
méthode, car une telle méthode est souvent totalement impropre à l'étude des systèmes
complexes... Jusqu'à une époque récente, la science a eu tendance à concentrer son attention sur
les systèmes simples et, notamment, sur les systèmes réductibles par l'analyse" [Ashby, 1956].
Ludwig Von Bertalanffy, considéré comme le fondateur de la systémique, affirme cette position
plus globalisante. Dans [Von Bertalanffy, 1968], il écrit à ce sujet que ”la tendance à analyser les
systèmes comme un tout plutôt que comme des agrégations de parties est compatible avec la
tendance de la science contemporaine à ne plus isoler les phénomènes dans des contextes
étroitement confinés, à ne plus décortiquer les interactions avant de les examiner, à regarder des «
tranches de nature » de plus en plus larges”.
Par ailleurs la connaissance d'un système doit aussi passer par l'étude des interactions avec
l’environnement, puisque environnement et systèmes s'influencent mutuellement. A ce sujet
[Watzlawick et al., 1975] expliquent qu' ”un phénomène demeure incompréhensible tant que le
champ d'observation n'est pas suffisamment large pour qu'y soit inclus le contexte dans lequel ledit
phénomène se produit”. Ainsi l'étude et la compréhension d'un système ne peut être étudié sans
tenir compte de l'environnement au sein duquel il se trouve. De nombreux géographes se
reconnaissent dans ce principe qui consiste à prendre de la hauteur pour mieux appréhender un
système en décrivant les flux qui le traversent.
Entre les tenants du holisme et ceux du réductionnisme, on assiste généralement à des querelles
irréductibles. Néanmoins, certains auteurs (Humberto Maturana, Edgar Morin et bien d'autres)
tentent de dépasser ce clivage en proposant une approche systémique de la complexité. Ils visent à
faire la synthèse entre ces deux courants de pensée en adoptant une ”pensé complexe”. Edgar
Morin explique que la ”pensée complexe” n'est ni holiste, ni réductionniste :
"Il ne s'agit pas d'opposer un holisme global en creux au réductionnisme mutilant; il s'agit de
rattacher les parties à la totalité. Il s'agit d'articuler les principes d'ordre et de désordre, de
séparation et de jonction, d'autonomie et de dépendance, qui sont en dialogique
(complémentaires, concurrents et antagonistes) au sein de l'univers." [Morin, 1990]
On caractérise souvent un système complexe comme un système composé de nombreux éléments
différenciés interagissant entre eux. Mais ”ce n'est pas tant la multiplicité des composants, ni
même la diversité de leurs interrelations, qui caractérisent la complexité d'un système” [Le
Moigne, 1977], car un dénombrement combinatoire peut permettre de décrire tous les
comportements possibles de ce système. Par contre, un système complexe se caractérise par
l'émergence au niveau global de propriétés non observables au niveau des éléments constitutifs, et
par une dynamique de fonctionnement global non prévisible à partir de l'observation et de l'analyse
des interactions élémentaires.
Les physiciens ont, les premiers, étudié les propriétés des systèmes complexes à travers les réseaux
d’automates. Ils ont observé le comportement global d’un système composé d’entités en
interaction et au fonctionnement extrêmement simple : l’état d’un automate dépend de l’état des
automates auxquels il est connecté [Weisbuch, 1989]. Plusieurs auteurs (dont le médiatique
[Wolfram, 2002]) ont montré qu'un réseau d’automates peut exhiber plusieurs types de
comportements que l’on catégorise en classes d’universalité : systèmes stables, cycliques,
désordonnés et chaotiques. Dans le cas d’un comportement chaotique, le fonctionnement du
système complexe est imprévisible : il ne se stabilise pas sur un état ou un autre. Cependant il n’est
pas désordonné car des agencements particuliers s’installent temporairement et se succèdent au gré
de quelques configurations locales particulières. En considérant cette classe d’universalité aux
comportements si particuliers, Christopher Langton transfère par analogie ces concepts des
69
réseaux d'automates dans le champ des systèmes naturels et sociaux. Il propose d'étudier
l'évolution des espèces à travers cette métaphore en considérant que la vie n'apparaît qu'au ”bord
du chaos" [Langton, 1990], [Lewin, 1994].
L’approche systémique considère qu’un système complexe possède d’autant plus de capacités à
s’adapter aux modifications de son environnement, qu’il dispose d’un certain degré de ”variété”,
au sens de la diversité des réponses adaptatives qu’il possède. Ce principe est connu sous le nom
de la loi de la variété requise de Ross Ashby.
C'est en vertu de la proposition énoncée par Edgar Morin concernant la ”pensé complexe” que les
SMA peuvent jouer un rôle non négligeable pour l'étude et la compréhension d'un système. En
permettant de recomposer une dynamique globale à partir des comportements et des interactions
des entités d'un système, ils permettent d'examiner l'articulation entre les niveaux d'organisation.
En d'autres termes, ces outils autorisent la synthèse entre l'approche standard des réductionnistes et
celle plus originale des holistes.
Toujours dans le domaine de l'écologie, Volker Grimm présente d'autres raisons d'utiliser les
SMA. Dans [Grimm, 1999], l'auteur fait le point sur dix ans de modélisation multi-agent dans ce
domaine. En partant du constat qu'en physique, il n'est pas besoin de modéliser les atomes pour
étudier les propriétés de la matière, il montre les avantages et les inconvénients d'une telle
approche. Il compare les IBMs à la modélisation standard en écologie mais aussi à d'autres
approches également appelées individu-centrées et qui ne sont pas pour autant fondamentalement
distinctes des modèles classiques. En effet, ces IOMs (pour individual-oriented models) peuvent
traiter, par exemple, de la distribution des individus en classes d'age (voir début du chapitre) pour
décrire la structure et l'évolution d'une population, sans prendre en compte véritablement les
individus mais uniquement leurs caractéristiques moyennes. En reconnaissant un continuum
depuis les modèles à variables d'état jusqu'aux modèles purement IBM, [Uchmanski & Grimm,
1996] énoncent quatre critères pour distinguer un IBM :
Prise en compte explicite du cycle de vie des individus, plus élaboré que la simple
identification de taux de croissance et de mortalité.
Présence de ressources dont les dynamiques reflètent d'autres facteurs que la
traditionnelle "capacité de charge" qui reste un concept au niveau de la population,
La taille de la population est un nombre entier (la densité a été introduite dans les
modèles écologiques comme des variables d'état pour des raisons pratiques de
mathématique. Cf. chap.5.2.1).
Variabilité entre les individus d'une même classe d'âge. Ces différences ne doivent pas
être déterminées au préalable par des données statistiques, mais elles doivent apparaître
au cours de la simulation du fait de compétitions localisées entre certains individus.
Sans nécessairement adhérer complètement à tous ces critères, on peut reconnaître que la
spécificité des IBMs repose sur la variabilité entre individus, elle-même fondée sur la prise en
compte d'interactions ponctuelles et localisées. Avec le recul et vis-à-vis des attentes qu'on en
espérait, Volker Grimm considère que la modélisation individu-centrée n'a pas suffisamment
enrichi l'écologie [Grimm, 1999] [Grimm & Railsback, 2005]. Et cela pour trois raisons :
de nombreux IBMs ont été développés pour des espèces spécifiques sans essayer de
généraliser les résultats,
beaucoup d'IBMs sont plutôt complexes mais manquent de techniques spécifiques pour
traiter cette complexité,
ils sont trop élaborés pour être décrit complètement dans un seul article, ce qui rend
incomplète la communication avec la communauté scientifique.
On peut noter la contradiction apparente de ces raisons avec les critères précédemment énoncés.
Néanmoins, si les SMA parvenaient à relever de tels défis, ils pourraient conduire à une vision
fondamentalement nouvelle de l'écologie que les auteurs appellent IBE (pour Individual-Based
Ecology) :
All individuals follow the same master plan: seeking fitness. Individuals must continually decide—in
the literal or the more metaphorical sense—what to do next, and these decisions are based on the
individual’s internal models of the world. It seems reasonable to believe that individuals of many
types have similar internal models and traits that are based on fitness seeking; and complexity
science teaches us that individuals with identical adaptive traits but their own unique states,
experiences, and environments can produce an infinite variety of system dynamics. Coherent and
predictive theories of these traits will provide an important key to understanding ecological
phenomena in general [ibid.]
71
24
Exemple : Considérons un agriculteur qui possède des terres, de superficie égale à H hectares, dans lesquelles il
peut planter du blé et du maïs. L'agriculteur possède une quantité E d'engrais et I d'insecticide. Le blé nécessite une
quantité Eb d'engrais par hectare et Ib d'insecticide par hectare. Les quantités correspondantes pour le maïs sont notées
Em et Im. Si Pb est le prix de vente du blé et Pm celui du maïs, on cherche alors xb et xm le nombre d'hectares à planter
en blé et en maïs. Le nombre optimal d'hectares à planter en blé et en maïs peut être exprimé comme un programme
linéaire:
Fonction à maximiser: Revenu net = Pb .xb + Pm .xm (maximiser le revenu net), sous les contraintes :
a) xb + xm H (borne sur le nombre total d'hectares)
b) Eb .xb + Em .xm E (borne sur la quantité d'engrais)
c) Ib .xb + Im .xm I (borne sur la quantité d'insecticide)
(d'après wikipedia : http://fr.wikipedia.org/wiki/Programmation_lin%C3%A9aire)
72
stratégies de production, changement d'utilisation des sols, etc). Aussi, pour étudier et modéliser
ces systèmes, "les chercheurs [doivent] délaisser l'hégémonique concept d'équilibre pour
s'intéresser à la dynamique des interactions sociétés-ressources" [Bousquet, 2001].
couvert
foncier sol
Marché des espèces exploitées : filières, prix, Interactions : Espèces : dynamiques des populations,
demande… compétitions intra et interspécifiques…
Marché du foncier gestion collective, Climat : précipitations, variations
Communauté: nombre d’exploitants, disponibilité et saisonnières, changement climatique
consommation propre, relations sociales… conflits d’accès, Plante : caractéristiques, cycle de vie
Exploitant :production et stockage; stratégie de (plantules, jeunes, adultes), dissémination,
production, revenu, sécurité alimentaire …
pollution, capacités d’adaptation, capture CO2,
épidémies, échanges plante-sol,…
viabilité…
Figure 3-6 : Modéliser les dynamiques naturelles et les dynamiques sociales. Dans le domaine de la gestion
des ressources renouvelables, la prise en compte des interactions entre les dynamiques agraires et les
dynamiques d'usage des ressources est primordiale. La modélisation est un moyen de comprendre les
interactions entre ces deux dynamiques.
La modélisation multi-agent semble pertinente pour aborder la représentation conjointe de
dynamiques écologiques et sociales dans un même outil qui autorise une démarche exploratoire.
En intégrant des sciences biophysiques pour comprendre les dynamiques des ressources mais aussi
des sciences humaines et sociales, on cherche à mieux comprendre les pratiques d’acteurs, leur
coordination, ainsi que les dynamiques économiques, politiques et sociales.
Dans [Parker et al., 2003], les auteurs procèdent à une revue des modèles traitant des changements
des couverts : LUCC (Land-Use and Land-Cover Change [Lambin & Geist, 2006]). Après avoir
73
énuméré un certain nombre d'approche, des modèles à base d'équation aux automates cellulaires en
passant par les techniques statistiques et les systèmes experts, les auteurs abordent les SMA qui
selon eux, fournissent une meilleure flexibilité pour traiter de ce type de problèmes.
[Parunak et al. 1998] comparent les différentes approches de la modélisation et relèvent les forces
et les faiblesses relatives de chacune. Ils concluent que : "...agent-based modeling is most appropriate
for domains characterized by a high degree of localization and distribution and dominated by discrete
decision. Equation-based modeling is most naturally applied to systems that can be modeled centrally, and
in which the dynamics are dominated by physical laws rather than information processing."
Dans ce contexte transdisciplinaire, un autre avantage des SMA tient au fait qu'ils sont
compréhensibles par tous (scientifiques, décideurs et acteurs du développement). Ils peuvent ainsi
s'intégrer dans des démarches participatives pour accompagner des décisions collectives.
25
Le modèle dit standard est un modèle international du GTAP (Global Trade Analysis Project) pour l'étude du
développement durable et de la distribution des revenus. Ses résultats encouragent la libéralisation de l'agriculture
mondiale.
26
Alimenté par une base de données gigantesque du GTAP, le modèle standard peut contenir jusqu'à 300.000
équations mathématiques !
74
Il faut donc rester très circonspect quant à cette notion d'aide à la décision. Car le danger est grand
de manipuler les opinions. Le commanditaire d'une modélisation peut toujours s'appuyer sur les
résultats du modèle quand ceux-ci vont dans la direction qu'il souhaite prendre ou à l'opposé, en
critiquer les faiblesses lorsque les résultats sont en contradiction avec une décision qu'il a déjà
prise.
Figure 3-7 : Schéma de la démarche itérative de construction d’un SMA et du jeu de rôle associé. D'après
[Etienne, 2005]
ComMod est donc une démarche d'apprentissage; un processus d'enrichissement progressif qui
améliore la connaissance du système étudié, la partage avec les parties prenantes et améliore les
choix décisionnels.
27
Dans le domaine des systèmes complexes en situation d'incertitude, cette posture scientifique est connue sous le
terme de posture ”post-normale” [Funtowicz & Ravetz, 1994]. Dans une situation où les faits sont incertains, les
valeurs contestées, les enjeux élevés et les décisions urgentes, elle suppose que l’implication des acteurs dans le
processus participatif est plus importante pour la mise en œuvre d’une décision que la décision elle-même. Elle
implique par ailleurs que les chercheurs ” doivent être conscients que leur compétence ne constitue qu'un maillon du
processus politique. Leurs contributions peuvent aider à définir l'éventail des résultats possibles, mais ils ne peuvent
arrêter de solutions politiques uniques. Ce contexte diffère à ce point de celui qui a prévalu dans la recherche
traditionnelle qu'il est qualifié à juste titre de post-normal” [ibid.].
77
modèles et des jeux de rôles peut facilement devenir un outil de manipulation. Aussi, pour limiter
ces risques, le collectif de chercheurs réfléchissant sur ComMod a rédigé une charte de ”bonne
conduite” sur l'usage des modèles dans le domaine de la gestion des ressources renouvelables
[ComMod, 2005]. De mon point de vue, l'aspect ”prévention de la manipulation” est un point
essentiel qu'il faudrait encore approfondir.
Pour explorer davantage le sujet, le site ComMod 28 propose des études de cas, des articles et la
charte. [Aquino et al., 2002] présentent une comparaison de cinq expériences différentes de
modélisation d’accompagnement. Par ailleurs, un numéro spécial de la revue JASSS est dédié à
ComMod [Barreteau et al., 2003]. Mais l’évaluation critique de la démarche 29, sa déontologie, le
contexte de sa mise en œuvre restent des chantiers à explorer qui font l'objet d'un projet ADD en
cours.
Cependant et malgré mon intérêt, la démarche ComMod n'est pas le centre de cette thèse. Je
n'approfondirai donc pas plus le sujet ici, même si beaucoup d'idées présentées dans ce document
s'inspirent fortement de ComMod.
28
Le site web de ComMod (http://www.commod.org) contient la charte ComMod (en français et en anglais), la
description de quelques applications et la liste des personnes qui participent au réseau.
29
En particulier, la convocation des acteurs, la question des jeux de pouvoir qui peuvent survenir lors d'un ”dialogue”
ComMod (doit-on essayer de réduire les inégalités de pouvoir ?), la posture soi-disant neutre du médiateur, évaluation
des impacts sur la décision et le long terme, changement d'échelle (les expériences ComMod opèrent au niveau local et
ne touchent qu'un nombre réduit d'individus), naïveté de la démarche qui imagine que les interactions sociales peuvent
se résumer à des échanges lors d'ateliers, etc…[Lavigne-Delville et al. 2000]
30
On pourrait rétorquer qu'il serait plus judicieux d'utiliser des plates-formes de jeux vidéos qui commencent à
apparaître. Mais elles sont trop orientées pour des jeux stratégiques ou de type ”first person shooter” et imposent ainsi
des formats d'interaction prédéfinis. Par ailleurs, la visualisation réaliste en 3D n'est pas forcément un objectif à
atteindre. Garder une distance vis-à-vis d'une situation réelle me semble un élément important de ComMod. Enfin,
sans même aborder la nécessité de co-construction des modèles, les projets de développement nécessitent souvent une
78
implémentation rapide des simulateurs avec peu de moyen en ressources humaines compétentes, ce qui est loin d'être
le cas pour le développement de jeux vidéos.
Chapitre 4
Après avoir décrit les avantages des SMA pour la modélisation des systèmes complexes, ce
chapitre aborde certaines spécificités de ces outils et leurs conséquences pour leur évaluation,
particulièrement à propos de la fiabilité et de la vérification des résultats qu'ils énoncent. Car,
contrairement aux équations mathématiques, on ne peut pas prouver les propriétés intrinsèques
d'un SMA (convergence, cycles, attracteurs, ...) et le passage obligé par la simulation oblige à
considérer ce statut particulier.
En effet, le temps dans un SMA joue un rôle actif et décisif : en se déroulant progressivement, il
orchestre les entités en les activant au fur et à mesure de la simulation. Il est un élément essentiel
car il anime les agents qui se transforment et interagissent pour produire des phénomènes
émergents. Ces propriétés globales d'un SMA sont donc des constructions temporelles. En cela,
elles ne peuvent pas se résumer : on ne peut pas montrer ces propriétés émergentes sans le recours
à la simulation. Elles ne sont pas décrites formellement par le modèle mais sont véritablement
créées par la simulation. C'est pourquoi il est important de distinguer le modèle de la simulation.
D’ailleurs, et contrairement à ce que l'on pourrait attendre, la conception d'un SMA ne donne pas
immédiatement accès à la compréhension de son comportement [Bommel, 1997b].
Des divergences dues à des écarts d'interprétation renforcent encore la nécessité de séparer ces
deux notions. En effet, la conception d'un SMA doit suivre une chaîne de traitement dont le point
de départ consiste à traduire les concepts issus du domaine étudié pour produire un modèle
opérationnel puis un code informatique. Or cette suite d'activités peut être la source d'erreurs ou
d'artefacts pouvant conduire à des écarts d'interprétation entre les résultats d'une simulation et les
conclusions qu'on en déduit pour le modèle.
31
A l'origine de l'introduction des équations mathématiques en économie, Léon Walras (1834-1910) est considéré
comme le précurseur des modèles économiques. Il a également cherché à introduire la notion d'anticipation des agents
économiques.
81
estimations, censées prendre en compte le coût du temps, sont fournies au préalable par le
concepteur ; elles ne proviennent pas de résultat du modèle.
Les économistes ont ensuite cherché à évaluer la rémunération du risque sur le moyen ou le long
terme en introduisant la dimension temporelle dans leurs modèles. [Boussard et al., 2005]
expliquent que "la façon « pure » de voir le temps dans un modèle dit « néoclassique » est de
considérer qu'un objet identifié à deux moments différents constitue en fait deux objets différents".
En reconnaissant l'artifice de modélisation, les auteurs estiment que ce procédé permet d'introduire
"les considérations sur l'épargne et l'investissement qui manquait évidemment dans le modèle
walrassien" [ibid.]. Ainsi, la prise en compte du temps revient à nouveau à chercher à mieux
définir un taux d'actualisation qui reste l'un des sujets majeurs de préoccupation des économistes.
Mais il est dommage de restreindre l'importance du temps à cette seule notion.
Figure 4-1 : Exemple de simulation de ECEC. A gauche, une vue de la grille spatiale montrant la répartition
des plantes dont le niveau d'énergie de chacune suit à un gradient de vert et les agents "restreints" (bleu) et
"non restreints" (rouge). A droite, évolution des effectifs au cours du temps d'une simulation : au pas de temps
100, la population des "restreints" est exclue par la population des "non restreints".
Après avoir expliqué ce premier scénario, nous en présentons un autre : sans modifier le modèle,
mais juste en remplaçant la structure initiale de l'espace en une répartition hétérogène des plantes
32
La fitness est un mot anglais, signifiant santé, forme. Si l'aérobic fait un usage intensif de ce mot, l'écologie
évolutive l'utilise également mais dans un autre sens : il exprime l' "aptitude phénotypique" des individus à avoir des
descendants matures. La structure interne d’une niche écologique est déterminée par plusieurs critères dont la fitness.
83
par paquets (ou patchs), la réponse à la question "que va-t-il se passer ?" est beaucoup moins
évidente. La majorité des personnes interrogées ne la connaissent pas, même si elles n'ont plus de
doute sur le fonctionnement du modèle. Elles découvrent alors avec intérêt que l'espèce des
ruminants la moins compétitive survie quant la plus vorace disparaît.
Figure 4-2 : Exemple de simulation de ECEC sur un espace fragmenté : il y a autant de plantes que dans la
simulation précédente, mais les patchs sont séparés par des zones vides. A gauche, une vue de la grille spatiale
montrant les patchs de plantes. A droite, évolution des effectifs au cours du temps : la population des "non
restreints" s'éteint quand les "restreints" parviennent à survivre.
L'explication de ce phénomène semble évidente a posteriori. Quelle que soit son espèce, chaque
ruminant éprouve des difficultés à trouver les patchs éparpillés. Mais ceux qui sont découverts par
les ruminants les moins voraces sont maintenus à un niveau de production satisfaisant, alors que
ceux qui sont découverts par les "plus compétitifs" sont rapidement coupés à blanc et ne
produisent plus assez pour la survie de leurs hôtes.
La réfutation du principe d'exclusion compétitive est montrée ici de façon simple. Le modèle
ECEC révèle à l'observateur des résultats étonnants. Mais l'explication de ce phénomène n'est
raisonnée qu'a posteriori. Sa relative simplicité permet d'en comprendre facilement la structure et
le fonctionnement. Et pourtant, il est extrêmement difficile d'anticiper le déroulement de tous les
évènements qui influencent les résultats globaux. Nous ne pouvons simplement pas imaginer son
fonctionnement global sans aide. Il nous faut l'assistance de la simulation. Car si l'ordinateur
n'éprouve aucune difficulté à calculer un grand nombre de changements d'état et d'interactions,
notre esprit n'est capable d'en imaginer que quelques-uns. Malgré la simplicité d'un modèle, même
clairement spécifié, le déroulement du temps dans une simulation nous révèle des phénomènes
complexes que notre cerveau, seul, n'est pas capable d'anticiper.
mathématique peut se révéler comme étant purement théorique, l'ordinateur ne servant qu'à
accélérer les calculs qu'un être humain pourrait patiemment exécuter à la main. L'extrait suivant de
[Varenne, 2003] exprime la troisième thèse :
Nous pouvons en effet en déduire que la simulation nous apprend toujours quelque chose, à l’image
d’un récit dont on ne connaît pas a priori la fin. Certains auteurs ont ainsi assimilé la simulation à
une « histoire d’états » à cause du caractère pas à pas de son traitement. L’ordinateur raconterait
une histoire, mot à mot, sans donner pour autant la capacité de la résumer. Cette capacité que la
simulation possède de passer pour une aventure de l’esprit provient en effet du caractère
incompressible de son traitement formel : pour telle simulation particulière, il n’y a pas – dans l’état
des connaissances du moment - d’autres chemins intellectuels pour parvenir aux résultats. Et le
résultat est dépendant de l’intégralité du chemin. Il faut donc le parcourir pas à pas sans espérer le
raccourcir.
Ainsi un modèle multi-agent dont les règles de fonctionnement sont totalement connues, peut
devenir un objet d’investigation expérimentale. La simulation acquiert alors le statut
d’expérimentation au même titre que l’expérimentation classique de laboratoire. Elle a simplement
lieu dans un laboratoire virtuel.
Une simulation ne peut donner qu'un résultat (un "fait de calcul"). Or il faut pouvoir décrire et
affirmer les propriétés d’un modèle ou de l’ensemble complet des simulations (convergence,
cycles, attracteurs, …). À l'opposé, un système d'équations est un "être mathématique" qui fournit
des faits de calculs mais surtout qui autorise une démonstration porteuse de sens. En partant du
constat qu'il est matériellement impossible de faire une analyse exhaustive de toutes les
configurations possibles, Claude Lobry conclut que les automates cellulaires et les SMA ne
permettent pas de démontrer les conséquences générales d'un modèle : à partir du domaine de
définition de leurs paramètres, on ne peut pas connaître ni prouver l'ensemble de leurs propriétés.
Il appelle alors de ses vœux la mise en place d'une théorie du modèle 33 : "pour savoir ce qui se
33
A ne pas confondre avec la théorie des modèles. La théorie des modèles est une théorie de la vérité
mathématique. Elle consiste essentiellement à dire qu’une théorie est mathématiquement valide si on peut définir un
univers dans laquelle elle est vraie.
Claude Lobry explique : « Depuis Newton, on résout des équations par un calcul mathématique. Depuis 1950 en
plus du calcul mathématique on dispose d'un instrument qui permet de faire des simulations sur des équations, ce qui
augmente la puissance du mathématicien. Mais il n'y a rien de changé dans le processus intellectuel. On va simplement
beaucoup plus vite. Ensuite ce qui change de façon fondamentale depuis les années 80 environ, c'est l'accès à la mise
en programme. La mise en programme remplace la mise en équations. C'est très différent parce qu'avec la mise en
équation mathématique on est dans un champ très théorisé alors que la mise en programme suivie de simulations ne
s'accompagne pas d'une théorie du modèle. L’ordinateur est incontestable car c’est une mécanique qui produit des
85
passe [dans un modèle multi-agent], il n'y a pas d'autre solution que de faire une théorie" [ibid].
Car prévient-il "le risque est grand de connaître un jour un « accident de modélisation », c'est-à-
dire une décision catastrophique prise sur la base des prédictions d’un mauvais modèle" 34.
Il est vrai que l'on peut difficilement résumer un SMA, dans le sens d'en déduire une théorie plus
concise (ou plutôt un autre modèle plus concis). Même si on reconnaît avec JP. Treuil qu'un
programme informatique est aussi un être mathématique ("il n’y a pas de différence de nature entre
mise en équations et mise en programme" [ibid.]), il faut admettre que dans l'état actuel de nos
connaissances, nous ne pouvons pas démontrer ses conclusions. On peut seulement montrer un
certain nombre de résultats issus de simulations particulières (des faits de calcul), sans possibilité
d'exhaustivité. Ainsi, dans l'exemple de l’automate cellulaire exposé par Claude Lobry, les
mécanismes de base sont entièrement spécifiés et simples. A partir de ces conditions, on peut
rechercher une théorie qui résumerait l'ensemble des comportements du modèle. Mais, je doute d’y
parvenir. Il me paraît difficile qu’une telle théorie puisse expliquer la totalité des propriétés d’un
SMA ; à mon avis, elle ne pourra être que partielle et incomplète.
Par ailleurs, ces problèmes ne sont pas exclusifs des SMA. Le fameux modèle macroéconomique
standard à 300.000 équations ne peut pas non plus être démontré. [Boussard et al., 2005]
expliquent qu'il ne peut pas fonctionner plus d'une dizaine d'années car ”au-delà le système
d'équations à résoudre n'a plus de solution en raison des difficultés de calcul numérique liées à la
trop grande variabilité des prix”. Comme il est expliqué au début de ce chapitre, le temps de ces
modèles néoclassiques est représenté par un artifice qui consiste à dupliquer un objet (donc une
équation) pour chaque année supplémentaire. De ce fait, à chaque nouvelle une année que l'on
souhaite simuler, il faut rajouter 30.000 équations ! Par ailleurs et pour la majorité d'entre eux, les
modèles mathématiques nécessitent des approximations pour être résolus et font souvent
l'hypothèse de se situer à l'équilibre.
Pour résumer, "cet objet créé par l’homme est donc opaque à son propre créateur, qui doit
appliquer une démarche scientifique pour comprendre sa propre création" [Amblard, 2003]. Il est
donc indispensable d’observer les comportements d'un modèle par l’expérimentation, pour tenter
éventuellement de produire une forme de théorie, plus compacte, de ce fonctionnement. Le
chapitre 8 concernant l'exploration des modèles, confirme ces réflexions et montre toute la richesse
inattendue qu'un modèle même simple peut dévoiler. A ce propos, [Grimm, 1999], [Deffuant et al.
2003b] et [Amblard, 2003] déplorent l'absence de réflexion plus approfondie sur ce sujet dans la
communauté multi-agent. Ils dénoncent le manque de temps et d’efforts passés à tester les modèles
après leur élaboration : ”généralement quelques simulations sont sommairement comparées à
quelques données” [ibid.].
Ainsi, les réticences que C. Lobry émet à l'égard des modèles multi-agents me semblent fondées
lorsqu'il s'agit de prendre des décisions importantes à partir des résultats issus d'un modèle mal
évalué. Néanmoins, il faut nuancer son propos. Grâce à une exploration approfondie du modèle, on
est capable de bien comprendre son comportement et d'en tirer une synthèse pouvant s'approcher
d'une théorie. L'analyse poussée d'un modèle procure pour celui qui la mène une meilleure
compréhension de son fonctionnement que pour celui qui l'a conçu. De plus, l'absence de preuve
formelle d'un SMA n'interdit ni son intérêt, ni son utilisation, à condition bien sûr de garder un
regard critique sur cet objet (cf. chap. 1).
Ces considérations doivent inciter les modélisateurs à la prudence : ils doivent surtout favoriser la
conception de modèles simples (et donc analysables) plutôt que des systèmes hautement
nombres. Quand on fabrique un outil de modélisation il faut connaître et comprendre le fonctionnement de cet outil :
avoir une théorie du modèle, mais plus le modèle est compliqué plus il est difficile d'en faire une théorie. »
34
Cette remarque à mon avis s'applique à tout type de modèle, et c'est bien pour cette raison qu'il faut être très
prudent sur l'emploi du mot ”validation” et l'utilisation des modèles.
86
compliqués et soi disant ”réalistes” que personne ne pourra ni ne voudra analyser de manière
approfondie. Alors dans ce cas, le modèle risque de rester au stade d'usine à gaz, inutile car non
porteur de sens.
4.5.1 Préambule
Le libéralisme économique repose sur l'idée d'ordre spontané du marché et affirme l'existence d'un
mécanisme caché grâce auquel les intérêts des individus s'harmonisent naturellement, sans que
ceux-ci en aient conscience 35. Cette façon de voir la régulation des marchés a été décrite par Adam
Smith 36 (sa fameuse métaphore de la « main invisible »). Plus tard, Friedrich Hayek [1966]
partisan de la déréglementation et de la privatisation reprend ces idées pour expliquer à sa façon
les lois du marché 37. Ce sont encore ces mêmes idées qui font dire à feu 38 Milton Friedman que
"l’ordre économique est une émergence, c’est la conséquence non intentionnelle et non voulue des
actions d’un grand nombre de personnes mues par leurs seuls intérêts" [Friedman, 1981, cité dans
Pesty et al., 1997]. Pour les tenants du libéralisme économique, les interventions de l'état ne font
qu'entraver les mécanismes "harmonieux" à l'œuvre.
En biologie, on considère que "la vie d'un individu multicellulaire en tant qu'unité se déroule par
l'intermédiaire du fonctionnement de ses composants, mais elle n'est pas déterminée par leurs
propriétés" [Maturana & Varela, 1994]. L'attirance du chat pour les souris n'est pas rattachée à
l'attrait de toutes les cellules de son corps vers les cellules de la souris, mais procède du
comportement du chat dans son entier : une entité émergente dotée de qualités spécifiques. Pour
François Jacob, "Les propriétés d'un organisme dépassent la somme des propriétés de ses
constituants. La nature fait plus que des additions : elle intègre" [F. Jacob, Leçon inaugurale au
Collège de France, 1965, cité dans Morin, 1977].
En allant encore plus loin, les notions de raisonnement et de conscience peuvent être perçues
comme des phénomènes émergents à partir de l'interaction des activités des neurones et des
perceptions de l'environnement. Partant de ce principe, une architecture d'agents élémentaires,
indépendants et néanmoins hiérarchisés, pourrait produire une "Société de l'Esprit" dans les termes
de Marvin Minsky [1988] qui se demande "à partir de quel moment se déclenche-t-il quelque
35
La fable des abeilles publiée en 1714 par Mandeville illustre cette déconnexion entre les activités individuelles et
les mécanismes collectifs [Deffuant et al., 2003b]. Mandeville, considéré comme le précurseur du libéralisme
économique, affirme que contrairement aux idées répandues, les ”vices privés” comme l'égoïsme contribuent à la
richesse des nations alors que la vertu condamne une population à la pauvreté.
36
Pour Adam Smith, la "main invisible" fait référence à une notion d'ordre social spontané. Il exclut toute
référence à une providence cachée. Ce n'est qu'une métaphore utilisée pour décrire le processus d’autorégulation à
partir de conduites individuelles.
37
A propos de la fable des abeilles de Mandeville, Hayek écrit "[…] dans l'ordre complexe de la société, les
résultats des actions des hommes sont très différents de ce qu'ils ont voulu faire, et les individus, en poursuivant leurs
propres fins, qu'elles soient égoïstes ou altruistes, produisent des résultats utiles aux autres qu'ils n'avaient pas prévus
et dont ils n'ont peut-être même pas eu connaissance ; en fin de compte, l'ordre entier de la société, et même tout ce
que nous appelons la culture, est le produit d'efforts individuels qui n'ont jamais eu un tel but, mais ont été canalisés à
cette fin par des institutions, des pratiques, et des règles qui n'ont jamais été délibérément inventées, mais dont le
succès a assuré la survie et le développement" [Hayek, 1966]
38
MIlton Friedman est mort au moment où j'écris ces lignes.
87
chose qu'on peut appeler une conscience, voire une intelligence ?". Selon de Maturana et Varela,
notre esprit ou le sens que nous attachons aux événements, émerge des interactions entre notre
milieu extérieur et intérieur.
Enfin, dans son livre très controversé [Wolfram, 2002], Stephen Wolfram pousse la notion
d'émergence encore plus loin et affirme que les opérations conduites dans les automates cellulaires
se retrouvent partout dans le monde réel. Il propose alors l'hypothèse selon laquelle l'univers entier
serait un vaste calculateur fonctionnant sur le mode d'un automate cellulaire et il appelle à une
nouvelle science basée sur ces principes.
Comme on vient de le voir, la notion d'émergence touche de très nombreux domaines. Elle est
parfois mobilisée pour encourager des pratiques néolibérales ou pour justifier des théories plus ou
moins douteuses. Il n'empêche qu'elle demeure une notion très intéressante et novatrice qui se
trouve être à la base des SMA.
4.5.2 Une notion délicate qui lie un phénomène global à des comportements
individuels
La notion d'émergence s’exprime par des formules vagues telles que « le tout est plus que la
somme des parties ». Mais c'est une notion encore à l'état de discussion et sujette à controverses (il
suffit de s'intéresser aux débats entre les neurobiologistes et les psychologues pour comprendre
l'étendue de la problématique). Différents points de vue concurrents aboutissent à différents types
d'émergence, même si la définition qu'en donne le Santa Fe Institut semble convenir à tous :
"Emergence is the arising at the macro level of some patterns, structures and properties of a
complex adaptive system that are not contained in the property of its parts". [Cité dans Dessalles
& Phan, 2005]
Nombre de ces définitions sont citées et analysées dans [Pesty et al., 1997]. Ce collectif de
chercheurs qui réfléchit sur ce sujet dans le cadre des SMA, oppose le concept d'émergence à celui
de réduction. Ce dernier consiste à considérer qu'un phénomène peut toujours être expliqué par des
processus sous-jacents. Ainsi par exemple, la température est une notion réductible qui résulte de
l'agitation thermique des molécules : elle peut se calculer par la moyenne des énergies cinétiques
des molécules. On peut donc utiliser cette idée pour souligner ce que n'est pas l'émergence : une
manifestation dont l'apparence provient de la conséquence évidente des propriétés des composants
du système. A l'opposé, un phénomène est dit émergent lorsqu'on ne peut pas anticiper son
évolution à partir de la seule connaissance de ses composants. C'est "le constat de la non-
réductibilité de certains domaines à d'autres" [ibid.].
Peut-être touchons-nous ici simplement aux limites de la compréhension humaine, qui ne peut pas
prendre en compte simultanément le comportement d’un grand nombre d’éléments qui
s’influencent mutuellement. Ces limites nous obligeraient donc à rechercher des explications
directement au niveau collectif. On peut alors faire un parallèle avec la notion sur la complexité
selon Von Neumann, décrite précédemment : des hypothèses sur les mécanismes élémentaires d'un
système ne permettent pas toujours d'en comprendre le comportement global.
Une propriété émergente résulte donc des relations entre les composants d'un système et, dans
certains cas, d'un pouvoir causal macroscopique irréductible lié au système lui-même [Dessalles et
al., 2007].
Cette idée de surprise fournit ainsi une piste pour souligner que l'émergence nécessite le regard
d'un observateur qui s'étonnerait d'un phénomène qu'il perçoit. L'émergence implique que
l'articulation qui existe entre un phénomène global et des comportements individuels reste
difficilement discernable. La thermodynamique par exemple a établi des lois physiques reliant la
pression, le volume et la température d’un gaz (PV=nRT pour les gaz parfaits). Mais le lien avec le
niveau inférieur (celui des particules de gaz) est resté longtemps obscur. Seule la théorie cinétique
des gaz parfaits a permis après coup de caractériser ce lien grâce à des modèles mathématiques
basés sur les statistiques. Les lois physiques de la thermodynamique s'appuient donc sur des
phénomènes sous-jacents opérant au niveau de la vitesse et de la collision des atomes de gaz. Cette
explication d'un phénomène global par des comportements ayant lieu au niveau inférieur s'inscrit
de mon point de vue dans la définition de l'émergence. Même si l'explication fondamentale paraît
finalement triviale, celle-ci n'a été proposée qu'a posteriori. De nos jours, ce phénomène n'est plus
la source d'étonnement car nous avons compris le lien entre les différents niveaux. On peut répéter
les expériences ou les simulations sans être surpris des résultats. Cette absence de surprise n'exclut
pas l'émergence. Ainsi, même dans les cas où la déconnexion entre deux niveaux paraît
importante, il se peut que les comportements collectifs puissent être caractérisés de manière
simple.
Ce qui est émergent n’est pas l’état stable, l’invariant ou la trace mais son expression dans un
vocabulaire distinct de celui dans lequel les processus sont programmés. Par exemple chez les
fourmis, le phénomène émergent n'est pas la trace de phéromones mais son identification par
l'observateur comme un chemin entre le nid et la source de nourriture. [Pesty et al., 1997]
C'est dans cette mesure que l'émergence, caractérisée par le passage du niveau micro au niveau
macro, dépend de l'observateur. A ce sujet, les auteurs notent qu'en ce qui concerne la température
par exemple, l’énergie cinétique moyenne d’un ensemble de molécules n’est pas émergent, "mais
le fait de l’appeler “ température “ et de lui associer une phénoménologie distincte de celle des
molécules en fait une". Selon [Atlan, 1986], le problème de la connexion entre niveaux
d’organisation serait un faux problème. De par nos méthodes scientifiques, héritées du
réductionnisme, nous inventons un vocabulaire à chaque niveau d’organisation. Dans cette
acceptation, chaque niveau d’organisation est un point de vue sur la réalité avec ses propres
paradigmes. La connexion entre les niveaux est réalisée par l’observateur, mais elle n'a pas
d’existence en soit. Dans le même ordre d'idée, [Pesty et al., 1997] expliquent que l'émergence
d'un phénomène "est contenue dans le système indépendamment de notre regard comme
observateur, mais c'est le changement de regard de l'observateur qui lui permet de percevoir cette
émergence (et qui lui a valu la qualification d'émergence). Les fourmilières avec leurs ponts et les
termitières avec leurs œuvres architecturales émergent dans la nature depuis des années… sans
qu'il y ait présence d'observateur !"
chacune est soit vivant soit mort. Les cellules de l'automate obéissent à une règle simple : la
fonction de transition D (si morte et 3 voisins vivants alors vivant. Si vivant et 2 ou 3 voisins
vivants alors vivant, sinon mort). La dynamique de l'automate cellulaire produit dans certaines
configurations des phénomènes globaux dans lesquels on perçoit des amas de cellules vivantes
semblant se déplacer sur la grille (les glisseurs ou "gliders"). Mais le glisseur n’est un objet que du
point de vue de l’observateur de la simulation. De plus, le glisseur semble soumis à une règle
d’évolution qui le conserve au court du temps (stabilité) comme le montre le tableau suivant :
Tableau 4-1 : Règle d'évolution D' d'un glisseur au court du temps. Au court d'un cycle de 5 pas de temps, le
glisseur change de forme et "glisse" sur la grille (la ligne "Position" indique les coordonnées du centre du
glisseur par rapport à sa position initiale à T1).
Temps T1 T2 T3 T4 T5
Forme
"Dans l’émergence forte, les agents sont partie prenante du processus tout en observant ce
dernier, ce qui entraîne une rétroaction du niveau d’observation sur le niveau du processus.
L’émergence est immanente au système" [Müller, 2002].
A contrario, ils définissent l'émergence faible comme un phénomène produit par un collectif,
indépendamment du fait que les membres en aient conscience (même si ce phénomène rétroagit
sur les comportements individuels). "On parle d'émergence «faible» lorsque des structures ou
propriétés émergentes sont identifiées comme telles par un observateur extérieur" [ibid.].
Ainsi, plutôt que de "câbler" entièrement l'enchaînement des activités d'un agent, il semble plus
intéressant d'essayer de retrouver des schémas comportementaux de base qui refléteraient des
stratégies observées sur le terrain. Dans de nombreuses applications des SMA traitant de la gestion
des ressources naturelles, on constate fréquemment des descriptions de comportements conçues de
façon imposée par le modélisateur. Bien que ce travail soit souvent nécessaire pour comprendre et
expliquer des pratiques d'acteurs, les modèles produits montrent des comportements qui restent
confinés dans des schémas figés. Il leur manque une certaine forme de liberté pouvant déboucher
sur des nouvelles capacités d'adaptation. En conséquence, après cette première description des
pratiques d'acteur, il est recommandé d'essayer d'en extraire les activités de bases pour les mettre à
disposition des agents informatiques. Lors du déroulement de la simulation, ils évoluent alors plus
librement, sans un contrôle forcé de l'enchaînement de leurs activités. Si on retrouve par
simulation, des conduites évolutives cohérentes, on aura alors beaucoup progressé dans la
compréhension du système étudié. On pourra alors mieux utiliser le modèle pour tester des
situations alternatives ou pour expérimenter ses réactions face à des événements
environnementaux. Une illustration de cette démarche est présentée sur le modèle TransAmazon
au chapitre 12).
La phase de codage peut être assimilée à une traduction plus ou moins fidèle du modèle conceptuel
vers un langage informatique. Le simulateur, au sens de [Zeigler et al., 2000] 39, est un logiciel
complet qui peut être initialisé et qui peut tourner sur une machine 40. La relation qui le lie à son
modèle s'appelle la "relation de simulation". D'après Zeigler, séparer les concepts de modèle et de
simulateur procure de nombreux bénéfices 41 qu'il énumère ainsi :
– Un même modèle peut être exécuté par différents simulateurs, ce qui définit ainsi sa
portabilité à un haut niveau d’abstraction.
– Les algorithmes mis en œuvre dans les simulateurs peuvent être étudiés en tant que tels et leur
validité peut donc être établie.
– Les ressources nécessaires pour simuler correctement un modèle donnent une mesure de sa
complexité.
Or dans le domaine encore récent des SMA, faire cette distinction me semble réellement
indispensable. On parle trop souvent des résultats d'un modèle en faisant référence à ceux de son
implémentation. Pourtant, sans même en avoir conscience, la distance entre le modèle conceptuel
et le simulateur peut être très importante. La traduction du modèle peut s'avérer être une véritable
trahison. Non pas que le codeur ait délibérément trahit la pensée du concepteur, mais bien parce
que cet exercice présente de nombreux pièges qui, s'ils sont mal traités, peuvent produire des
écarts importants entre les résultats d'une simulation et les conclusions qu'on en déduit pour le
modèle : les résultats peuvent être liés à des paramètres qui ne sont pas ceux que l'on a présentés.
Fabien Michel a nommé ce problème, le phénomène de divergence implémentatoire [Michel
2004].
39
Zeigler a introduit cette notion dans la deuxième édition de son livre [Zeigler et al. 2000].
40
Que le modèle soit implémenté directement sur un langage cible ou sur une plate-forme de simulation, cela ne
change rien : dans les deux cas, le produit délivré s'appelle un simulateur.
41
[Gilbert, 1998] explique également que «It is useful to make distinctions between the model as something that is
capable of running, the simulation as a running model and the specification as a description of the model».
93
42
B. Edmonds propose une classification des pratiques pour la conception et l'exploitation de simulations : (1)
produire une abstraction (Establishing an Abstraction), (2) documenter une proposition de conception (Documenting a
Design Proposal ), (3) explorer le comportement d’une abstraction (Exploring the behaviour of an abstraction), (4)
suggérer des solutions à un problème réel (Suggesting Solutions to Real Problems) et (5) rédiger des articles
méthodologiques (Methodological Papers).
94
Etant donné que ces artefacts peuvent facilement provenir des modèles opérationnel et de
conception, nous nous attacherons dans la deuxième partie de la thèse à prévenir ce problème en
approfondissant la question de la gestion du temps des SMA ainsi que celle relative à l'autonomie
et à la protection des données internes aux agents. Car la modélisation du temps et le traitement de
la simultanéité des actions et des interactions apparaissent comme des points hyper-sensibles des
simulations multi-agents. Or la sensibilité des simulateurs à ces aspects est souvent sous-estimée.
D'ailleurs, leur traitement permet d'interroger en retour le modèle du domaine. Ce dialogue entre
les concepteurs favorise alors un enrichissement du processus de modélisation. En complément de
l'explicitation des traitements du temps et des interactions, des analyses détaillées et exploratoires
permettent de vérifier la fiabilité du simulateur.
43
Sugarscape est un modèle multi-agent qui représente ”la croissance de sociétés artificielles”. Il a donné lieu à un
livre [Epstein & Axtell, 1997] très fameux qui fait date au sein de la recherche en simulation multi-agent. L'objectif
des auteurs est de montrer qu'il est possible d'expliquer de nombreux concepts venant des sciences sociales via des
simulations basées sur des modèles relativement simples. Ils posent ainsi le problème: "How does the heterogeneous
micro-world of individuals behaviors generate the global macroscopic regularities of the society?" [ibid.].
Sugarscape est basé sur la distribution spatiale de ressources en sucre et en épices qui se renouvellent selon des règlent
simples. Des agents appelés "Citizen" utilisent ces ressources. Dans les simulations de base, les agents perçoivent et se
déplacent vers les meilleurs endroits pour collecter du sucre qu'ils absorbent pour contrer les effets de leur
catabolisme. Le monde virtuel que les auteurs ont développé permet d’expérimenter diverses hypothèses sur
l’apparition de structures sociales émergentes telles que les phénomènes de migrations, les échanges commerciaux, les
crises et les guerres. A travers des représentations simples, les auteurs cherchent donc à expliquer des phénomènes
sociaux complexes :
« Perhaps one day people will interpret the question, “Can you explain it?” as asking “Can you grow it? ”
Artificial society modeling allows us to “grow” social structures in silico demonstrating that certain sets of
microspecifications are sufficient to generate the macrophenomena of interest. Indeed, it holds out the prospect of a
new, generative, kind of social science » [ibid.]
Une des raisons du succès de Sugarscape réside dans la simplicité du modèle et dans la facilité d'en reproduire les
résultats. D'ailleurs, de nombreuses ré-implémentations et adaptations de Sugarscape ont été réalisées. Certaines sont
présentées à différents moments de cette thèse.
Un environnement spatialisé, le renouvellement de ressources et leur utilisation par des agents capables de les
percevoir localement, fondent également les principes qui ont guidé le développement de Cormas.
96
trois catégories d'équivalence qu'ils classent ainsi : (i) identité numérique (reproduction précise des
résultats), (ii) équivalence distributionnelle (équivalence statistique) et (iii) équivalence
relationnelle” (équivalence qualitative) (voir [Axelrod, 1997] et chapitre 9.1.6). Ces catégories
d'équivalence peuvent tout à fait s'appliquer à la réplication de modèles.
rien d'autre que ces observations initiales. Certes, il peut être intéressant d'introduire dans un
modèle des variables de forçage (variables dont les valeurs ne dépendent pas du modèle mais sont
fournies de façon imposée, par exemple pluviométrie ou prix d'une denrée), mais elles jouent alors
de rôle de variables externes qui perturbent l'environnement et les agents. L'intérêt est alors de
tester les facultés d'adaptation de ces derniers à ces perturbations. Ainsi, au lieu de décrire des
comportements figés sur une séquence préétablie d'activités, il est préférable de concevoir des
agents les plus autonomes possibles (cf. chap. 6) pour répondre de façon appropriée et flexible à
des modifications de leur environnement.
INTERACTIONS
99
Chapitre 5
caractéristiques générales. La force des mathématiques repose alors sur une formulation non-
ambiguë des concepts du modèle et sur la possibilité d'en prouver les caractéristiques globales
(convergence vers un état d'équilibre, régime cyclique ou chaotique, identification des zones d'état
du modèle, identification des seuils, etc.) sans avoir besoin de faire tourner les simulations sur
toutes les configurations possibles.
dx
R .x
dt
Ici, X représente la taille d'une population et R, son facteur de croissance.
Ce premier modèle a été conçu par Malthus en 179844 pour modéliser la croissance de la
population humaine. La solution par intégration de cette équation différentielle donne :
X t X 0.eR.t
Elle décrit une croissance exponentielle de la population avec le temps. Or si on constate qu'une
population peut croître de façon exponentielle pour de faibles effectifs, dans les faits, la croissance
d'une population est limitée et R ne peut pas être considéré comme constant. Verhulst introduit
alors une contrainte de l'environnement qui ne peut accepter une population infinie. Il propose
alors d'envisager R comme une fonction décroissante de X :
R(x)r. 1 x
K
où r est appelé taux intrinsèque de croissance et où K représente la capacité de charge que peut
supporter le milieu. Ainsi le facteur de croissance est positif ou négatif selon la taille de la
population. L'équation logistique continue de Verhulst s'écrit donc :
dt
dx r.x. 1 x
K (1)
44
Le Révérend Thomas Robert Malthus (1766-1834) fut l'initiateur de la démographie avec sa célèbre théorie des
populations. Economiste britannique, il observait la tendance de croissance exponentielle de la population humaine.
En supposant que la production agricole n’augmenterait que linéairement il prédisait une augmentation de la misère
humaine et proposait donc un contrôle de la natalité humaine, surtout à l'égard des familles pauvres… dans leurs
propres intérêts évidemment.
45
Pour résoudre cette équation différentielle, il faut l'intégrer sur l'intervalle t0 – t pour des valeurs respectives de x
égales à x0 et xt : dt
dx r.x. 1 x dx r.dt xt dx tr.dt
K x.1 x
x0 x. 1 x 0
K K
xt
K
f ( x, t ) xt
K x0 r .t (2)
.e 1
x0
Grâce à cette solution, on constate que les états du système à l'instant initial x0 et la fonction f
suffisent à caractériser tous les états possibles du système sans avoir besoin de "faire tourner" le
modèle pour connaître la valeur de x à un instant t quelconque. La résolution de l'équation
logistique continue permet entre autre de démontrer que lorsque t tend vers l'infini, toute condition
initiale (non nulle) de la population tend vers une situation d'équilibre x* égale à K.
x * tlim (x ) lim K K x 0 0
t t
K x0 .e r.t 1
x0
Les variations de x en fonction du temps montrent une courbe dite sigmoïde qui s'aplatit
progressivement vers la valeur K.
K
X(t)
Xo proche 0
Xo > K
Figure 5-1 : Evolution d'une population selon le modèle de Verhulst. Quelle que soit la valeur initiale,
différente de 0, la population tend progressivement vers un état d'équilibre.
En étudiant le profil des phases (c'est-à-dire en traçant la production de nouveaux individus dx/dt
en fonction de x), on montre que le modèle logistique continue possède deux points d'équilibre: x*0
= 0 et x*1 = K. x*0 est un équilibre instable alors que x*1 est stable.
d x /d t
K/2 - K x
Figure 5-2 : Profil des phases de l'équation logistique. Il révèle deux points d'équilibre, l'un instable (bleu),
l'autre stable (orange).
On montre également que le taux d'accroissement de la population est maximum lorsque sa taille
vaut la moitié de K. C'est à cette valeur que la population est la plus dynamique.
En étudiant la production d'un stock halieutique, Schaefer [1957] a utilisé cette propriété du
modèle pour définir les rendements maximums que l'on peut espérer d'une pêcherie. Depuis,
l'équation logistique est à la base d'un grand nombre de modèles, tant en écologie (modèle proie –
prédateur, ECEC) qu'en économie (modèle de Gordon – Schaefer) 46.
On considère que ces modèles représentent des populations asynchrones car les naissances des
nouveaux individus ont lieu de façon aléatoire dans le temps. On les oppose aux populations
synchrones où les individus naissent simultanément sur des périodes de temps données.
L’annexe 1 (page 289) présente un exemple de modèle mathématique à temps continu (le modèle
de Lotka-Volterra) pour lequel il n'existe pas de résolution analytique complète. Il est nécessaire
de faire des approximations importantes pour résoudre le système d'équations, sinon on est obligé
de faire tourner des simulations pour en étudier la dynamique.
f (2)(x0 ) f (n)(x0 )
f(x) f(x0 ) f '(x0 ).(x x0 ) .(x x0 ) ...
2 .(x x0 )n o(x x0 )
2! n!
Le théorème de Taylor donne le développement limité d'une fonction f au voisinage de x0. C'est
l'écriture d'une fonction sous la forme d'une fonction polynôme et d'un reste. Si l'on se contente
d'un développement d'ordre 1, on parle alors d'approximation linéaire :
f(x) f(x0 ) f'(x0 ).(x x0 )
ou encore, en introduisant la variable temps :
f ( t t ) f ( t ) f ' ( t ). t
Cette discrétisation permet d'exprimer l’état du système à l’instant t en fonction de son état à
l’instant précédent. Si Δt égale à 1, la fonction f() est dans ce cas une fonction récurrente:
Xt+1= f(Xt) (3)
46
Sur la base d'expérimentations menées par des éthologues [Calhoun, 1962] et de données observées en milieu
naturel, Edwards T. Hall explique que les fluctuations des populations sont également régies par des phénomènes de
régulations intra-spécifiques. Sans aucune limitation de la nourriture présente dans l'environnement (le fameux K), de
fortes densités perturbent la régulation de la distance entre les animaux et "lorsque cette distance spécifique n'est pas
respectée, ils succombent à l'agression de leurs congénères plutôt qu'à la famine, à la maladie ou à l'attaque des
prédateurs" [Hall, 1971]. Il explique que des mécanismes physiologiques de stress dû à la trop grande proximité
provoquent des effondrements de la population alors même que le milieu reste suffisamment riche.
103
X (t t ) X (t ) t.rX (t ). 1
X (t )
K (4)
Le graphique suivant montre plusieurs simulations de l'équation logistique discrète (4) pour
différentes valeurs de Δt que l'on compare avec la fonction continue (2).
100
80
Δt=0,05
Δt=0,1
Δt=1
60 Δt=2
Δt=4
continue
40
20
0
0 10 20 30 40 50 60 70 80 90
Figure 5-3 : Simulations de l'équation logistique discrète (4) à divers Δt et comparaison avec le modèle continu
de Verhulst. Ici, K= 100 ; r=0,2; X0=0,01
On remarque évidemment que plus Δt tend vers zéro, meilleure est la qualité de l'approximation.
En posant Δt = 1, on obtient alors la fonction récurrente suivante :
X t 1 X t rX t . 1 X t (5)
K
Cette fonction récurrente (5) constitue une approximation correcte de la fonction continue (1). Or,
un siècle après Verhulst, l'étude de cette fonction récurrente a conduit à la découverte de la théorie
du chaos déterministe (voir explication et historique au chapitre 2.3.2). En effet, on observe que
pour certaines valeurs des paramètres du modèle discret, les dynamiques s'avèrent très instables.
Dans ce cas, des modifications infimes des conditions initiales ou des paramètres produisent des
résultats très différents à moyen terme. L'exemple de la figure suivante illustre cette sensibilité : à
partir de l'équation récurrente (5), dont les paramètres K et r sont fixés respectivement à 100 et 3,
un écart de 10-5 sur la valeur initiale conduit dans un premier temps à des résultats similaires, puis
à des réponses totalement différentes à moyen terme.
104
140
120
100
80
Xo=1
60
Xo=1,00001
40
20
0
0 20 40 60
Figure 5-4 : Exemple de sensibilité aux conditions initiales. Deux résultats de simulation de l'équation
récurrente (2) pour deux conditions initiales très proches (X0 = 1 et X0' = 1,00001 ; Δ=10-5) montrent
rapidement des divergences importantes. Pour certaines valeurs des paramètres (ici K=100, r=3), ce modèle
déterministe s'avère indéterminé.
Par conséquent pour certaines valeurs de ses paramètres, l'équation logistique récurrente,
apparemment si simple, peut exhiber des comportements chaotiques. Le système reste déterministe
et pourtant il devient non prédictible à moyen terme.
47
Sans rentrer dans des débats philosophiques hors de ma portée, il me faut néanmoins souligner la critique que
Bergson fait vis-à-vis du temps des scientifiques qu'il compare à la méthode cinématographique: ”Or l'action, avons-
nous dit, procède par bonds. Agir, c'est se réadapter. Savoir, c'est-à-dire prévoir pour agir, sera donc aller d'une
situation à une situation, d'un arrangement à un réarrangement. La science pourra considérer des réarrangements de
plus en plus rapprochés les uns des autres ; elle fera croître ainsi le nombre des moments qu'elle isolera, mais toujours
elle isolera des moments. Quant à ce qui se passe dans l'intervalle, la science ne s'en préoccupe pas plus que ne font
l'intelligence commune, les sens et le langage : elle ne porte pas sur l'intervalle, mais sur les extrémités.” Ainsi, si le
mathématicien ”divise l'intervalle en parties infiniment petites par la considération de la différentielle dt, il exprime
simplement par là qu'il considérera des accélérations et des vitesses, c'est-à-dire des nombres qui notent des tendances
et qui permettent de calculer l'état du système à un moment donné ; mais c'est toujours d'un moment donné, je veux
dire arrêté, qu'il est question, et non pas du temps qui coule. Bref, le monde sur lequel le mathématicien opère est un
monde qui meurt et renaît à chaque instant […]. Mais, dans le temps ainsi conçu, comment se représenter une
évolution, c'est-à-dire le trait caractéristique de la vie ? L'évolution, elle, implique une continuation réelle du passé par
le présent, une durée qui est un trait d'union. En d'autres termes, la connaissance d'un être vivant ou système naturel est
une connaissance qui porte sur l'intervalle même de durée, tandis que la connaissance d'un système artificiel ou
mathématique ne porte que sur l'extrémité.” [Berson, 1907]
105
dynamique pour certaines valeurs des paramètres. On observe dans ce cas des comportements
chaotiques qui ne peuvent pas apparaître dans le modèle continu. Si le problème biologique est
continu, cette différence a donc de fortes chances d’être un artéfact numérique et non un
phénomène biologique. Pour éviter ce piège, on peut moduler le pas de la discrétisation et tester si
la dynamique prédite est robuste par rapport à cette modulation (cf. figure suivante).
100
Δt=0,05
80 Δt=0,1
Δt=1
Δt=2
60
Δt=4
continue
40
20
0
0 10 20 30 40 50
Figure 5-5 : Simulations de l'équation logistique discrète à divers Δt et comparaison avec le modèle continu de
Verhulst. Ici, K= 100 ; r=0,8; X0=0,01. Pour Δt = 2, on observe des oscillations amorties et pour Δt = 4, un
comportement chaotique très différent de la courbe sigmoïde du modèle continu.
Toutefois, l'apparition de comportements chaotiques n'est pas uniquement rattachée aux systèmes
discrets. Des modèles à temps continu peuvent également exhiber des dynamiques chaotiques. En
cherchant à décrire les phénomènes brusques, René Thom a montré qu'un système mathématique
continu pouvait produire des résultats discontinus. Il montre qu'après avoir résisté au changement
(résilience), un système peut quitter un attracteur pour basculer brusquement vers un autre. Un
changement "catastrophique" résulte du conflit entre les deux attracteurs sur un point de tension
(appelé point Phi) entre deux variables, l'une lente, l'autre rapide. La théorie des catastrophes 48 met
l'accent sur les discontinuités, mais elle repose sur des dynamiques sous-jacentes lentes et
continues :
"La théorie des catastrophes consiste à dire qu'un phénomène discontinu peut émerger en
quelque sorte spontanément à partir d'un milieu continu".[Thom, 1991]
Ainsi, selon le niveau d'organisation étudié, des dynamiques peuvent apparaître continues,
graduelles ou discrètes.
D'autre part et d'un point de vue technique, les systèmes d'équations différentielles à temps continu
sont rarement intégrables. Il est alors fréquent de faire appel à des approximations numériques
pour décrire leur comportement. Dans ce cas, le calcul numérique nécessite une discrétisation du
système continu. En effet, les mathématiques fournissent des outils pour trouver la solution d'une
équation différentielle : méthode de séparation des variables, méthode de modification des
variables permettant de résoudre des équations ordinaires (ne prenant en compte que les dérivées
dans le temps mais pas dans l'espace) linéaires. Dans certains cas, on peut utiliser la méthode des
isoclines qui indique l'évolution qualitative des variables. Mais le plus souvent, ces outils ne
suffisent pas. Et souvent, il faut approcher le modèle continu par un modèle discret et employer
des méthodes numériques pour simuler des solutions (méthode d'Euler, méthode de Runge-
48
La théorie des catastrophes est maintenant considérée comme faisant partie de la théorie du chaos déterministe,
mais elle a été développée tout à fait indépendamment par René Thom qui l'a présentée en 1972 dans son ouvrage
"Stabilité et morphogenèse structurale".
106
Kutta) 49. En décrivant les raisons de la simulation multi-agent, R. Axtell parvient également à cette
conclusion [Axtell, 2000]. Il range ces raisons en trois catégories : (a) il existe une solution
analytique au système d'équations et alors la simulation ne sert qu'à illustrer des résultats. (b) La
résolution ne peut être que partielle : on peut par exemple trouver des solutions seulement pour
certaines valeurs de paramètres, ou bien ne résoudre le système qu'en faisant l'hypothèse d'un
équilibre. Pour étudier les parties non-résolvables, il faut recourir à la simulation. (c) Le modèle
n'a pas de solution (modèle indécidable) ou les outils à disposition ne permettent pas de résolution,
et dans ce cas, seules les simulations permettent d'obtenir une série de résultats.
Par ailleurs, les modèles à équations différentielles prennent difficilement en compte les
interactions entre composants d'un système. Souvent, elles sont considérées comme continues et
réparties de façon homogène dans l'espace. Il est par exemple difficile de prendre en compte des
perturbations ponctuelles. Or cette considération s'avère être une hypothèse trop restrictive pour la
modélisation des écosystèmes et les systèmes sociaux.
Ainsi, au-delà de la question quasi philosophique de savoir si le temps est continu ou discret, les
outils mathématiques à notre disposition nous obligent bien souvent à concevoir des modèles où le
temps avance par à-coups. La discrétisation des équations aux dérivées partielles est en effet
indispensable car les inconnues, dont les valeurs numériques sont à déterminer grâce aux
simulations, sont a priori en nombre infini [Lions, 2003].
Parce qu'elles sont basées sur des processeurs cadencés, les simulations informatiques impliquent
également de discrétiser le temps. Les SMA, basés sur les concepts Objets, n'échappent pas à cette
règle. Mais, comme nous venons de le voir (figure précédente), ce constat ne doit pas nous
empêcher, bien au contraire, de considérer l'évolution temporelle de nos modèles avec le plus
grand soin.
5.3.1 Les modèles à événements discrets : simulation dirigée par les événements
L’approche à événements discrets considère le temps comme une variable continue (un réel). Mais
par contre, l'état du système change de façon discrète à des instants précis : les évènements. Δt est
donc variable. La date d’occurrence des évènements est calculée au début ou au cours de la
simulation et les événements sont souvent ordonnés dynamiquement dans une liste encore appelée
échéancier [Amblard & Dumoulin, 2004]. Pour ces simulations, le temps, considéré comme
continu, est représenté par une suite d'événements discrets qui apparaissent à des intervalles
variables.
49
Les plates-formes de simulation numérique, type Vensim ou Stella, fonctionnent sur ce principe. Elles
permettent de simuler des équations que l'utilisateur entre de façon graphique. Mais derrière ces outils graphiques, la
procédure consiste à discrétiser automatiquement le temps en utilisant la méthode d'Euler ou de Runge-Kutta. Δt prend
par défaut la valeur 0,5. Si cette valeur peut être changée manuellement, on note cependant que le module d'analyse de
sensibilité à disposition ne permet pas de mesurer les effets de Δt (cf. figure 5-5). Ainsi donc, même dans le domaine
de la simulation numérique, les effets de la discrétisation du temps sont minimisés et nombreux sont les utilisateurs
qui n'ont pas conscience de ces conséquences.
107
Evénement discret
Figure 5-6: Evolution d'une variable dans un modèle évènementiel (d'après [Michel, 2004])
Plutôt que de déclencher l'activation de tous les agents à chaque pas de temps, les événements qui
déclencheront l'activation de chacun sont rangés au préalable ou en cours de simulation dans une
liste chronologique.
- ext est la fonction de transition externe (elle représente la réponse du système aux
événements en entrée),
- int est la fonction de transition interne (c'est la partie autonome de la fonction de
transition),
- est la fonction de sortie,
- ta est la fonction d'avancement du temps. Elle représente la durée de vie d'un état s du
système lorsque n'intervient aucun événement extérieur.
X, S : ensemble des Y,
ensemble des ensemble des
valeurs en entrée
états internes
valeurs en sortie
ext λ
transition externe fonction de sortie
DEVS propose une décomposition de la fonction de transition de l'automate en deux fonctions ext
et int. Ceci est l'un des points forts de DEVS car il permet de différencier les modifications liées à
des événements externes, de celles liées aux évolutions autonomes du système. ext (S x X → S)
représente la réponse du système aux événements survenant en entrée. Alors que, sans
l'intervention d'événement externe, int (int : S → S) est la seule fonction qui fasse évoluer le
système de façon autonome en ne prenant en compte que l'état S et le temps. Dans ce cas, lors d'un
changement d'état interne s, la fonction ta(s) est évaluée. Elle définit alors par anticipation la date à
laquelle s passera dans le prochain état s'. Elle active également la fonction de sortie (S → Y)
qui permet d'exhiber l'ensemble des états S du système sur la sortie Y et d'émettre à son tour de
nouveaux événements vers l'extérieur.
Le chapitre 3 de la thèse de [Duboz, 2004] explique clairement les spécifications de Zeigler. Le
graphe suivant, qu'il propose, illustre le déroulement d'un scénario. En voici les explications :
A l'état initial, le système est dans l'état s0 à T0. La fonction ta nous indique que pour l'état s0, le
système changera d'état à T0 + ta(s0) si aucun événement externe ne survient. A T1 = T0 + ta(s0),
aucune entrée n'a eu lieu. La fonction de sortie (s0) est donc activée et Yi prend pour valeur la
valeur produite par l'évaluation de cette fonction. Après avoir affecté les ports de sortie, la fonction
de transition interne int est appliquée. Le système passe dans l'état s1 = int (s0) et changera d'état à
T1 + ta(s1). A l'instant T2 < T1 + ta(s1), un événement externe arrive en entrée sur le port Xi. Il est
alors fait appel à la fonction de transition externe pour déterminer le nouvel état. Dans ce cas, la
fonction de sortie n'est pas appliquée : elle n'est appliquée que lors d'une transition interne. A
l'instant T2, le système passe dans l'état s3 = ext ((s1; e); v) avec e = T2 - T1 et v la valeur de
l'événement attaché au port Xi. Ici, c'est bien la fonction de transition externe qui détermine le
changement d'état. On suppose que s3 est transitoire (ta(s3) = 0). Il y a évaluation immédiate de la
fonction de sortie (s3) qui donne une valeur au port de sortie Yn. Cette évaluation est
instantanément suivie par celle de s4 = int(s3). Le nouvel état s4 est passif (ta(s4) = ). [Duboz, 2004]
110
Figure 5-10 : Exemple de graphe de transitions d'un modèle DEVS atomique d'après [Duboz, 2004]. Les lignes
pointillées verticales représentent les dates d'occurrences d'événements. Les cercles pleins représentent l'état
courant du système et les lignes horizontales l'avancement du temps. Une transition est marquée par le passage
d'un niveau à un autre sur la verticale.
En s'appuyant sur DEVS, son multi-modèle intègre un système d'équations différentielles couplé à
un SMA. Au niveau global, la dynamique de la population est décrite par un modèle à équations de
type Lotka-Volterra (modèle à dynamique lente). Mais à l'intérieur même du système d'équations,
ce modèle intègre un SMA qui redéfinit les interactions proies-prédateurs (modèle à dynamique
rapide). Le modèle lent NP, décrivant la dynamique des proies N (phytoplancton) et des prédateurs
P (Copépodes), est donné par le système d'équations suivant:
dN N
dt r.N.(1 K ) G(N,P).P
dP
G(N,P).P m.P
dt
La dynamique des proies N par exemple se compose d'une partie classique (fonction logistique) et
d'une autre partie G(N,P).P qui correspond à la pression de prédation. Mais l'originalité de ce travail
repose sur le fait que la fonction G(N,P) n'est pas connue. Sa valeur g est calculée de façon externe
par un SMA. Ainsi, à tout moment, la résolution numérique du système d'équations différentielles
peut être perturbée par l'occurrence d'un événement retournant la valeur g. Inversement, à chaque
pas d'intégration, le modèle lent interroge le SMA qui simule alors les interactions proies-
prédateurs et qui retourne la valeur de ce paramètre d'interaction.
Les figures suivantes illustrent la structure de ce modèle :
Copepode1
SAR2
pivot NP Environne
ment
SARn
Copepoden
Figure 5-12 : Partie gauche : Structure du modèle couplé. Le modèle pivot joue le rôle d'intégrateur des
résultats de simulations des SMA (système d'agent réactif noté SAR). 30 modèles SARs sont simulés pour le
calcul d'une valeur moyenne de g.
Partie droite : Modèle SAR présentant la structure des connexions internes du SMA. Les noms sur les
connexions correspondent au nom des événements. (D'après [Duboz, 2004])
Le modèle d'agent copépode est lui-même composé de quatre sous-modèles atomiques définissant
les comportements élémentaires de l'agent. Ce modèle d'agent est plongé dans un environnement à
qui il demande des informations sous forme d'émission d'événements externes à l'environnement
("Liste?", "Limites?", "Mange"). L'environnement répond en émettant en retour des événements
externes au copépode, contenant par exemple la liste des proies localisées dans le rayon de
perception de l'agent. La figure suivante montre la structure d'un agent copépode représenté par un
modèle DEVS couplé.
112
Figure 5-13 : Représentation graphique du modèle couplé de l'agent copépode. En bleu, figurent les
événements externes attachés aux ports d'entrée ou de sortie du modèle couplé. Les événements véhiculés par
les connexions internes figurent en rouge. (D'après [Duboz, 2004])
A ce niveau, le modèle d'agent intègre également un couplage multi-modèle. En effet, le modèle
atomique "Gestion énergie" qui informe l'agent du niveau de satiété, contient une équation
différentielle représentant la dynamique du bilan énergétique de l'animal. Ce modèle atomique
écoute les événements externes notés "Energie(q)" déclenchés lors d'une capture de proie. En
retour, il est capable de générer des événements de type "faim" (satiété(false)) et "mort" (plus
d'énergie). A chaque réception de l'événement "Energie(q)", une nouvelle valeur initiale de
l'énergie est calculée. La solution analytique de l'équation différentielle permet alors de calculer les
prochaines dates des événements "faim" et "mort".
Événe ment « fa im » à Ts
Ts Tm
Figure 5-14 : Calcul et déclenchement des événements par modèle atomique "Gestion énergie" qui intègre une
équation différentielle représentant le bilan énergétique du copépode
Bien qu'il existe des simulateurs abstraits pour les modèles DEVS, on peut noter que le simulateur
de dynamique des populations implémenté par R. Duboz n'utilise pas d'objet Evénement (par
exemple la classe Event de Java) pour activer les dynamiques, mais par soucis d'efficacité, les
interactions ont été émulées par de simples appels de méthodes.
censée rester constante. Par ailleurs, les entités sont supposées évoluer toutes en même temps et
simultanément.
Les simulations par "pas de temps" peuvent être considérées comme un sous-type de simulation
évènementielle où les tops d'horloge constitueraient les évènements. Mais, leurs mises en œuvre
sont très différentes et bien plus aisées à réaliser. Elles proposent deux procédures d'activation des
entités qu'on nomme approche synchrone et approche asynchrone 50.
50
Dans la littérature, l'approche asynchrone fait souvent référence à l'approche à évènements discrets. Nous
préférons garder ce terme pour les simulations par horloge qui, contrairement aux automates cellulaires, activent les
entités de façon séquentielle.
114
incrémentation du temps
t←t+1
application de la fonction
de transition δ à
toutes les cellules
Cette figure présente un diagramme d'activité d'un pas de temps de l'ordonnanceur synchrone. On
peut également utiliser un diagramme de séquence pour expliquer le déroulement d'un pas de
temps. Il a l'avantage de présenter différentes entités du système et des échanges de messages.
115
incrémentation du temps
t t+1
* fonction de transition δ
Qbuffer ← δ(X)
Figure 5-16 : Diagramme de séquence d'un pas de temps d'un ordonnanceur synchrone d'automate cellulaire.
:OrdonnanceurAsynchrone : Agent
incrémentation du temps
t ← t+1
* step
Figure 5-17 : Diagramme de séquence d'un pas de temps d'un ordonnanceur asynchrone. L'astérisque placé
devant le "step" signifie en UML que l'appel de méthode est effectué sur toutes les instances d'Agent. Cette
représentation ne montre pas quelles sont ces instances, ni dans quel ordre elles sont activées. De mon point de
vue, ceci constitue une faiblesse.
A chaque itération, tous les individus sont activés un par un, de façon séquentielle. Aussi,
contrairement à l'approche synchrone, on ne peut pas considérer que les agents évoluent
effectivement en parallèle. En observant une simulation de ce type, on peut peut-être le croire.
Mais ceci est dû à la rapidité d'exécution de leurs activités. Dans le détail, il n'en est rien : les
agents agissent séquentiellement. De plus, chacun met à jour son état visible directement pendant
son activation. Ainsi, à un instant donné pris au cours d'un "pas de temps", certains agents ont déjà
changé d'état quand d'autres n'ont pas encore été activés. Souvent, en s'inspirant des systèmes
dynamiques discrets (cf. équation (2)), les simulations par "pas de temps" sont formalisées de la
façon suivante : une fonction F permet de calculer l'état du système au temps t + 1 à partir de son
état à l'instant t. Si on note t l'état du système au temps t, on trouve :
t 1 F(t )
116
Or cette formalisation s'avère être fausse dans le cas d'une gestion asynchrone ! Pour passer de t à
t+1, le système a subi une suite de modifications dues à l'activation séquentielle des agents et à la
mise à jour en une seule passe de leur nouvel état.
En reprenant le formalisme DTSS décrit page 115, on considère dans ce cas de gestion asynchrone
que la fonction de sortie λ utilisée au niveau du sous-modèle d'agent est de type Mealy :
λ: S x X→Y
Pour rappel, X est l'ensemble des valeurs possibles sur les ports d'entrée, Y est l'ensemble des
valeurs possibles sur les ports de sortie, S est l'ensemble des états du système et est la fonction de
sortie. Ici, l'output d'un agent est calculé immédiatement en fonction de son état interne S et d'un
ensemble d'inputs X. La fonction de sortie qui permet de calculer le nouvel état visible de l'agent,
utilise directement des données sur ses ports en entrée, c'est-à-dire qu'elle utilise des informations
internes (S) et externes (X) à l'agent pour calculer immédiatement son nouvel état. Ce changement
d'état est immédiatement perçu par les autres entités du système. Ainsi le principal problème de
l'approche par horloge relève de la cohérence des différentes perceptions que les agents ont du
monde :
Le monde perçu par différents agents à un même instant t de la simulation n’est pas identique. En
effet, un agent perçoit à t un monde qui a été modifié par les agents qui ont agi avant lui. En d’autres
termes, la perception d’un agent peut potentiellement s’appuyer sur des variables qui devraient être
estampillées à t + dt. Et ce, alors que les agents sont supposés agir de manière concurrente à cet
instant. Ainsi le dernier agent peut avoir une vue du monde totalement différente du premier alors
que l’état de celui-ci est censé toujours être donné pour l’instant t. L’action d’un agent, qui est en
principe déduite de sa perception du monde, est en fait directement liée à sa position dans la liste
d’activation et par conséquent aux actions effectuées auparavant par les autres agents. [Michel
2004]
Il faut donc garder à l'esprit que ce type de gestion du temps peut dans certains cas avoir des effets
non négligeables sur les résultats de simulation. Comme nous le verrons ultérieurement sur des
exemples concrets, les impacts sur le comportement d'un modèle peuvent être importants. En effet,
dans le cas d'utilisation de ressources par exemple, le premier agent activé prend rapidement
l'avantage sur les autres agents : il se sert toujours le premier ! Pour essayer de remédier à ce
problème, la technique la plus employée consiste à mélanger aléatoirement l'ordre d’exécution des
agents à chaque "pas de temps". Statistiquement, on rétablit ainsi un partage en évitant de donner
l'avantage systématiquement aux mêmes agents. C’est par exemple la méthode utilisée dans
[Epstein & Axtell, 1996].
5.3.3.1 Expliquer les impacts sur les résultats d'une gestion synchrone et asynchrone
Pour faire prendre conscience de ce problème de synchronie – asynchronie à des apprentis-
modélisateurs, nous utilisons un petit jeu de rôle lors des formations. La règle du jeu est la
suivante: l'état de chaque joueur peut prendre quatre valeurs : les 2 mains à plats, les 2 mains en
l'air, main droite en l'air – main gauche à plat, et réciproquement, main droite à plat – main gauche
en l'air. La fonction de transition est : la main droite doit copier la position de la main gauche du
voisin de droite et la main gauche doit copier la main droite du voisin de gauche. A T0, chaque
joueur décide d'un état aléatoire qu'il doit mémoriser. Le formateur joue alors le rôle de
l'ordonnanceur.
117
Figure 5-18 : Déroulement d'un jeu de rôle "automate cellulaire humain", lors d'une session de formation à
l'Université de Pretoria - Afrique du Sud.
En rejouant cette session mais en commençant par un autre joueur, chacun constate que sa position
finale est différente de la première session. L'état final dépend du choix aléatoire que le formateur
a pris pour désigner le premier joueur. En quoi ce choix intervient-il dans la règle du jeu ?
2ième déroulement : Procédure synchrone. Le formateur demande à chaque joueur de calculer
intérieurement sa prochaine position en fonction de l'état actuel de ses voisins, sans changer la
position de ses mains. Puis lors d'un deuxième passage, il demande à chacun d'appliquer la
position mémorisée précédemment. En répétant ce jeu, on retrouve le même état final et ceci quel
que soit l'ordre des joueurs choisi par le formateur.
a b c
Figure 5-20 : Résultats après un pas de temps de trois gestions différentes du temps: (a) approche synchrone,
(b) approche asynchrone non mélangée et (c) approche asynchrone avec mélange aléatoire de l'activation. Les
trois simulations ont été effectuées à partir d'un même état initial : une grille de 30x30 en voisinage 8 (Moore),
couverte de forêt avec un foyer de départ du feu toujours localisé au même endroit.
Dans le cas (a) d'un déroulement synchrone, on reconnaît une diffusion concentrique du feu qui
s'étend progressivement sur la forêt. C'est le résultat escompté d'une diffusion simple.
Dans la gestion asynchrone non mélangée (b), le feu envahit quasiment tout l'espace en un seul
"pas de temps". L'activation ordonnée (par ligne, du haut vers le bas) et la mise à jour de l'état des
cellules en une seule passe est la cause unique de ce phénomène. En effet, au cours de ce "pas de
temps" et au moment de son activation, chaque cellule située au sud du foyer sera voisine d'une
cellule en feu. Elle prendra alors feu à son tour. Son nouvel état est perçu par ses voisines du sud
qui prendront également feu au moment de leur activation. L'application immédiate de la fonction
de transition couplée à l'ordonnancement de l'activation des cellules de bas en haut explique donc
cette diffusion instantanée du feu sur toute la partie sud de la grille.
L'approche asynchrone avec mélange aléatoire de l'activation (c) produit un résultat intermédiaire.
De façon statistique, le feu se diffuse beaucoup plus rapidement que dans le cas (a) mais n'envahit
pas tout l'espace d'un seul coup. Dans certains cas, il peut même s'éteindre tout de suite : la cellule-
foyer est activée avant ses voisines. Pour cette troisième gestion, si statistiquement on obtient une
diffusion très rapide, tous les cas de figures sont néanmoins possibles, de l'extinction immédiate à
un embrasement total. Le problème ici c'est que le résultat d'une simulation dépend en grande
partie d'un facteur aléatoire. Le plus grave est que ce facteur n'est pas rattaché à l'essence même du
modèle : la diffusion simple, telle qu'elle est décrite, est déterministe. Ici ce facteur aléatoire
touche à la mac