0% ont trouvé ce document utile (0 vote)
1K vues312 pages

These Bommel

Transféré par

Mpanga
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
1K vues312 pages

These Bommel

Transféré par

Mpanga
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

UNIVERSITE MONTPELLIER II

SCIENCES ET TECHNIQUES DU LANGUEDOC

THESE

pour obtenir le grade de

DOCTEUR DE L'UNIVERSITE MONTPELLIER II

Discipline : Informatique

Ecole Doctorale : I2S – Information, Structure, Systèmes

présentée et soutenue publiquement

par

Pierre Bommel

Le 7 mai 2009

Titre :

_______

Définition d’un cadre méthodologique pour la conception de modèles multi-agents


adaptée à la gestion des ressources renouvelables

______

JURY

M. Jean-Pierre BRIOT, CNRS - Université de Paris 6 Président et Rapporteur


Mme Léna SANDERS, CNRS - UMR 8504 Rapporteur
M. Jacques FERBER, Université de Montpellier 2 Directeur de Thèse
M. François BOUSQUET, CIRAD Examinateur
M. Jean-François TOURRAND, CIRAD Examinateur
Remerciements
L’aboutissement d’une thèse est souvent le résultat d’une aventure individuelle. Pour ma part, cette
aventure a commencé il y a 18 ans lorsque j’ai décidé de reprendre mes études universitaires.
J’avais alors en tête de faire de la recherche pour continuer à apprendre et réfléchir. Bref pour
essayer d’être un peu moins idiot ! Ne pas travailler uniquement pour gagner sa vie (car ma vie, je
l’avais déjà !) mais aussi pour contribuer à ma petite échelle à faire avancer les choses en ce
Monde. Mais cette reprise n’a pas toujours été sans embuches, car à 25 ans on est déjà considéré
comme « trop vieux ». Néanmoins, cette aventure a été possible et je tiens d’abord à remercier les
institutions françaises qui m’ont permis d’arriver jusqu’ici :
Le rectorat de Rouen qui m’a permis d’avoir un poste de surveillant pendant 5 ans. C’est une
grande chance que de permettre à des étudiants de travailler dans de telles conditions. J’ai entre
autre une pensée affective pour Joseph Puccini, qui fut un CPE « hors pair » au LEP de Bolbec.
J’ai découvert à ses côtés le plaisir d’éduquer tout en écoutant les élèves. Espérons que le
« pionnicat » perdure pour que d’autres puissent aussi bénéficier de ce soutien.
J’ai aussi eu la chance de recevoir une allocation du CREUFOP pour faire mon DESS (après mon
DEA). A ce sujet, je voudrais remercier tout particulièrement Thérèse Libourel pour m’avoir
accueilli dans le DESS IAO qu’elle dirigeait à l’UM2 et pour sa générosité. Suivre cette année
d’étude a été pour moi une véritable aubaine.
Et bien sûr, je tiens à exprimer toute ma gratitude à l’égard du CIRAD qui est à mes yeux un
organisme de recherche sans équivalent. Il offre la possibilité de mener des recherches
pluridisciplinaires en s’investissant sur les problèmes de développement, tout en favorisant le
partenariat. Le CIRAD a osé le pari de me recruter en 2001 alors que je n’avais pas de thèse et que
mes perspectives de continuer dans la recherche s’assombrissaient. Je dois aussi cette embauche au
programme politique des « 35 heures » ; programme tant décrié qui a permis de créer un grand
nombre d’emplois dont le recrutement de 100 personnes au CIRAD (grâce aussi aux efforts
salariaux des ciradiens). J’ai, depuis, l’immense plaisir de faire partie de cette équipe de rêve, la
Green Team ! Depuis 2001, mon enthousiasme pour faire avancer les problématiques de cette
équipe et mon attachement envers le Cirad n’ont pas faibli.
Au-delà des institutions, il y a bien sûr des personnes. Je tiens donc à remercier Jacques Ferber. Il
a pris le risque d’être mon directeur en me faisant confiance sur le déroulement de cette thèse et en
me considérant dès le début comme un collègue et non pas comme un étudiant. Merci Jacques
aussi pour nos échanges philosophiques et pour ton amitié.
Un très grand MERCI à Jean-François Tourrand pour m’avoir permis de reprendre à zéro ce sujet
de thèse et en m’encourageant constamment. A la manière d’un avant du Stade Toulousain, il a
pris sur lui toutes les charges et tous les coups afin de créer un appel d’air derrière lui et de me
permettre de prendre l’intervalle. Grâce à toi, l’essai est transformé JFT !
Je reste encore sans voie tellement les deux rapports qu’ils ont rédigé sont élogieux. Je remercie
donc sincèrement Léna Sanders de m'avoir fait l'honneur d’être rapporteur de ce travail. Je lui suis
aussi redevable de m’avoir ensuite intégrer à l’atelier du CNRS qu’elle dirige pour réfléchir sur le
problème de validation des modèles.
Je tiens également à remercier chaleureusement Jean-Pierre Briot pour avoir accepté de présider ce
jury, ainsi que d’avoir rapporté ce travail. J’espère Jean-Pierre que nos chemins se croiseront
encore souvent au Brésil.
Je suis également reconnaissant à François Bousquet d’avoir accepté de faire partie de mon jury,
mais aussi pour tous ses conseils toujours avisés et judicieux. Et merci surtout pour tout ce que je
te dois, tes engagements et ton amitié.
En nous embauchant, Denis et moi, comme vacataires à l’INRA, Sylvie Lardon nous a
véritablement maintenu la tête hors de l’eau pendant un an. Je l’en remercie du fond du cœur.
C’est aussi elle qui m’a ouvert les yeux sur l’intérêt des dynamiques des objets spatiaux.
J’ai été initié aux SMA et à la gestion des ressources pendant mon stage de DEA à l’IRD par Jean
Le Fur qui a été l’un des pionniers dans ce domaine. C’est également avec lui que nous nous
sommes interrogés sur le problème de la validation de ces outils.
Il serait trop long d’énumérer tous les ciradiens avec qui j’ai eu le plaisir de travailler et
d’échanger, et qui m’ont soutenu. Cependant, Martine et Denis, c’est bien plus qu’un merci que je
vous dois pour m’avoir porté à bout de bras ces derniers moments avant la soutenance. Christophe,
William’s, Jean-Pierre, Patrick D’A., Stefano, Aurélie, Sylvain, Raphaëlle, Sigrid, Grégoire, Guy,
Marie-Gabrielle, Didier, Patrick C., Jérome, Pascal et la bande de Brasília, les deux Eric, Patrick,
Plinio, Philippe, Pierre et René, je vous remercie plus encore à titre d’amis que de collègues.
Um obrigadão também à todos os meus parceiros e amigos sul-americanos que sempre apoiaram-
me e provaram-me a confiança deles : Hermès, Laura, Paulo, Brasil, Silvina, Valéria, Manuela,
Tienne, Soraya, Lívia, Jorge, Pedro, Doris-qui-ne-retournera-plus-a-4000m, Bernardo-que-je-
retrouverai-a-4000m…
Mes remerciements chaleureux également à mes collègues non-ciradiens attentifs à ce travail,
Michel, Alassane, Géraldine, Olivier, Thierry, Robert, Annie, Claude…
Sans compter tous les participants du cours SMA qui ont essuyé la mise en place de cette
méthodologie présentée ici. Je tiens ici à les en remercier.
Merci à mes amis de toujours pour leur soutien infaillible, Monjax, Yvan, Aurélie, Fabrice,
Patrice, … et Stéphane qui a accompagné une partie de ce parcours.
Merci à Ilinka, Babu et Nicole et à mes sœurs Barbara, Sandra, Isabelle et Ioana, qui ont fait ce
que je suis devenu.
Toutes mes excuses à Youri, Anton et Ilan qui ont dû supporter les ronchonnements et les
angoisses d’un papa pas toujours à leur écoute. Il faudra essayer de rattraper toutes ces parties de
foot perdues !
J’exprime tout mon amour à Laure sans qui je n’aurai pu parcourir ce long chemin. Elle est aussi la
seule à avoir corrigé ce manuscrit de fond en comble. En me poussant dans mes ultimes
retranchements, elle a toujours su pointer mes incohérences… et c’est aussi comme ça dans la vie !

A Vincent Ginot et Louise Erasmus, partis trop tôt…


… j’ai une pensée émue pour leur famille

***
PLAN

INTRODUCTION.........................................................................................................................................................12
1.1 PRESENTATION DE LA PROBLEMATIQUE .......................................................................................................12
1.1.1 La validation des modèles multi-agents .......................................................................................................12
1.1.2 La fiabilité des modèles multi-agents ...........................................................................................................14
1.1.3 La réplication et la lisibilité des modèles multi-agents ................................................................................15
1.2 LA GESTION DES RESSOURCES RENOUVELABLES ..........................................................................................16
1.2.1 La gestion des ressources renouvelables nécessite une approche transdisciplinaire ..................................16
1.2.2 Le développement durable............................................................................................................................17
1.2.3 Une posture originale pour appuyer le développement durable ..................................................................18
1.2.4 Intégrer les connaissances pour accompagner la décision ..........................................................................19
1.3 OBJECTIF DE LA THESE .................................................................................................................................21
1.4 ORGANISATION DU DOCUMENT.....................................................................................................................21
PREMIERE PARTIE : ROLE, EVALUATION ET USAGES DE LA MODELISATION MULTI-AGENT
POUR L’AIDE A LA GESTION DES RESSOURCES RENOUVELABLES ........................................................23
CHAPITRE 1 QUE SIGNIFIE LA VALIDATION D’UN MODELE ?..........................................................24
1.1 DEFINITIONS DE VALIDATION ET SES SOUS-ENTENDUS .................................................................................24
1.2 QUE PROUVE UN BON AJUSTEMENT A DES DONNEES ? ..................................................................................25
1.3 LA QUESTION DE LA PREUVE ET DE LA VERITE ..............................................................................................27
1.3.1 La vérité du rat superstitieux........................................................................................................................27
1.3.2 Petit détour du côté de l'épistémologie.........................................................................................................29
1.4 DISCUSSION : EVALUATION DES MODELES....................................................................................................35
1.4.1 Pas de validation définitive ..........................................................................................................................35
1.4.2 Modèles Ad Hoc ...........................................................................................................................................36
1.4.3 La valeur informative du modèle..................................................................................................................37
1.4.4 La confirmation d'anticipation .....................................................................................................................37
1.4.5 Alignement de modèles .................................................................................................................................38
1.5 CONCLUSION DU CHAPITRE...........................................................................................................................38
CHAPITRE 2 POURQUOI MODELISER ?.....................................................................................................40
2.1 ROLE ET STATUT DES MODELES ....................................................................................................................40
2.1.1 Modèles prédictifs et modèles explicatifs .....................................................................................................40
2.1.2 L'origine étymologique de « modèle » possède deux significations .............................................................40
2.2 MODELISER POUR IMITER ?...........................................................................................................................41
2.3 MODELISER POUR PREDIRE ?.........................................................................................................................42
2.3.1 Déterminisme et sciences prédictives ...........................................................................................................42
2.3.2 Déterminisme et hasard : théorie du chaos déterministe .............................................................................43
2.3.3 Démarches prospectives pour découvrir le champ des possibles.................................................................43
2.4 MODELISER POUR GENERER DES SCENARIOS PROSPECTIFS ...........................................................................44
2.5 MODELISER POUR COMPRENDRE : UN MODELE JOUE LE ROLE DE FILTRE DISCRIMINANT...............................47
2.5.1 Le modèle, filtre discriminant pour résumer la réalité en une photo plus explicite .....................................47
2.5.2 Un filtre discriminant selon les points de vue...............................................................................................49
2.6 DU FILTRE PASSIF A L'AFFIRMATION D'UN REGARD CONSTRUIT ....................................................................50
2.7 MODELISER POUR APPRENDRE ......................................................................................................................52
2.7.1 Nous pensons par modèles ...........................................................................................................................52
2.7.2 La modélisation est un processus itératif d'apprentissage ...........................................................................53
2.8 LE QUESTIONNEMENT, POINT D’ENTREE DE LA MODELISATION ....................................................................54
2.8.1 Le modèle scientifique repose sur une question ...........................................................................................54
2.8.2 La modélisation a pour rôle de proposer des questions ...............................................................................55
2.9 CONCLUSION DU CHAPITRE...........................................................................................................................56
2.9.1 Un modèle n'est pas neutre...........................................................................................................................56
2.9.2 La modélisation commence par des questions..............................................................................................57
2.9.3 Générer des scénarios pour anticiper des futurs possibles ..........................................................................57
CHAPITRE 3 LES AVANTAGES DE LA MODELISATION MULTI-AGENT..........................................58
3.1 LES GRANDES CATEGORIES DE MODELES DE SIMULATION ............................................................................58
3.1.1 Modèles mathématiques et prise en compte des interactions .......................................................................59
3.1.2 Modèles multi-agents et modèles individus-centrés .....................................................................................61
3.2 DEFINITIONS DES AGENTS ET DES SYSTEMES MULTI-AGENTS ........................................................................62
3.3 SMA ET ORGANISATION ...............................................................................................................................64
3.4 LES RELATIONS ENTRE LES NOTIONS D'AGENT ET D'OBJET ............................................................................66
3.5 LES SMA SONT PARTICULIEREMENT ADAPTES A L’AIDE A LA GESTION DES RESSOURCES RENOUVELABLES 67
3.5.1 Aborder la complexité par une démarche de modélisation systémique........................................................67
3.5.2 Importance de l'espace et des interactions en écologie................................................................................69
3.5.3 Coupler les dynamiques naturelles et les dynamiques sociales pour la gestion des ressources
renouvelables ........................................................................................................................................................71
3.6 COMMOD : LA MODELISATION COMME OBJET DE MEDIATION .......................................................................73
3.6.1 De l'aide à la décision pour piloter un système… ........................................................................................73
3.6.2 … à l'accompagnement du processus de décision ........................................................................................74
3.6.3 Générer des scénarios exploratoires par simulation interactive..................................................................77
3.7 CONCLUSION DU CHAPITRE...........................................................................................................................78
CHAPITRE 4 LE STATUT DE LA SIMULATION ET SES CONSEQUENCES POUR LA
« VALIDATION » DES SYSTEMES MULTI-AGENTS..........................................................................................79
4.1 DISTINGUER "MODELE" ET "SIMULATION" ....................................................................................................79
4.2 LA SIMULATION REVELE L'IMPORTANCE DU TEMPS.......................................................................................80
4.2.1 Prise en compte progressive du temps dans les modèles..............................................................................80
4.2.2 Distribution des interactions au cours du temps ..........................................................................................81
4.3 LA SIMULATION REVELE LA COMPLEXITE .....................................................................................................81
4.3.1 La complexité selon Von Neumann...............................................................................................................81
4.3.2 ECEC : un exemple de modèle simple et de résultats non triviaux ..............................................................81
4.4 LA SIMULATION : UNE EXPERIENCE INCOMPRESSIBLE ...................................................................................83
4.4.1 Une expérience sans raccourci… .................................................................................................................83
4.4.2 … qui ne peut se démontrer..........................................................................................................................84
4.5 LA SIMULATION ET LA NOTION D'EMERGENCE ..............................................................................................86
4.5.1 Préambule ....................................................................................................................................................86
4.5.2 Une notion délicate qui lie un phénomène global à des comportements individuels ...................................87
4.5.3 Surprise et observateur.................................................................................................................................87
4.5.4 Définition édifiante de l'émergence ..............................................................................................................88
4.5.5 Emergence faible – émergence forte ............................................................................................................89
4.5.6 Auto-organisation et autonomie ...................................................................................................................90
4.6 DISCUSSION : LA SIMULATION ET SES CONSEQUENCES POUR LA "VALIDATION" DES SYSTEMES MULTI-
AGENTS 91
4.6.1 Importance de distinguer "modèle", "simulation" et "simulateur"...............................................................91
4.6.2 Vérification et "validation” : "Building the model right" et "Building the right model" .............................92
4.6.3 Fiabilité du simulateur .................................................................................................................................94
4.6.4 Réplication et alignement de modèles ..........................................................................................................95
4.6.5 La lisibilité des modèles multi-agents...........................................................................................................96
4.6.6 Traçabilité et robustesse du modèle .............................................................................................................96
4.6.7 Autonomie et modèle Ad Hoc .......................................................................................................................96
4.7 CONCLUSION DU CHAPITRE...........................................................................................................................97
DEUXIEME PARTIE : LES ARTEFACTS LIES A LA GESTION DU TEMPS ET DES INTERACTIONS ..98
CHAPITRE 5 GESTION DU TEMPS DANS LES SIMULATIONS ..............................................................99
5.1 LES TEMPS ....................................................................................................................................................99
5.2 TEMPS DISCRET ET TEMPS CONTINU DES MODELES MATHEMATIQUES ...........................................................99
5.2.1 Modèles à temps continu ..............................................................................................................................99
5.2.2 Exemple de modèle à temps continu : le modèle de Verhulst .....................................................................100
5.2.3 Modèles à temps discret : Systèmes dynamiques discrets ..........................................................................102
5.2.4 Exemple de modèle à temps discret : équation logistique discrète.............................................................103
5.2.5 Alors… discret ou continue ? .....................................................................................................................104
5.3 LES POLITIQUES DE GESTION DU TEMPS DES SMA ......................................................................................106
5.3.1 Les modèles à événements discrets : simulation dirigée par les événements .............................................106
5.3.2 Les modèles à pas de temps : simulation dirigée par l'horloge..................................................................112
5.3.3 Biais liés à la séquentialisation du temps...................................................................................................116
5.3.4 Alors… gestion événementielle ou par horloge ?.......................................................................................126
5.3.5 Résolution de conflit : aucune politique de gestion n'y échappe ................................................................130
5.3.6 Les plates-formes multiprocesseurs ne constituent pas une solution .........................................................130
5.3.7 Problème de simultanéité ou problème d'interaction ? ..............................................................................132
5.3.8 Un exemple : le pompier incompétent ........................................................................................................132
5.4 CONCLUSION DU CHAPITRE.........................................................................................................................138
CHAPITRE 6 LA NOTION D'AUTONOMIE ................................................................................................139
6.1 QUELLES AUTONOMIES ? ............................................................................................................................139
6.1.1 Autonomie biologique et sociale.................................................................................................................139
6.1.2 Autonomie informatique .............................................................................................................................141
6.2 AUTONOMIE FORTE : PROTEGER L'INTEGRITE INFORMATIQUE DE L'AGENT .................................................143
6.2.1 Action de l'agent : manipulation directe de l'environnement .....................................................................143
6.2.2 Principe "Influences–Réaction" : séparer le geste et le résultat du geste ..................................................143
6.2.3 Principe "Influences–Réaction" renforcé : séparer le corps et l'esprit ......................................................146
6.2.4 Réification des interactions : le modèle MIC* {Mouvement Interaction Calcul}* ....................................150
6.3 CONCLUSION DU CHAPITRE.........................................................................................................................152
CHAPITRE 7 GESTION DES INTERACTIONS APPLIQUEE AUX MODELES DES RESSOURCES
RENOUVELABLES...................................................................................................................................................154
7.1 QUELLES INTERACTIONS ? ..........................................................................................................................154
7.1.1 Actions simultanées ....................................................................................................................................154
7.1.2 Interactions Co-X .......................................................................................................................................155
7.1.3 Actes de langages .......................................................................................................................................156
7.1.4 Protocoles d'interaction .............................................................................................................................156
7.2 INTERACTION FORTE – INTERACTION FAIBLE ..............................................................................................158
7.2.1 Modèle de reproduction croisée : interaction forte....................................................................................158
7.2.2 Modèle de consommation d'une ressource commune : interaction faible ..................................................162
7.2.3 Modèle sans interaction .............................................................................................................................169
7.3 DISCUSSION ................................................................................................................................................170
7.4 CONCLUSION ..............................................................................................................................................172
TROISEME PARTIE : AMELIORER LA FIABILITE ET LA LISIBILITE DES MODELES MULTI-
AGENTS ......................................................................................................................................................................174
CHAPITRE 8 EXPLORATION DES MODELES..........................................................................................175
8.1 ANALYSE DE LA STRUCTURE : VERIFIER LA COHERENCE DES COMPORTEMENTS INDIVIDUELS ....................176
8.2 ANALYSE DE SENSIBILITE ...........................................................................................................................178
8.2.1 Choix des indicateurs (sondes)...................................................................................................................178
8.2.2 Enquête sur un modèle ...............................................................................................................................180
8.2.3 Sensibilité locale.........................................................................................................................................180
8.2.4 Sensibilité globale ......................................................................................................................................193
8.3 ANALYSE DES CONFIGURATIONS INITIALES ................................................................................................196
8.3.1 Niveau initial d'énergie des plantes du modèle ECEC ...............................................................................196
8.3.2 Fragmentation de l'espace..........................................................................................................................197
8.4 DISCUSSION ................................................................................................................................................201
8.4.1 Vérifier, comprendre et simplifier ..............................................................................................................201
8.4.2 Sensibilité et robustesse..............................................................................................................................201
8.4.3 Importance des configurations initiales .....................................................................................................202
8.5 CONCLUSION DU CHAPITRE.........................................................................................................................203
CHAPITRE 9 DECRIRE POUR PERMETTRE LA CRITIQUE ET LA REPLICATION .......................205
9.1 LA REPLICATION : UNE NECESSITE POUR TOUTE DEMARCHE SCIENTIFIQUE .................................................205
9.1.1 Pourquoi répliquer ? ..................................................................................................................................205
9.1.2 Répliquer des résultats de simulations à partir de spécifications ..............................................................206
9.1.3 Exemple : [Rouchier, 2003] à partir des spécifications de [Duffy, 2001] .................................................207
9.1.4 Exemple : [Rand & Wilensky, 2006] à partir des spécifications de [Axelrod & Hammond, 2003]...........208
9.1.5 Exemple : [Edmonds & Hales, 2003] à partir des spécifications de [Riolo et al. , 2001] .........................208
9.1.6 Qualité du générateur de nombres pseudo-aléatoires................................................................................210
9.1.7 Problème récurrent de la gestion du temps et des interactions..................................................................211
9.2 ATTENTION PARTICULIERE DANS LA DESCRIPTION DES MODELES ...............................................................212
9.2.1 Une nouvelle phase dans le cycle de la modélisation.................................................................................212
9.2.2 Protocole ODD...........................................................................................................................................216
9.2.3 UML ...........................................................................................................................................................217
9.3 CONCLUSION : PENSER PAR DIAGRAMME....................................................................................................223
CHAPITRE 10 CONCLUSION : DES MODELES SIMPLES, FIABLES, EXPLICITES ET
REPRODUCTIBLES POUR RETROUVER LA COMPLEXITE ........................................................................224
10.1 FAIBLESSES DES MODELES MULTI-AGENTS .................................................................................................224
10.1.1 Un SMA révèle des propriétés non prouvables ........................................................................................224
10.1.2 Boite noire ................................................................................................................................................225
10.1.3 Gestion délicate du temps et des interactions...........................................................................................226
10.1.4 "The ghost in the model" ..........................................................................................................................228
10.1.5 Passage par le codage..............................................................................................................................230
10.1.6 Complexification sans fin .........................................................................................................................231
10.2 KISS OU KIDS ? ........................................................................................................................................231
10.2.1 Préambule : l'efficacité n'implique pas la complexité ..............................................................................231
10.2.2 KIDS .........................................................................................................................................................233
10.2.3 KISS..........................................................................................................................................................234
10.2.4 Discussion ................................................................................................................................................235
10.2.5 Modèles géographiques : modèles-cathédrales ou modèles-Kleenex ?....................................................237
10.3 DU MODELE DESCRIPTIF AU MODELE ADAPTATIF EN CIBLANT LA QUESTION DE RECHERCHE ......................239
10.4 CONCLUSION GENERALE .............................................................................................................................241
CHAPITRE 11 APPLICATION DE LA METHODOLOGIE : EXEMPLE DU MODELE
TRANSAMAZON 244
11.1 LE CONTEXTE AMAZONIEN .........................................................................................................................244
11.2 LOCALISATION DU SITE D'ETUDE ................................................................................................................246
11.3 OBJECTIFS DU MODELE ...............................................................................................................................247
11.3.1 La question de recherche, point d’entrée de la modélisation {chap. 2} ...................................................247
11.3.2 Autres modèles et avantages de la modélisation multi-agent {chap. 3} ...................................................248
11.4 DESCRIPTION DU MODELE : OUVRIR LA BOITE NOIRE {CHAP. 9} .................................................................250
11.4.1 Délimitations ............................................................................................................................................250
11.4.2 Description de la structure .......................................................................................................................252
11.4.3 Description des dynamiques.....................................................................................................................259
11.5 GESTION DU TEMPS, DE L’AUTONOMIE ET DES INTERACTIONS {PARTIE 2}..................................................261
11.5.1 Un modèle sans difficultés pour l'activation des entités {chap. 6} ...........................................................261
11.5.2 Simplification des interactions : échanges de lots par la technique du commissaire-priseur {chap. 7} ..262
11.5.3 Pas de protection particulière de l’autonomie {chap. 6} .........................................................................263
11.6 PREMIERS RESULTATS ................................................................................................................................263
11.6.1 Le simulateur............................................................................................................................................263
11.6.2 Exemple d’une simulation ........................................................................................................................263
11.6.3 Analyse de sensibilité {chap. 8}................................................................................................................267
11.6.4 Réplication................................................................................................................................................270
11.7 DISCUSSION ................................................................................................................................................270
11.8 PERSPECTIVES ............................................................................................................................................272
11.9 CONCLUSION ..............................................................................................................................................272
BIBLIOGRAPHIE......................................................................................................................................................274
ANNEXES ...................................................................................................................................................................289
1 EXEMPLE DE MODELE MATHEMATIQUE : LE MODELE DE VOLTERRA ...............................................................289
2 MODELE D'INTERACTION INDIRECTE : CONSOMMATION D'UNE RESSOURCE COMMUNE....................................292
3 LE MODELE ECEC : EVOLUTION DE LA COOPERATION DANS UN CONTEXTE ECOLOGIQUE ...............................295
4 DESCRIPTIONS SUPPLEMENTAIRES DU MODELE TRANSAMAZON .....................................................................299
Résumé
Les potentialités des SMA ne doivent pas cacher les difficultés qui guettent le modélisateur. Plus
précisément, c'est la question de la validation des modèles qui est régulièrement soulevée. Car,
contrairement aux modèles mathématiques, il est impossible de prouver les caractéristiques d’un
SMA. De plus, les probabilités de faire apparaître des erreurs ou des biais ne sont pas négligeables.
On peut alors légitimement s’interroger sur la fiabilité des simulateurs. Or il s’agit moins d’erreurs
de codage que de problèmes de gestion approximative des interactions ou d’activation des agents
qui peuvent remettre en cause cette fiabilité. Souvent sous-estimés, ces approximations produisent
des artéfacts et on risque d'attribuer par erreur des propriétés à un modèle.
Certaines techniques limitent l’apparition de ce genre de biais en renforçant par exemple
l’autonomie des agents. En effet, en protégeant leur intégrité informatique, ces architectures
empêchent les interactions directes de gré à gré. Elles obligent donc un traitement dévié vers une
entité d’ordre supérieur (l’environnement ou l’univers) en charge de résoudre les interactions, les
conflits et les traitements parallèles. Néanmoins, ces techniques informatiques sont contraignantes
et difficiles à mettre en œuvre. Seules, elles apportent rarement de réponses satisfaisantes pour
empêcher l’apparition de biais. Il importe plutôt de connaître les zones sensibles susceptibles de
générer des artefacts et d’utiliser des procédures standards en les adaptant au domaine modélisé.
Ceci ne veut pas dire qu’il faille sophistiquer les interactions entre les agents ou bien imposer un
système particulier de gestion du temps. Au contraire, il est nécessaire d’aborder ces points
sensibles en proposant des modèles simples et contrôlables et en considérant que l’activation et les
interactions font partie intégrante du modèle.
La modélisation des socio-éco-systèmes n’est pas juste une spécialité informatique, mais demande
un véritable savoir-faire et le modélisateur doit garder un regard critique sur ses outils. Non
seulement il faut connaître par avance les points sensibles des SMA mais il faut également
s’assurer de la robustesse de ses résultats en montrant que le simulateur exhibe des comportements
relativement stables. La réplication indépendante du simulateur renforce encore sa fiabilité.
D'ailleurs, vérifier et reproduire une expérimentation, quelle qu'elle soit, apparaît comme la règle
de toute démarche scientifique rigoureuse. Mais les difficultés de la réplication sont à attribuer au
manque de lisibilité des SMA. Il est donc indispensable de décrire son modèle de façon claire et
non ambiguë. Après la mise en place d'un simulateur, un travail de re-présentation reste à mener
pour proposer des diagrammes réorganisés qui mettent la lumière sur les points essentiels et
autorisent des discussions et des critiques.
Nous défendons l'idée d'une modélisation exposée, qui doit assumer ses choix sans imposer ses
points de vue. Il est urgent d’abandonner la vision naïve qui consiste à penser qu'un modèle est
objectif. La notion de modèle neutre qui ne serait qu'une copie du réel in silico, impliquerait que le
modélisateur n'a aucun présupposé sur le système qu'il étudie et que le monde se reflète dans sa
pensée comme une image dans un miroir. Or, que ce soit intentionnel ou non, un modèle est
forcément une représentation subjective. Il faut donc expliciter ses choix et les présenter de la
façon la plus lisible possible pour qu'ils puissent être compris, partagés ou critiqués. Suite aux
défauts de fiabilité des SMA et aussi à cause de démarches naïves de la modélisation, il est
préférable, dans l'état actuel des SMA, d'opter pour des modèles simples plutôt qu'une approche
descriptive qui chercherait à introduire dans le modèle le maximum d'informations considérées
comme données par nature.
Abstract
The potentialities of the MAS should not hide the difficulties the modelisator can encounter. More
precisely, the question of models validation is regularly mentioned. On the contrary of
mathematical models, it is impossible to prove the characteristics of a MAS. Moreover, the
probabilities of revealing errors or bugs are not negligible. One can then legitimately wonder about
the reliability of the simulators. However, the main problems don’t come from errors of coding but
rather from the management of the interactions or activations of the agents. Often underestimated,
a rough management may produce artifacts and one can give by mistake the wrong properties to a
model.
Some techniques limit the emergence of this kind of bias by reinforcing for example the autonomy
of the agents. Indeed, by protecting their data integrity, these architectures prevent the direct
interactions between agents. Thus, they necessitate a treatment deviated towards a higher nature
entity (environment or universe) in charge of solving interactions, conflicts and parallel treatments.
Nevertheless, these techniques are constraining and difficult to implement. Single-handedly, they
bring hardly satisfactory answers to prevent from bias appearance. It is rather important to be
aware of the hot areas that are likely to generate artifacts and to use standard procedures by
adapting them to the modeled field. This does not mean that it is necessary to sophisticate the
interactions between the agents or to impose a particular system of time management. On the
contrary, it is necessary to handle these vulnerable points by proposing simple and controllable
models and by considering that activation and interaction are at the heart of a model.
The modeling of the socio-ecosystems is not just a data-processing speciality, but request a
confirmed know-how and the modelisator must take a critical look at its own tools. It is necessary
to know by advance the vulnerable points of the MAS but it is also necessary to improve the
robustness of its results by showing that the simulator exhibits relatively stable behaviors. The
independent replication of a simulator reinforces its reliability. Moreover, to check and reproduce
experimentation (whatever type) appear as the rule of any rigorous scientific method. But the
difficulties of replication are affected by miss readability of the MAS. It is thus essential to
describe its model in a clear and non-ambiguous way. After the implementation of a simulator, a
work of re-presentation must be carried out to design reorganized diagrams that put the light on the
essential points of the model and authorize discussions and criticisms.
We defend the idea of an exposed modeling that must assume its choices without imposing its
points of view. It is urgent to give up the naive vision which consists in thinking that a model is
objective. The idea of neutral model as a simple copy of reality in silico would imply that the
modelisator has no presupposed on the studied system and that the world is reflected in its thought
like an image in a mirror. However, a model is inevitably a subjective representation. It is thus
necessary to clarify its choices and to present them in the most readable way so that they can be
understood, shared or criticized. Due to the lack of reliability of the MAS and also to the naive
approaches of modeling, it is preferable, in the actual position of the MAS, to choose simple
models rather than a descriptive approach which would seek to introduce into the model the
maximum of information considered as given by nature.
Resumo

O paradigma multi agente que propõe uma maneira original de modelar o mundo, é considerado
como um modo relevante de representação dos conhecimentos. Mas estas potencialidades não
devem esconder as dificuldades que vigiam o modelizador. Frequentemente subestimadas, estas
podem questionar a sua legitimidade científica. Então, a pergunta da validação dos SMA é
levantada e mais especificamente a sua fiabilidade.

Contrariamente aos modelos matemáticos, um SMA não pode provar os seus resultados nem
abstrair-se da simulação. No momento da passagem da sua concepção á sua aplicação, numerosos
problemas podem aparecer. Alguns são ligado à erros de programação ou de cálculo, mas a maior
parte provem de uma gestão aproximativa do tempo e das interações entre agentes. Arrisca-se
assim atribuir por erro as propriedades de um modelo. Ora a técnica informática única não resolve
estas obliqüidades. O modelizador deve conhecer as zonas sensíveis susceptíveis de gerar produtos
manufaturados e de considerar-o no âmbito do domínio tratado. Após ter efetuado análises
exploratórias, ele controla melhor o seu sistema e é capaz de explicar todos os resultados
produzidos.

Para reforçar a fiabilidade do simulador, é também necessário replicá-lo independentemente, a


exemplo de qualquer procedimento científico rigoroso. Ora as dificuldades do contra-réplica são
frequentemente ligadas à falta de legibilidade dos SMA. Se um esclarecimento perfeito
permanecer um ideal, é indispensável apresentar um SMA de maneira clara e não ambígua com
ajuda de diagramas reorganizados que põem a luz sobre os pontos essenciais e permitir discussões
e críticas.
INTRODUCTION

1.1 PRESENTATION DE LA PROBLEMATIQUE


La modélisation multi-agent est devenue une activité de recherche très prisée et il n'est pas rare
que des bailleurs de fonds demandent à ce qu'elle apparaisse dans les projets de recherche et de
développement. Pourtant, les systèmes multi-agents (SMA), qui héritent des concepts de
l'intelligence artificielle dite distribuée, sont encore récents (une vingtaine d'années). Depuis
quelques temps, ils sont sortis de la sphère des sciences cognitives et informatiques et sont à
présent utilisés dans de nombreux autres domaines de recherche. Ainsi, après avoir été considérés
par certains comme des gadgets informatiques, leurs potentialités de modélisation quasi illimitées
en font des outils maintenant reconnus et appréciés. Le paradigme multi-agent, qui propose une
manière originale de modéliser "le monde", est désormais considéré comme un mode pertinent de
représentation des connaissances. De plus, comparer à d'autres types de modélisation plus standard
tels que les systèmes à équations, concevoir un SMA ne nécessite pas de bagage mathématique
particulier et nombreux sont ceux qui pensent profiter de cette souplesse et des possibilités
formidables que cette technique autorise.
Cependant, ces potentialités et cette apparente facilité ne doivent pas cacher les difficultés qui
guettent le modélisateur. Il ne s'agit pas uniquement de préoccupations liées à l'apprentissage et à
la maîtrise d'un langage informatique, mais bien de difficultés liées à la modélisation multi-agent
en elle-même qui sont trop souvent sous-estimées voire ignorées et qui peuvent au final discréditer
le domaine de la modélisation multi-agents dans son ensemble. D'ailleurs, les questions soulevées
autour de la validation des modèles multi-agents traduisent cette problématique, et nombreux sont
ceux qui en déplorent l´absence. À tel point qu'il est parfois avancé que ces outils ne sont tout
simplement pas validables.
Il apparaît donc important de s'interroger sur la question de la validation en l'abordant plus
spécifiquement sous l'angle des difficultés liées à la vérification des modèles. Car à l’instar des
systèmes experts et si on n'y prend pas garde, l'engouement pour les SMA pourrait retomber
comme un soufflet au fromage mal préparé.

1.1.1 La validation des modèles multi-agents


Il est fréquent, lors de l'exposé d'un modèle, que la question de la validation, qui se veut être la
question piège dans ce domaine, soit posée, plongeant le conférencier dans un embarras bien
visible. Il est alors souvent répondu que le travail présenté est inachevé et que la phase de
validation doit être abordée prochainement ou que le modèle est pour l’instant trop abstrait et
devrait être raffiné avant de s’intéresser à la validation. Mais cette dernière réponse est une fuite en
avant si celui qui l'adopte espère atteindre un jour un modèle réduit parfait du monde qu'il étudie.
La meilleure réponse consisterait plutôt à retourner la question : « Qu'entendez-vous par validation
? », « Quels sont, selon vous, les critères qui permettraient d'affirmer qu'un modèle est validé ? »
[Amblard et al., 2006].
À ces questions, il sera alors généralement répondu qu'un modèle SMA est validé lorsque ses
valeurs de sortie sont proches des données observées, en reprenant une méthode de validation
classique des modèles descriptifs, par exemple en économétrie. Or, sans même parler des
corrélations accidentelles, il existe un grand nombre de problèmes logiques, théoriques ou
pratiques lorsque l’on veut comparer les sorties d’un modèle à des données empiriques.
D'ailleurs, la quantité de données nécessaires devient rapidement prodigieuse surtout si le modèle
est appliqué dans le domaine des sciences humaines et sociales où les expérimentations sont
difficiles à réaliser, les données collectées sujettes à caution et les campagnes de collectes, quand
elles sont possibles, extrêmement coûteuses.
Certes la comparaison des résultats de simulation avec des jeux de données empiriques constitue
un exercice important qui s'inscrit dans le processus d'évaluation. Mais est-ce suffisant pour
conclure à la validité d'un modèle ? Un modèle peut par exemple exhiber des résultats cohérents
avec des données alors même que les mécanismes qu'il met en œuvre sont clairement éloignés de
ceux qu’il est supposé représenter.
Si malgré tout, on considère la comparaison à des données comme le seul critère pertinent pour
décider de la validité d'un modèle, alors pourquoi la question de la validation ne se pose-t-elle pas
également à toutes les catégories de modèles, c'est à dire autant aux SMA qu'aux modèles
mathématiques standards ? Par exemple, le fameux modèle de Schaefer [1957] qui décrit
l'évolution des captures de pêche en fonction de l'état et de la dynamique des stocks de poissons, a
montré ses limites [Gilly, 1989]. Des écarts importants entre ses résultats et les données issues de
campagnes de prélèvements devraient nous inciter à contester sa validité. Malgré cela, il est utilisé
par de nombreux planificateurs pour estimer le niveau optimal d'exploitation [NAT, 1999] et son
extension au modèle de Gordon-Schaefer est utilisée pour décider de mesures conservatoires et de
politiques économiques de pêche (quotas de production, taxes sur la production ou sur
l'investissement).
Par conséquent, quelle différence y a-t-il entre ce type de modèles mathématiques précédemment
cités et un modèle à base d'agents ? Il nous faut donc comprendre ce qui rend la modélisation
multi-agent si contestable vis-à-vis de la validation. Pourquoi le statut d'outils scientifiques est-il
accordé au premier quand il est souvent refusé aux seconds ?
Certes, les modèles mathématiques de type systèmes à équations offrent la possibilité de prouver
les résultats qu'ils énoncent. Toutefois, cette faculté est rarement applicable dans la pratique pour
peu que les modèles soient un peu complexes. De plus, ces preuves restent internes au modèle :
elles permettent uniquement de prouver ses propriétés intrinsèques (convergence, cycles,
attracteurs, ...), sans montrer pour autant que celui-ci représente correctement l'objet étudié.
A contrario, il est impossible à l'heure actuelle de prouver les propriétés d'un SMA : on ne peut
que constater un résultat en faisant tourner une simulation. Pour autant, rien ne garantit que les
sorties de la simulation découlent uniquement des mécanismes que l'on pense avoir élaborés dans
un modèle. Or, si cet inconvénient est indépendant de la question de la comparaison à des données,
il reste néanmoins très préoccupant.
Par conséquent, la validation se résume à deux démarches distinctes : l'une cherche à démontrer les
propriétés intrinsèques d'un modèle, quand l'autre teste son adéquation à des données empiriques.
De plus, si la validation d'un modèle paraît relative, elle ne doit surtout pas être dissociée de
l'usage que l'on souhaite en faire. En ce sens, conclure à sa validité autorise-t-il sur la base de ce
seul modèle à prendre des décisions qui peuvent avoir des conséquences importantes ? Cet
hypothétique modèle validé, donc "parfait", peut-il porter en lui une vérité à laquelle se vouer sans
défiance ?
Pour la majorité des scientifiques, la portée des modèles est limitée et il n’existe pas de validation
parfaite, encore moins définitive. Cependant, un public moins averti pourrait ne pas prendre les
mêmes précautions face à des résultats produits par un modèle annoncé comme scientifiquement
valide. Il faut donc commencer par s'interroger sur la signification même de la validation des
modèles en général et les présupposés qu'elle laisse entendre. Dans ce travail, nous aborderons
différents critères mobilisables selon plusieurs aspects, allant de la conception à l'usage du modèle,
pour évaluer, plutôt que valider un modèle. Une discussion à propos de l’évaluation des
connaissances sera abordée d’un point de vue épistémologique.

1.1.2 La fiabilité des modèles multi-agents


Si la question de la validation touche en définitive l'ensemble des modèles, qu'ils soient multi-
agents ou mathématiques, la fiabilité des résultats qu'ils énoncent reste un problème qui concerne
plus spécifiquement les SMA. Par fiabilité, il faut entendre l'assurance que les sorties des
simulations découlent uniquement des mécanismes que l'on pense avoir élaborés dans le modèle.
Car nombreuses sont les possibilités de faire apparaître des artefacts liés à des erreurs de
programmation ou de calcul, à une gestion approximative du temps de la simulation et des
interactions entre agents, ou à tout autre comportement erratique du simulateur sans lien avec le
modèle conceptuel qu'il est censé exprimé. Divers petits défauts ou approximations peuvent être,
par amplification, la source d'erreurs plus importantes qui risquent d'influencer fortement le
comportement global du système.
On risque ainsi d'attribuer des propriétés à un modèle alors que les sorties d'une simulation
peuvent provenir de biais du simulateur, ce que [Michel, 2004] nomme le phénomène de
« divergence implémentatoire ». En d'autres termes, le discours que l'on élabore à partir de
résultats de simulations peut s'avérer tout à fait déconnecté du modèle que l'on a conçu. Hormis ce
travers, le problème principal vient du fait que peu d'utilisateurs en ont conscience. D'autres
pourtant, en dénoncent déjà les dangers. Quelques uns rejettent alors toutes expériences à base de
SMA en déplorant le manque de formalisme et de fiabilité.
C'est la raison pour laquelle une part importante de la thèse est dédiée à la gestion du temps dans
les simulations multi-agents ainsi qu'à l'autonomie et à la protection des données internes aux
agents. Car c'est bien au niveau de ces points hyper-sensibles que des biais peuvent plus facilement
apparaître. En effet, la façon de modéliser le temps et de traiter la simultanéité des actions et des
interactions peuvent influencer considérablement les résultats des simulations. Leur traitement
nécessite donc une attention particulière.
Pour aborder ces points particuliers, certains proposent des solutions informatiques (calcul
distribué, multithreading, etc.) ou de nouveaux formalismes (ParallelDEVS, MIC*, etc.). Mais les
solutions proposées sont souvent très sophistiquées et difficilement applicables par des non-
experts. Peut-être que les outils de demain permettront de résoudre certains de ces biais. Toutefois,
la technique informatique, seule, apporte rarement une réponse satisfaisante. Au contraire, la prise
de conscience de ces problèmes par le modélisateur s’avère primordiale. D’ailleurs, si aucune
solution clé en main n'existe, c'est plutôt que la gestion des interactions fait justement partie
intégrante du modèle. Le concepteur doit alors la prendre en charge totalement, la spécifier et la
justifier. En connaissant les zones sensibles susceptibles d'influencer le modèle, il peut plus
facilement anticiper l'apparition d'artefacts et utiliser des procédures standards en les adaptant au
domaine qu'il modélise. Étant donné qu'il existe plusieurs manières d'interagir, les agents doivent
refléter les modes opératoires qu'ils sont censés reproduire. Pour résumer, la manière dont les
agents sont activés ainsi que leurs façons d'interagir, ne doivent pas être dictées par la technique
informatique mais doivent, au contraire, être décidées par le concepteur car elles font partie
intégrante du modèle.
Par conséquent, une des clés de la fiabilité repose sur l'assurance que le modélisateur maîtrise tous
les tenants et les aboutissants du modèle qu'il a conçu. Parce qu'il contrôle complètement son
système, il doit être capable d'expliquer tous les résultats produits par le simulateur. En
complément de ces démarches, des analyses détaillées et exploratoires permettent de vérifier la
fiabilité du simulateur.

1.1.3 La réplication et la lisibilité des modèles multi-agents


Dans le processus d'évaluation, le manque de fiabilité n'est pas le seul défaut que l'on peut
reprocher aux SMA. En effet, la difficulté à répliquer indépendamment un simulateur et à
retrouver des résultats qui ont été publiés, est un autre aspect de la modélisation multi-agent qui
reste problématique. Pourtant, la réplication complète d'un SMA menée de manière autonome par
d'autres personnes, s'avère être un moyen efficace pour vérifier les résultats énoncés et pour
garantir la fiabilité du simulateur. D'ailleurs, vérifier et reproduire une expérimentation, qu'elle soit
matérielle ou virtuelle, apparaît comme la règle de toute démarche scientifique rigoureuse.
Cette difficulté à reproduire un simulateur est évidemment à rattacher au manque de lisibilité des
modèles multi-agents. Une description claire et non ambiguë est une nécessité minimale pour
expliquer et transmettre un discours. Or, à l'heure actuelle, les modèles multi-agents présentés ou
publiés remplissent rarement ces pré-requis. Certes, on accède parfois aux sources du programme
informatique. Mais ce code, que d'ailleurs personne ne lit, n'offre pas une vision synthétique et
claire du modèle. On peut le copier pour l'exécuter sur une autre machine (lorsque c'est possible),
pour rejouer des simulations. Mais cela ne constitue pas une réplication du simulateur. Répliquer
consiste au contraire à réécrire un code informatique à partir de spécifications. La pauvreté de
celles-ci ou à l'opposé leurs trop grandes technicités n'apportent pas une description claire et
compréhensible par tous. Reproduire alors les résultats énoncés relève de la gageure.
Par ailleurs, sans même viser la réplication, la connaissance véhiculée par un modèle doit être
communicable pour être partagée avec la communauté scientifique mais aussi avec les acteurs
concernés par le système étudié. Le modèle doit ainsi être lisible, c'est à dire suffisamment
explicite pour pouvoir être compris, discuté et critiqué par tout un chacun. Car la critique est un
des meilleurs moyens pour remettre en cause les connaissances. Or, si la structure et les
mécanismes d'un modèle sont obscurs, on ne peut faire confiance en ses résultats que sur la foi que
l'on porte au modélisateur. Brouiller cette connaissance derrière des concepts trop vagues favorise
une interprétation exagérée des compétences du modèle. De même, dissimuler cette connaissance
derrière un jargon technique peut laisser croire à des capacités formidables qui n'y sont pas
(l'héritage des sciences cognitives contribue d'ailleurs à renforcer l'image d'outil hors du commun).
Ainsi, afin de favoriser la remise en question par la critique, mais également pour s'interdire toute
tentative de manipulation, un travail important doit être mené après la mise en place d'un
simulateur, pour formaliser et décrire au mieux le modèle. Certes, la parfaite explicitation du
modèle reste un idéal, mais pour clarifier son propos et en lever les ambiguïtés, le modélisateur
doit repenser son modèle afin de le présenter à l'aide de diagrammes réorganisés qui mettent la
lumière sur ses aspects les plus importants.

A partir de ces constats, la modélisation multi-agent, si elle veut perdurer, doit proposer des
méthodes pour aider à la conception de modèles plus fiables et mieux présentés. C'est grâce à la
mise en place de ces méthodes que l'on pourra résoudre en partie les problèmes liés à la validation
des modèles.
L'approche méthodologique que je présenterai, s'oriente autour des expériences que j'ai acquises au
Cirad 1 sur la gestion des ressources renouvelables, en tant que modélisateur impliqué dans des

1
Centre de coopération internationale en recherche agronomique pour le développement. www.cirad.fr
projets de développement mais aussi comme enseignant 2. En effet, si les SMA peuvent être
appliqués à un grand nombre de domaines, leur utilisation dans le cadre de l'aide au
développement en agronomie nécessite une démarche particulière : une posture de recherche-
action qui place l'acteur au centre des préoccupations. Quelques précisions sur ces notions
apparaissent nécessaires.

1.2 LA GESTION DES RESSOURCES RENOUVELABLES


1.2.1 La gestion des ressources renouvelables nécessite une approche
transdisciplinaire
Les ressources naturelles renouvelables désignent des ressources naturelles qui, contrairement au
pétrole par exemple, voient leurs quantités évoluer selon un processus de régénération naturelle :
eau douce d'un lac alimenté par les précipitations et le ruissellement, croissance et dissémination
d'espèces végétales et animales (biomasse, biodiversité), etc. Sans intervention humaine, leur état
évolue au cours du temps selon des dynamiques plus ou moins complexes, souvent en interrelation
faisant intervenir des processus biophysiques (évaporation, pollinisation, migration…).
Lorsqu'on aborde la gestion de ces ressources, il faut alors prendre en compte les activités
humaines qui influencent leurs dynamiques. D'ailleurs, avec la perspective du développement
économique, la terminologie est modifiée et ces ressources prennent alors le nom de stocks. Ainsi,
la disponibilité et l'état de ces stocks évoluent aussi en fonction des prélèvements directs :
pompage, récolte, chasse, élevage… Mais leurs dynamiques sont également affectées par d'autres
activités ayant des impacts plus ou moins indirects sur l'état de ces ressources : pollution, érosion,
épidémie, etc... En économie, ces effets indirects sont appelés les externalités (par exemple, une
production occasionnée par un agent peut en affecter d’autres).
Aussi, une gestion durable sous-entend des usages régulés pour la préservation de ces ressources
tant en quantité qu'en qualité. On comprend bien alors que la problématique de la gestion des
ressources renouvelables nécessite de considérer ces systèmes comme des anthropo-socio-éco-
systèmes, ouverts, interconnectés et hautement complexes. La figure suivante résume
l'interdépendance de ces différentes dynamiques.

2
Dans le cadre de la diffusion des connaissances et suite à de nombreuses demandes, l'UR GREEN a mis en place
une formation intitulée ”Simulation de Systèmes Complexes : Systèmes Multi-Agents et Gestion des Ressources
Renouvelables”. Cette formation de deux semaines a été dispensée en France et dans de nombreux pays (cf.
http://cormas.cirad.fr/fr/formati/passe.htm). Elle est destinée à des non-informaticiens désirant s'initier à la
modélisation. Le cours dresse un panorama des différents outils de modélisation. Il présente également l'approche
objet et la formalisation UML. Des exemples d'applications multi-agents sont exposés ainsi que leur utilisation pour la
gestion des ressources renouvelables. Des travaux pratiques sont menés en groupe permettant de suivre un processus
complet de modélisation multi-agent, depuis la conception participative du modèle jusqu'à son implémentation sur la
plate-forme CORMAS (voir à la fin de ce chapitre).
Interactions :
Gestion des
ressources
renouvelables

Figure 1 : Dynamiques des ressources naturelles renouvelables en interaction avec des dynamiques sociales.
Pour ces systèmes complexes, on observe d'une part des dynamiques naturelles à l'échelle d'un organisme,
d'une population ou de peuplements, et d'autre part, des dynamiques sociales à l'échelle des individus ou des
organisations.
Aider à la gestion durable nécessite donc des compétences scientifiques variées qui doivent
s'articuler dans un dialogue transdisciplinaire. Il s'avère alors que la modélisation multi-agent peut
jouer un rôle particulièrement intéressant pour favoriser ce dialogue et pour aider à comprendre les
points de vue de chacun.

1.2.2 Le développement durable


Gérer des ressources renouvelables a pour objectif de maintenir l'état de ces ressources dans le
temps. Cette problématique s'inscrit donc dans le cadre plus large du développement durable.
Le terme ”développement durable” ou ”soutenable” désigne :
"un développement qui répond aux besoins du présent sans compromettre la capacité des
générations futures à répondre aux leurs".
Il a été officialisé en 1987 suite au rapport de Mme Brundtland, présidente de la Commission
mondiale sur l’environnement et le développement. Mais c'est à partir de la conférence de Rio en
1992 qu'il a été reconnu et popularisé. Cette reconnaissance démontre une sensibilisation mondiale
aux enjeux environnementaux. Mais elle prend également en compte les enjeux économiques et
sociaux. Ainsi, les textes constitutifs au développement soutenable se fondent sur trois grands
principes :
 la préservation de l'environnement,
 la viabilité économique et
 l'équité sociale.
Ils préconisent aussi une participation des populations aux décisions. Car si la nécessité de
réfléchir et d'agir de manière plus globale paraît maintenant évidente (à l'exemple du
réchauffement climatique), la sensibilisation des acteurs locaux vis-à-vis de leurs pratiques
(exemple de la culture sur brûlis en Amazonie) nécessite de leur part un investissement ainsi que la
prise en considération de leur point de vue. Sous cet angle, le bilan de cette prise de conscience
semble donc positif, même si la mise en œuvre du développement soutenable ne suit pas
toujours…
Cependant, plusieurs critiques se font entendre. Certains discutent de la terminologie employée,
celle du développement. Alors même qu'il s'agit de prendre mieux en compte les données
environnementales et sociales, le concept de développement peut être associé à une conception
essentiellement économique et technique du monde. Pour [Rist, 1996], le développement et la
protection de l'environnement sont incompatibles et associer ces termes relèverait même de
l'imposture. De plus, le ”caractère ethnocentrique du développement et la conception linéaire et
évolutionniste de l'histoire qu'il véhicule, au moins implicitement, n'en font pas nécessairement un
modèle pour le reste du monde” [Roggero & Vautier, 2003]. D'ailleurs, le modèle économique de
croissance avait déjà été remis en cause dès 1972 suite au rapport du club de Rome ("Halte à la
croissance ? Rapports sur les limites de la croissance") rédigé sous la direction de [Meadows et al.,
1972] qui montrent (à partir des résultats du modèle DYNAMO de Jay Forrester) que, sans
changement des modes de consommation et de production, les ressources de la planète
s'épuiseraient d’ici la fin du 21ème siècle. La croissance économique serait alors le facteur
principal de l'aggravation des dérèglements écologiques de la planète (réchauffement climatique,
pollution, pénuries de matières premières, destruction des écosystèmes).
Une autre critique vis-à-vis du développement durable émane des pays en développement, qui
considèrent parfois ce concept comme un luxe des pays riches, voire comme une ingérence
écologique ou, pire encore, comme une idéologie qui s'attacherait plus à la protection de la nature
qu'à celle des humains. Par conséquent, aborder la gestion des ressources et le développement
durable avec des acteurs de pays en développement nécessite une approche plus humble qui oblige
à une remise en cause de quelques certitudes.

1.2.3 Une posture originale pour appuyer le développement durable


Les trois grands principes du développement durable impliquent de mettre en œuvre des approches
pluridisciplinaires. De même, les remarques précédentes vis-à-vis de la terminologie et des
présupposés impliquent une remise en cause des pratiques de la recherche pour le développement.
Il est nécessaire de reconnaître la complexité des situations rencontrées pour les aborder. En
conséquence, cela oblige à des changements de posture vis-à-vis de l'expertise et de l'aide à la
décision.
Car la gestion durable des ressources renouvelables requiert de prendre en considération le point
de vue de chacun, scientifiques et acteurs locaux du développement pour proposer des innovations
techniques mais aussi pour favoriser des changements des pratiques pour une gestion plus durable.
Dans ce domaine, une des qualités indispensables du modélisateur est l'écoute et la compréhension
des enjeux de chacun, au-delà même de ses propres convictions.
Un exemple : en regardant la photo ci-dessous, ne croirait-on pas voir une image bucolique et
apaisante d'une petite maison dans la prairie, un endroit fantasmé ”qui sent la noisette”, où la vie
est en harmonie avec la nature.
Figure 2 : Photo d'une petite exploitation à Uruará.
Maintenant, si nous apprenons que cette photo a été prise à Uruará, au cœur de la forêt
amazonienne, alors un autre sentiment risque de nous venir. Le battage médiatique pour la
sauvegarde de la plus grande forêt du monde alimente certains préjugés et pousse nos sentiments
écologistes à imaginer des solutions simplistes et parfois radicales. Mais, de la même manière, les
habitants d'Uruará considèrent encore la forêt comme une simple réserve qu'il faut nettoyer pour y
implanter un ”pâturage considéré comme « propre » et productif, bref sans arbre” [Bonaudo,
2005]. La situation est donc bien plus complexe dès lors que l'on prend en compte les enjeux
économiques et politiques de ces situations, et surtout dés que l'on considère les familles qui y
vivent ou survivent dans des conditions souvent difficiles.
Sans modification des représentations de chacun, le changement est difficile et souvent brutal. En
complément de propositions d'experts, le développement durable nécessite également une posture
plus mesurée vis-à-vis de l'aide à la décision. Dans ce contexte, la démarche de modélisation
implique des facultés d'écoute et de remise en cause.

1.2.4 Intégrer les connaissances pour accompagner la décision


La démarche ComMod (Companion Modeling) présentée succinctement au chapitre 3.6, cherche à
aborder d'une manière originale les problèmes de partage et d'accès aux ressources. A partir de ces
questions de développement, elle s'intéresse aux dynamiques sociales et plus particulièrement aux
processus collectifs de décision qui émergent des interactions entre des acteurs ayant des
perceptions différentes voire opposées et des poids différents. En privilégiant la modélisation
multi-agent, ComMod s'appuie sur des approches par scénarios en impliquant fortement les acteurs
dans la conception et l'exploration de ces scénarios, mais aussi dans l´élaboration d'indicateurs co-
construits.
Mais surtout, elle ne restreint pas les parties prenantes (stakeholder) aux seuls preneurs de
décision. Elle engage aussi les acteurs plus anonymes qui participent néanmoins aux processus du
développement. Car dans le domaine des ressources renouvelables qui engage la responsabilité de
chacun, la décision dépend rarement d'une seule personne. Elle nécessite au contraire que tous
ceux qui influent par leur comportement sur la dynamique globale, prennent part activement à la
décision. Car il s'avère qu'une meilleure compréhension du contexte et un meilleur partage des
enjeux ainsi que l'appropriation d'une décision améliorent le processus même de la décision et
conduisent à un meilleur engagement des acteurs qui prennent conscience du rôle de chacun et
donc d'eux-mêmes.
Ainsi, les SMA permettent d'intégrer des connaissances variées qui s'articulent pour illustrer une
situation concrète. L'intégration se décline en :
–Intégration des savoirs scientifiques multidisciplinaires, des sciences biophysique pour
comprendre les dynamiques des ressources naturelles, aux sciences humaines et sociales pour
comprendre les pratiques d’acteurs, leur coordination, leurs dynamiques économiques,
politiques et sociales ;
–Intégration des savoirs locaux et des pratiques qui conditionnent les stratégies d’acteurs ;
–Intégration des objectifs d'acteurs ayant des intérêts diversifiés, voire contradictoires.
De ce fait, pour aborder la gestion intégrée, il est nécessaire de mettre les acteurs au centre des
préoccupations de recherche. En effet, les ressources renouvelables peuvent s'étudier à différents
niveaux. Dans le cas de l'élevage par exemple, certains analysent la physiologie de la plante ou son
assimilation par le ruminant. D´autres étudient les rendements productifs au niveau de la parcelle.
A une autre échelle plus globale encore, on représente l'organisation et les flux au sein de la filière
bovine pour imaginer son évolution et celle du marché. Mais de façon étonnante, le niveau de
l'acteur, de sa famille ou de son exploitation est rarement pris en compte dans l’étude de ces
systèmes. Pourtant identifier les pratiques et comprendre les motivations des producteurs
paraissent essentiel pour appuyer la gestion durable.
Ainsi, si le maître mot est intégration, l'approche ComMod remet l'acteur au centre des
préoccupations du développement durable. Dans ce contexte, la modélisation multi-agent peut être
perçue comme un outil de médiation qui autorise un recul face à des situations souvent tendues et
parfois conflictuelles.

Figure 3 : Les différents niveaux d'étude pour aborder l'étude des systèmes de production, d'après [Rossi &
Courdin, 2006].
1.3 OBJECTIF DE LA THESE
En partant de l'hypothèse que le défaut de validation, ou plus justement que les problèmes
d'évaluation reprochés aux SMA, sont le plus souvent à attribuer à une insuffisance de fiabilité, à
la pauvreté de leur description et à la difficulté à les répliquer, cette thèse a pour objectif de définir
un cadre méthodologique pour la conception de modèles multi-agents appliqués à la gestion des
ressources renouvelables. Il ne s'agit pas de décrire une méthodologie complète qui guiderait un
apprenti modélisateur, de a à z, à concevoir et utiliser des SMA, mais bien d'un cadre pour en
tracer les grands principes et les limites. J'essaierai ainsi d'apporter des éléments afin d'identifier
ces faiblesses pour les traiter de façon appropriée. Même si ce cadre peut s'appliquer à d'autres
domaines, je l'ai restreint ici à la seule modélisation des ressources renouvelables dont je maîtrise
davantage les techniques.
Dans ce contexte, je défendrai tout au long de cette thèse l'idée d'une modélisation exposée, c'est-
à-dire d'une modélisation qui doit assumer ses choix sans imposer ses points de vue. Il faut
abandonner la vision naïve de la modélisation qui consisterait à penser qu'un modèle est objectif.
En effet, la notion de modèle neutre qui ne serait qu'une copie du réel in silico, impliquerait que le
modélisateur n'a aucun présupposé sur le système qu'il étudie et que le monde se reflète dans sa
pensée comme une image dans un miroir. Or, il n'en est rien. Que ce soit fait d'une manière
intentionnelle ou, comme c'est souvent le cas, de manière involontaire, un modèle est forcément
une représentation subjective du monde. Il est donc essentiel d'expliciter ses choix et de les
présenter de la façon la plus lisible possible pour qu'ils puissent être compris, partagés ou critiqués.
En défendant l'idée que la modélisation multi-agent pour la gestion des ressources renouvelables
est une véritable discipline et non pas juste une spécialité informatique, j'exposerai mes points de
vue sur les différentes démarches de modélisation, sur la validation des modèles, la fiabilité des
simulateurs et la nécessité d'une représentation claire et compréhensible par tous.
En m'appuyant sur certains concepts épistémologiques qui dépassent largement le cadre de cette
thèse, j'essaierai néanmoins d'aborder le problème de l'évaluation des connaissances et
j'expliquerai pourquoi il est préférable d'éviter d'employer le terme validation qui véhicule l'idée de
certitude.
Par conséquent, suite aux défauts reprochés aux SMA trop souvent sous-estimés, mais aussi à
cause d'une certaine approche naïve de la modélisation, il est préférable, dans l'état actuel des
SMA, d'opter pour des modèles simples (démarche KISS pour “Keep It Simple Stupid”) plutôt
qu'une approche descriptive (KIDS pour “Keep it Descriptive Stupid”) comme le proposent
[Edmonds & Moss, 2004]) qui chercherait à introduire dans le modèle le maximum d'informations
considérées comme données par nature.

1.4 ORGANISATION DU DOCUMENT


Ce document n'est pas destiné aux seuls informaticiens mais plutôt à un public plus diversifié qui
chercherait à mieux maîtriser la pratique de la modélisation multi-agent.
Le manuscrit est divisé en trois parties. La première traite de la modélisation en général, de
l’intérêt de concevoir un modèle et de la question de la validation. Elle s’attache aussi à comparer
les avantages respectifs des systèmes à équation des systèmes multi-agents. En reconnaissant le
rôle particulier des SMA pour faire émerger des propriétés nouvelles, elle montre alors les
conséquences que la simulation multi-agent entraîne pour en vérifier les caractéristiques.
La deuxième partie s’intéresse davantage aux aspects techniques qui touchent principalement à la
gestion du temps et de l’autonomie des agents. Elle en présente les grands principes et expose des
solutions informatiques proposées par différentes recherches pour les prendre en charge.
Néanmoins, elle montre comment ces techniques ne sont pas toujours appropriées pour la gestion
des interactions dans le cadre de la modélisation des ressources renouvelables. Elle montre alors le
rôle essentiel que le modélisateur doit endosser pour estimer par avance les biais susceptibles
d’apparaître. Il doit alors proposer des solutions qui rentrent dans le cadre du sujet traité et justifier
les choix de gestion qu’il a pris.
La dernière partie présente les travaux qu’il est nécessaire de mener après les phases de conception
et d’implémentation d’un SMA pour en améliorer la fiabilité et la lisibilité. Elle montre le rôle
essentiel qu’apporte une exploration poussée d’un modèle pour en vérifier le fonctionnement mais
aussi pour découvrir des propriétés souvent insoupçonnées. En exposant les avantages de la
réplication, cette partie aborde la question de la lisibilité des SMA qui sont souvent considérés
comme des boites noires. Elle confirme alors l’importance des diagrammes comme outil de
dialogue entre les disciplines et montre la nécessité de les repenser pour les présenter de façon
claire et non-ambiguë. En reprenant la liste des points sensibles, sujets à générer des biais, une
discussion précise les avantages et les inconvénients des démarches KISS et KIDS. Les
conclusions qui préconisent la conception de modèles simples, reviennent sur la fonction jouée par
le modèle dont le rôle est essentiellement d’apprendre et de comprendre. D’ailleurs, au cours du
processus de modélisation, on se rend souvent compte que la question initiale s’est
progressivement modifiée. Dans le même temps, le modèle a changé d’état en améliorant sa valeur
informative.
Si une partie de ce travail repose sur des réflexions d'ordres épistémologiques, il s'appuie
également sur des exemples concrets de pratiques de modélisation. Cette thèse est donc conçue sur
des expériences appliquées à des situations réelles (TransAmazon, Mobe, …) mais également sur
des cas beaucoup plus théoriques qui prennent appui sur des modèles multi-agents plus abstraits
(modèle proie-prédateur, ECEC, Sugarscape, Forpast, …). Cependant, afin d’en proposer une
vision moins abstraite, un dernier chapitre expose un modèle plus concret sur la déforestation en
Amazonie. Il permet d’illustrer les principaux concepts développés au cours de cette thèse.
PREMIERE PARTIE :

ROLE, EVALUATION ET USAGES DE LA MODELISATION

MULTI-AGENT POUR L’AIDE A LA GESTION DES

RESSOURCES RENOUVELABLES
Chapitre 1

QUE SIGNIFIE LA VALIDATION D’UN MODELE ?


"L'exactitude n'est pas la vérité"
Henri Matisse
"Le théoricien scientifique n'est pas dans une situation enviable, car la
Nature ou, plus précisément, l'expérience, est un juge implacable et peu
amical de ses travaux. Elle ne répond jamais « oui » à une théorie. Dans le
cas le plus favorable elle dit « peut-être », le plus souvent, et de loin, elle
dit simplement « non » […]. Le verdict fatal est probablement la destinée
de toutes les théories et il tombe, pour la plupart d'entre elles, peu de
temps après leur conception".
Albert Einstein

Comme il a été dit en introduction de cette thèse, une critique récurrente faite aux modèles multi-
agents porte sur la difficulté voire l'impossibilité de leur validation. A la question incessante qui
inquiète le modélisateur sur la validité de son travail, il semble nécessaire de réfléchir sur la portée
de cette question et les présupposés qu'elle véhicule. Car la meilleure réponse à cette question
consiste dans un premier temps à retourner la question : quels sont les critères qui permettraient
d'affirmer qu'un modèle multi-agent est validé ?
D'ailleurs, pourquoi cette difficulté serait-elle le ”privilège” des SMA ? La question de la
validation ne se pose-t-elle pas aux autres catégories de modèles ? C'est la raison pour laquelle ce
chapitre essaie de répondre à ces questions en les étendant à tous les types de modèles pris dans un
sens large.

1.1 DEFINITIONS DE VALIDATION ET SES SOUS-ENTENDUS


Quelle soit prise dans un cadre classique ou dans celui des SMA, il est généralement admis que la
validation consiste à confronter des mesures opérées dans le système observé avec des résultats
issus du modèle [Lewis, 1993], [Bart, 1995], [Bousquet, 1995], [Rykiel, 1996], [Balci, 1998],
[Millischer, 2000],... D'ailleurs, la citation suivante exprime bien la notion de validation qui est
communément admise :
Validation is the determination that the conceptual model is an accurate representation of the real
system. Can the model be substituted for the real system for the purposes of experimentation? If there
is an existing system, call it the base system, then an ideal way to validate the model is to compare its
output to that of the base system. [Banks, 1999]
Ainsi, à partir du moment où ses résultats sont correctement corrélés à des données empiriques, un
modèle serait considéré comme valide. On peut d'ailleurs remarquer qu'un SMA génère des
données de simulation au même titre qu'un modèle dynamique en mathématique. Il peut alors
répondre également à ce critère de validation. Mais revenons sur cette définition, car si l'on
souscrit à ce critère de validation, qu'apporte alors au modèle ce statut de validité ? En effet, il me
paraît important de prendre la question dans l'autre sens : ne pas se demander seulement comment
valider un modèle, mais plutôt s'interroger sur l'intérêt que procure la déclaration de validité. Car à
mes yeux, le problème réside dans la déclaration même de validation. Dans la citation précédente,
il est suggéré qu'à partir du moment où ses sorties sont correctement corrélées à des données, ce
modèle dit validé serait une représentation juste d'un système réel (accurate en anglais signifie
25

exact, fidèle, juste). Or, cette vision classique de la validation qui est largement partagée, demeure
problématique car elle véhicule une idée inquiétante : l'idée de vérité, d'une connaissance
(contenue dans le modèle) sans faille, affirmant une explication juste du monde. La déclaration de
validité n’empêcherait alors plus aucune précaution et l’on pourrait substituer le modèle à la réalité
et prendre des décisions importantes en se reposant sur la certitude de ses résultats. Car le terme
validation renvoie à valide dont une des définitions du Larousse est ”Proposition valide : énoncé
qui est vrai en vertu de sa seule forme”. Certes, la validation a aussi des significations moins
extrêmes (valider une élection), dans le sens ”qui est valable”, c'est-à-dire ”qui a un fondement
accepté et reconnu, qui est vraisemblable” 3.
La validation sous-entend donc deux significations distinctes : la vérité et la vraisemblance. De la
première signification que je nomme ”validation forte”, découle la certitude qui est une notion
dangereuse surtout si on l'applique aux systèmes sociaux et environnementaux. A l'opposé, la
vraisemblance souligne un caractère bien plus nuancé (likelihood en anglais est encore plus joli et
subtil) : la connaissance ou l'explication semble juste mais il faut cependant essayer de la faire
admettre. Dans ce sens, la validation que je nomme ”validation faible”, n'est plus une certitude
absolue mais permet de considérer les conclusions comme recevables. Néanmoins, la tentation est
grande de considérer qu'à partir du moment où un modèle est déclaré comme valide, la
connaissance qu'il véhicule est vraie.
D'autre part, la confrontation de ses résultats avec ”le système réel” comme il est trop souvent
énoncé, pose aussi problème. Comme on le verra au cours du chapitre 2, la notion de réel est un
concept délicat. Il est vrai que beaucoup d'auteurs ([Edmonds, 2000a], [Thom, 1978]) avertissent
que l'interprétation des résultats de simulations ne doit pas se faire en fonction de l'objet réel X,
mais bien en fonction de son abstraction (l'analogue de X, voir graphique 2-7 page 55) :
The most common error in this sort of modelling is that modellers conflate the abstraction and the
target in their minds and attempt to interpret the results of their MAS model directly in terms of the
target system. [Edmonds, 2000a]
Par conséquent, sur la base de ces définitions et sur les présupposés que laissent entendre la
validation (forte), il est nécessaire pour la suite de ce chapitre de comprendre ce que signifie
l'ajustement correcte à des données mais aussi de savoir comment prouver la véracité
d’explications scientifiques.

1.2 QUE PROUVE UN BON AJUSTEMENT A DES DONNEES ?


Dans l'esprit de nombreux scientifiques, il est fréquemment admis qu'un modèle est validé lorsque
ses valeurs de sortie sont proches des données observées. Assurément, comparer les sorties d'un
modèle avec des données empiriques est une démarche importante qui constitue une étape souvent
indispensable du processus de modélisation. Mais est-ce suffisant pour conclure à la validité d'un
modèle ? Si, par exemple, les fluctuations des prix des chaussures apparaissent corrélées aux
rythmes des tempêtes de Neptune, il semble délicat d'affirmer que cette lointaine planète influence
le marché de la chaussure ! Cette remarque peut sembler caricaturale et risible. Il n'empêche que
l'on s'est déjà sérieusement posé de telles questions sur un sujet assez similaire : l’évolution de la
densité des tâches solaires montre une série temporelle qui se trouve bien corrélée avec une autre
série des captures de Lynx issues des registres de la compagnie de la baie d’Hudson au Canada.

3
Définition du Trésor de la Langue Française Informatisé : http://atilf.atilf.fr/
26

Figure 1-1 : Corrélation apparente entre l'évolution de la densité des tâches solaires et des captures de Lynx
issues des registres de la compagnie de la baie d’Hudson au Canada, d'après le cours de J. R. Lobry [2008].
Cette coïncidence curieuse avait été remarquée par Elton dès 1924.
Dans le même ordre d'idées, le modèle des astres conçu par Ptolémée, qui décrit les trajectoires des
planètes gravitant autour de la Terre, constitue un autre exemple de bonne corrélation entre des
mesures et un modèle erroné.
Ainsi, un modèle peut exhiber des résultats cohérents avec des données empiriques alors même
que son contenu est clairement éloigné des dynamiques qu’il est supposé représenter.
Toujours à partir de ces données sur les lynx et les lièvres d’Amérique (établie d'après le nombre
de peaux vendues chaque année dans les comptoirs du Canada), Odum a tracé le graphique
suivant :

Figure 1-2 : Le graphique d’Odum [Odum, 1971], dessiné à partir des données de MacLulich, 1937.
Les évolutions des effectifs des deux populations sont donc bien corrélées. Elles présentent des
oscillations qui ne semblent pas dues aux rythmes des saisons mais plutôt aux interactions entre
proies et prédateurs. Suite à des comparaisons avec d'autres données de population en interaction
de prédation, on a cherché une explication par un modèle générique. A l'issue de la première
guerre mondiale et à partir des données expérimentales d’Umberto D’Ancona (captures de pêche
en Adriatique), Vito Volterra propose alors un modèle proie-prédateur encore fameux aujourd’hui
[Volterra, 1926]. Ce modèle, présenté en annexe 1 (p. 289), montre des courbes de populations de
proies et de prédateurs oscillantes dont les cycles sont légèrement décalés dans le temps. Le
modèle de Volterra, une fois paramétré, montre que ses résultats sont assez bien corrélés à ces
données de pêches (sardines – sélaciens) ou à celles des captures de lièvres et de lynx. Néanmoins,
27

les deux séries périodiques observées sur le graphe ci-dessus ne sont pas déphasées comme le
voudrait le modèle 4.
En ce qui concerne les données de capture de lynx et de lièvres, il a été constaté plus tard que cette
série de données reflétait plutôt les cycles du marché américain des fourrures : la demande
fluctuante pour les fourrures de lynx influait fortement les captures [Lobry, 2007].
Par conséquent, les résultats d'un modèle peuvent apparaître cohérents avec des données
empiriques alors même que celles-ci sont inhérentes à un facteur externe non pris en compte par le
modèle.

1.3 LA QUESTION DE LA PREUVE ET DE LA VERITE


Comme il a été souligné au début de ce chapitre, le terme de validation laisse sous-entendre
l'affirmation d'une certaine vérité. Par conséquent, il est nécessaire de comprendre la signification
de la preuve scientifique ainsi que la notion de vérité.

1.3.1 La vérité du rat superstitieux


La superstition est communément considérée comme une manifestation exclusivement humaine
par laquelle nous espérons établir un ordre dans l'incertitude du monde qui nous entoure. Mais un
comportement superstitieux peut également être produit par des animaux, comme le rat de
laboratoire. Ainsi, dans ”la réalité de la réalité”, Paul Watzlawick, considéré comme le chef de file
de l'École de Palo-Alto, relate une telle expérience amusante et intéressante [Watzlawick, 1978,
p.55].
Cette expérience du "rat superstitieux" consiste à libérer un rat de sa cage qui repose à l'extrémité
d'une planche. A l'opposée de celle-ci se trouve un plateau pour aliments. Dix secondes après la
libération du rat, des aliments sont lâchés dans le plateau. En très peu de temps l'esprit pratique du
rat associe sa libération à l'approvisionnement en nourriture. Mais si le rat arrive au plateau en
moins de dix secondes après sa libération, aucun aliment n'est déposé. Or, il ne lui faut que deux
secondes pour aller de sa cage au bout de la planche. Contrairement à son inclination normale de
se diriger directement vers le plateau, il lui faut donc attendre pour laisser les dix secondes
s'écouler. Dans ces circonstances, le retard acquiert une signification inhabituelle. Quelle que soit
l'activité du rat pendant ces huit secondes, elle devient à ses yeux, l'action nécessaire qui produit
ou qui est récompensée par la délivrance de nourriture. Chaque rat adopte alors une attitude
différente, celle qui lui semble être la meilleure pour ralentir sa démarche afin d'obtenir la
nourriture. Certains se déplacent comme une écrevisse, d'autres font des pirouettes à droite ou à
gauche, d'autres encore des petits sauts que le rat peut avoir faits par pur hasard au début. Mais
fidèlement, ces gestes sont répétés autant de fois que l'expérience est recommencée. A chaque fois

4
A ce sujet, [Israel, 1996] rapporte une lettre qu’Umberto D’Ancona écrivit à Vito Volterra en 1935 :
Je serai bien heureux si l’on pouvait donner des démonstrations expérimentales précises de vos théories
mathématiques. [...] Malheureusement, mes observations statistiques peuvent être aussi interprétées dans un
autre sens et Pearson, Bodenheimer et Gause sont de cet avis. Voilà pourquoi moi aussi je dois admettre que
ces critiques ont un fondement sérieux.
Bien que les sélaciens soient des prédateurs des sardines et malgré la bonne corrélation des sorties du modèle (qu'à
l'époque on nommait théorie) avec les données relevées, D'Ancona considère que le modèle n’est pas corroboré par les
données statistiques. Toutefois, il ne rejette pas le modèle de Volterra malgré l’absence de corroboration :
Votre théorie n’est pas le moins du monde touchée par toute cette question.[...] il vaut mieux pour vous ne pas
lier votre théorie à une base expérimentale qui est sans doute moins solide que la théorie elle-même.
La prudence que D'Ancona montre à l'égard du modèle de Volterra prouve son profond respect pour les outils
mathématiques et les théories. L'absence de corroboration ne lui permet pas de rejeter le modèle.
28

que le rat trouve des aliments sur le plateau, cela confirme sa conviction que cette conduite
particulière est à l'origine de la délivrance de nourriture.
Ces conduites sont l'équivalent évident de superstitions humaines compulsives souvent fondées sur
la conviction vague qu'elles sont exigées par un ”expérimentateur divin”. ”Selon un mode de
comportement humain caractéristique, le rat préférera à l'incontournabilité des faits, une vision de
la réalité conforme à ses convictions” [Watzlawick, 1978]. Des expériences plus sophistiquées
menées avec des êtres humains ont montré comment, dans une situation d'incertitude ou
d'angoisse, une explication séduisante du réel peut devenir une certitude irréfutable. Une fois
enracinées comme l'interprétation d'événements, cette vision de la réalité résiste à toutes
objections. Cette résistance aux ”changements” [Watzlawick et al., 1975] 5 est confirmée par
d'autres expériences montrant qu'il est très difficile de modifier ces croyances, même si une
information vient les contredire. Parfois même, des éléments qui contredisent ”l'explication” ne
conduisent pas à sa correction, mais au contraire la renforcent. En effet, une situation d'incertitude
crée une angoisse et une attente, et nous préférons, pour éviter toute gêne, faire ressembler la
réalité à la solution adoptée, plutôt que sacrifier cette dernière. Pour atténuer l'angoisse d'une
situation incertaine, la recherche de sens (ou recherche de relations causales) conduit à une
nouvelle conception de la réalité (une re-présentation).
Par ailleurs, Watzlawick identifie deux réalités que nous confondons communément :
 La réalité de premier ordre, qui a trait aux ”propriétés physiques, objectivement sensibles
des choses”, est liée à la perception sensorielle que l'on en a, et est une réalité
scientifiquement vérifiable.
 La réalité de second ordre se rattache à la signification et à la valeur que l'on attribue à ces
choses perçues. Elle se fonde sur la communication. ”Conflits interpersonnels, différences
de normes culturelles montrent que ces deux réalités sont très différentes. La réalité de
second ordre, qui repose sur des règles subjectives et arbitraires, n'est pas renseignée par la
réalité de premier ordre” [ibid.].
L'auteur donne un exemple simple : un adulte et un petit enfant voient un feu rouge. Il s'agit bien
du même objet, de la même couleur pour tous les deux, mais il signifiera ”ne traversez pas”
uniquement pour l'adulte.
Watzlawick explique que nous avons tendance à penser que la réalité correspond à la façon dont
nous voyons les choses, qu'il existe pour chacun d'entre nous une réalité de second ordre ”réelle”
et que tout point de vue divergent est pour nous celui d'un ”méchant ou d'un fou”.
« De toutes les illusions, la plus périlleuse consiste à penser qu’il n’existe qu’une seule réalité. En
fait, ce qui existe, ce sont différentes versions de la réalité, dont certaines peuvent être
contradictoires, et qui sont toutes l’effet de la communication et non le reflet de vérités objectives et
éternelles. […] De la réalité chacun se fait son idée. Dans les discours scientifiques et politiques,
dans les conversations de tous les jours, on s’en réfère toujours en dernière instance à la référence
suprême : le réel. Mais où donc est ce réel ? Et surtout, existe-t-il réellement ?! » [Watzlawick,
1978].
Considérant la réalité comme construction mentale, la contribution de l'école de Palo Alto au
constructivisme est essentielle (ce concept sera abordé au chapitre suivant). Après avoir montré la
fragilité de la notion de vérité, il est maintenant nécessaire de comprendre la signification de la
preuve scientifique.

5
Dans "Changements", les auteurs expliquent par ailleurs qu'ils se sont "servis de la théorie des groupes comme
d'un modèle conceptuel et non pour apporter une preuve mathématique" [ibid.].
29

1.3.2 Petit détour du côté de l'épistémologie


L'épistémologie est une branche de la philosophie qui étudie les principes des sciences et s'attache
ainsi à comprendre les mécanismes du savoir. Elle construit son raisonnement sur l'histoire de la
science et de ses progrès. Elle aborde entre autre le problème de la preuve et de la vérité
scientifique. Dans notre questionnement sur la validation des modèles, on peut utilement aborder
cette discipline en effectuant une analogie entre théorie et modèle. Evidemment, je n'ai pas la
prétention d'approcher ce domaine en petit philosophe : je n'en ai ni les capacités ni le désir. Cette
discipline est si vaste et si riche qu'il me faudrait des années pour en lire les auteurs majeurs. Mais
il m'a semblé que quelques rappels, issus de mes lectures basiques, pouvaient utilement nourrir une
réflexion sur la validation des modèles.

1.3.2.1 Place du modèle, entre la théorie et l'expérimentation


Un modèle, est-ce déjà une théorie ou simplement une description simplifiée de la réalité ? Selon
Alain Pavé, ”il ne faut pas non plus confondre modélisation et théorisation : on peut théoriser sans
modéliser, on peut modéliser sans théoriser. En revanche le modèle est un outil précieux pour toute
démarche théorique...” [Pavé, 1994]. Toutefois la séparation entre ces deux notions n'est pas
toujours évidente.
La définition du terme ”théorie” est toujours très discutable et variable [Nadeau 1999] et mon
objectif n'est certainement pas de débattre sur ce sujet. Mais afin de mieux s'entendre, on peut
considérer ici une définition très large : ”le terme « théorie » désignera tout système intellectuel
(c'est-à-dire constructible par le pouvoir synthétique de la pensée humaine) à visée explicative ou
prédictive” [Varenne, 2003]. Car si toute manipulation de symboles peut-être considérée comme la
formulation d'un modèle [Le Moigne, 1990], toute connaissance, aussi primitive soit-elle est
théorie [Danchin, 1978]. Dans cette optique, on admet avec [Reitz, 1992] que les modèles
constituent des interfaces entre le monde et les théories, c'est-à-dire ”des médiateurs entre les
théories et les données de l'expérience” [Varenne, 2006]. Si on s'accorde sur ce sujet alors les
modèles sont des instruments d'investigation et de recherche, c'est-à-dire des outils pour aider à
penser et peut-être pour générer des théories. Les termes de modèles et de théories sont si proches
que je considérerai pour la suite de ce chapitre qu'il est possible d'appliquer les concepts de la
validation des théories aux modèles.
L'inductivisme et le falsificationisme, les deux démarches scientifiques les plus connues, apportent
deux points de vue différents sur le fonctionnement de la science et sur l'idée de vérité qu'elle
véhicule.

1.3.2.2 L'inductivisme
Selon l'approche inductiviste (ou analytique), l'idée de vérité scientifique vient de la répétition d'un
phénomène. On ne tient pour vrai que ce qui peut être reproductible. Selon cette école de pensée,
les savoirs scientifiques c'est-à-dire les lois, théories et modèles se construisent à partir de données
d'observation qui constituent des fondements sûrs. Ainsi, sur la base d'observations, une théorie
(ou un modèle) est établie a posteriori en suivant une démarche inductive basée sur la logique qui
peut se résumer de cette façon : si au cours d'une série limitée d'observations d'objets O, une
propriété P apparaît pour chaque objet, alors on en induit que tous les O possèdent P. ”Tous les O
possèdent P” devient une généralisation légitime (une loi) uniquement si les observations de P sont
menées dans un grand nombre de conditions différentes.
A partir d'un corpus de lois, de plus en plus important au fur et à mesure de la progression de la
science, on peut expliquer des phénomènes sur une base logique. Par déduction, on est aussi
capable de prédire l'évolution d'un système ou l'apparition d'événements. Ainsi, les lois de
l'optique, induites d'expériences de laboratoire, sont utilisées avec succès pour concevoir des
instruments d'optique ou pour expliquer la formation d'un arc-en-ciel. De même, les lois de
30

l'astronomie induites de l'observation des planètes permettent de prédire l'occurrence des éclipses.
Le schéma suivant résume les deux démarches inductive et déductive de l'approche analytique.
Lois et
Lois et
théories
théories


on du
u cti LOGIQUE cti
on
in d
Faits établis par Prédictions
Prédictionsetet
Faits établis par
l'observation explications
l'observation explications

Figure 1-3 : Démarche inductiviste, d'après [Chalmers, 1982]


La méthode analytique fournit une explication logique des faits. Une déduction logiquement valide
se caractérise ainsi : si les prémisses 6 sont vraies, alors la conclusion doit nécessairement être
vraie. Alan Chalmers emploie pour cette approche le terme ”d'inductivisme naïf” [Chalmers, 1982]
dont l'attrait est qu'il procure à la science, ”sa puissance explicative et prédictive, son objectivité et
le crédit plus fort qu'on peut lui accorder en comparaison avec d'autres formes de savoir”. En effet,
la dimension personnelle et subjective, n'y a pas sa place.

1.3.2.3 Critiques de l'inductivisme


La première critique à l'encontre de l'inductivisme concerne le problème du passage d’un ensemble
d’observations (”énoncés singuliers”) à un énoncé général (”loi empirique”). Ce passage s’effectue
par généralisation à partir d’un certain nombre d’observations. Or cette induction pose problème,
car quel que soit le nombre d’observations, une observation ultérieure peut toujours contredire
cette généralisation. Par ailleurs, on ne peut ”qu'émettre les plus grandes réserves sur la clause du
«grand nombre» d'observations” [Chalmers, 1982]. Ainsi, la répétition perpétuelle de la course du
soleil dans le ciel, a induit le géocentrisme. A l'opposé, il n'est pas nécessaire de mettre sa main de
nombreuses fois au feu pour s'apercevoir que ça brûle !
La deuxième critique de l'inductivisme concerne le problème de l'objectivité des observations. En
effet, la méthode analytique prend appui sur la base plus ou moins sûre donnée par l'expérience et
les sens. Mais comme je l'exposerai dans le chapitre suivant, nous sommes structurés par notre
langage et notre culture qui façonnent une appréhension spécifique du monde, une façon de penser
déjà orientée. Dans l'énoncé des observations, nous sélectionnons au préalable les variables que
nous considérons déterminantes. La vision que l'on a des faits est une image mentale construite par
notre cerveau et interprétée pour être ”re-présentée” [Watzlawick, 1978], [Piaget, 1968],
[Damasio, 1999]... En d'autres termes, ”la théorie joue un rôle crucial préalablement à
l'observation” [Chalmers, 1982] : elle oriente l'observation.
"[La connaissance de la connaissance] nous oblige à adopter une attitude de vigilance permanente à
l'égard de la tentation de la certitude. Elle nous oblige à reconnaître que la certitude n'est pas une
preuve de vérité. Elle nous oblige à réaliser que le monde que chacun peut voir n'est pas le monde
mais un monde que nous faisons émerger avec les autres. Elle nous oblige à nous rendre compte que
le monde serait différent si nous vivions différemment" [Maturana & Varela, 1994]
Une troisième critique concerne les rapports entre la logique et les prémisses. ”L'apport de la
logique se limite à assurer que, si les prémisses sont vraies, alors la conclusion doit être vraie.
Mais la logique ne permet pas de savoir si oui ou non les prémisses sont vraies” [Chalmers, 1982] :
un raisonnement logique reste valide même si les propositions sont fausses. Exemple : (1) tous les

6
Les faits, les propositions; à distinguer des prémices !
31

chats ont 5 pattes ; (2) Minouchat est un chat, donc (3) Minouchat à 5 pattes. La proposition (1) est
fausse mais le déroulement logique est juste. L'expérience du rat superstitieux que j'ai relatée
précédemment est une illustration plus concrète. Les mimiques qu'il développe pour attendre les
huit secondes nécessaires à la libération de la nourriture, lui paraissent la meilleure explication
logique. La répétition de ses expériences prouvera sa vision de la réalité et confirmera ses
convictions. Une fois enracinée, cette interprétation des événements résiste à toutes objections, car
elle paraît logique.
Enfin certains refusent l'idée d'une seule logique possible. ”La méthodologie analytique est
volontiers tenue pour LA méthode scientifique par excellence” [Le Moigne, 1990]. La Logique
Formelle, encore appelée Logique Disjonctive (logique du "OU") repose sur les 3 axiomes
d'Aristote. Les bases de la réflexion analytique n'affectent pas ces 3 axiomes, ”tant ils sont
présumés donnés par la nature des problèmes”. Aussi, ”s'il s'avère qu'aucun système logique
existant ne convient à une certaine problématique scientifique, alors il faut inventer un nouveau
système logique” [Feyerabend 1987, cité dans Le Moigne, 1990].
On peut également objecter que des théories nouvelles ne sont pas toujours conçues selon le
schéma de l'inductivisme naïf. Elles peuvent par exemple apparaître grâce à des éclairs
d'inspiration comme la découverte de la loi de gravitation apparue par Newton observant la chute
d'une pomme, ou par accident comme Roentgen qui découvrit les rayons X en se demandant
pourquoi ses plaques photographiques avaient noirci alors qu'elles étaient rangées dans un tiroir à
proximité d'un tube à décharge. Par ailleurs, beaucoup de théories sont conçues (en physique
principalement) avant que des observations puissent les tester.

1.3.2.4 Le falsificationisme
Sous l'impulsion des travaux de Karl Popper, la critique de l'inductivisme a ouvert la voie au
falsificationisme (ou réfutationnisme) qui porte un regard différent sur ce qu'est une théorie ainsi
que sur les conditions et les méthodes de son évolution. Popper rejette l'idée selon laquelle la
science avance par déductions. Elle ne fabrique pas de théories par inductions logiques à partir
d'instances particulières (des observations empiriques) : ”l'induction, c'est à dire la déduction à
partir de nombreuses observations, est un mythe” [Popper, 1985].
Sa critique s'appuie sur l'exemple suivant : observer que tous les cygnes que j'ai vus jusqu'à présent
sont blancs ne permet pas d'affirmer (d'induire) que tous les cygnes sont blancs. Cette critique de
l'induction le conduit à remettre en cause l'idée de preuve. Au terme vérification qu'il réprouve,
Popper propose celui de corroboration, c’est-à-dire d'une observation qui ne contredit pas une
théorie (une nouvelle observation d'un cygne blanc). Par conséquent, un grand nombre
d'expériences qui corroborent une théorie, ne permettent pas de conclure à sa validité. La répétition
d'observations et les expérimentations fonctionneraient alors comme des tests de ces conjectures 7
c'est-à-dire comme des essais de réfutations. Selon Popper, il n'y a pas de validation définitive; il
n'y a pas de preuve absolue d'une théorie mais uniquement des réfutations de conjectures
mauvaises. On ne retient une hypothèse que lorsqu'on ne peut pas la réfuter. Ainsi, une preuve
reste une preuve... tant qu'elle n'a pas de réfutation. Contrairement à la vision inductiviste selon
laquelle la science se développe de façon continue sur des succès, le falsificationisme explique que
la connaissance scientifique progresse plutôt par bonds et par essais et erreurs
Le falsificationisme se sert des observations (des énoncés singuliers) pour tester une théorie (un
énoncé universel). Un seul contre-exemple suffit alors à réfuter un énoncé universel. D'après
Popper, ”toute théorie étant intrinsèquement fausse”, il est préférable de découvrir au plus tôt ses
faiblesses au lieu de perdre son temps à essayer de la corroborer.

7
Il considère que les théories sont des conjectures (ou des suppositions spéculatives) inventées pour décrire, donner
sens ou résoudre des problèmes.
32

"Si notre préférence va à une telle démarche, c'est que nous estimons être ainsi en mesure de tirer un
enseignement de nos erreurs en découvrant que la conjecture en question était fausse, nous aurons
beaucoup appris quant à la vérité, et nous nous en seront d'avantage approchés" [Popper, 1985].
Souvent présentées comme opposées, ces deux approches (inductivisme et falsificationisme) sont
pourtant complémentaires sur certains points : l'inductivisme décrit une méthodologie de
construction de théories quand le falsificationisme définit un cadre de validation des théories
construites.

1.3.2.5 Critiques du falsificationisme naïf


Le falsificationisme souffre de la même critique qu'on adresse à l'inductivisme : l’observation
empirique sensée réfuter une conjecture n'est pas infaillible parce qu’elle présuppose une
interprétation préliminaire qui, elle, est faillible.
Une autre critique plus conséquente concerne la preuve par prédiction a posteriori. En mettant
l’accent sur la réfutation d’une théorie au détriment de sa validation, le falsificationisme ne rend
pas compte de grandes découvertes scientifiques qui ont prouvé leur valeur non pas à la suite d'une
résistance à des réfutations mais après la vérification expérimentale d’une prédiction originale. La
découverte de Neptune par Galle en 1846 est un bon exemple : Neptune fut la première planète
dont l’existence avait été auparavant prédite uniquement par calcul. La découverte après coup de
sa présence a encore renforcé le succès de la mécanique newtonienne.
L'aspect improductif est également reproché au falsificationisme. Disciple de Popper, Imre
Lakatos a ensuite critiqué sa méthodologie. Pour lui, une théorie peut être protégée de la
falsification en avançant des hypothèses ad hoc, par exemple en excluant des observations
gênantes. D'autre part, il dénonce l'aspect non constructif du falsificationisme. Une théorie étant en
général bâtie sur un ensemble d'hypothèses, sa réfutation en bloc ne permet pas vraiment
d'identifier les hypothèses mises en causes. La prédiction incorrecte vient peut-être d'une
hypothèse erronée ou de quelque partie de la description des conditions initiales. Ainsi, la
falsification pure et simple d'une théorie fausse n'est pas constructive. Plutôt que de la réfuter, il est
préférable de mieux déterminer son domaine de validation ou de la réajuster pour l'améliorer.
D'ailleurs, à l'instar de la révolution copernicienne qui s'est déroulée pendant plus d'un siècle,
l'établissement d'une théorie demande du temps et des ajustements, or ceux-ci sont infaisables dans
une démarche falsificationiste pure. Selon Feyerabend, il faut laisser vivre une hypothèse plus ou
moins réfutée, tant qu'elle est dynamique et qu'elle évolue. Pour lui, la réfutation n'est pas acceptée
comme étant le critère ultime ou suffisant pour le test scientifique, opinion que partage H.A.
Simon :
There is a saying in politics that « you can’t beat something with nothing ». You can’t defeat a
measure or a candidate simply by pointing to defects and inadequacies. You must offer an
alternative. The same principle applies to scientific theory. Once a theory is well entrenched, it will
survive many assaults of empirical evidence that purports to refute it unless an alternative theory,
consistent with the evidence, stands ready to replace it. [Simon, 1978]

1.3.2.6 Pas de critère absolu pour légitimer une théorie


En vérité, la vérité, il n'y a pas de vérité !
Jean-Claude Van Damme
Le rationaliste Lakatos reconnaît que ”le problème central en philosophie des sciences est [...]
celui d'établir des conditions universelles déterminant qu'une théorie est scientifique” [Lakatos,
1974, cité dans Barboux, 1990]. Car, estime-t-il, en essayant de définir des normes de rationalité,
”la méthodologie des programmes de recherche peut nous aider à inventer des lois pour endiguer...
la pollution intellectuelle” [Lakatos & Musgrave, 1974, cité dans Chalmers, 1982]. Ces remarques
montrent, qu'à l'opposé de Feyerabend qui prône le ”tout est bon”, Lakatos, lui, considère que la
science est plus à même d'atteindre la vérité. Elle mène à une approche asymptotique de la vérité.
33

Les falsificationistes comme Popper soutiennent que la science a progressé en se rapprochant


toujours de la vérité. ”Au fur et à mesure qu'une science progresse, la vérisimilarité de ses théories
augmente régulièrement” [Popper, 1985]. Les termes vérisimilarité ou vérisimilitude qu'il propose
évoquent la proximité d'un savoir avec la vérité. Mais cette distanciation vis-à-vis de la preuve
irréfutable oblige à un discours plus modéré. La pensée critique de Popper implique que les
scientifiques renoncent à leurs certitudes. C'est une attitude difficile a assumé car elle est contraire
à notre état d'esprit quotidien :
"Nous avons tendance à vivre dans un monde de certitude, de perceptions indiscutables,
catégoriques. Nos convictions démontrent que les choses sont comme nous les voyons, et nous
n'envisageons pas d'autres possibilités pour ce que nous tenons pour vrai. C'est notre situation
quotidienne, c'est ce que nous impose notre culture, c'est notre manière habituelle d'être humain."
[Maturana & Varela, 1994]
Dans ses ”Pensées”, Pascal exprimait déjà cette opinion : ”C'est une maladie naturelle à l'homme
de croire qu'il possède la vérité”. On comprend alors qu'il n'existe pas de norme de rationalité
universelle. Ce qui est jugé meilleur ou pire varie d'une communauté à l'autre. C'est l'idée que
défend Thomas Kuhn qui constate qu' ”il n'y a pas d'algorithme neutre pour le choix d'une théorie”
[Kuhn, cité dans Chalmers, 1982]. Il n'y a pas de critère absolu, même si la détermination de tels
critères était bien l'un des objectifs de l'épistémologie. Après avoir retracé l'histoire des concepts
de l'épistémologie, Chalmers [1982] conclue :
"les philosophes ne possèdent pas les moyens de légiférer sur le critère à satisfaire pour juger
acceptable ou « scientifique » un domaine du savoir. Il n'y a pas de critères absolus pour évaluer ou
juger une théorie [...] Nous pouvons uniquement nous demander quels sont ses buts, quels sont les
moyens utilisés pour y parvenir et quel degré de succès ils atteignent."

1.3.2.7 Si rien n'est sûr, alors tout se vaut ?


Accepter l'opinion de Popper selon laquelle toute théorie est intrinsèquement fausse (dans le sens
d'un refus d'une quelconque validation forte sous-entendant la vérité) et adhérer aux principes
constructivistes, peut fragiliser les fondements de la science. A ce sujet, l'allégorie de la science
utilisée par Popper est éloquente :
La base empirique de la science objective ne comporte donc rien d' « absolu ». La science ne repose
pas sur une base rocheuse. La structure audacieuse des théories s'édifie en quelque sorte sur un
marécage. Elle est comme une construction bâtie sur pilotis. Les pilotis sont enfoncés dans le
marécage mais pas jusqu'à la rencontre de quelque base naturelle ou « données » et, lorsque nous
cessons d'essayer de les enfoncer d'avantage, ce n'est pas parce que nous avons atteint un terrain
ferme. Nous nous arrêtons, tout simplement, parce que nous sommes convaincus qu'ils sont assez
solides pour supporter l'édifice, du moins provisoirement. [Popper, 1973]
On peut penser que toutes ces discussions sont fumeuses et stériles. Mais elles ont des
répercussions sur la vie de chercheurs (accréditation d'un programme de recherche) ainsi que sur
notre vie quotidienne. Cette apparente fragilité ne doit pas être la porte ouverte à un relativisme
absolu qui considérerait que les théories sont aussi valables les unes que les autres. Ainsi par
exemple, dans l'exercice qui consiste à dénigrer 150 ans de recherche sur l'évolution des espèces,
les créationistes dit scientifiques profitent de ces controverses sur la rationalité des sciences pour
colporter leurs idéaux avec la volonté de fonder scientifiquement les récits bibliques 8. Le plus
inquiétant est qu'ils utilisent ces arguments pour exiger que les théories créationistes soient
enseignées dans les écoles au même titre que la théorie de l'évolution. Leur stratégie de

8
Une volonté de ”combattre la science sur son propre terrain, trouver et promouvoir les preuves scientifiques en
faveur d’une interprétation littérale de la Genèse biblique. Ainsi la terre n’aurait que 6000 ans et les fossiles seraient
expliqués par le déluge. Deux siècles de géologie et de paléontologie sont réinterprétés de fond en comble ; au besoin
par le moyen d’expérimentations, et la biologie évolutionniste niée de manière à ce que la bible soit « scientifiquement
prouvée » ”. [Lecointre, 2004]
34

communication consiste alors à affirmer que la théorie darwinienne ”n’est qu’une théorie”,
suggérant par-là qu'elle n'est pas plus valable qu'une autre 9.
S'il est indispensable pour l'ouverture d'esprit, le doute scientifique ne doit pas céder la place à un
relativisme absolu où toutes opinions se vaudraient, où les croyances et les savoirs seraient du
même ordre. Maturana et Varela ne partageraient peut-être pas cet avis lorsqu'ils écrivent que :
"Une explication est toujours une proposition qui reformule ou recrée les observations d'un
phénomène, dans un système de concepts acceptables par un groupe de gens partageant les mêmes
critères de validation. La magie par exemple, est une explication aussi valable pour ceux qui
l'acceptent que la science pour ceux qui l'acceptent”. [Maturana & Varela, 1994]
Mais ce qui différencie la magie ou la croyance d'une connaissance scientifique c'est peut-être bien
la méthode basée sur la réfutation. Les auteurs proposent alors de distinguer quatre conditions
essentielles à l'élaboration d'une explication scientifique :
a) Décrire le phénomène d'une façon acceptable par un groupe d'observateurs.
b) Proposer un système conceptuel capable d'engendrer le phénomène à expliquer d'une
manière acceptable par un groupe d'observateurs (hypothèse explicative).
c) Obtenir à partir de (b) d'autres phénomènes non considérés de façon explicite dans cette
proposition, et décrire leurs conditions d'observation par un groupe d'observateurs.
d) Observer ces autres phénomènes obtenus à partir de (b).[ibid.]
Pour ce dernier point (d), l'observation effective de phénomènes, initialement prévus par la théorie
ou le modèle mais non explicités, joue comme la confirmation d'une prévision (cf. la découverte
de Neptune). Mais le fait de décrire ”d'autres phénomènes” qui peuvent être observés, range à mon
sens cette proposition dans la démarche falsificationiste. Le degré de falsifiabilité permet de
classifier des propositions en leur donnant une valeur informative.

1.3.2.8 La valeur informative d'une théorie


A mon sens, l'intérêt du réfutationnisme repose sur la notion de valeur informative d'une théorie :
Popper considère qu'une théorie n'est valable que si elle est falsifiable, c'est-à-dire que les
assertions qu'elle produit sur le monde peuvent être réfutées ou corroborées. Une théorie est alors
qualifiée de bonne théorie si elle présente un haut degré de falsifiabilité : plus elle énonce
d'assertions sur le monde, plus elle est falsifiable et meilleure devient-elle en résistant à chaque
fois aux tests. D'ailleurs, plus une théorie est générale, plus elle est falsifiable car elle prend le
risque d'exposer un plus grand nombre d’énoncés.
Selon Popper, plutôt que de rechercher des propositions invérifiables, le scientifique doit produire
des énoncés réfutables. C'est cette réfutabilité qui doit constituer le critère de démarcation entre
une hypothèse scientifique et une pseudo-hypothèse.
En effet, des hypothèses non réfutables produisent des théories ad hoc, c'est-à-dire qu'il est
impossible de concevoir un événement qui puisse les réfuter. Souvent, une hypothèse ad hoc est
rajoutée à une théorie contredite par une observation afin d'éviter de la remettre en cause, en
expliquant par exemple qu'il s'agit d'un cas particulier. Revenons sur l'exemple de la découverte de
Neptune : l'orbite d'Uranus n'obéissait pas à celle prévue par les lois de Newton. A cette réfutation,
on aurait pu en première instance tirer deux conclusions : soit l'observation était incorrecte, soit les
lois de Newton étaient erronées. On aurait pu également rajouter l'hypothèse ad hoc selon laquelle

9
Cela suggère également une dépréciation des théories par rapport aux faits ”Cette vision implique que seul le
fait, n’importe quel fait, serait noble et surtout s’exprimerait de lui-même, laissant les théories au niveau des
spéculations sans fondements ni preuves.[…] Par conséquent, tout manipulateur habile a recours aux seuls «faits». Le
mot est d’autant plus martelé que l’on veut vous empêcher d’identifier toute la construction théorique ou la
représentation du monde qu’il y a derrière.” [Lecointre, 2004]
35

Neptune échappait à la mécanique newtonienne parce qu'elle était la dernière planète du système
solaire. Cet ajustement est ad hoc (donné pour l'occasion) et irréfutable dans le sens où il n'existe
aucun moyen de le démentir. Il appauvrit la théorie. On a par contre proposé une autre hypothèse
réfutable : l'orbite d'Uranus serait en fait perturbée par une autre planète dont les moyens
d'observation de l'époque ne rendaient pas compte. Cette seconde hypothèse est réfutable car elle
prend le risque d'affirmer la présence d'un autre corps céleste dont la position et la masse sont
définies à partir de la formule de Newton. La découverte de Neptune a posteriori a corroboré cette
hypothèse et a renforcé dans le même temps la théorie newtonienne. Mais si les nouvelles lunettes
astronomiques n'avaient pas décelé cette planète, alors la réfutation aurait été avérée 10.
On conçoit donc qu'une "bonne théorie est audacieuse". Si l'on veut progresser dans la
connaissance, il faut prendre des risques : risques de formuler des hypothèses non évidentes et
surtout falsifiables. La théorie produite acquiert alors une valeur informative. De plus, une théorie
doit être plus falsifiable encore que celle qu'elle cherche à remplacer. Elle doit par exemple oser
décrire un nouveau phénomène que l'ancienne théorie n'avait pas envisagé.
Somme toute, confirmer une conjecture prudente est peu informatif : passer son temps à faire
tomber des pommes ne nous apprend plus grand chose ! Il en va de même pour la réfutation d'une
conjecture audacieuse : montrer qu’une idée extravagante est fausse n’est finalement pas très
instructif. Par contre, confirmer une conjecture audacieuse ou falsifier une conjecture prudente
produisent des informations significatives qui contribuent à enrichir les savoirs :
"La croissance du savoir se produit soit par confirmation d'une conjecture audacieuse, soit lors de la
falsification d'une conjecture prudente. En même temps la confirmation d'une théorie audacieuse se
traduit par une falsification d'une partie du savoir acquis" [Chalmers, 1982]

1.4 DISCUSSION : EVALUATION DES MODELES


Cette petite digression vers l'épistémologie ne nous sert qu'à repositionner la question de la
validation des modèles à la lumière des réflexions de cette discipline. Evidemment ce petit détour
reste superficiel car les idées des philosophes des sciences sont plus riches et plus étendues que
celles que j'ai exposées. Pour un panorama plus approfondi sur ce sujet en relation avec les
modèles, on peut se reporter à [Varenne & Phan, 2006], [Ulrich & Troitzsch, 2005] et [Varenne,
2006].

1.4.1 Pas de validation définitive


Il est préférable de considérer qu'à l'instar des théories, tout modèle est intrinsèquement faux. Il est
même nécessaire de porter un regard critique à son égard pour remettre en cause les savoirs qu'il
véhicule. De ce fait, on ne peut jamais affirmer qu'un modèle est définitivement validé (dans le
sens d'une validation forte), même s'il a surmonté victorieusement des tests rigoureux. Un énième
test ou un cas de figure particulier pourra toujours le réfuter. A cette occasion, on pourra soit
restreindre le domaine d'application du modèle, soit le révisé en relançant une nouvelle boucle
d'apprentissage (propositions de Lakatos).
Par contre, on peut heureusement dire qu'un modèle est supérieur à ceux qui l'ont précédé au sens
où il est capable de résister là où les autres ont échoué. Dans le même ordre d'idée, René Thom
expliquait qu' ”un modèle est jugé utile jusqu'au moment où on en construit un meilleur” [Thom,

10
Autre exemple : la découverte par Galilée des cratères sur la Lune s'opposait à la théorie aristotélicienne qui
imposait que les corps célestes soient des surfaces lisses. Pour contredire Galilée on a alors imaginé que les mers de la
Lune étaient recouvertes d'une substance invisible qui lui conférait la forme d'une sphère. Cet ajustement est
irréfutable car il n'y a aucun moyen de détecter cette substance. Pour contrer ses adversaires, Galilée a utilisé des
arguments dignes de la méthode de Watzlawick : il feignit d'admettre la présence de cette substance mais prétendit
qu'elle était au contraire située sur les montagnes de la Lune !
36

1978]. Concernant le problème de la validation, l'auteur rajoutait alors que la notion même de «
vérité » ou de « fausseté » d'un modèle n'est guère pertinente :
un modèle (M) est satisfaisant, s'il fournit une réponse satisfaisante à la question ( Q̂ ) qui a motivé la
modélisation. Encore faut-il préciser ce qu'on entendra par réponse satisfaisante : ce sera, très
souvent, une réponse qui permet la prédiction temporelle sur le comportement du système (X)
modéliser. Mais ce pourra être, tout aussi bien, une réponse qui, tout en améliorant en rien nos
capacités prédictives sur (X) contribue à améliorer le caractère énigmatique du comportement de
(X). [ibid., voir graphique 2-7]
Cependant, je demeure très circonspect sur l'emploi du terme prédiction cité par Thom, tout
spécialement à l'encontre des systèmes complexes. Mais je ne suis pas le seul. Dans son article
intitulé ”Futures, prediction and other foolishness”, [Bradbury, 2002] fustige les notions de vérité,
validation et prédiction qui gravitent souvent autour des discussions sur les modèles. Les systèmes
étudiés dans le cadre des ressources renouvelables sont souvent bien plus complexes que ceux sur
lesquels l'épistémologie s'appuie. Ce sont généralement des systèmes adaptatifs avec un grand
nombre d'entités pouvant évoluées. Or si la mécanique newtonienne permet de prévoir précisément
la dynamique de quelques objets (dans un certain domaine), un modèle climatique, un modèle de
marché boursier ou encore un modèle de paysage n'est capable d'aucune prédiction exacte sur son
évolution.
Du reste, le même constat est avoué dans le domaine des systèmes naturels. Dans un article paru
dans ”Science” intitulé "Verification, Validation and Confirmation of numerical models in the
earth sciences" et qui fit grand bruit, [Oreskes et al., 1994] lancent cet avertissement sur
l'impossibilité de validation. Ils expliquent cette incapacité par le fait que les systèmes naturels ne
sont jamais des systèmes fermés et que les résultats des modèles ne sont jamais uniques.

1.4.2 Modèles Ad Hoc


Contrairement aux idées répandues, un bon modèle n'est pas un modèle qui ”colle” aux données.
Les expériences que j'ai relatées au début de ce chapitre montrent qu'une bonne corrélation entre
les sorties d'un modèle et des données observées peut provenir d'un facteur externe non pris en
compte par le modèle (graphique d’Odum), ou encore être clairement le fruit du hasard (évolution
des captures de lynx et des taches solaires).
Néanmoins, la comparaison des résultats de simulation avec des jeux de données empiriques reste
un exercice important. Mais de quelles données s'agit-il ? Il n'est pas rare de trouver des articles
exposant les résultats de simulations correctement corrélés avec un jeu de données. Mais est-ce
suffisant pour attester de la validité du modèle présenté ? De plus, si ces données ont servi à
calibrer le modèle alors évidemment la corrélation risque d'être excellente. Mais n'est-on pas dans
ce cas à la limite de l'escroquerie ? Nous sommes alors probablement devant le cas typique d'un
modèle ad hoc, c'est-à-dire d'un modèle auquel on ne demande qu'à s'adapter convenablement à ses
données. Son domaine d'application se limite juste à ce jeu de données. Il ne fournit aucune
hypothèse falsifiable sur le procédé qui les a générées; aucune valeur informative et aucun savoir
supplémentaire. Bien sûr, ce cas de modèle ad hoc est extrême, mais on peut parfois s'en
rapprocher fortement.
Dans le domaine des modèles statistiques, McCullagh et Nelder expliquent que la valeur d'un
modèle est qu'il fournit un résumé clair des données. ”A première vue, un modèle semble bon
lorsqu'il s'ajuste très bien aux données observées, c'est-à-dire lorsqu'il produit des variables
simulées très proches de celles observées.[...] Les valeurs ajustées sont choisies pour minimiser
certains critères tels que la somme des carrés des écarts. Mais en introduisant un nombre suffisant
de paramètres dans notre modèle, nous pouvons le caler aussi bien qu'on le souhaite; en fait, en
utilisant autant de paramètres que d'observations, on peut l'ajuster de façon parfaite. Cependant, en
procédant de cette manière, nous n'accomplissons aucune réduction de la complexité; nous n'avons
37

pas produit de modèles théoriques simples. La parcimonie des paramètres est donc la
caractéristique souhaitable de tout modèle” [McCullagh et Nelder, 1989].
D'autre part, il ne s'agit évidemment pas d'adhérer au mieux aux données qui serviraient au calage
du modèle, mais plutôt d'étendre au maximum son domaine d'application. La comparaison doit
alors s'appliquer à de nouveau jeux de données. Plus on en dispose et plus elles ont été recueillies
dans des conditions variées, meilleure sera la confiance dans le modèle s'il surmonte ces tests.
Malheureusement la quantité de données nécessaires pose problème, d’autant plus si l'on travaille
dans le champ des sciences humaines et sociales où les expérimentations sont difficilement
concevables, les collectes sont difficiles à réaliser (voire impossibles) et les données collectées
sujettes à caution.

1.4.3 La valeur informative du modèle


A l'opposé du modèle ad hoc, le « degré de falsifiabilité » d'un modèle apparaît être un critère
important pour juger de sa valeur : plus un modèle « énonce d'assertions sur le monde », plus il est
falsifiable et plus sa valeur informative devient importante. Lorsqu'il présente des concepts
audacieux (des idées neuves) qui semblent s'appliquer à des situations variées et s'il n'est pas
réfuté, il constitue clairement une amélioration du savoir.
Pour donner un exemple sur ce sujet, on peut s'appuyer sur l'article de Pierre Livet intitulé ”Essai
d'épistémologie de la simulation multi-agent en sciences sociales” [Livet, 2006]. L'auteur justifie
l'intérêt d'un modèle mettant en œuvre un seul mécanisme formel pour expliquer la diversité de
phénomènes sociaux. Pour étayer son raisonnement, il s'appuie sur un travail de modélisation
mené par G. Weisbuch et ses collègues sur le marché aux poissons de Marseille. Sur ces marchés
de grossistes, on identifie deux catégories de clients : les ”fidèles” qui s'achalandent toujours chez
les mêmes mareyeurs et les ”fureteurs” qui changent de fournisseur à chaque marché. La meilleure
explication disponible de ces phénomènes (que Livet nomme ”scénario rationalisant”) est que les
bons restaurants qui recherchent des poissons de qualité restent fidèles à leur fournisseur habituel
quand les collectivités (cantines…) cherchent les poissons les moins chers. Mais [Weisbuch et al.,
1997] ont essayé de trouver une loi sous-jacente à ces phénomènes sociaux pour fournir ”un socle
théorique plus fondamental que celui des scénarios rationalisant” [Livet, 2006]. L'auteur conclut
que si l'explication formelle ne présente pas d'avantage généralisateur alors l'explication par
scénarios qui reste la plus simple, est préférable. Mais si le nouveau modèle est à la fois plus
simple et plus fondamental (ou plus explicatif), alors il améliore notre savoir et prend le risque
d'être plus générique pour expliquer d'autres mécanismes de scénarios. Dans ce cas, ”la simulation
nous a permis de remonter d'un niveau, […] elle explique des phénomènes sociaux de manière
plus approfondie que ne le font les scénarios sociaux” [ibid.]. Son degré de falsifiabilité est plus
élevé.

1.4.4 La confirmation d'anticipation


A l'instar des théories, le modèle doit permettre d'anticiper de façon non évidente des réactions
possibles du système qu'il représente. On peut alors l'utiliser pour retracer des évolutions
rétrospectives ou pour imaginer des scénarios prospectifs. Ces expériences, si elles sont
confirmées, ne valideront pas le modèle; elles permettront simplement d'augmenter notre
confiance en lui.
Or un modèle de simulation est un système fermé et il est nécessaire de lui fournir artificiellement
des données nouvelles pour évaluer ses réactions. A l'instar des systèmes écologiques ou sociaux
qui, eux, sont des systèmes ouverts, un modèle dynamique doit être capable de réagir de façon
appropriée (adaptation, réaction, résilience,…) à des fluctuations ou à des événements externes.
C'est cette faculté à mimer l'adaptation du système qu'il faut tester. Ce travail ne nécessite pas
forcément de données. Si, lors de recherche des similarités, même vagues, on est capable de
38

repérer des changements de régime, des points de bifurcation ou des transitions de phase, alors ”les
processus computationnels auront donc démontré leur capacité à mimer l'émergence” [livet, 2006].
Mais même ainsi, il est nécessaire de garder une distance critique vis-à-vis de cet outil avant de
prendre quelques décisions :
The highest degree of confidence is provided by successful independent predictions, which indicate
that the model is structurally realistic. But even after successfully testing a model's independent
predictions, we must remember that the model is still just a model and will never be able to represent
all aspects of the real system. Modeling and models have momentum of their own, and models that
are initially successful pose the risk that modelers will stop distinguishing sufficiently between the
real system and their model. [Grimm & Railsback, 2005]

1.4.5 Alignement de modèles


Si l'expérimentation est difficile voire impossible à mettre en œuvre dans le milieu naturel ou dans
une société, on ne peut ignorer un aspect important de la validation qui consiste à comparer des
modèles. L'idée de cette démarche parfois nommée ”alignement de modèles” ou ”docking” [Axtell
et al., 1996], est de confronter les résultats de plusieurs modèles qui partagent les mêmes objectifs
afin de déterminer si leurs conclusions sont effectivement similaires. S'il y a effectivement
convergence et si les modèles ont été conçus de façon indépendante par différentes équipes, alors
on estime qu'ils sont crédibles.
Cette approche semble encore peu développée dans la littérature. Toutefois, les climatologues en
font mention puisqu'ils sont régulièrement confrontés au problème de l'évaluation de leurs
prévisions 11. Les difficultés qu'ils rencontrent dans la modélisation et les recherches qu'ils mènent
sur le domaine révèlent progressivement l'énorme complexité des phénomènes naturels et les
difficultés liées à la prévision de l'évolution du climat. Dans le même temps, les capacités
d'expertise se sont accrues. Le climatologue Hervé Le Treut évoquant le problème du
réchauffement climatique [Le Treut, 1997] montre que face à l'incertitude qui résulte de la
complexité d'un système et du manque d'expérimentation, la mise au point indépendante de
nombreux modèles, couplée à la comparaison de leurs performances respectives, augmente le
crédit que l'on peut avoir dans leurs prévisions lorsque celles-ci tendent vers une même direction.
Le concept de variété requis réapparaît pour les modèles.

1.5 CONCLUSION DU CHAPITRE


Un modèle est habituellement considéré comme valide lorsque ses sorties sont proches des
données du système qu'il décrit. Or, le terme ”validation” demeure problématique car il peut
laisser à penser qu’un modèle validé serait juste. Ainsi, à partir du moment où un modèle, quel
qu'il soit, serait déclaré comme valide, on pourrait prendre toutes sortes de décisions en se fiant à
ses seuls résultats. Il est donc préférable de considérer qu'à l'instar des théories, tout modèle est
intrinsèquement faux. Quel que soit le nombre de corroborations qu'il a éprouvées, il est nécessaire
de rester sceptique à son égard. Par conséquent, il est préférable d'utiliser le terme d'évaluation
plutôt que celui de validation d'un modèle.
Pour autant, tous les modèles ne se valent pas. Sur un sujet donné, ils ne sont pas aussi valables les
uns que les autres. Le ”degré de falsifiabilité”, concept issu de l'épistémologie, permet d'en évaluer
la valeur informative. A l'opposé du modèle ad hoc, plus le domaine d'application d'un modèle est
étendu, plus son niveau de généralité est élevé ou plus il propose d'explications formelles et plus il

11
La question par exemple est de savoir si le scénario du présent siècle sera celui d’un changement violent (+2°C de
température moyenne du globe) ou très violent (5 à 6°C) du climat planétaire. L’un des facteurs à l’origine de cet écart
dans les modèles semble être la plus ou moins grande rigueur des politiques de maîtrise et de réduction des émissions
qui pourront être menées dans les prochaines années.
39

prend le risque d'être réfuté. Un bon modèle est donc réfutable. On peut alors le mettre à l'épreuve
en évaluant les niveaux de similarité avec des jeux de données (ou s'il en manque, en le comparant
à d'autres modèles). Plus on en dispose, meilleure sera la confiance dans le modèle s'il surmonte
ces tests. S'il échoue, il faut alors le réviser ou réduire son domaine de validité. Cependant, étant
donné qu'il demeure une représentation abstraite, les approximations et même les erreurs lui sont
inhérentes [Hagget, 1973].
Le modèle doit également permettre de retracer des évolutions rétrospectives ou d'anticiper des
réactions face à des évènements probables. On teste ainsi s'il est capable de mimer les réactions du
système cible. Mais il ne s'agit pas forcément de comparer ses résultats avec des données
observées. S'il mime les grandes tendances ou s'il permet de détecter les changements de phase,
alors il n'est pas besoin de calcul de coefficient de corrélation ou de test du χ2 pour augmenter
notre confiance en lui. D'ailleurs, il est plus essentiel de montrer la robustesse de ses résultats que
des corrélations fines sur des valeurs précises de paramètres.
Par conséquent, on peut partager les constats que Volker Grimm présente dans le domaine de
l'écologie qui peuvent tout à fait s'appliquer pour la modélisation des anthropo-socio-éco-
-systèmes :
There are no true or false models because all models are, necessarily and deliberately, false to some
degree. The only useful general classification of models is ‘useful’ and ‘not useful’ with respect to
the purpose for which the model was designed.[Grimm, 1999]
Ainsi, la notion d'objectif est prépondérante pour évaluer la pertinence d'un modèle. Alors, la
définition la plus adéquate de la validation-évaluation d'un modèle est celle énoncée par [Balci,
1998] : évaluer la pertinence d'un modèle consiste à prouver que, dans son domaine d'applicabilité,
celui-ci se comporte avec une justesse satisfaisante en accord avec ses objectifs. Par conséquent, si
l'évaluation doit s'effectuer en fonction des objectifs du modèle, il est nécessaire d'en présenter les
grandes lignes. C'est l'objet du chapitre suivant.
Chapitre 2

POURQUOI MODELISER ?
« Nous ne pouvons connaître la réalité en soi ; nous ne connaissons
que les noms, les représentations de cette réalité »
Guillaume d’Ockham (1285 – 1349)

L'évaluation d'un modèle peut-elle être dissociée de l'usage que l'on souhaite en faire ? Ce chapitre
passe en revu les objectifs qui sont habituellement reconnus aux modèles. Il décrit les différents
types de modèles, allant de la représentation statistique d'un grand nombre de données jusqu'aux
modèles multi-agents en passant par les outils plus standards de la modélisation mathématique.

2.1 ROLE ET STATUT DES MODELES


2.1.1 Modèles prédictifs et modèles explicatifs
On peut distinguer deux grandes catégories de modèles en science : les modèles prédictifs et les
modèles explicatifs. Les premiers visent uniquement à faire des prévisions sans essayer d'expliquer
un phénomène. Ce sont par exemple les réseaux de neurones ou les modèles de types
météorologiques basés sur des analyses de séries temporelles. A l'inverse, les modèles explicatifs
(modèles d'estimation statistiques, modèles mathématiques, systèmes experts et SMA) tentent de
proposer une explication (ou une interprétation) sur le fonctionnement d'un système et d'identifier
les paramètres clés susceptibles de modifier l'état de ce système.
Bien sûr, la thèse est consacrée préférentiellement à ces modèles explicatifs et plus
particulièrement aux modèles de simulation, au statut de la simulation et à la modélisation multi-
agent. Mais étant donné que les modèles à équations et les SMA prennent en compte explicitement
le temps, il est parfois demandé à ces outils de « prédire » l'évolution d'un système. Il est donc
important de faire un point sur le problème de l'anticipation.
Nous ne nous attacherons pas ici à définir ce que sont les modèles multi-agents (le chapitre suivant
y est dédié), mais nous essayerons de répondre à la question ”qu'est-ce qu'un modèle, au sens plus
général ? A quoi sert-il ?”.

2.1.2 L'origine étymologique de « modèle » possède deux significations


Le terme de modèle est polysémique. L’histoire de son usage est longue et riche. Les explications
étymologiques qui suivent proviennent des notes de S. Bachelard [1978]. Le mot modèle vient du
latin modulus (diminutif de modus : mesure), terme d'architecture qui désigne la mesure arbitraire
servant à établir les rapports de proportion entre les parties d'un ouvrage d'architecture. Le terme
de modulus a donné lieu à deux importations successives, au Moyen Age et à la Renaissance. Tout
d'abord, modulus a donné en vieux français moule, en vieil anglais mould et en ancien-haut
allemand model (avec un seul l). Au XVIe siècle un emprunt à l'italien modello (venant lui-même
du latin modulus), employé par la statuaire, a donné en français modèle, en anglais model et en
allemand modell (avec deux l). Dans la langue courante allemande les deux mots Model, Modell
coexistent actuellement, le mot Model (module, moule, matrice) étant un terme de métier. En
français, le mot moule a subsisté à côté du mot module et modèle [Bachelard,1978].
41

Dès son origine, le terme de modèle oscille donc entre deux significations : l'objet matériel et la
norme abstraite. Aujourd'hui, le mot « modèle » synthétise les deux sens opposés de la notion
d'imitation et de référence. En effet, le modèle désigne soit un objet jouant le rôle d'idéal ou
d'étalon que l'on se doit d'imiter (l'exemple à suivre, le modèle du peintre, le modèle du maître vis-
à-vis du disciple, le top model qui véhicule les canons de la beauté et s'impose comme la norme),
soit un concept ou un objet qui tente d'imiter une réalité (le modèle réduit, la maquette, le modèle
du scientifique). C'est évidemment à cette deuxième signification que nous nous référerons pour la
suite de cette thèse, mais il est intéressant de garder à l'esprit cette double acceptation : le modèle
du scientifique peut par moment devenir une référence, un modèle du genre, qui parfois peut
même jouer le rôle de ”modèle totalitaire” lorsqu'on l'applique par analogie à d'autres domaines
que ceux pour lequel il était conçu [Danchin, 1978]. Les réflexions par analogie peuvent s'avérer
fructueuses dans certains cas, mais peuvent parfois conduire à une ”nomadisation prétentieuse et
obscurantiste”, comme le souligne [Gayon, 2002] à propos des méthodes de dynamique des
populations appliquées de manière autoritaire à l’évolution culturelle, ou encore à propos du
concept de capacité de charge qui depuis son invention il y a 70 ans s'est déplacé du domaine de la
démographie à l'écologie, aux dynamiques des populations pour aujourd'hui être utilisé dans le
domaine des décideurs politiques [Le Bras, 1996].

2.2 MODELISER POUR IMITER ?


Suppose we want to inform ourselves about the looks of Gertrude Stein.
Will we learn more from Picasso's famous portrait
of her or from a photograph ?
[Casti, 1997]
Dans la majorité des publications, il est dit qu'un modèle est construit pour mimer au mieux la
réalité. Dans les termes de Alain Pavé, ”un modèle est une représentation formelle du monde réel”
[Pavé, 1994]. Son but est de fournir une image ou une représentation d'un phénomène réel.
Cependant celui-ci n'est pas appréhendable dans son ensemble. Car, pour décrire un système, quel
qu'il soit, à quel niveau de détail faut-il s'arrêter ? Faut-il par exemple décrire le niveau
microscopique, voire même en-deçà ? D'autre part, un même objet d'étude peut être observé sous
différents angles et selon différents critères. La représentation qu'en donne chacun risque alors
d'être différente. Ainsi, dans un registre bien différent, un imitateur cherche à saisir certains
aspects d'un personnage qu'il caricature en omettant toutes les autres facettes de sa personnalité.
Dans le même ordre d'idées, le modélisateur souhaite que son modèle copie au moins certaines
variables qu'il considère comme intéressantes ou essentielles.
C'est pourquoi, le réel apparaît si complexe qu'il est illusoire de vouloir le représenter
complètement sans gommer des pans entiers de cette réalité. Le modèle (réduit) ne peut pas être
une réduction de la réalité sans perte, comme on pourrait l'imaginer à travers une transformation
homothétique pure. Les choix et les simplifications opérés sur l'objet étudié pour le re-présenter
dénaturent obligatoirement cet objet.
"Les simulations ne peuvent être considérées comme réalistes puisqu’elles se fondent sur des
modèles simplificateurs orientés en vue d’un objectif pragmatique. Les modèles sont perspectivistes :
ils sont des outils simplificateurs visant un certain objectif. Ils formalisent un point de vue. Or, un
point de vue sur la réalité n’est pas la réplication de la réalité. Les modèles sont des fictions et les
simulations sont des récitations particulières de ces fictions" [Varenne, 2003].
Pour illustrer le rapport entre modéliser pour imiter et modéliser pour apporter un point de vue,
prenons l'exemple de la peinture. Le modèle du peintre, objet en 3 dimensions, est dessiné sur un
support plan selon un procédé classique d'imitation qui consiste à donner l'illusion de volumes. Le
« modelé » s'obtient par exemple au moyen de hachures ou de dégradés qui soulignent des jeux
d'ombre et de lumière. Avec l'impressionnisme, ce procédé est remplacé par des modulations de
42

touches de couleur suggérant une autre perception de la réalité. La peinture se détache désormais
du souci d'imitation. Ainsi, dans le domaine de l'art, le modèle quitte le rôle d'objet à imiter et
devient source d'inspiration pour créer une émotion.
Sur cette conception, Casti [1997] décrit les différents types de modèles en raisonnant par
analogie. Il compare deux portraits d'une femme (Gertrude Stein), l'un photographié et l'autre peint
par Picasso. Si le premier portrait tente d'imiter la réalité, le second met en avant le caractère
intime du personnage en capturant seulement certaines parties de son visage. En discutant des
avantages et désavantages de chaque représentation, Casti explique que nous comprenons
davantage la personnalité de Mme Stein à partir du tableau plutôt qu'en regardant la photographie.
D’ailleurs, Picasso lui-même expliquait que « l'art est un mensonge qui nous fait nous rendre
compte de la vérité ». En conclusion, Casti associe ces deux portraits à deux approches de la
modélisation : l'une est descriptive quand l'autre est explicative. A la lumière de ces réflexions, on
peut reconsidérer l'interrogation que Guillaume d’Ockham se posait déjà au Moyen-âge :
"L’ordre que nous percevons n’est peut être pas l’ordre réel de la nature"
Guillaume d’Ockham (1285 – 1349)
Il me paraît donc important d'être prudent avec cette notion d'imitation, d'autant plus que l'idée
d'une réalité allant de soi est également une notion délicate qu'il faut aborder avec circonspection.
Nous reviendrons sur ces notions relevant du constructivisme dans ce chapitre et plusieurs fois au
cours de la thèse.

2.3 MODELISER POUR PREDIRE ?


Prétendre prévoir complètement le futur, c'est déjà le penser comme passé.
Si tout était toujours et déjà joué, le futur serait en vérité passé.
Henri Bergson, L'évolution créatrice [1907]
Peut-on prédire ? Sommes-nous complètement déterminés ou notre futur contient-il une part
d'incertain ? Sans aborder la notion de libre-arbitre, on peut au moins s'interroger sur le
déterminisme des phénomènes physiques abiotiques ainsi que sur celui des êtres vivants et des
sociétés. Car, si la prédiction est l'objectif d'un modèle, il faut donner quelques points de vue sur ce
sujet.

2.3.1 Déterminisme et sciences prédictives


Au XIXe siècle, le scientisme triomphant avance l'idée qu'il n'y a de science que prédictive.
Lecomte du Nouÿ écrivait : ”Le but de la science est de prévoir et non, comme on l'a dit si
souvent, de comprendre” [cité par Lévy-Leblond dans Scheps, 1996]. Pour les sciences physiques,
la prédictibilité des systèmes a longtemps été associée à leur déterminisme : dans la mesure où l'on
connaissait leurs lois, on pensait pouvoir prédire leur comportement au cours du temps. De même,
Claude Bernard expliquait qu' ”il faut croire en la science, c'est-à-dire au déterminisme”. Et cette
idée est encore plus ancienne : Galilée affirmait que Dieu avait écrit le livre de l'univers dans la
langue des mathématiques. Ainsi les lois de la nature suivraient des règles mathématiques. Mais
elles nous sont cachées. D'après Spinoza, ”nous n'appelons contingentes les choses qu'en raison de
l'insuffisance de notre connaissance”. Il suffirait donc de connaître ces lois pour prédire. Alors si
elle pouvait être complète et absolue, une telle connaissance semblerait divine ou provenir du
« Démon de Laplace » :
"une intelligence qui pour un instant donné connaîtrait toutes les choses dont la nature est animée et
la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre
ces données à l'analyse, embrasserait dans la même formule les mouvements des grands corps de
l'univers et ceux du plus léger atome. Rien ne serait incertain pour elle et l'avenir, comme le passé,
serait présent à ses yeux" [Laplace, 1825].
43

D'après la conception déterministe (ou mécaniciste), le futur est entièrement contenu et déterminé
par le présent. En acceptant cette idée et en faisant l'hypothèse de pouvoir connaître parfaitement
les lois de l'univers ainsi que l'ensemble des conditions initiales, nous serions capables de
déterminer avec certitude le futur même dans un avenir lointain. Ce qui signifie qu'en ayant une
parfaite connaissance de tous les éléments constitutifs, toutes les relations existantes dans un
système, il serait possible d'en prévoir exactement l’évolution.
Donc, en se basant sur les relations de causalité, s'approprier le présent d’un système permettrait
non seulement de connaître son passé et mais également de se projeter dans son futur. C'est ce que
qu’affirmait Laplace lorsqu’il écrivait : ”nous devons donc envisager l’état présent de l’univers
comme l’effet de son état antérieur et comme cause de celui qui va suivre”.

2.3.2 Déterminisme et hasard : théorie du chaos déterministe


Si l'on considère deux systèmes identiques purement déterministes, on pense naturellement que
partant de conditions initiales voisines, les trajectoires des deux systèmes restent ensuite très
proches. Ceci n'est pas toujours vrai. Certains systèmes présentent des régimes dit ”chaotiques” où
des écarts minimes dans les conditions initiales conduisent, en un temps limité, à des prévisions
très différentes. C'est ce phénomène qu'exprime la théorie du chaos déterministe. Pour ces
systèmes dits chaotiques, de toutes petites causes sont susceptibles de produire par amplification
de grands effets. Il arrive donc que les effets ne soient pas proportionnels aux causes. Avec le
chaos déterministe, le système reste déterministe et pourtant il devient non prédictible. Il garde
simplement une part de prédictibilité à court terme.
Des recherches sur ce sujet ont débuté dans les années 60-70 avec la présentation de ”l'effet
papillon” en 1963 par le météorologue Edward Lorenz, puis avec les travaux du biologiste Robert
May (1976) sur le modèle logistique récurrent (présentés au chapitre 5.2.2 et en annexe p. 289) et
avec l'énoncer des constantes de Feigenbaum (graphe de bifurcation, voir figure 8-2, p. 179), dont
l'existence a été découverte simultanément par les français Coullet et Tresser et par l'américain
Feigenbaum (1978). Le terme de « chaos » n'a été introduit qu'en 1975 par les deux
mathématiciens Li et Yorke. Mais le point de départ de la théorie du chaos est attribué à Henri
Poincaré qui, en étudiant la stabilité du système solaire, a révélé le problème de la sensibilité aux
conditions initiales («problème restreint aux trois corps»). Car le chaos peut caractériser des
systèmes physiques très simples, non complexes et dont on connaît les lois : malgré cela, il est
impossible de prévoir à long terme les positions exactes du soleil, de la terre et de la lune.

2.3.3 Démarches prospectives pour découvrir le champ des possibles


Il faut relativiser les réflexions précédentes sur l'imprévisibilité des systèmes déterministes, car la
théorie du chaos ne s'applique pas forcément à tous les systèmes. Dans un grand nombre de cas, on
est capable d'anticiper l'évolution d'une situation au moins sur le court ou le moyen terme.
On pense alors qu'un modèle de simulation qui retranscrirait correctement les épisodes du passé
serait ainsi le meilleur outil pour anticiper les phénomènes à venir. Cette vision des choses n'est
pas dépourvue d'arguments, mais elle repose néanmoins sur l'idée de continuité en estimant que les
tendances du passé ne seront pas modifiées dans le futur et que les mécanismes à l'œuvre resteront
inchangés. Or les systèmes complexes montrent parfois des changements de régimes brutaux liés à
des facteurs internes ou externes qui provoquent des dynamiques nouvelles, radicalement
différentes de celles que l'on observait antérieurement. C'est d'ailleurs suite à plusieurs échecs des
modèles dits structurels (c'est-à-dire qui décrivent les mécanismes sensés dirigés l'évolution d'un
système), que les premières analyses de séries temporelles ont vu le jour. Sans portée explicative,
elles exploitent les propriétés statistiques de nombreuses séries de données. On peut alors
déterminer les grandes tendances au sein de ces séries ou bien on cherche à retrouver les séries qui
ressemblent le plus aux variations actuelles. On fait alors l'hypothèse que l'évolution en cours
44

suivra ces séries passées. Depuis quelques années, les prévisions météorologiques par exemple
reposent sur ce principe. Mais sur ce terrain, nous entrons dans la catégorie des modèles prédictifs
esquissés au début de ce chapitre.
Toujours est-il que dans le cas des modèles de simulation à portée explicative, il est illusoire de
croire que les mécanismes qu’ils mettent en œuvre et qui sont censés représenter ceux du système
étudié sont suffisants pour prédire complètement et exactement son évolution, pour peu que ce
système soit complexe, vivant et ouvert. La prédiction reste donc un terme embarrassant dont
l'emploi devrait être évité pour cette catégorie de modèles : les modèles scientifiques ne sont pas
des boules de cristal qui révéleraient l’avenir.
Car il ne s'agit pas de considérer l'avenir comme une chose déjà décidée et qui petit à petit se
découvrirait à nous, mais comme une chose à faire [Berger, 1958]. Au terme prévision, Gaston
Berger préfère celui de prospection, qui est une démarche globale consistant à mieux anticiper les
futurs possibles : le champ des possibles. Dans le même sens, Bergson estime que si le futur est en
grande partie imprévisible, ce n'est pas simplement en raison d'une insuffisance de nos moyens de
connaître la complexité du réel, mais c'est en raison de cette complexité même, qui paraît infinie.
Pour Bergson qui considère que ”notre durée est irréversible”, ”nous sommes, dans une certaine
mesure, ce que nous faisons, et que nous nous créons continuellement nous-mêmes” [Bergson,
1907]. Alors, en opposition à la conception mécaniciste de Laplace, il estime que prétendre prévoir
complètement le futur, c'est déjà le penser comme passé 12.
Si dans le domaine de la physique, les prédictions s'avèrent délicates, les prévisions à long terme
ne sont pas envisageables dans le champ économique et social [Godard & Legay, 1992]. Elles ne
sont que partiellement décidables [Bousquet et al., 1996].
Toujours dans le domaine de l'économie, [Boussard et al., 2005] expliquent, dans une étude
critique du modèle d'équilibre général mondial, que du fait des changements de politique, il est
impossible de comparer le modèle avec la réalité comme le voudrait la rigueur expérimentale.
"C'est bien là un des défauts de la science économique que de ne pas autoriser ce type
d'investigation. En revanche, l'intérêt du modèle est de permettre de pousser la logique d'une
politique jusqu'à ses conséquences extrêmes sur une longue période de temps" [ibid.].
Dans le domaine des sciences sociales et de la gestion des ressources renouvelables, il faut
également rester très circonspect quant à l'emploi de la prédiction.
« Parce qu’il se situe hors de portée de toute prévision, prendre en compte le très long terme dans
l’analyse des problèmes d’environnement implique de se donner des repères ou des objectifs de très
long terme par rapport auxquels les chemins d’évolution, possibles ou impossibles seraient
envisagés. L’approche du long terme ne peut guère relever que du scénario. » [Weber et Bailly,
1993].

2.4 MODELISER POUR GENERER DES SCENARIOS PROSPECTIFS


Anticiper consiste à imaginer le cours possible des évènements et de présumer l'avenir.
Contrairement à la prévision, l'anticipation ou la prospection consiste à concevoir des modèles de
simulation et à les projeter dans le futur pour imaginer des scénarios possibles.

12
”L’essence des explications mécaniques est de considérer l’avenir et le passé comme calculables en fonction du
présent, et de prétendre ainsi que tout est donné”. Bergson s'oppose à une perception mécaniste et finaliste de
l'évolution : ”Sans doute mon état actuel s'explique par ce qui était en moi et par ce qui agissait sur moi tout à l'heure
[...] Mais une intelligence, même surhumaine, n'eût pu prévoir la forme simple, indivisible, qui donne à ces éléments
tout abstraits leur organisation concrète. Car prévoir consiste à projeter dans l'avenir ce qu'on a perçu dans le passé, ou
à se représenter pour plus tard un nouvel assemblage, dans un autre ordre, des éléments déjà perçus. Mais ce qui n'a
jamais été perçu, et ce qui est en même temps simple, est nécessairement imprévisible.”
45

En réfléchissant sur ces notions, Gaston Berger a créé le concept de prospective qui cherche à
connaître les avenirs possibles [Berger, 1958]. Ce terme agrège en fait deux autres concepts : la
prospection qui est l'exploration de domaines nouveaux, et la perspective qui véhicule les notions
de point de vue, de lignes de fuite (en dessin) et de futur. Il s'agit donc d'essayer d'explorer
différents futurs possibles vus sous des angles divers.
Ni prophétie ni prévision – concept théologique réservé à la connaissance que seul Dieu aurait
de l’avenir, disait Voltaire – la prospective n’a pas pour objet de pré-dire l’avenir – de nous le
dévoiler comme s’il s’agissait d’une chose déjà faite – mais de nous aider à le construire. Elle
nous invite donc à le considérer comme à faire, à bâtir, plutôt que comme quelque chose qui
serait déjà décidé et dont il conviendrait seulement de percer le mystère. [Jouvenel, 1999]
Ainsi, la prospective s’interroge sur le ”que peut-il advenir ?”. Mais aussitôt elle rajoute ”que puis-
je faire ?”, ”que vais-je faire ?” et ”comment le faire ?” [Godet, 1991]. L'auteur distingue alors
trois attitudes face aux incertitudes de l’avenir : l'attitude passive qui attend de subir le
changement, l'attitude réactive qui consiste à attendre le changement pour réagir et l'attitude
prospective qui cherche à anticiper les changements. On différencie alors la pré-activité et la pro-
activité : ”La pré-activité, écrit-il, c’est se préparer à un changement anticipé alors que la pro-
activité, c’est agir pour provoquer un changement souhaitable” [ibid.].
La prospective se partage en deux courants de pensée. L'un s'attache à la construction logique de
scénarios quand l'autre est davantage orienté sur l'intuition en imaginant l'avenir sur des bases qui
ne sont pas forcément du domaine de la logique. Par ailleurs, la prospective peut sembler le
pendant de la rétrospective qui cherche à reconstruire l'histoire en y apportant des explications.
Néanmoins, comme on vient de le voir, un modèle capable d’expliquer la succession d’événements
du passé et d’en reproduire le cheminement, n’est pas forcément le meilleur candidat pour aider à
anticiper le futur. Mais à nouveau, nous dérivons vers les problèmes de prévisions, alors que la
prospective cherche davantage à explorer des alternatives possibles en élaborant des scénarios.
Une définition du scénario souvent citée est celle proposée par [Kahn & Wiener, 1967] :
Scenarios are hypothetical sequences of events constructed for the purpose of focussing attention
on causal processes and decision points
Sur ce sujet, [Börjeson et al., 2006] dressent une typologie des approches par scénarios. Leur étude
dépasse un peu le cadre fixé par [Kahn & Wiener, 1967] car elle englobe aussi les approches
prédictives. La classification qu'ils proposent est basée sur les principales questions que l'on peut
se poser au sujet du futur : ”Que va-t-il se passer ?” (prédiction), ”Que peut-il se passer ?”
(éventualités) et ”Comment atteindre un but spécifique ?” (recherche opérationnelle) 13. Pour
chacune de ces questions, [Börjeson et al., 2006] rajoutent deux autres aspects : la structure du
système et les facteurs internes et externes, c'est-à-dire les facteurs contrôlables ou non par les
acteurs du système en question. Le graphique suivant rend compte de cette typologie :

13
Pour la suite de cet exposé, je laisse les termes en anglais qui sont plus classiques et courants :”What will
happen?, What can happen? and How can a specific target be reached? ” [Börjeson et al., 2006]
46

Figure 2-1 : Typologie des scénarios, d'après [Börjeson et al., 2006]

 Les scénarios prédictifs cherchent à répondre à la question ”What will happen?”. Ils se
divisent en deux catégories :
o ”Forecast scenarios” : la prédiction simple où l'on cherche à connaître l'évolution
naturelle du système sans intervention. On suppose alors que les lois qui dirigent
l'évolution du système continueront à s'exercer pendant la période choisie.
o ”What-if scenarios” : des prédictions sont pronostiquées en fonction d'événements
qui pourraient survenir au présent ou dans le futur proche, que ce soient des
événements externes ou liés à des décisions internes. Ces scénarios génèrent donc
des groupes de prévisions en fonction de quelques événements ou décisions qui
pourraient provoquer des bifurcations.
 Les scénarios exploratoires cherchent à répondre à la question : ”What can happen?”. Cette
approche génère des familles de scénarios qui pourraient éventuellement se produire. En
cela, ils ressemblent aux scénarios de type ”What-if” mais sur du plus long terme et
prennent en compte des éventualités qui pourraient survenir à des moments plus éloignés
sans aucune certitude de ce qui se passera effectivement. Parce qu'elle véhicule l'idée de
mieux se préparer à l'éventualité de certaines situations, cette approche est parfois appelée
”Thinking by alternatives”. Les scénarios exploratoires se divisent en deux catégories :
o Les ”external scenarios” cherchent à savoir ce qui pourrait se passer sous
l'éventualité de facteurs externes, hors du contrôle des acteurs impliqués (de type
climatique par exemple). Ils permettent de développer des stratégies capables de
surpasser ces événements externes. Ils sensibilisent les personnes impliquées à mieux
percevoir les signaux même faibles qui pourraient néanmoins être à l'origine de
changements radicaux 14.
o Les ”strategic scenarios” incluent des mesures prises par les parties prenantes. Le but
est donc de décrire les conséquences probables de décisions stratégiques. On
cherchera par exemple à tester des décisions politiques et à décrire leurs effets
possibles.
 Les ”Normative scenarios” doivent permettre de trouver les façons d'atteindre un objectif
donné. Ces approches incluent les techniques de la recherche opérationnelle, de la
programmation dynamique et de la programmation linéaire pour essayer de résoudre des
problèmes d'optimisation. Concrètement, cela signifie d'établir la manière la plus efficace

14
On peut citer ici l'exemple de la planification stratégique de la société SHELL pendant les années 70 et 80. L'un
de ses responsables a utilisé la méthode des scénarios comme méthode d'apprentissage. ”Il montrait comment l'étude
de scénarios à probabilité d'occurrence faible par l’ensemble de la Direction, ainsi que les discussions concernant les
politiques qu'il faudrait alors choisir, avaient permis à la SHELL d'accroître ses résultats (donc sa « viabilité »)
quelques années plus tard, lorsque la situation internationale vit apparaître ces conjonctures supposées a priori
improbables” [Alcaras & Lacroux, 1994]
47

d'atteindre une solution optimale ou proche de l'optimum pour un objectif donné. En


fonction des objectifs et des contraintes, on cherche à savoir par exemple ce que devrait
faire un individu et on suppose qu'il se comportera alors d'une manière proche de cet
optimum. En fonction de blocages qui seraient liés ou non à la structure du système, les
auteurs distinguent deux sous-types de scénarios normatifs :
o Les ”Preserving scenarios” cherchent à savoir comment atteindre cette situation
choisie en ajustant simplement la situation actuelle mais sans changer la structure du
système.
o Les ”Transforming scenarios” décrivent les modifications qu'il faudrait appliquer au
système pour qu'il atteigne la situation visée. Ces scénarios doivent d'abord montrer
que la structure actuelle empêche d'arriver à l'état souhaité et que des ajustements à la
marge ne suffiront pas. Il est nécessaire de transformer plus profondément les
mécanismes pour permettre ces changements. Une façon répandue de mener ces
scénarios consiste à élaborer collectivement des images des situations futures
souhaitées qui servent de base pour discuter des objectifs et prendre des décisions.
Comme on peut le constater, les façons de mener des scénarios sont très variées. Et chaque type de
scénario nécessite des outils adaptés. Ainsi, les systèmes multi-agents me semblent être des outils
privilégiés pour mener des scénarios exploratoires. Mais au-delà de la question des outils, la façon
d'aborder la prospective des systèmes socio-environnementaux dépend de la démarche et de la
déontologie de chacun. Car, dès qu'il s'agit de l'action des êtres humains, les conseils d'experts ou
les solutions clé en main ont souvent montré leurs limites. Souvent, il ne suffit pas d'imaginer la
meilleure piste à suivre, ni de décider seul des façons de faire pour générer effectivement des
changements de conduite des acteurs.
La démarche ComMod que j'exposerai au chapitre suivant, aborde la prospective et les scénarios
d'une manière originale. Elle s'intègre dans les approches par scénarios exploratoires en impliquant
fortement les utilisateurs dans la construction des scénarios.

2.5 MODELISER POUR COMPRENDRE : UN MODELE JOUE LE ROLE


DE FILTRE DISCRIMINANT
Tout savoir est une croyance. Ce que l'on voit n'est qu'une illusion donnée
par nos sens, comme l'ont bien compris les empiristes Hume et Berkeley :
les sens filtrent et traduisent la réalité, nous présentant les choses au
travers d'une transformation parfois déformante
[Ferber, 1995].

2.5.1 Le modèle, filtre discriminant pour résumer la réalité en une photo plus
explicite
En modélisation descriptive, une analyse de données de type ACP (Analyse en Composantes
Principales) est probablement la technique de réduction de dimensionalité la plus répandue. Elle
opère sur des tableaux de données mettant en jeu de nombreuses variables. Issue du traitement
mathématique des matrices et basée sur des principes de géométrie spatiale, elle permet de
synthétiser de grandes quantités de données et d'en dégager les principaux facteurs. Pour cette
raison, elle est aussi appelée analyse factorielle. L'ACP, très utilisée comme méthode descriptive,
permet de convertir un tableau de données quantitatives, en images synthétiques qui en dégagent
les principales structures. Elle opère en détectant des redondances linéaires entre variables, puis en
utilisant ces redondances pour effectuer un changement de repère approprié. Mais la
représentation du nuage de points dans un hyper-espace étant impossible, on cherche à visualiser le
nuage obtenu en le projetant sur la "meilleure" photo possible. On considérera empiriquement que
48

la meilleure photo est celle où l'objet "photographié" s'étale au maximum, parce qu'on espère ainsi
en voir le mieux les détails. C'est ce principe d’étalement maximum qui fonde toute l'analyse
factorielle : elle permet de résumer la diversité en un petit nombre de facteurs [Bommel, 1996].

Figure 2-2 : La projection du nuage de points à N dimensions sur un plan fonde le principe de l'ACP. Figure
extraite de [Bry, 1995]
De façon plus mathématique, le problème de trouver la "bonne" photo revient à trouver un plan
(sous-espace de l'espace multidimensionnel des données) qui reconstruit au mieux l'inertie du
système. La variance des distances entre les images projetées doit être maximale. La projection des
points-individus s'étire alors au maximum sur le plan dont les axes, déterminés à partir des valeurs
propres de la matrice, expliquent les caractéristiques principales des données.
Ainsi, un modèle statistique permet de séparer et de classer des variables pour déceler un ordre
caché dans un ensemble de données et pour estimer les facteurs qui en expliqueraient le mieux les
raisons. Alors, on comprend que d'un point de vue général, "l'intérêt d'un modèle est d'abord d'être
plus explicite, plus simple et plus facile à manipuler que la réalité qu'il est censé représenter. Les
modèles éliminent ainsi un grand nombre de détails considérés comme inutiles par le modélisateur
afin de mieux se consacrer aux données que celui-ci jugent pertinentes relativement au problème
qu'il désire résoudre" [Ferber, 1995].
Déduction, raisonnements,
calculs Prévisions,
Modèle abstrait
compréhension

Abstraction, Application,
modélisation évaluation

Anticipation,
Phénomène
compréhension du
observé Questionnement phénomène

Figure 2-3 : "La prévision et la compréhension de phénomènes passent par l'élaboration de modèles", d'après
[Ferber, 1995].
49

2.5.2 Un filtre discriminant selon les points de vue


En rejoignant [Ramat, 2006], il faut considérer un modèle comme "un filtre conditionné par nos
connaissances, nos vérités et nos capteurs". Ce sont des conclusions similaires que je tirais de mon
stage de DESS à l'INRA qui consistait à concevoir un SMA dans lequel les agents pouvaient
percevoir l'espace à des échelles différentes et à travers des filtres thématiques associés à leur rôle
[Bommel, 1999]. Ce travail mené avec Sylvie Lardon consistait à réfléchir aux concepts de groupe
ou d’agrégat à travers un modèle théorique portant sur des hiérarchisations dynamiques d'entités
spatiales agrégées (modèle Forpast, [Lardon et al. 1998], [Lardon et al., 2000], [Bommel &
Lardon, 2000] et [Bommel et al., 2000]). Les deux figures suivantes illustrent cette problématique.
La première décrit la manière dont un objet spatial (une prairie par exemple) évolue et change de
forme en fonction de dynamiques naturelles de la végétation et d'actions menées par des agents
fermiers. La deuxième figure décrit l'évolution de ces objets spatiaux considérés comme
l'agrégation d'entités plus élémentaires (des cellules).

produit des génère des

Processus naturels formes Stratégies humaines


croissance, dissémination des
pâturage, défrichage,
de la végétation objets
éclaircie
spatiaux

influe sur conditionne

Dynamique spatiale

Figure 2-4 : Evolution de la forme des objets spatiaux en lien avec des processus naturels et des stratégies
d'agents. L'évolution de la végétation, par croissance et diffusion produit des faciès de végétation. Ces derniers
conditionnent les stratégies que les acteurs agricoles mettent en œuvre. Celles-ci modifient à rebours les
formes des objets spatiaux.

Positon de la
cellule
changeant
d’état

A: cellule éloignée B: cellule en contact C: cellule en contact


d'un agrégat avec un agrégat avec plusieurs agrégats

Apparition Création d'un Croissance de Fusion de N agrégats


de l’état nouvel agrégat l'agrégat en un seul
Disparition Suppression de Décroissance de Scission d'un agrégat
de l’état l'agrégat l'agrégat en plusieurs

Figure 2-5 : Evolution d'un agrégat spatial en fonction de l'apparition ou de la disparition de l'état d'une
cellule de même caractéristique.
50

Ce travail a donné lieu à un outil générique d'agrégation spatiale intégré à la plate-forme Cormas
[Le Page et al., 1999]. Mais cette généricité s'arrête à quelques fonctions disponibles pour
instancier des objets agrégats. Car ces entités spatiales qui peuvent former une hiérarchie de
niveaux d'organisation proviennent de représentations propres à chaque agent. Elles évoluent
naturellement mais chaque agent se construit sa propre organisation de l'espace 15.
Ainsi, le concept de groupe ou d’agrégat permet de structurer (strutere = construire) notre
représentation de l’espace. Le procédé consistant à regrouper des éléments entre eux, parce qu’il
semble évident qu’ils sont reliés, relève en vérité d'un processus bien plus complexe. Expliciter
une structuration de l’espace dépend de l’observateur qui décrit ce paysage et de ses objectifs.
Selon la personne qui observe, la structuration spatiale qui ressort de cette description peut être
très différente d’un acteur à l’autre. Tout se passe comme si chacun percevait le paysage à travers
un filtre de perception. Ce dernier dépend du rôle de l'observateur, de son histoire, de sa culture et
de sa langue. Ainsi, un berger n’aura pas la même perception d'un paysage qu’un propriétaire
foncier ou qu’un technicien EDF ou encore qu’un touriste de passage. La vision n'est pas le
résultat d'une simple projection du monde sur notre rétine, mais participe d'une série de processus
beaucoup plus complexes.
Dans son traité sur ”La mathématisation du réel”, Giorgio Israel encourage le renoncement à toute
tentative d’aboutir à une image unifiée de la nature. Il explique qu' ”un modèle mathématique est
un fragment de mathématique appliqué à un fragment de réalité. Non seulement un seul modèle
peut décrire différentes situations réelles, mais le même fragment de réalité peut être représenté à
l’aide de modèles différents” [Israel, 1996].

2.6 DU FILTRE PASSIF A L'AFFIRMATION D'UN REGARD CONSTRUIT


Le sens commun véhicule l’idée que notre représentation du monde est donnée par la nature des
choses. Or, de nombreux travaux, notamment ceux des constructivistes avec Jean Piaget [Piaget,
1968], ont montré que cette impression d’évidence procède plutôt d’une construction cognitive et
implicite de la part de l’observateur.
Les constructivistes estiment que les représentations de chacun ne sont pas une simple copie de la
réalité, mais une reconstruction de celle-ci. Le constructivisme s'attache à étudier les mécanismes
permettant à un observateur de reconstruire mentalement une réalité à partir d'éléments déjà
intégrés. Dans son traité sur "La pensée visuelle", Rudolf Arnheim explique que toute pensée
repose essentiellement sur la perception, que ce soit dans le domaine des arts plastiques, dans les
dessins d'enfants, aussi bien que dans celui des images qui se trouvent à l'origine des modèles de la
pensée en science. Après avoir énuméré quelques exemples, l'auteur explique que
"il serait fallacieux de prétendre que, dans le domaine de la science, les sens servent uniquement
à enregistrer des données à l'instar d'un appareil photographique, et que le traitement de ces
données s'effectue ultérieurement au moyen d'opérations éventuellement non sensorielles. Nous
estimons au contraire que l'observation directe, loin d'avoir un caractère accidentel, est un mode
d'exploration de l'esprit qui, avide de découvrir et d'imposer des formes, a besoin de
comprendre, mais en demeure incapable s'il ne projette ce qu'il voit dans des modèles
maniables" [Arnheim, 1969].

15
Prenons l'exemple de la fusion de plusieurs agrégats en un seul : la croissance naturelle de deux bosquets proches
peut déboucher sur un contact et une fusion en une forêt. De quel bosquet initial, ce nouvel agrégat hérite-t-il ses
caractéristiques ? Quel sera son nom par exemple ? De plus, comment prévenir les agents situés dans ce paysage
virtuel que les bosquets qu'ils connaissaient ont fusionné ? On voit avec ce petit exemple que les entités du monde,
même pour des agents informatiques, ne sont pas données par nature mais procèdent d'une perception et d'une
construction mentale.
51

Ainsi, la vue n'est pas la simple projection de l'extérieur sur notre rétine. La vision est
essentiellement sélective. Elle est le fruit d’une discrimination perceptive et ”le monde qui se
dégage de [notre] exploration perceptive n’est pas immédiatement donné. Certains de ses aspects
se forment vite, d’autres lentement ; et ils doivent tous être continuellement confirmés, réévalués,
modifiés, complétés, corrigés, approfondis” [ibid].
Dans un domaine bien différent, les réflexions sur la notion de représentation conduisent le
neurobiologiste A. R. Damasio à affirmer que notre cerveau produit constamment des images.
Mais d'après lui, ”les images que nous voyons mentalement ne sont pas des fac-similés de l'objet
donné mais plutôt des images des interactions qui se nouent entre chacun d'entre nous et un objet
auquel notre organisme est exposé, interactions construites sous forme de configuration neuronale
déterminée par les caractéristiques propres de l'organisme” [Damasio, 1999]. L'auteur explique
alors que ”le cerveau est un système créatif qui ne se contente pas de refléter l'environnement
autour de lui […] : chaque cerveau construit des cartes du même environnement en fonction de ses
propres paramètres et de sa structure interne”. Ces notions de neurobiologie confirment les
hypothèses des constructivistes. Damasio constate que le concept de représentation est chargé de
présupposés. Il explique alors que ce n'est pas tant l'ambiguïté du terme représentation qui pose
problème, mais ”son association avec l'idée selon laquelle l'image mentale ou la configuration
neuronale représenterait au sein du cerveau et de l'esprit avec un certain degré de fidélité, l'objet
auquel la représentation fait référence, comme si la structure de l'objet était reproduite dans la
représentation”.
Ces idées n'auraient certainement pas été contredites par Maturana et Varela [1994] qui rejettent
l'idée selon laquelle l'environnement imprime ses objets dans le système nerveux. Pour ces auteurs,
la représentation mentale est toujours indissociable de l'acte de connaissance. Ils remettent ainsi en
question l'existence d'une réalité objective indépendante de la manière dont on l'apprend. En
d'autre terme, la perception, loin d'être l'enregistrement passif d'un stimulus, est toujours une
opération active de l'esprit : un phénomène cognitif.
On conçoit alors qu'un modèle ne peut pas être neutre : il est le produit de notre interprétation du
monde, qui donne sens. Que la modélisation soit descriptive ou explicative, le souci de neutralité
dont certains se targuent, est un argument irrecevable 16. Quelle objectivité peut-on démontrer dans
une peinture, une photographie, une carte ou une analyse de données ? Cette façon d'envisager la
modélisation est également partagée par J.L. Le Moigne dans sa "théorie de la modélisation" [Le
Moigne, 1977] où il explique qu'il faut exclure l’illusoire objectivité de la modélisation et
”convenir que toute représentation est partisane, non pas par oubli du modélisateur, mais
délibérément”.
Cependant, tous ces propos sur la construction des représentations n'excluent pas une même
manière de voir le monde. A ce sujet, Damasio explique que ”lorsque nous regardons des objets
extérieurs à nous-mêmes, nous construisons des images comparables dans nos cerveaux respectifs.
Nous le savons parce que nous sommes en mesure de décrire l'objet en des termes très proches,
jusque dans les plus petits détails. Mais cela ne veut pas dire que l'image que nous voyons est la
copie de l'objet extérieur, quel qu'il puisse être”. L'auteur conclut que ”c'est parce que nous
sommes entre nous suffisamment proche biologiquement parlant pour construire une image

16
[David et al., 2005] notent à ce sujet la distance qui existe entre la spécification, le programme et l'interprétation
d'une simulation d'un modèle multi-agent en sciences sociales. Ils concluent leur article en rejetant la neutralité
présumée du concepteur d'une simulation sociale :
"If in computer science there is no computation without representation, and as such there is no computation
without interpretation, in social simulation there is no computation without intention. […There is no] presumable
neutrality of the implementer, the social sciences have created, by means of a multiparadigmatic logic, a new
methodological conception in computer science, where the implementer plays a decisive role. We are convinced that
there will not be consensual methods in social simulation."
52

semblable d'un même objet que nous pouvons accepter sans protester l'idée conventionnelle selon
laquelle nous avons l'image exactement ressemblante de cet objet. Ce qui n'est pas le cas”. Je
rajouterai que le fait de partager une culture et une langue commune et d'y être complètement
immergé, nous permet d'échanger nos points de vue et de croire à l'illusion d'une représentation
identique.
Pour résumer, il me paraît très important d'insister sur le fait que la neutralité n'existe pas en
modélisation. Pire que cela, prétexter et se conforter dans ce souci d'objectivité et de neutralité
pour un modélisateur, est la porte ouverte à toutes sortes de manipulations.

2.7 MODELISER POUR APPRENDRE


2.7.1 Nous pensons par modèles
J.L. Le Moigne considère que ”le modèle est une représentation artificielle que «l'on construit dans
sa tête»...et que l'on «dessine» sur quelque support physique : le sable de la plage, la feuille de
papier, l'écran du «computeur»... Autrement dit un système de symboles, un système artificiel
(créé par l'homme) qui agence des symboles...” [Le Moigne, 1990]. Toute manipulation de
symboles (nombres, textes, dessins) peut en fait, être considérée comme la formulation d'un
modèle. Le mathématicien contemporain de Henri Poincaré, Émile Picard, considérait déjà à cette
époque que l'activité centrale de notre pensée est de faire des modèles. Dans le même ordre d'idée,
A. Danchin postule que ”même s'il existe un monde réel, même s'il existe une vérité, il n'est
possible de l'atteindre que dans l'univers du discours, du langage, et que notre connaissance de
l'univers est celle d'un modèle de l'univers. Toute connaissance, aussi primitive soit-elle est théorie
[…]” [Danchin, 1978]. Ainsi, il apparaît que la conception de modèles forme la base de la pensée
et de l'abstraction : un objet ou un phénomène perçus sont reconstruits afin de n'en garder que les
caractéristiques essentielles, celles qui ont une influence sur ce que l'on veut étudier pour en
comprendre le devenir.
En travaillant sur l'aspect neurologique de la conscience, Damasio dans "Le sentiment même de
soi" [Damasio, 1999] s'interroge sur le rôle que joue la conscience. A quoi sert-elle ? Car
s'interroge-t-il "les créatures non conscientes sont capables de réguler leur homéostasie interne, de
respirer, de trouver de l'eau et de transformer l'énergie requise par la survie dans le type
d'environnement auquel elles sont le mieux adaptées". Mais explique-t-il, les créatures dotées de
conscience disposent de certains atouts supplémentaires : "elles peuvent faire le lien entre le
monde de la régulation automatique et celui de l'imagination (le monde où des images des
différentes modalités peuvent être combinées de manière à produire de nouvelles images de
situations encore inédites). Le monde des créations imaginaires – le monde de la planification, des
scénarios et de la prévision des conséquences d'un acte – est lié au monde du proto-Soi. Le
sentiment de soi établit un rapport entre la faculté de prévoir et les processus automatiques
préexistants" [ibid].
En cherchant à expliquer des comportements adaptatifs souvent complexes chez certains animaux,
des éthologues et des biologistes ont les premiers initiés des travaux sur l’anticipation. En 1985, le
biologiste Robert Rosen propose un modèle général de l’anticipation. La définition qu’il propose
repose sur des relations entre connaissances du futur et prise de décision à l’instant présent :
“Un système anticipatif est un système qui contient un modèle prédictif de lui-même et/ou de son
environnement lui permettant de changer son état en fonction des prédictions sur les instants
futurs” [Rosen, 1985].
L’auteur explique alors que l’anticipation peut se décomposer en deux phases : une phase de
prédictions et une phase d’interprétation de ces prédictions. Une formule de P. Ricœur rend
compte de cette idée : "Pour qu'un mouvement soit volontaire, il faut que sa représentation précède
53

son exécution" [cité dans MCX APC 17]. Pour une application de ces concepts aux SMA, on peut
se référer à [Doniec et al., 2005 & 2007] et [Stinckwich, 2003].
Ainsi, le besoin de comprendre et d'anticiper nous oblige à concevoir des modèles maniables et à
les projeter dans le futur pour imaginer les résultats possibles de nos actions.

2.7.2 La modélisation est un processus itératif d'apprentissage


« Bref, ce qui comptera désormais, dans les sciences comme dans les cultures, ce n’est pas le
modèle, c’est la modélisation... »
A. P. Hutchinson, 1982
En acceptant la double étymologie du terme qui allie à la fois la notion d'imitation et de référence,
nous pouvons alors admettre qu'un modèle est une référence temporaire sur laquelle s'appuie notre
compréhension d'un système. Temporaire, parce que cette représentation est toujours perfectible
voire complètement modifiable. La confrontation à d'autres connaissances ainsi que
l'expérimentation directe nous permet de réviser les opinions que l'on s'était forgées.
Les analogies que l'on peut faire entre le travail de modélisation et l'étude des processus
d'apprentissage ou de représentation apportent des éléments intéressants et constructifs pour la
conception et l'évaluation des modèles. Ainsi, il apparaît qu'apprendre et acquérir de la
connaissance peut se faire par expérimentation, structuration, anticipation et évaluation. Si l'on
admet avec J.L. Le Moigne que nous pensons par modèle, alors la modélisation, la simulation et
l'évaluation des résultats procéderaient d'une démarche comparable.
Alors, loin d'être une procédure linéaire et rigide telle qu'elle est souvent présentée (de l'abstraction
jusqu'à la "validation"), la modélisation doit être comprise comme un processus actif et itératif
d'apprentissage.
Enrichissement
de la
connaissance
CONCEVOIR
STRUCTURER COMPRENDRE
ANTICIPER

EVALUER QUESTION
COMPARER

Figure 2-6 : La modélisation : un processus itératif d'apprentissage, adapté d'après [Bommel,1997b].


Le travail de modélisation est une activité dynamique. Il y a enrichissement itératif de la
connaissance par la démarche de conception qui boucle sur son évaluation. Ce processus qui
consiste à classifier les éléments, comparer et organiser différents points de vue, élaborer et rejeter
des hypothèses, oblige à faire des choix et à les expliciter. On conçoit alors que la modélisation est
beaucoup plus un exercice de compréhension que de prédiction. Comme le souligne très justement
Cariani dans le domaine de la vie artificielle :
“The interesting emergent events that involve artificial life simulations reside not in the
simulations themselves, but in the ways that they change the way we think and interact with the
world.” [Cariani, 1991]

17
[MCX APC] Dictionnaire de l'association MCX APC : http://www.mcxapc.org. Programme européen MCX :
"Modélisation de la CompleXité"; Association pour la Pensée Complexe dont les piliers sont J.L. Le Moigne et E.
Morin.
54

De mon point de vue, cette notion de modélisation, de processus dynamique me semble plus
important encore que le modèle en tant que tel, c'est-à-dire le produit fini. Le fait d'aborder les
problèmes par une démarche constructive d'apprentissage me paraît plus enrichissante encore
qu'une représentation déjà conçue à laquelle il faudrait faire confiance et qu'il faut intégrer.
D'après ce schéma, il s'ensuit que l'évaluation (ou la "validation") n'est pas le stade ultime de la
modélisation, comme on le voit souvent, mais un point essentiel de la boucle d’apprentissage.

2.8 LE QUESTIONNEMENT, POINT D’ENTREE DE LA MODELISATION


2.8.1 Le modèle scientifique repose sur une question
"Et, quoiqu'on en dise, dans la vie scientifique, les problèmes ne se posent
pas d'eux-mêmes. C'est précisément ce sens du problème qui donne la
marque du véritable esprit scientifique... S'il n'y a pas eu de question, il ne
peut y avoir de connaissance scientifique. Rien ne va de soi. Rien n'est
donné. Tout est construit".
Gaston Bachelard, La formation de l'esprit scientifique (1938)
Arrivé au terme de ce chapitre, il nous faut alors donner une définition du modèle. La plus citée, et
d'ailleurs la moins controversée du terme modèle reste celle qu’en donne Marvin Minsky [Minsky,
1965] :
« To an observer B, an object A* is a model of an object A to the extent that B can use A* to answer
questions that interest him about A ».
Cette définition très simple permet de revenir sur des concepts clés de la modélisation en général,
concepts qui sont souvent peu connus ou du moins peu pris en compte. A partir d'un domaine
regroupant un ensemble d'entités et de phénomènes empiriques que l'on nomme le « domaine
d'objet » ou le « système-cible », Minsky préconise de définir un cadre et une question que l’on se
pose relativement à cet objet. La modélisation correspond alors à une activité d’abstraction compte
tenu de la question posée. Alors pour rendre compte de certains phénomènes du système cible A et
répondre à la question posée par B, il est « suffisant » d’étudier une abstraction de A : le modèle A*
[Amblard et al., 2006].
La définition donnée par Minsky est très proche de celle qu'en propose René Thom dans [Thom,
1972] qui explique qu'on essaye de dominer des situations incertaines ”à l'aide de la modélisation,
c'est-à-dire en construisant un système matériel - ou mental- qui simule la situation naturelle du
départ, à travers une certaine analogie. A ce point on formule une question sur la situation
naturelle et, à travers l'analogie, on la transfère sur le modèle que l'on fait évoluer de manière à en
obtenir une réponse” [ibid.]. Dans [Thom, 1978], l'auteur explique :
«Supposons qu'un être (ou une situation) extérieur(e) (X) présente un comportement
énigmatique, et que nous nous posions à son sujet une (ou plusieurs) question(s) ( Q̂ ). Pour
répondre à cette question, on va s'efforcer de «modéliser » (X) ; c'est-à-dire, on va construire un
objet (réel ou abstrait) (M), considéré comme l'image, l'analogue de (X) : (M) sera dit le
«modèle » de (X). Le modèle (M) est construit de telle manière que, dans l'analogie (A) de (X)
vers (M), la question ( Q̂ ) posée sur (X) se traduit en une question pertinente (Q) sur (M) ;
autrement dit, on peut poser la question (Q) au modèle (M) qui y répondra par une évolution
naturelle conduisant à une réponse (R) : cela s'appelle « faire jouer » le modèle ; l'analogie (A),
prise en sens inverse, permet alors de déduire de (R) une réponse ( R̂ ) valable pour (X). On
comparera alors cette réponse aux données empiriques... ».
L'ensemble de ces opérations est résumé dans la figure suivante :
55

? Vérification
Question (Q̂) Etre énigmatique (X)
expérimentale

Réponse (R̂)

Analogie (A)

Question (Q) Réponse (R)


?
Modèle (M)
Jeu du Modèle

Figure 2-7 : Les relations entre un modèle et un système réel énigmatique, d'après [Thom, 1978].
Donc, avant même de commencer à concevoir un modèle, il est nécessaire de s'interroger sur "les
questions pertinentes que je puis me poser au sujet de (X) ?" ou encore de se demander "de quoi
dois-je m'étonner ?". On comprend ainsi, qu'au lieu de répondre à des questions, la modélisation
ait maintenant pour rôle de proposer des questions. D'ailleurs, "un même (X) peut être modélisé
d'une infinité de manières et c'est le type de questions ( Q̂ ) qui restreint le mode de modélisation à
choisir". En d'autres termes, "c'est la demande ( Q̂ ) qui doit déterminer la construction du modèle
(M), et non l'inverse" [ibid.]. E. Ramat utilise cette prédominance de la question pour expliquer le
rôle même du modèle :
Il ne faut pas penser que le but est d’offrir le modèle le plus complet et le plus ”beau”. Il faut
construire le meilleur modèle avec le formalisme le plus adapté pour répondre à la question posée.
En effet, la modélisation n’est qu’un maillon dans la chaîne de la construction de la Connaissance
du Monde : on ne fait pas de la modélisation pour la modélisation mais pour comprendre le
fonctionnement du Monde et comprendre les impacts de certaines perturbations sur ce Monde.
[Ramat, 2006]
Bien évidemment, les questions ne sont pas immanentes au système observé. Après avoir décrit ce
système, la plus grande difficulté consiste justement à poser les bonnes questions. Le Moigne
explique ainsi la différence entre l'analyste et le modélisateur :
L’analyste […] est l’homme capable de comprendre le problème qui se pose. Le concepteur
alors sera celui qui saura que les problèmes ne se posent pas tout seul, et qu’il doit être capable
de les poser. Modéliser systémiquement, ce n’est pas résoudre un problème supposé bien posé
(un objet) en cherchant un modèle déjà formulé dans le portefeuille accumulé par les sciences
depuis des millénaires ; c’est d’abord chercher à formuler — à identifier — le problème que se
posent les modélisateurs (un projet), en mettant en œuvre une procédure de modélisation dont
les règles sont intelligibles et acceptées. [Le Moigne, 1977]

2.8.2 La modélisation a pour rôle de proposer des questions


L'image du modèle réduit parfait que j'ai exposée au paragraphe 2.2 doit être abandonnée. D'abord,
il n'y a pas de modèle parfait car la réalité est toujours plus complexe qu'on ne l'imagine. De plus,
l'idée répandue selon laquelle on pourrait poser tout type de questions à un modèle, doit être prise
avec défiance. C'était d'ailleurs un peu l'idée à la base des systèmes experts. Mais comme on l'a vu,
un modèle n'est pas neutre et un système observé peut être modélisé d'une infinité de manières.
Pour concevoir son modèle, le modélisateur doit donc énoncer les questions qu'il se pose au sujet
de son objet d'étude. En effet, ce sont ces questions qui restreignent le mode de modélisation à
choisir. Expliciter l'objectif du modèle est alors indispensable car il fournit un cadre pour toute la
56

description de celui-ci. Il faut aussi insister sur le fait que cette mise en perspective permet à ceux
qui découvrent le modèle de comprendre pourquoi certains aspects du système étudié ont été
ignorés [Grimm & Railsback, 2005]. Toutefois il faut le reconnaître, expliciter ses questions de
recherche n'est pas un exercice trivial. Car à nouveau, comme l'exprime Gaston Bachelard, ”les
problèmes ne se posent pas d'eux-mêmes. C'est précisément ce sens du problème qui donne la
marque du véritable esprit scientifique... S'il n'y a pas eu de question, il ne peut y avoir de
connaissance scientifique”.
Lors de la conception d'un modèle et pour aiguiller ce cheminement difficile, il est souvent
intéressant de se projeter dans le futur en imaginant que son modèle est achevé. On peut alors
s'interroger à nouveau sur l'objectif de ce travail et se demander par anticipation de quoi devrait-on
s'étonner ?
La démarche est donc inverse à la conception naïve exprimée précédemment (à savoir créer par
imitation un modèle réduit pour ensuite lui poser des questions) : la modélisation doit commencer
à partir d'une question ou d'un ensemble restreint de questions qui fixent les objectifs du modèle.

2.9 CONCLUSION DU CHAPITRE


2.9.1 Un modèle n'est pas neutre
Au cours de ce chapitre, nous avons essayé de comprendre le statut du modèle pris dans un sens
général. En particulier, deux rôles distincts se dégagent : l'un est prédictif quand l'autre est
explicatif. Cependant la frontière qui les sépare n'est pas toujours très claire. Les SMA plus encore
que les systèmes à équations s'inscrivent dans le domaine des modèles explicatifs. Car, malgré
l'aspect temporel qui les caractérise, leur utilité première est bien de comprendre les conséquences
de mécanismes supposés à l'œuvre dans un système, et non pas comme on l'entend parfois, de
prédire l'évolution de ce système.
Evidemment, on voudra souvent mimer le système étudié en pensant naïvement en obtenir un
modèle réduit tout à fait homothétique. Grâce à cet hypothétique jouet fabuleux qu'on aura conçu
et mis au point pendant des années, on espère alors pouvoir lui poser tout type de question qu'on
souhaiterait poser au système réel. Mais immanquablement, se pose alors la question de la
"validation" de ce simili monde.
Par ailleurs, il faut comprendre que cette vision de la modélisation est naïve et peut même être
pernicieuse. Car elle présuppose que le modélisateur a conçu, objectivement et sans préjugé, une
représentation neutre du système qu'il étudie, comme si une représentation du monde n'était qu'une
simple projection de celui-ci dans son esprit. Or, il n'y a pas de vision neutre du monde.
La construction d'une représentation s'établit toujours sur la base de présupposés souvent
implicites. Face à un système, un événement ou une situation, un observateur perçoit des éléments
et des relations entre eux. Par divers mécanismes très complexes, il les catégorise de façon à
structurer et à organiser l'ensemble. Il s'en construit sa propre représentation qu'il appellera la
”réalité”. Mais malgré les apparences, cette image du monde n'est pas une simple projection sur la
rétine d'une réalité supposée objective. On l'appelle en général "le réel perçu" ou même "la réalité",
généralisant par-là même cette sensation d'évidence. Mais c'est au contraire une représentation
bien personnelle qui a été façonnée par notre histoire personnelle mais aussi et surtout par notre
culture et notre langue. On peut donc supposer qu'il n'existe pas de conception neutre, mais
seulement des représentations subjectives et parfois contradictoires.
La vision naïve de la modélisation peut être pernicieuse car le souci de l'objectivité, assorti à
l'image du scientifique érudit qui s'appuie sur des outils mathématiques ou informatiques
sophistiqués, est la porte ouverte à toutes sortes de manipulations bienveillantes ou malveillantes.
57

2.9.2 La modélisation commence par des questions


Le désir de concevoir un modèle comme une copie parfaite de la réalité doit donc être écarté. De
plus, l'idée répandue selon laquelle on pourrait poser tout type de questions à un modèle, doit être
prise avec défiance. En effet, avant de concevoir un modèle, il est nécessaire d'expliciter les
questions que l'on se pose sur le système étudié. Celles-ci fournissent alors un cadre pour
restreindre les dimensions du modèle. Elles permettent de faire comprendre pourquoi certains
aspects ont été ignorés et d'autres non. Evidemment, la formulation de ces questions est un
exercice ardu mais néanmoins décisif. Cette tâche peut être facilitée en imaginant que le modèle
est achevé et en se demandant par anticipation de quoi devrait-on s'étonner.
Ainsi, contrairement à la conception naïve du modèle mimétique, la modélisation qui s'apparente
véritablement un processus d'apprentissage, doit débuter à partir de questions qui fixent les
objectifs du modèle.

2.9.3 Générer des scénarios pour anticiper des futurs possibles


A la question ”pourquoi modéliser ?”, plusieurs réponses semblent convenir. Personnellement, il
me semble que le souci de comprendre reste le principal moteur. Evidemment, le processus de
modélisation a aussi pour but d'anticiper des futurs possibles pour aider à choisir ; modéliser pour
aider à la décision diront certains.
Toutefois l'anticipation n'est pas la prédiction. Cette dernière laisse supposer que l'avenir est déjà
tout tracé, peut-être de façon obscure pour le profane, mais ”déjà peint sur la toile” [Bergson,
1907]. Or un modèle n'est pas une boule de cristal et il me paraît indispensable d'éviter d'employer
le terme prédiction. Prétendre prédire le futur reste en dehors du domaine de la science.
Anticiper, par contre, consiste à imaginer à l'avance le cours possible des évènements et de
présumer l'avenir. Ce dernier n'est pas déjà décidé mais reste une chose à faire. Nous pouvons
anticiper, conjecturer, mais non rigoureusement prévoir. Telle une fiction, l'anticipation ou la
prospection consiste alors à essayer d'explorer le champ des possibles. Concevoir des modèles
maniables et à les projeter dans le futur permet d'imaginer des scénarios en testant des alternatives
ou en poussant une logique jusqu'à ses conséquences extrêmes.
Chapitre 3

LES AVANTAGES DE LA MODELISATION MULTI-AGENT

"When I observed phenomena in the laboratory that I did not understand, I


would also ask questions as if interrogating myself: "Why would I do that
if I were a virus or a cancer cell, or the immune system" Before long, this
internal dialogue became second nature to me; I found that my mind
worked this way all the time."
[Salk, 1983, p. 7]

Si nous cherchons à comprendre comment fonctionne un système ou comment il peut évoluer, ou


si nous essayons d’anticiper des futurs possibles en générant des scénarios, il s'avère que les
modèles de simulation qui prennent en charge explicitement le temps constituent des outils
précieux. Parmi ceux-ci, les SMA présentent de nombreux avantages en particulier pour traiter de
l'organisation des éco-socio-systèmes.

3.1 LES GRANDES CATEGORIES DE MODELES DE SIMULATION


Eric Ramat dresse une classification des formalismes dédiés à la spécification de la dynamique des
systèmes en fonction de trois critères : la spécification de variables continues ou discrètes, la
représentation de l’espace continu ou discret et la présence du temps continu ou discret. La figure
page suivante, extraite de [Ramat, 2006], présente cette classification.
Nous reviendrons aux chapitres 5 et 6 plus spécifiquement sur le rôle du temps et les façons de le
représenter dans divers types de modèles de simulation. Car pour le moment, l'objet de ce chapitre
est de décrire les avantages des modèles multi-agents vis-à-vis d'autres approches plus standards
de la modélisation. On peut donc partir de cette classification proposée par E. Ramat pour
présenter rapidement les divers types de modèles de simulation.
59

Figure 3-1 : Classification des formalismes selon l’aspect continu ou discret des variables, du temps et de
l’espace, d'après [Ramat, 2006]
Cette classification laisse deviner deux grandes catégories d'outils conceptuels pour formaliser et
concevoir des modèles de simulation : d'un côté le formalisme mathématique (la grande famille
des modèles à équations) et de l'autre, le formalisme informatique (automates cellulaires et SMA).
Au moment du choix des outils pour élaborer leur modèle, certains préfèrent opter pour les SMA
en considérant qu'ils sont les mieux à même de traiter des interactions et de la spatialité. Mais,
contrairement à certaines idées reçues, la prise en compte des interactions entre les entités d'un
système n'est pas l'apanage des seuls SMA.

3.1.1 Modèles mathématiques et prise en compte des interactions


Les études démographiques et de dynamique des populations (cf. chap. 5) sont historiquement les
premiers travaux dans le domaine de la modélisation. Elles proposent des techniques où le modèle
tente de simuler l'évolution de la taille d'une population par des caractéristiques moyennées. Les
modèles mathématiques sont alors classiquement écrits sous la forme d'équations différentielles
(temps continu) ou d’équations récurrentes (temps discret). Quand plusieurs populations sont
étudiées, on utilise alors des systèmes d'équations (différentielles ou récurrentes). L'exemple
suivant montre un système d'équations différentielles où chaque ligne correspond à la variation de
la taille d'une population a, b ou c ou autre :
 da  f(a,b,c,...,t)
 dt
db
 dt  g(a,b,c,...,t)
 ...

Pour illustrer de façon simple ces deux types de gestion du temps, le modèle de Verhulst [1838]
(différentiel) et l'équation logistique (récurrente) sont présentés au chapitre 6. Par ailleurs, le
60

modèle de Volterra [Volterra, 1926], déjà mentionné au chapitre 1, est succinctement expliqué en
annexe 1 (page 289). Ce modèle traite des relations qu'entretient une population de prédateurs avec
ses proies. Il est si connu qu'il demeure une référence incontournable et il sera discuté à plusieurs
moments de la thèse. La figure suivante présente le modèle mathématique et un résultat d'une
simulation.
2

Proies (x)
1
Predateurs (y)

 dx  n.x  p.x.y
 dt
 dy
 dt  m.y  p.x.y
0
0 20 40 60 80 100

Figure 3-2 : Système d'équation différentiel du modèle de Volterra et évolutions temporaires des populations
de proies et de prédateurs qui oscillent de façon endogène au modèle. (n est le taux de natalité des proies; m, le
taux de mortalité des prédateurs ; le paramètre p représente l’efficacité de la prédation. Pour cette simulation
particulière, n=m=p=1).
Malgré sa simplicité, le modèle proie-prédateur laisse apparaître des rythmes endogènes, liés
uniquement aux interactions entre les deux populations. C’est un résultat important du point de vue
biologique qui montre qu'en l’absence de toute perturbation extérieure, il peut arriver que des
populations en interaction fluctuent grandement. C'est cette idée qui a orienté le travail de V.
Volterra qui réfléchissait sur les raisons des fluctuations des populations de sardines et de requins
en mer Adriatique :
Certainement, il existe des circonstances ambiantes périodiques comme celles, par exemple qui
dépendent de la succession des saisons, et qui produisent des oscillations forcées ou de caractère
externe, dans le nombre des individus des diverses espèces. A côté de ces actions périodiques
externes qui ont été plus spécialement étudiées du côté statistique, n'y en a-t-il pas d'autres de
caractère interne avec des périodes propres, indépendantes des causes externes et qui se
superposent à celles-ci ?
Leçons sur la Théorie Mathématique de la Lutte pour la Vie. [Volterra, 1931]
Ainsi, il est faux de dire comme on l'entend parfois que les modèles mathématiques ne peuvent pas
prendre en compte les interactions. Mais ici, ces interactions qui sont présentées par des variables
d'une équation dans une autre (la variable x se trouve dans l'équation de dy par exemple), ne sont
pas des interactions entre individus proies et prédateurs mais elles sont conceptualisées au niveau
de chaque population d'animaux.
En effet, tous les modèles dont je viens de parler supposent que les individus sont interchangeables
: c'est l'hypothèse d'interchangeabilité de deux individus pris au hasard dans une population. En ne
considérant que la taille X d'une population, on ne s'intéresse pas à la situation spatio-temporelle de
chaque entité mais on suppose que tous les individus contenus dans X sont équivalents.
D'autres modèles mathématiques dits orientés-individus ne traitent pas non plus (contrairement à
leur appellation) des individus mais des distributions d'individus en classes d'âge. Ce sont des
modèles matriciels de dynamique de populations, dont font partie les modèles de Leslie qui
spécifient des taux de croissance, de reproduction et de survie différents selon l'âge des individus
[Leslie, 1945].
61

F2 F3
1 G1 2 G2 3 G3 4
P1 P2 P3 P4
Figure 3-3 : Exemple de graphe de cycle de vie d’une population découpée en classes de taille. D'après
[Charles-Bajard, 2004].
Dans l'exemple ci-dessus, l’intervalle de temps est l’année et les individus sont divisés en quatre
classes : les jeunes de l’année, les juvéniles, les femelles matures, et les femelles âgées qui ne se
reproduisent plus. D’un pas de temps au suivant, une femelle mature (classe 3) par exemple peut
soit passer dans la classe suivante (4, femelle sans reproduction) avec une probabilité G3, soit
rester dans la même classe avec une probabilité P3. Dans le même temps, elle peut créer un nouvel
individu avec une probabilité F3. En fait, cette activité de reproduction est traduite par le modèle
de la façon suivante : pendant un pas de temps, le stock des femelles matures (X3) augmente d'une
valeur égale à P3.X3 et il fait croître le stock des jeunes (1) de F3.X3 et celui des femelles âgées de
G3.X3. La matrice du modèle correspondante s’écrit alors :

0 F2 F3 0

A G1 P2 0 0
0 G2 P3 0
 
0 0 G3 P4 
Puisque la première classe dure un an comme le pas de temps, on a P1 = 0. L'équation matricielle
  
de ce modèle s'écrit alors : Nt 1  A.Nt où le vecteur Nt décrit la distribution de la population au
temps t. On retombe donc sur une équation récurrente dont les variables sont des matrices.
Contrairement aux idées souvent répandues, les modèles mathématiques peuvent aussi traiter de
l'hétérogénéité spatiale. Ainsi, [Angelis et al., 1979] utilisent les concepts du modèle de Lotka-
Volterra pour introduire des modèles logistiques multi-sites : les phénomènes de prédation du
modèle originel sont adaptés pour décrire des migrations d'une partie de la population d'un site
vers un autre. Sur un principe équivalent, [Lebreton, 1996] adapte les modèles matriciels pour
créer des matrices de Leslie multi-sites dans lesquels les classes présentées précédemment
correspondent à des patchs. On peut donc utiliser le formalisme standard des mathématiques pour
étudier l’impact de l’hétérogénéité spatiale, ainsi que celui des déplacements, sur la stabilité d'un
système de type proies-prédateurs [Auger & Poggiale, 1996], [Poggiale & Auger, 2004] 18.

3.1.2 Modèles multi-agents et modèles individus-centrés


Qu'ils soient basés sur des systèmes d'équations aux dérivés ou d'équations récurrentes ou même
qu'ils soient appelés orientés-individus, les modèles mathématiques font toujours l'hypothèse
d'interchangeabilité des individus pris au hasard dans une population, une classe d'âge ou un
groupe. Au sein de ce groupe, ils font l'hypothèse implicite que tous les individus sont identiques,
ce qui semble être une supposition trop forte. Par ailleurs, étant donné que la localisation des
individus n'est pas prise en compte (la spatialisation est au mieux réduite à la notion de sites ou

18
Les auteurs étudient un système prédateur–proie dans un environnement divisé en seulement deux sites : l'un est
un refuge pour les proies et l’autre contient des prédateurs. L’hétérogénéité spatiale est obtenue en supposant que les
paramètres démographiques (taux de croissance et taux de mortalité) dépendent du site. Comme les déplacements sont
supposés plus rapides que la croissance et que les processus de prédation, les auteurs prennent en compte deux
échelles de temps différentes [Auger & Poggiale, 1996]. Mais avec deux sites, peut-on réellement parler
d'hétérogénéité spatiale ?
62

patchs), ils rajoutent l'hypothèse que chaque individu interagit de façon identique avec ses
congénères ou ceux d'autres populations. Comme l'explique [Ferber, 1995], les modèles
mathématiques (ou modèles agrégés) s'attachent à décrire des variables se situant toutes au même
niveau. Il n'est pas possible de relier la valeur d'une variable au niveau agrégé à des
comportements individuels : ”les niveaux d'analyse sont étanches” [ibid.]. En d'autres termes, les
modèles agrégés peuvent décrire des populations qui interagissent (proies-prédateurs) sans décrire
le comment.
Dans un modèle centré-individu par contre, cette hypothèse d'interchangeabilité et d'équivalence
des individus n'est pas postulée. Un agent est principalement affecté par les conditions
environnementales qui se trouvent dans son voisinage ainsi que par sa situation dans un réseau
social. Les interactions qu'il entretient avec son environnement pris au sens général, sont localisées
dans le temps et dans l'espace. Son histoire est différente des autres et il peut à ce titre influencer le
cours des choses. Il n'est pas rare que le comportement d’un seul individu puisse entraîner des
changements du système en entier. Ainsi, la variabilité inter-individuelle peut être à l'origine de
phénomènes plus globaux.
En cherchant à reproduire le comportement des individus, les modèles individus-centrés, tels que
les modèles multi-agents (aussi appelés IBMs en écologie, pour Individual-Based Models)
permettent de suivre l'évolution de chaque agent et ses interactions avec les autres. L'approche
individu-centrée permet alors d'étudier les phénomènes globaux d'un système en spécifiant
uniquement les comportements individuels. A l'opposé des modèles mathématiques qui abordent la
modélisation selon une approche dite ”top-down”, les modèles orientés-individus misent sur une
démarche dite ”bottom-up” 19.

3.2 DEFINITIONS DES AGENTS ET DES SYSTEMES MULTI-AGENTS


La modélisation multi-agent permet de décrire un système en termes d’objets, d’agents et de
relations plutôt que par des variables et des équations. Si les modèles mathématiques héritent d'une
longue histoire qui a façonné la culture scientifique, les SMA sont bien plus récents et reposent sur
une culture plus "populaire" ou du moins, plus accessible. Ce pouvoir descriptif offre la possibilité
de représenter des artefacts d'individus évoluant et interagissant dans un environnement virtuel.
Les SMA s'apparentent alors à une métaphore sociale à travers laquelle on cherche à donner à des
agents les moyens de s’organiser. Cette accessibilité et cette expressivité procurent aux SMA leurs
caractères si appréciés, du moins dans le domaine des ressources renouvelables.
En 1988, [Ferber, 1988] définissait les agents et les systèmes multi-agents de la façon suivante :
On appelle agent une entité physique ou virtuelle,
- qui est capable d’agir dans un environnement,
- qui peut communiquer directement avec d’autres agents,
- qui est mue par un ensemble de tendances (sous la forme d’objectifs individuels ou d’une fonction de
satisfaction, voire de survie, qu’elle cherche à optimiser),
- qui possède des ressources propres,
- qui est capable de percevoir (mais de manière limitée) son environnement,
- qui ne dispose que d’une représentation partielle de cet environnement (et éventuellement aucune),
- qui possède des compétences et offre des services,
- qui peut éventuellement se reproduire,

19
La thèse de C. Lett traite de façon plus détaillée des intérêts réciproques des modèles agrégés
et des modèles individus-centrés dans le cadre des systèmes forestiers [Lett, 1999].
63

- dont le comportement tend à satisfaire ses objectifs, en tenant compte des ressources et des
compétences dont elle dispose et en fonction de sa perception, de ses représentations et des
communications qu’elle reçoit.
A la différence des objets, le concept d’agent est souvent associé aux capacités d’autonomie et de
pro-activité. Sur cette base, Ferber définissait les SMA ainsi :
Un système multi-agent est composé de :
- Un ensemble d’agents agissant et communicant
- Un mode d’organisation et de coordination
- Un point de vue de l’observateur
- Un environnement
- Des objets passifs
- Des agents
- Un ensemble d’interactions
- Des opérateurs pour la perception, la communication, la production, la consommation et la
transformation de ces objets
- Des opérateurs pour la mise à jour de l’environnement
Pour mieux visualiser ces définitions, [Ferber, 1995] propose un schéma qui résume bien les
principaux concepts véhiculés :
Représentations

Soi
Monde
Les autres

Buts
But: B

Communications
Perception

Action

Environnement

Figure 3-4 : ”Représentation imagée d'un agent en interaction avec son environnement et les autres agents”,
d'après [Ferber, 1995].
Evidemment, il existe des SMA purement communicants, sans environnement et sans objets
inertes, mais aussi des agents non-cognitifs sans fonction de représentation (dans le sens d'une
modélisation de leur environnement). Par ailleurs, il manque à ce schéma le ou les regards de
l'observateur. Mais sa grande qualité, de mon point de vue, est de montrer les agents comme des
entités stylisées sous forme de robots. Car pour présenter ce domaine de l'intelligence artificielle à
des néophytes, il faut rapidement démystifier l'idée d'une ”intelligence” qui s'apparenterait à celle
des humains. On a d'ailleurs souvent classifié les SMA en fonction d'un gradient d'intelligence, des
agents purement réactifs jusqu'aux agents cognitifs :
Agents Agents
réactifs cognitifs
Mais restons réalistes : les capacités humaines et celles du monde vivant sont, de façon
incommensurable, bien supérieures à celle d'une machine, même la plus évoluée. Les capacités
cognitives d'un agent le dotent ”d'une intelligence très artificielle !” [F. Laloe, comm. pers.].
64

A partir de la définition ci-dessus, on constate aisément que les recherches sur les SMA portent
essentiellement sur les problèmes de coordinations entre agents. On les dérive en problèmes de
contrôle et de communication. Cependant, nous verrons ultérieurement que ces questionnements
touchent finalement au problème de l'autonomie (chap. 6).

3.3 SMA ET ORGANISATION


Nombreux sont ceux qui étudient, à travers le paradigme SMA, les notions d'organisation. Ainsi,
Yves Demazeau insiste sur ce concept lorsqu'il propose une méthodologie de conception appelée
”Voyelles” qu'il décompose en 4 axes : A (pour Agents), E (pour Environnement 20), I (pour
Interactions) et O (pour Organisation) [Demazeau, 1995]. Ce dernier axe demeure un concept très
important pour le domaine des SMA. L'organisation, qui reste un terme vague 21, hérite des
analogies de la sociologie. Maturana et Varela la définissent comme :
”the relations that define a system as a unity, and determine the dynamics of interaction and
transformations which it may undergo as such a unity, constitute the organization of a system”.
[Maturana & Varela, 1979]
Dans ce cadre, le modèle multi-agent comme métaphore sociale semble d'un grand intérêt. En
particulier, l'articulation entre le niveau individuel et le niveau collectif permet d'aborder les
changements d'échelle dont la prise en compte semble indispensable pour comprendre certains
phénomènes. Si les modèles mathématiques montrent leurs limites pour aborder l'articulation entre
des échelles différentes, la réalisation de mondes artificiels dans lesquels des agents évoluent et
interagissent, ouvre des possibilités d'investigation bien supérieures. C'est pour cette raison que les
SMA sont classés dans les ”approches constructivistes” 22.
Toute la puissance des SMA résulte de cette boucle : les agents agissent de manière autonome dans
un espace contraint par la structure de la société dans laquelle ils évoluent, cette structure résultant
elle-même des comportements de ces agents. On se trouve donc là dans une boucle de dépendance
entre agents et société d’agent, entre niveaux micro et macro, entre individu et collectif qui se trouve
finalement au cœur de la problématique des systèmes complexes dans les sciences humaines et
sociales. […] Ce n’est donc pas un hasard si les SMA apparaissent comme un outil majeur pour
modéliser des sociétés. [Ferber, 2006]
Le schéma suivant, qui complète le graphe précédent, illustre cette articulation entre deux échelles:

20
L'environnement est le milieu dans lequel les agents sont plongés. Dans la plupart des applications multi-agents,
il implique généralement une dimension spatiale, mais d'autres environnements peuvent être considérés.
21
”Façon dont un ensemble est constitué en vue de son fonctionnement” Petit Robert.
22
A ne pas confondre avec le constructivisme (ou l'épistémologie constructiviste), courant de pensée initié par Jean
Piaget (cf. chapitre précédent). A la différence de l'approche analytique d'un côté (qui étudie un système élément par
élément) ou de l'approche systémique ou holistique (qui étudie le comportement global du système) de l'autre,
l'approche constructiviste permet de construire le comportement global du système en ne s’intéressant qu'aux
comportements des individus.
65

Emergence /
Contraintes
Organisation
sociales
constitution

Figure 3-5 : La relation micro-macro dans les systèmes multi-agents, d'après [Ferber, 1995].
Ce graphe montre l'articulation entre le niveau des agents (micro) et le niveau de l'organisation
(macro) et résume de façon claire et synthétique ce que sont les SMA. En s'appuyant d'avantage
sur l'aspect comportemental des interrelations, [Ferber, 1994] développe le concept de Kénétique.
Dans la lignée des travaux de [Maturana & Varela, 1994] sur les systèmes autopoïétiques
(explications page 140), il considère qu'un système est une entité auto-organisatrice dont
l'évolution est issue des comportements d'un ensemble de sous-unités en interactions. Il existe
donc une dualité agents - organisation avec des régulations possibles à chaque niveau. Par ailleurs,
l'articulation micro-macro est également indissociable de la notion d'émergence. C'est un concept
essentiel des SMA qui nécessite une présentation plus détaillée (voir chapitre suivant).
Les systèmes multi-agents sont habituellement rangés dans le domaine de l'IAD (intelligence
artificielle distribuée). En effet, les SMA s’intéressent aux systèmes complexes où des entités
artificielles ou naturelles interagissent pour produire des comportements collectifs. Mais au lieu de
considérer uniquement les facultés cognitives d'un individu, l’IAD postule que l’intelligence
"émerge" des interactions que les agents entretiennent entre eux et avec leur environnement.
D'ailleurs, l'une des grandes sources d'inspiration des SMA a été l'étude des comportements
d'animaux sociaux, particulièrement des sociétés d'insectes (fourmis, termites, abeilles), mais aussi
d'autres animaux se déplaçant en formation tels que les bancs de poissons ou les meutes de loups
en chasse. Ces études caractérisent ce qu'on appelle maintenant l'intelligence collective. Cette idée
est également défendue par certains dans le domaine des sociétés humaines qui revendiquent l'idée
d'organisation sociale non-dirigée [Lévy, 1994].
Pour certains, l'organisation désigne simplement la manière dont les éléments du système sont
agencés et de la façon dont ils interagissent. Mais on peut également voir l'organisation comme
une entité à part entière avec ses propres règles qui influence et dirige les comportements de ses
composants (contraintes, règles conventionnelles, etc). En s'interrogeant sur les ”croyances
sociales”, André Orléan [Orléan, 2004] définit le groupe ou l'objet social comme une entité
abstraite dotée d’une autonomie propre par rapport aux individus qui la compose. Il prend
l'exemple de la phrase suivante : ”le marché croit que cette devise est sous évaluée”. Evidemment,
le marché financier en tant que tel n'a pas la faculté de croire. Mais il a une existence propre qui
dépasse la simple composition des agents économiques : ”du point de vue historique et social, les
collectivités ne sont justement pas des collections d’individus, puisque leur identité n’est pas fixée
par une liste d’individus” [Descombes, 1996, cité dans Phan, 2007]. Les marchés ne peuvent être
réduits à l’ensemble des agents qui y participent à un moment donné mais ils perdurent malgré le
flux d'agents qui en sortent ou qui y entrent. ”Cette structure sociale complexe est ainsi porteuse
d’un sens qui se maintient dans le temps indépendamment des agents qui y participent et qui
dépasse leur dimension individuelle” [ibid.].
66

En fonction de la façon dont on perçoit une organisation, on pourra alors la représenter comme la
résultante des interactions entre les entités ou si on lui reconnaît une certaine autonomie par
rapport à ses constituants, on peut la modéliser comme un agent. 23

3.4 LES RELATIONS ENTRE LES NOTIONS D'AGENT ET D'OBJET


L'histoire des SMA est étroitement liée à celle de la modélisation objet et des langages orientés-
objets. Simula 67, le premier langage objet, a été conçu dans les années 60 par les Norvégiens Ole-
Johan Dahl et Kristen Nygaard. Comme son nom l'indique, Simula est destiné à faire de la
simulation en représentant directement les entités du monde réel ayant une existence matérielle
(tortue, voiture) ou immatérielle (sécurité sociale, compte bancaire) par une structure de donnée
particulière qui associe en une même entité informatique un ensemble d'états et un ensemble de
comportements.

Objets du monde réel Objets informatiques


traduction

Comportement État interne


Visible caché

Tous les grands concepts de la programmation orientée objet sont d'ores et déjà présents dans
Simula qui inaugure les notions de classes, d'instanciation, de polymorphisme, d'encapsulation,
etc.
A la différence des approches procédurales, la modélisation objet propose au concepteur de réifier
les entités qu'il perçoit, de les organiser en décrivant leurs relations et d'étudier leurs évolutions sur
des scénarios d'interactions.
Les inférences intellectuelles proposées qui consistent à regrouper et abstraire d'une part (pour
définir concept ou classes), à spécialiser ou généraliser d'autre part (pour ordonner) sont à la fois
naturelles et élégantes. La démarche itérative consistant à affiner progressivement les modèles
obtenus en jouant sur les mécanismes suscités est aussi très souple et les interactions entre
partenaires de la modélisation peuvent largement être prises en compte. Le fait que les classes d'un
schéma soient organisées en hiérarchie de spécialisation / généralisations, en hiérarchie de
composition / agrégation, et ceci, à plusieurs niveaux, est aussi parfaitement en adéquation avec les
degrés de raffinement que les concepteurs peuvent souhaiter exploiter. [Libourel, 2003]
Ainsi, ”la pensée objet” qui s'apparente plus à une culture implicite, permet de concevoir des
modèles dans tous les domaines et de partager cette conception avec les disciplines impliquées
sous forme d'un débat interdisciplinaire. Enfin, les principes de factorisation et de réutilisation
dont l'approche se prévaut, permettent de définir des motifs de structuration et de comportements
(des patrons) correspondant à des situations de modélisation récurrentes.
La pensée objet permet de concevoir un programme non plus comme une entité monolithique mais
comme un ensemble d’entités élémentaires qui interagissent par l’intermédiaire d’envois de
messages. Pratiquement, on pourrait utiliser les concepts initiaux avancés par les pionniers de la
pensée objet pour définir les SMA : en génie logiciel ”orienté-agent”, le programme est vu comme

23
Le chapitre 3 de la thèse d'Olivier Gutknecht traite de façon plus approfondie les relations de l'agent avec
l'organisation [Gutknecht, 2001].
67

une société d'agents autonomes ayant chacun des compétences distinctes mais étant capable de
coopérer et de s'auto-organiser.
Pourtant les objets ne sont pas réellement autonomes et Ferber déplore l'appauvrissement des idées
initiales qui animaient les pionniers des concepts objets :
La notion d’objet en génie logiciel apportait tout un ensemble de concepts, de technologies et de
méthodologies. Il est apparu alors que dans bon nombre de cas, les enjeux initiaux des objets, et
notamment ici aussi le concept d’autonomie, n’avaient pas vraiment trouvé de réelles solutions
technologiques. Les langages objets dont on dispose aujourd’hui ne sont que des pâles reflets des
idées initiales qui avaient habité les pionniers du domaine, à savoir Alan Kay avec Smalltalk et Carl
Hewitt avec Plasma. [Ferber, 2006]
Si ces déceptions sur les objets sont avérées, on peut penser qu'il en va autrement pour les agents
qui sont censés être des entités autonomes, proactives et interagissantes. En d'autre terme, une
tortue bien réelle s'avère plus indépendante qu'un objet informatique qui est souvent défini comme
une entité devant offrir et exécuter des services. La traduction en agent tortue devrait exprimer
cette indépendance. Or il s'avère que c'est rarement le cas comme le déplorent [Drogoul et al.,
2003] qui se demandent ”où sont les agents ?”. Les auteurs expliquent que si ces propriétés
d'agents sont monopolisées à un niveau métaphorique, dans les faits, elles ne sont pas traduites en
propriétés computationnelles. ”Les agents computationnels décrits en IAD ou en SMA ne sont tout
simplement pas utilisés par la [simulation orientée-agent]” [ibid.].
En revenant sur la représentation imagée de la Figure 3-4, la notion d'agent paraît associer à
l'aspect animé de l'entité par rapport aux objets qui s'apparentent plus à des entités passives et
inanimées. Ainsi, [Treuil & Mullon, 1996] proposent de ”rétablir la séparation entre la catégorie
d'agent (animé), et la catégorie d'objet (inanimé), libre à chacun ensuite, selon son style et sa
vision du domaine, de classer telle entité dans telle catégorie”. Toutefois, l'évolution des
différentes définitions des agents que l'on trouve dans la littérature me prête à penser que la notion
d'autonomie demeure le point essentiel : l'autonomie apparaît comme une dimension indispensable
pour caractériser les agents. Le chapitre 6 de la thèse est consacré à cette notion qui n'est
finalement pas si simple.

3.5 LES SMA SONT PARTICULIEREMENT ADAPTES A L’AIDE A LA


GESTION DES RESSOURCES RENOUVELABLES
3.5.1 Aborder la complexité par une démarche de modélisation systémique
Le réductionnisme est une démarche cartésienne qui cherche à comprendre le fonctionnement d'un
objet à partir d'une analyse de ses éléments constituants. En décomposant un système, elle cherche
à en déduire ses propriétés à partir de celles de ses composants. Elle vise à réduire la nature
complexe des choses en une somme de principes fondamentaux. A l'opposé, le holisme est un
système de pensée qui consiste à considérer les phénomènes comme des totalités. Selon ce point
de vue, les caractéristiques d'un être ou d'un système ne peuvent être connues qu'en les considérant
dans leur totalité et non pas en étudiant chaque partie séparément; leurs propriétés ne sont pas
uniquement déductibles de celles de leurs constituants. L'expression consacrée est alors « Le tout
est plus que la somme de ses parties ». Dans son ”Introduction à la Cybernétique”, Ross Ashby
critique le réductionnisme en ces termes :
68

"Aujourd'hui la science se trouve en quelque sorte sur une ligne de partage. Pendant deux
siècles elle a étudié des systèmes intrinsèquement simples... Le fait qu'un dogme comme 'faire
varier les facteurs un par un' ait pu être admis pendant un siècle, montre que l'objet des
recherches scientifiques était dans une large mesure les systèmes qu'autorisait justement cette
méthode, car une telle méthode est souvent totalement impropre à l'étude des systèmes
complexes... Jusqu'à une époque récente, la science a eu tendance à concentrer son attention sur
les systèmes simples et, notamment, sur les systèmes réductibles par l'analyse" [Ashby, 1956].
Ludwig Von Bertalanffy, considéré comme le fondateur de la systémique, affirme cette position
plus globalisante. Dans [Von Bertalanffy, 1968], il écrit à ce sujet que ”la tendance à analyser les
systèmes comme un tout plutôt que comme des agrégations de parties est compatible avec la
tendance de la science contemporaine à ne plus isoler les phénomènes dans des contextes
étroitement confinés, à ne plus décortiquer les interactions avant de les examiner, à regarder des «
tranches de nature » de plus en plus larges”.
Par ailleurs la connaissance d'un système doit aussi passer par l'étude des interactions avec
l’environnement, puisque environnement et systèmes s'influencent mutuellement. A ce sujet
[Watzlawick et al., 1975] expliquent qu' ”un phénomène demeure incompréhensible tant que le
champ d'observation n'est pas suffisamment large pour qu'y soit inclus le contexte dans lequel ledit
phénomène se produit”. Ainsi l'étude et la compréhension d'un système ne peut être étudié sans
tenir compte de l'environnement au sein duquel il se trouve. De nombreux géographes se
reconnaissent dans ce principe qui consiste à prendre de la hauteur pour mieux appréhender un
système en décrivant les flux qui le traversent.

Entre les tenants du holisme et ceux du réductionnisme, on assiste généralement à des querelles
irréductibles. Néanmoins, certains auteurs (Humberto Maturana, Edgar Morin et bien d'autres)
tentent de dépasser ce clivage en proposant une approche systémique de la complexité. Ils visent à
faire la synthèse entre ces deux courants de pensée en adoptant une ”pensé complexe”. Edgar
Morin explique que la ”pensée complexe” n'est ni holiste, ni réductionniste :
"Il ne s'agit pas d'opposer un holisme global en creux au réductionnisme mutilant; il s'agit de
rattacher les parties à la totalité. Il s'agit d'articuler les principes d'ordre et de désordre, de
séparation et de jonction, d'autonomie et de dépendance, qui sont en dialogique
(complémentaires, concurrents et antagonistes) au sein de l'univers." [Morin, 1990]
On caractérise souvent un système complexe comme un système composé de nombreux éléments
différenciés interagissant entre eux. Mais ”ce n'est pas tant la multiplicité des composants, ni
même la diversité de leurs interrelations, qui caractérisent la complexité d'un système” [Le
Moigne, 1977], car un dénombrement combinatoire peut permettre de décrire tous les
comportements possibles de ce système. Par contre, un système complexe se caractérise par
l'émergence au niveau global de propriétés non observables au niveau des éléments constitutifs, et
par une dynamique de fonctionnement global non prévisible à partir de l'observation et de l'analyse
des interactions élémentaires.
Les physiciens ont, les premiers, étudié les propriétés des systèmes complexes à travers les réseaux
d’automates. Ils ont observé le comportement global d’un système composé d’entités en
interaction et au fonctionnement extrêmement simple : l’état d’un automate dépend de l’état des
automates auxquels il est connecté [Weisbuch, 1989]. Plusieurs auteurs (dont le médiatique
[Wolfram, 2002]) ont montré qu'un réseau d’automates peut exhiber plusieurs types de
comportements que l’on catégorise en classes d’universalité : systèmes stables, cycliques,
désordonnés et chaotiques. Dans le cas d’un comportement chaotique, le fonctionnement du
système complexe est imprévisible : il ne se stabilise pas sur un état ou un autre. Cependant il n’est
pas désordonné car des agencements particuliers s’installent temporairement et se succèdent au gré
de quelques configurations locales particulières. En considérant cette classe d’universalité aux
comportements si particuliers, Christopher Langton transfère par analogie ces concepts des
69

réseaux d'automates dans le champ des systèmes naturels et sociaux. Il propose d'étudier
l'évolution des espèces à travers cette métaphore en considérant que la vie n'apparaît qu'au ”bord
du chaos" [Langton, 1990], [Lewin, 1994].
L’approche systémique considère qu’un système complexe possède d’autant plus de capacités à
s’adapter aux modifications de son environnement, qu’il dispose d’un certain degré de ”variété”,
au sens de la diversité des réponses adaptatives qu’il possède. Ce principe est connu sous le nom
de la loi de la variété requise de Ross Ashby.
C'est en vertu de la proposition énoncée par Edgar Morin concernant la ”pensé complexe” que les
SMA peuvent jouer un rôle non négligeable pour l'étude et la compréhension d'un système. En
permettant de recomposer une dynamique globale à partir des comportements et des interactions
des entités d'un système, ils permettent d'examiner l'articulation entre les niveaux d'organisation.
En d'autres termes, ces outils autorisent la synthèse entre l'approche standard des réductionnistes et
celle plus originale des holistes.

3.5.2 Importance de l'espace et des interactions en écologie


Comme il a été dit au début du chapitre, les modèles mathématiques permettent de décrire des
interactions entre des variables. On peut également utiliser ce formalisme pour étudier l’impact de
phénomènes spatialisés. Mais la prise en compte des interactions et de la spatialité est souvent
sommaire. Or, les écosystèmes dévoilent des interactions bien plus sophistiquées qui peuvent
conduire à des comportements plus complexes de ces systèmes. Car, comme le souligne [Ramade,
1995], ”l'écologie est la science des interactions”. En effet, un organisme est principalement
affecté par les organismes et les conditions environnementales qui se trouvent dans son voisinage.
Pour illustrer ceci, prenons l'exemple de l'espace dont la prise en compte dans l'histoire de
l'écologie a été progressive. Les études expérimentales de dynamique des populations menées par
Gause et modélisées par Lotka et Volterra, ont montré dans un premier temps le rôle de la
compétition. Ils en ont déduit le "principe d'exclusion compétitive" [Gause, 1934; Hardin, 1960].
Ce principe postule que deux ou plusieurs espèces occupant la même niche écologique c'est-à-dire
utilisant des ressources identiques, ne peuvent coexister dans un environnement stable : l'espèce la
plus apte à utiliser les ressources élimine les autres. Longtemps les études sur l'organisation des
peuplements ont porté leur attention essentiellement sur le rôle des interactions biotiques et
principalement de la compétition interspécifique (Hutchinson et MacArthur). Mais depuis,
plusieurs écologues ont tempéré cette vision de la compétition. Car le principe de Gause, pourtant
confirmé par des expériences en laboratoire [Gause, 1935], n'apparaît plus aussi valide lorsque le
milieu est affecté par des perturbations aléatoires ou lorsque des prédateurs sont introduits dans le
système. De plus, beaucoup de systèmes écologiques dévoilent que de très nombreuses espèces
peuvent coexister. Les expériences de Huffaker puis de Pimentel [1965] montrent que ce
phénomène d'exclusion compétitive disparaît et que des espèces proches coexistent lorsque le
milieu est hétérogène et compartimenté. La structure spatiale peut donc favoriser la survie d'une
espèce moins compétitive, mettant à mal le principe de Gause. ”A l'heure actuelle, la compétition
redevient un facteur parmi d'autre et la variabilité spatiale et temporelle se voit rétablir
progressivement ses droits. Il convient à présent d'étudier comment la variabilité externe
[hétérogénéité spatiale et variabilité temporelle] s'insère dans l'organisation et le fonctionnement
des peuplements, depuis les guildes d'espèces apparentées exploitant localement un même type de
ressources jusqu'à des communautés reliant les espèces de groupes taxonomiques et de niveaux
trophiques distincts” [Barbault, 1992].
Depuis quelques années, les recherches en écologie mettent donc l'accent sur l'importance de
l'hétérogénéité spatiale pour rendre compte de la structure des écosystèmes. La prise en compte,
même de manière simple, de cette hétérogénéité enrichit considérablement les résultats des
modèles [Goreaud, 2000]. Il s’avère alors que les SMA ont un rôle essentiel à jouer.
70

Toujours dans le domaine de l'écologie, Volker Grimm présente d'autres raisons d'utiliser les
SMA. Dans [Grimm, 1999], l'auteur fait le point sur dix ans de modélisation multi-agent dans ce
domaine. En partant du constat qu'en physique, il n'est pas besoin de modéliser les atomes pour
étudier les propriétés de la matière, il montre les avantages et les inconvénients d'une telle
approche. Il compare les IBMs à la modélisation standard en écologie mais aussi à d'autres
approches également appelées individu-centrées et qui ne sont pas pour autant fondamentalement
distinctes des modèles classiques. En effet, ces IOMs (pour individual-oriented models) peuvent
traiter, par exemple, de la distribution des individus en classes d'age (voir début du chapitre) pour
décrire la structure et l'évolution d'une population, sans prendre en compte véritablement les
individus mais uniquement leurs caractéristiques moyennes. En reconnaissant un continuum
depuis les modèles à variables d'état jusqu'aux modèles purement IBM, [Uchmanski & Grimm,
1996] énoncent quatre critères pour distinguer un IBM :
 Prise en compte explicite du cycle de vie des individus, plus élaboré que la simple
identification de taux de croissance et de mortalité.
 Présence de ressources dont les dynamiques reflètent d'autres facteurs que la
traditionnelle "capacité de charge" qui reste un concept au niveau de la population,
 La taille de la population est un nombre entier (la densité a été introduite dans les
modèles écologiques comme des variables d'état pour des raisons pratiques de
mathématique. Cf. chap.5.2.1).
 Variabilité entre les individus d'une même classe d'âge. Ces différences ne doivent pas
être déterminées au préalable par des données statistiques, mais elles doivent apparaître
au cours de la simulation du fait de compétitions localisées entre certains individus.
Sans nécessairement adhérer complètement à tous ces critères, on peut reconnaître que la
spécificité des IBMs repose sur la variabilité entre individus, elle-même fondée sur la prise en
compte d'interactions ponctuelles et localisées. Avec le recul et vis-à-vis des attentes qu'on en
espérait, Volker Grimm considère que la modélisation individu-centrée n'a pas suffisamment
enrichi l'écologie [Grimm, 1999] [Grimm & Railsback, 2005]. Et cela pour trois raisons :
 de nombreux IBMs ont été développés pour des espèces spécifiques sans essayer de
généraliser les résultats,
 beaucoup d'IBMs sont plutôt complexes mais manquent de techniques spécifiques pour
traiter cette complexité,
 ils sont trop élaborés pour être décrit complètement dans un seul article, ce qui rend
incomplète la communication avec la communauté scientifique.
On peut noter la contradiction apparente de ces raisons avec les critères précédemment énoncés.
Néanmoins, si les SMA parvenaient à relever de tels défis, ils pourraient conduire à une vision
fondamentalement nouvelle de l'écologie que les auteurs appellent IBE (pour Individual-Based
Ecology) :
All individuals follow the same master plan: seeking fitness. Individuals must continually decide—in
the literal or the more metaphorical sense—what to do next, and these decisions are based on the
individual’s internal models of the world. It seems reasonable to believe that individuals of many
types have similar internal models and traits that are based on fitness seeking; and complexity
science teaches us that individuals with identical adaptive traits but their own unique states,
experiences, and environments can produce an infinite variety of system dynamics. Coherent and
predictive theories of these traits will provide an important key to understanding ecological
phenomena in general [ibid.]
71

3.5.3 Coupler les dynamiques naturelles et les dynamiques sociales pour la


gestion des ressources renouvelables
3.5.3.1 Les modèles standards de l'agronomie
Pour évaluer la production d'une plante, d'une parcelle ou d'une exploitation, les agronomes
utilisent fréquemment des modèles bio-physiques de croissance des ressources. En fonction de
l'échelle à laquelle ils travaillent, ils obtiennent une estimation de la production sous les
hypothèses de stabilité et de continuité des phénomènes avoisinants. En particulier, les
changements de décision des exploitants ne sont pas pris en compte dans ces modèles. Ils étudient
donc la croissance végétale en faisant varier un paramètre bio-physique à la fois pour pouvoir
interpréter les résultats de la manipulation. D’où la formule consacrée « toute chose égale par
ailleurs ».
Les agronomes utilisent également les outils de la programmation linéaire pour estimer la
meilleure solution qui s'offre à un paysan pour tirer le meilleur profit de son exploitation. La
programmation linéaire est un domaine central de l'optimisation où toutes les contraintes sont
considérées linéaires 24.
Ces méthodes qui se rattachent au domaine de la recherche opérationnelle, facilitent l'aide à la
décision pour résoudre des problèmes d'optimisation. Elles peuvent aider un décideur lorsque
celui-ci est confronté à un problème combinatoire ou de concurrence. Pour ce type de problèmes,
étant donné qu'une simple énumération des solutions s'avère rapidement impossible (explosion
combinatoire), des techniques de type heuristique doivent être ajoutées pour trouver des solutions
acceptables par une énumération partielle.

3.5.3.2 Dynamiques loin de l'équilibre


Sans postuler d'hypothèses d’équilibre et d’optimisation pour formaliser des situations de
concurrence ou d’interaction, d’autres types de modèles permettent d’aborder la gestion de
ressources renouvelables, en intégrant différemment les dimensions écologiques et sociales dans
leurs dynamiques et dans leurs interactions. Dans ce cadre, nous nous intéressons tout
particulièrement aux méthodes qui permettent la prise en compte des règles collectives régissant
l’accès aux ressources. Nous cherchons à étudier la viabilité du système d’interactions entre
dynamiques écologiques et dynamiques sociales à travers les règles et institutions qu’une société
se donne et fait fonctionner [Bousquet et al, 1996].
Or ces systèmes aux dynamiques complexes et aux nombreuses interactions ne se trouvent
quasiment jamais à l'équilibre. Ce sont des systèmes ouverts qui réagissent constamment à des
influences externes (politiques publiques, aléas climatiques, fluctuation des prix, flux de
populations, flux de gènes, etc.) mais aussi à des modifications endogènes (changements de

24
Exemple : Considérons un agriculteur qui possède des terres, de superficie égale à H hectares, dans lesquelles il
peut planter du blé et du maïs. L'agriculteur possède une quantité E d'engrais et I d'insecticide. Le blé nécessite une
quantité Eb d'engrais par hectare et Ib d'insecticide par hectare. Les quantités correspondantes pour le maïs sont notées
Em et Im. Si Pb est le prix de vente du blé et Pm celui du maïs, on cherche alors xb et xm le nombre d'hectares à planter
en blé et en maïs. Le nombre optimal d'hectares à planter en blé et en maïs peut être exprimé comme un programme
linéaire:
Fonction à maximiser: Revenu net = Pb .xb + Pm .xm (maximiser le revenu net), sous les contraintes :
a) xb + xm  H (borne sur le nombre total d'hectares)
b) Eb .xb + Em .xm  E (borne sur la quantité d'engrais)
c) Ib .xb + Im .xm  I (borne sur la quantité d'insecticide)
(d'après wikipedia : http://fr.wikipedia.org/wiki/Programmation_lin%C3%A9aire)
72

stratégies de production, changement d'utilisation des sols, etc). Aussi, pour étudier et modéliser
ces systèmes, "les chercheurs [doivent] délaisser l'hégémonique concept d'équilibre pour
s'intéresser à la dynamique des interactions sociétés-ressources" [Bousquet, 2001].

3.5.3.3 Vers une approche transdisciplinaire de la modélisation


Les problématiques des agronomes ont évolué au cours des années quatre-vingts. Il a fallu en
particulier aborder les problèmes de gestion de ressources en prenant en compte à la fois les
dimensions économiques et bio-physiques sans oublier la dimension sociale. Cette prise en compte
s'est souvent traduite par des couplages de modèles. Une forme de couplage consiste alors à créer
des communications entre les modèles bio-physiques et économiques qui s'échangent des données.
Mais le principal ennui de cette technique est d'obtenir des systèmes trop complexes (des usines à
gaz) avec de problèmes difficiles de gestion du temps. Par ailleurs, on peut percevoir cette façon
de procéder plutôt comme une juxtaposition de disciplines et non pas comme une véritable
approche interdisciplinaire.
En effet l'interdisciplinarité requiert l'intégration de savoirs scientifiques multidisciplinaires, pour
porter un regard neuf sur les éco-socio-systèmes. Pour aborder ces couplages de dimensions, il
paraît préférable de choisir une démarche plus intégrée qui prenne en compte simultanément les
différentes disciplines, non pas comme une juxtaposition de celles-ci mais par la mise en place
d'un dialogue transdisciplinaire. La modélisation est alors perçue comme l'articulation de ces
dimensions en un même outil. Elle permet de redéfinir les enjeux en construisant un modèle des
ressources et de la société qui cherche à répondre à une question pertinente.

Dynamiques économiques et sociales Dynamiques naturelles

couvert

foncier sol

Marché des espèces exploitées : filières, prix, Interactions : Espèces : dynamiques des populations,
demande… compétitions intra et interspécifiques…
Marché du foncier gestion collective, Climat : précipitations, variations
Communauté: nombre d’exploitants, disponibilité et saisonnières, changement climatique
consommation propre, relations sociales… conflits d’accès, Plante : caractéristiques, cycle de vie
Exploitant :production et stockage; stratégie de (plantules, jeunes, adultes), dissémination,
production, revenu, sécurité alimentaire …
pollution, capacités d’adaptation, capture CO2,
épidémies, échanges plante-sol,…
viabilité…

Figure 3-6 : Modéliser les dynamiques naturelles et les dynamiques sociales. Dans le domaine de la gestion
des ressources renouvelables, la prise en compte des interactions entre les dynamiques agraires et les
dynamiques d'usage des ressources est primordiale. La modélisation est un moyen de comprendre les
interactions entre ces deux dynamiques.
La modélisation multi-agent semble pertinente pour aborder la représentation conjointe de
dynamiques écologiques et sociales dans un même outil qui autorise une démarche exploratoire.
En intégrant des sciences biophysiques pour comprendre les dynamiques des ressources mais aussi
des sciences humaines et sociales, on cherche à mieux comprendre les pratiques d’acteurs, leur
coordination, ainsi que les dynamiques économiques, politiques et sociales.
Dans [Parker et al., 2003], les auteurs procèdent à une revue des modèles traitant des changements
des couverts : LUCC (Land-Use and Land-Cover Change [Lambin & Geist, 2006]). Après avoir
73

énuméré un certain nombre d'approche, des modèles à base d'équation aux automates cellulaires en
passant par les techniques statistiques et les systèmes experts, les auteurs abordent les SMA qui
selon eux, fournissent une meilleure flexibilité pour traiter de ce type de problèmes.
[Parunak et al. 1998] comparent les différentes approches de la modélisation et relèvent les forces
et les faiblesses relatives de chacune. Ils concluent que : "...agent-based modeling is most appropriate
for domains characterized by a high degree of localization and distribution and dominated by discrete
decision. Equation-based modeling is most naturally applied to systems that can be modeled centrally, and
in which the dynamics are dominated by physical laws rather than information processing."
Dans ce contexte transdisciplinaire, un autre avantage des SMA tient au fait qu'ils sont
compréhensibles par tous (scientifiques, décideurs et acteurs du développement). Ils peuvent ainsi
s'intégrer dans des démarches participatives pour accompagner des décisions collectives.

3.6 COMMOD : LA MODELISATION COMME OBJET DE MEDIATION


"Il faut bien reconnaître que, sur bien des points, les paysans savent mieux
l'économie politique que les économistes et les gouvernants".
Léon Walras
"Les chercheurs peuvent faire une chose plus nouvelle, plus difficile :
favoriser l'apparition des conditions organisationnelles de la production
collective de l'intention d'inventer un projet politique et, deuxièmement, les
conditions organisationnelles de la réussite de l'invention d'un tel projet
politique, qui sera évidemment un projet collectif"
P. Bourdieu "Pour un savoir engagé". Le Monde Diplomatique, fév. 2002

3.6.1 De l'aide à la décision pour piloter un système…


Dans le chapitre précédent, la question de savoir "pourquoi modéliser ?" était posée. Si la vision
naïve sur le rôle des modèles considère qu'ils servent à prédire, beaucoup pensent plutôt à un outil
prospectif pour dégager "le champ des possibles". Ainsi, dans une large mesure, le modèle est
considéré comme un outil d'aide à la décision.
En cherchant à démystifier le modèle macroéconomique standard25, [Boussard et al., 2005]
expliquent que de tels modèles, si monstrueux 26 soient-ils, ”sont même utilisés par les décideurs
politiques pour engager l'avenir de l'Humanité”. Evidement, ces modèles ne sont pas perçus par les
décideurs comme des boules de cristal fournissant des prédictions exactes. Car prétendre prévoir
les chiffres mondiaux futurs ”pour dans dix ans relève de la gageur, peut-être de l'escroquerie
intellectuelle” [Ibid.]. Mais ils donnent des ordres de grandeurs qui appuient la décision. Pour ces
auteurs, ”ces modèles présentent au moins l'avantage de permettre l'examen d'hypothèses qui sont
toutes cohérentes entre elles […]. Les modèles de ce genre peuvent servir de béquilles pour le
raisonnement” [ibid.]. Mais les auteurs reconnaissent un mauvais usage des modèles qui consiste à
prendre au pied de la lettre ceux qui vont dans le sens que l'on souhaite. Les résultats du modèle
standard par exemple, ”jouent un rôle important dans l'entreprise qui consiste à persuader le public
que « la libéralisation est une bonne chose »” [ibid.].

25
Le modèle dit standard est un modèle international du GTAP (Global Trade Analysis Project) pour l'étude du
développement durable et de la distribution des revenus. Ses résultats encouragent la libéralisation de l'agriculture
mondiale.
26
Alimenté par une base de données gigantesque du GTAP, le modèle standard peut contenir jusqu'à 300.000
équations mathématiques !
74

Il faut donc rester très circonspect quant à cette notion d'aide à la décision. Car le danger est grand
de manipuler les opinions. Le commanditaire d'une modélisation peut toujours s'appuyer sur les
résultats du modèle quand ceux-ci vont dans la direction qu'il souhaite prendre ou à l'opposé, en
critiquer les faiblesses lorsque les résultats sont en contradiction avec une décision qu'il a déjà
prise.

3.6.2 … à l'accompagnement du processus de décision


3.6.2.1 Echec de la méthode standard du décideur isolé pour gérer des ressources renouvelables
Dans le cadre de la gestion des ressources renouvelables, la décision est rarement le résultat d'un
seul décideur mais plutôt la conséquence d'interactions entre plusieurs acteurs [Weber, 1995]. Par
ailleurs, [Ferber & Guérin, 2003] considèrent que ”dans le domaine des sciences sociales, le
processus de modélisation n'est pas neutre car il porte sur des personnes et donc sur des individus
doués de capacités, eux aussi, de représentation”. Dans la lignée de la pensée de Maturana et
Varela, ils expliquent que ”le modélisateur, tout en croyant s'abstraire du monde par le biais de son
modèle, fait partie du Kosmos et est donc soumis, lui aussi, aux représentations des autres
personnes et en particulier de ceux qu'il modélise. De ce fait, le chercheur fait partie de la boucle
sociale et ne peut se distinguer. La tentation est grande, et cette tentation est valable pour chacun
de nous, de penser qu'il est possible de s'abstraire du contexte et d'évaluer quelque chose
indépendamment de nous” [ibid.]. Le souci de neutralité que je désapprouvais au chapitre
précédent, s'avère encore plus suspect lorsque l'on s'intéresse aux dynamiques sociales et à la
modélisation des comportements humains.
Alors comment arriver à prendre des décisions mettant en œuvre des êtres humains dont les
représentations seront nécessairement différentes de celles du décideur ? Comment se sortir du
piège éternel des projections ? Car les décisions sont fréquemment ”le résultat d'un processus
d'interaction entre des acteurs individuels et/ou collectifs ayant des représentations et des « poids »
différents dans la négociation” [Weber et Bailly, 1993].
Une solution réside dans une autre forme de simulation dans laquelle les acteurs se mettent en
situation et agissent en jouant leur propre rôle ou en prenant celui des autres et en tentant de mieux
prendre en considération le point de vue et les motivations de chacun. C'est l'objet de la démarche
ComMod.

3.6.2.2 ComMod : la modélisation d'accompagnement


ComMod (pour Companion Modelling en anglais) est une démarche qui cherche à accompagner
des évolutions collectives de gestion des ressources renouvelables. À travers la modélisation, elle
aborde les thèmes qui touchent à la propriété commune, à la coordination entre acteurs et aux
processus collectifs de décision. Elle vise à l'élaboration de représentations partagées par les
acteurs qui agissent et interagissent au sein d'un territoire. Face à de tels systèmes, complexes et
dynamiques, objets d'enjeux et d'actions multiples de la part des acteurs, ComMod permet dans la
mesure du possible d'expliciter les points de vue différents et les critères subjectifs de chacun. Pour
cela, ComMod propose de coupler la modélisation multi-agent avec des jeux de rôles (JdR) pour
comprendre et partager des connaissances. Le recours à la simulation multi-agent et aux JdR est un
moyen de prendre en considération la complexité des systèmes étudiés et d'explorer des
trajectoires évolutives.
L'objectif de ComMod est double :
1) Le premier objectif est d'aborder et de comprendre des environnements complexes en situation
d’incertitude, c'est-à-dire :
-enrichir les connaissances sur un enjeu de développement,
-mieux comprendre la place et le rôle des acteurs dans ces processus,
75

-favoriser l'échange et la reconnaissance mutuelle des points de vue des acteurs,


-co-construire des indicateurs qui sont pertinents pour tous.
2) Grâce aux aspects ludiques de la démarche, le deuxième objectif est d'aider à la prise de
décision collective, c'est-à-dire :
-débloquer des situations de non-dit,
-faciliter les échanges entre les acteurs,
-éclairer les points de vue de chacun et les enjeux du collectif,
-favorise la reconnaissance mutuelle des représentations de chacun,
-faciliter et enrichir le processus de décision.
L'objectif n'est donc pas de proposer des solutions d'experts, mais plutôt d'améliorer le processus
collectif de décision, tant sur son aspect technique (informations, solutions techniques...) que
social (meilleure concertation, renforcement du pouvoir de l'acteur dans la décision, ...). ComMod
postule que la qualité des décisions dépend de la qualité du processus de décision lui-même.
Parce que les règles résultent de l’interaction entre acteurs, elles se trouvent légitimées aux yeux
de l’ensemble des acteurs et elles intègrent les perceptions particulières. C’est à partir d’une
conception partagée sur l’évolution de la situation présente que les acteurs peuvent « décider »
des objectifs de très long terme, sur la base desquels les scénarios qui permettraient de les
atteindre pourront être discutés. [Bousquet, 2001]
Le grand avantage des simulations multi-agents dans cette optique est d'être intelligible par les
acteurs et de permettre l'articulation des points de vue multiples. Les sessions de jeux de rôles
permettent de rejouer des situations existantes sous la forme d'un simulacre (ou d'une parodie) où
les acteurs réels du développement rejouent leur propre rôle ou endossent celui d'un autre.
Evidemment il s'agit de situations caricaturales, sans enjeu, qui ressemblent plus ou moins à des
situations véritables. Mais ces mises en situations factices permettent la prise de distance. Elles
sont alors efficaces pour déceler et faire comprendre un processus et pour concevoir
collectivement une représentation partagée du phénomène. Les JdR permettent notamment de
révéler des règles sociales implicites et des interactions entre acteurs qui auraient pu échapper au
scientifique. Le couplage entre SMA et JdR permet d'explorer des dynamiques d’interactions entre
des comportements individuels et sociaux et des dynamiques environnementales dans l'espoir d'en
dégager des évolutions acceptables par tous.
La démarche globale est envisagée comme un processus itératif de recherche selon un cycle
terrain→modélisation→simulation→terrain. Cela ne signifie pas nécessairement une
complexification progressive d’un modèle qui devrait incorporer de plus en plus d’éléments pour
mieux ”coller à la réalité”, mais plutôt l’acceptation d’une diversité de modèles qui constituent
alors une véritable base de connaissances.
76

Figure 3-7 : Schéma de la démarche itérative de construction d’un SMA et du jeu de rôle associé. D'après
[Etienne, 2005]
ComMod est donc une démarche d'apprentissage; un processus d'enrichissement progressif qui
améliore la connaissance du système étudié, la partage avec les parties prenantes et améliore les
choix décisionnels.

3.6.2.3 Proposer des objets de médiation en respectant des règles déontologiques


Le couplage SMA et JdR peut être aussi vu comme la possibilité d'ouvrir la boite noire d'un
modèle multi-agent [Barreteau et al., 2001] et pour en permettre une sorte de "validation" sociale
[Barreteau & Bousquet, 1999].
Mais, qu'on ne se leurre pas, la mise en place d'une démarche ComMod n'est pas une solution
miracle pour résoudre instantanément des conflits liés à l'utilisation de ressources. En effet,
améliorer un processus de décision collective nécessite au préalable une longue pratique du terrain
et une bonne connaissance des acteurs et des enjeux.
Les SMA et les JdR constituent des succédanés de situations réelles. En cela, ils constituent des
objets intermédiaires qui impliquent une distance à la réalité ou plutôt à des situations souvent
douloureuses et trop prégnantes. Cette distanciation autorise ainsi des discussions sur des sujets
plus ou moins conflictuels, voire tabous [Aquino et al., 2003]. En s'insérant dans un tissu social, le
modèle, co-contruit avec les acteurs, devient alors un objet de médiation, favorisant la résolution
de conflits et la décision collective.
À une époque où l’on se tourne de plus en plus souvent vers les modèles pour l'aide à la décision,
il faut préciser que la démarche ComMod véhicule une posture scientifique. Elle implique que la
perception du scientifique n'est qu'une simple option parmi d'autres et non pas une perception
supposée juste vers laquelle doit tendre la décision 27. À ce titre, le modélisateur doit s'imposer des
règles déontologiques. Même si son mobile paraît juste et salutaire, il doit s'interdire d'utiliser ces
outils pour influer la décision et faire accepter ses idées. En effet, la puissance suggestive des

27
Dans le domaine des systèmes complexes en situation d'incertitude, cette posture scientifique est connue sous le
terme de posture ”post-normale” [Funtowicz & Ravetz, 1994]. Dans une situation où les faits sont incertains, les
valeurs contestées, les enjeux élevés et les décisions urgentes, elle suppose que l’implication des acteurs dans le
processus participatif est plus importante pour la mise en œuvre d’une décision que la décision elle-même. Elle
implique par ailleurs que les chercheurs ” doivent être conscients que leur compétence ne constitue qu'un maillon du
processus politique. Leurs contributions peuvent aider à définir l'éventail des résultats possibles, mais ils ne peuvent
arrêter de solutions politiques uniques. Ce contexte diffère à ce point de celui qui a prévalu dans la recherche
traditionnelle qu'il est qualifié à juste titre de post-normal” [ibid.].
77

modèles et des jeux de rôles peut facilement devenir un outil de manipulation. Aussi, pour limiter
ces risques, le collectif de chercheurs réfléchissant sur ComMod a rédigé une charte de ”bonne
conduite” sur l'usage des modèles dans le domaine de la gestion des ressources renouvelables
[ComMod, 2005]. De mon point de vue, l'aspect ”prévention de la manipulation” est un point
essentiel qu'il faudrait encore approfondir.
Pour explorer davantage le sujet, le site ComMod 28 propose des études de cas, des articles et la
charte. [Aquino et al., 2002] présentent une comparaison de cinq expériences différentes de
modélisation d’accompagnement. Par ailleurs, un numéro spécial de la revue JASSS est dédié à
ComMod [Barreteau et al., 2003]. Mais l’évaluation critique de la démarche 29, sa déontologie, le
contexte de sa mise en œuvre restent des chantiers à explorer qui font l'objet d'un projet ADD en
cours.
Cependant et malgré mon intérêt, la démarche ComMod n'est pas le centre de cette thèse. Je
n'approfondirai donc pas plus le sujet ici, même si beaucoup d'idées présentées dans ce document
s'inspirent fortement de ComMod.

3.6.3 Générer des scénarios exploratoires par simulation interactive


Les travaux engagés dernièrement sur Cormas vont dans le sens de cette approche. Au lieu de
regarder une simulation sans pouvoir intervenir sur les processus en cours, de nouveaux outils
permettent d'interagir avec le simulateur. Les utilisateurs peuvent définir les indicateurs qui leur
conviennent et choisir d'observer la simulation à travers ces filtres. S'agissant fréquemment de
ressources spatialisées, ils ont aussi la possibilité de ne voir qu'une partie de l'espace
(généralement celle qui les concerne). Ils peuvent aussi interagir directement sur l'agent sensé les
représenter (leur avatar) en les déplaçant ou en leur envoyant une série de messages et en agissant
sur le couvert végétal ou la ressource hydrique via cet intermédiaire. L'intérêt est alors de proposer
un ensemble d'activités de base dont l'utilisateur dispose pour façonner sa propre stratégie. Ainsi,
avec ce nouvel outil, le modélisateur ne décrit plus le comportement des agents mais met à
disposition des actions élémentaires que les utilisateurs organisent pour interagir avec
l'environnement et les autres agents. Car ces simulations interactives peuvent également être
distribuées sur des machines en réseau permettant ainsi à plusieurs utilisateurs d'interagir sur un
même environnement virtuel. Si je trouve peu d'intérêt à des simulations interactives sur Internet,
je pense par contre que la proximité des utilisateurs permet des interactions directes plus riches,
autorisant alors des communications de type non-verbales. Ce projet d'une plate-forme de
simulation interactive et distribuée est un chantier en cours de réalisation qui s'appuie sur des
expériences concrètes de modélisation d'accompagnement et des besoins qui s'y sont exprimés.
Deux types d'outils interactifs se dégagent : d'un côté, la manipulation directe des agents-avatars
par l'utilisateur et de l'autre, la saisie des données par une tierce personne jouant le rôle de
manipulateur de la simulation (elle imprime et fournit des tableaux de saisies qui sont à leur tour
remplis par les utilisateurs) 30.

28
Le site web de ComMod (http://www.commod.org) contient la charte ComMod (en français et en anglais), la
description de quelques applications et la liste des personnes qui participent au réseau.
29
En particulier, la convocation des acteurs, la question des jeux de pouvoir qui peuvent survenir lors d'un ”dialogue”
ComMod (doit-on essayer de réduire les inégalités de pouvoir ?), la posture soi-disant neutre du médiateur, évaluation
des impacts sur la décision et le long terme, changement d'échelle (les expériences ComMod opèrent au niveau local et
ne touchent qu'un nombre réduit d'individus), naïveté de la démarche qui imagine que les interactions sociales peuvent
se résumer à des échanges lors d'ateliers, etc…[Lavigne-Delville et al. 2000]
30
On pourrait rétorquer qu'il serait plus judicieux d'utiliser des plates-formes de jeux vidéos qui commencent à
apparaître. Mais elles sont trop orientées pour des jeux stratégiques ou de type ”first person shooter” et imposent ainsi
des formats d'interaction prédéfinis. Par ailleurs, la visualisation réaliste en 3D n'est pas forcément un objectif à
atteindre. Garder une distance vis-à-vis d'une situation réelle me semble un élément important de ComMod. Enfin,
sans même aborder la nécessité de co-construction des modèles, les projets de développement nécessitent souvent une
78

3.7 CONCLUSION DU CHAPITRE


Les modèles macroscopiques prennent en compte un groupe d'individus vu comme une structure
pouvant être caractérisée par des variables. Pour les simulations centrées-individus, la structure est
vue comme un caractère émergent des interactions entre les individus. Après avoir décrit
succinctement ces deux approches de la modélisation, j'ai expliqué les avantages des systèmes
multi-agents pour aborder la modélisation des systèmes dans le cadre d'une ”pensée complexe”
[Morin, 1990] et en particulier pour traiter de l'organisation des eco-socio-systèmes. Il s'avère que
les SMA peuvent jouer un rôle décisif pour dépasser le clivage entre les partisans du
réductionnisme et les tenants des démarches holistiques.
Les SMA permettent de coupler des dynamiques diverses pour étudier leurs interactions, sans faire
l'hypothèse de positionnement à l'équilibre. La modélisation multi-agent autorise alors un dialogue
entre les disciplines pour tenter une démarche transdisciplinaire.
De plus, étant centrée sur l'individu, la simulation multi-agent permet à l'utilisateur de se mettre à
la place de l'agent dont il suit l'évolution et, par exemple, de ”penser comme un loup, un mouton
ou une mouche” [Wilensky & Reisman, 2006] !
Dans le cadre de l'aide à la gestion des ressources renouvelables, la modélisation multi-agent ouvre
des perspectives nouvelles par rapport aux démarches plus standards (aide à la décision, conseil,
expertise agronomique,…). Parce que les SMA peuvent être compréhensibles par tous
(scientifiques, décideurs et acteurs du développement), les simulations multi-agents peuvent
s'intégrer dans des démarches participatives pour accompagner des décisions collectives. Le
couplage SMA-JdR permet alors d'explorer des succédanés de situations réelles (assistées par
ordinateur) où chaque participant peut agir, échanger et exprimer son point de vue mais aussi
mieux comprendre son rôle et celui des autres vis-à-vis de ressources collectives ou
interdépendantes.
Ainsi, les SMA apparaissent comme des outils privilégiés pour mener des scénarios exploratoires
dans des simulations interactives impliquant fortement les acteurs. Car, dès qu'il s'agit de l'action
des êtres humains, il ne s'agit pas de décider seul pour générer effectivement des changements de
conduite des acteurs. Dans le domaine des ressources renouvelables, ce constat implique que tous
ceux qui influent par leur comportement sur la dynamique globale, prennent part activement à la
décision. Car il s'avère que l'appropriation d'une décision favorise un engagement des acteurs plus
conscients de leur rôle. Toutefois la démarche prospective des systèmes socio-environnementaux
nécessite une déontologie explicite, en particulier concernant les tentations de manipulation.
Si ce chapitre s'est intéressé aux atouts des SMA, le reste de la thèse s'attache plus à décrire leurs
faiblesses. Car, si certains annoncent ”la fin des débuts pour les systèmes multi-agents” [Axtell,
2006], il importe de rester très critique et clairvoyant à leur égard en identifiant leurs points faibles
pour mieux les appréhender et les traiter.

implémentation rapide des simulateurs avec peu de moyen en ressources humaines compétentes, ce qui est loin d'être
le cas pour le développement de jeux vidéos.
Chapitre 4

LE STATUT DE LA SIMULATION ET SES CONSEQUENCES


POUR LA « VALIDATION » DES SYSTEMES MULTI-AGENTS

"Pendant des siècles, l'Angleterre s'est appuyée sur la protection, l'a


pratiquée jusqu'à ses plus extrêmes limites, et en a obtenu des résultats
satisfaisants. Après deux siècles, elle a jugé commode d'adopter le libre-
échange, car elle pense que la protection n'a plus rien à lui offrir. Hé bien,
Messieurs, la connaissance que j'ai de notre pays me conduit à penser que,
dans moins de deux cents ans, lorsque l'Amérique aura tiré de la
protection tout ce qu'elle a à offrir, elle adoptera le libre échange."
Ulysses Grant, président des Etats-Unis de 1868 à 1876

Après avoir décrit les avantages des SMA pour la modélisation des systèmes complexes, ce
chapitre aborde certaines spécificités de ces outils et leurs conséquences pour leur évaluation,
particulièrement à propos de la fiabilité et de la vérification des résultats qu'ils énoncent. Car,
contrairement aux équations mathématiques, on ne peut pas prouver les propriétés intrinsèques
d'un SMA (convergence, cycles, attracteurs, ...) et le passage obligé par la simulation oblige à
considérer ce statut particulier.
En effet, le temps dans un SMA joue un rôle actif et décisif : en se déroulant progressivement, il
orchestre les entités en les activant au fur et à mesure de la simulation. Il est un élément essentiel
car il anime les agents qui se transforment et interagissent pour produire des phénomènes
émergents. Ces propriétés globales d'un SMA sont donc des constructions temporelles. En cela,
elles ne peuvent pas se résumer : on ne peut pas montrer ces propriétés émergentes sans le recours
à la simulation. Elles ne sont pas décrites formellement par le modèle mais sont véritablement
créées par la simulation. C'est pourquoi il est important de distinguer le modèle de la simulation.
D’ailleurs, et contrairement à ce que l'on pourrait attendre, la conception d'un SMA ne donne pas
immédiatement accès à la compréhension de son comportement [Bommel, 1997b].
Des divergences dues à des écarts d'interprétation renforcent encore la nécessité de séparer ces
deux notions. En effet, la conception d'un SMA doit suivre une chaîne de traitement dont le point
de départ consiste à traduire les concepts issus du domaine étudié pour produire un modèle
opérationnel puis un code informatique. Or cette suite d'activités peut être la source d'erreurs ou
d'artefacts pouvant conduire à des écarts d'interprétation entre les résultats d'une simulation et les
conclusions qu'on en déduit pour le modèle.

4.1 DISTINGUER "MODELE" ET "SIMULATION"


Il est fréquent de rencontrer dans la littérature l'emploi du mot "simulation" pour parler de modèle.
Ainsi, la définition, trop large, retenue par la Society for Computer Simulation (SCS) de John Mac
Leod, indique que la simulation informatique renvoie à "tout usage de l'ordinateur pour modéliser
des choses" [Mc Leod, 1986]. Mais un calcul formel effectué par un ordinateur par exemple ne
peut pas exactement être qualifié de simulation. Dans notre domaine, la définition la plus citée
aujourd'hui reste celle que propose Paul Fishwick :
80

"Computer simulation is the discipline of designing a model of an actual or theorical physical


system, executing the model on a digital computer, and analyzing the execution output"
[Fishwick, 1995]
Mais ici aussi, l'auteur décrit l'activité complète de modélisation et non pas la simulation en tant
que telle. Parmi les nombreuses définitions que j'ai trouvées, la première qui s'attache à décrire
spécifiquement l'exécution dynamique d'un modèle est proposée par David Hill :
"La simulation consiste à faire évoluer une abstraction d'un système au cours du temps afin
d'aider à comprendre le fonctionnement et le comportement de ce système et à appréhender
certaines de ses caractéristiques dynamiques dans l'objectif d'évaluer différentes décisions."
[Hill, 1993]
L'auteur distingue clairement le modèle (une abstraction) de son exécution par une machine qui en
déplie la représentation pour révéler à l'observateur des fonctionnements du système cible. Il met
en avant le fait que la simulation aide à comprendre le fonctionnement dynamique du modèle. Car
le fait d'avoir conçu un SMA ne donne pas forcément accès à la compréhension de son
comportement. Or celle-ci est déjà une première étape, indispensable pour tenter d'interpréter le
fonctionnement du système cible. Par conséquent, les termes ”simulation” et ”modèle” ne sont pas
analogues.

4.2 LA SIMULATION REVELE L'IMPORTANCE DU TEMPS


4.2.1 Prise en compte progressive du temps dans les modèles
Travailler sur la dimension spatiale d'un écosystème nécessite également de considérer le système
dans sa dynamique et d'introduire le rôle du temps. Dans le domaine de l'écologie par exemple, R.
Barbault [1992] insiste sur l'importance des retards dans les processus écologiques. Dans le
domaine industriel, en analysant le fonctionnement des chaînes de production, Goldratt a aussi
montré le rôle prépondérant que jouent les délais dans le fonctionnement des systèmes de
production industrielle [Goldratt et Cox, 1993]. En économie et évidemment en politique, le temps
joue également un rôle prépondérant : des recettes économiques qui ont fonctionné dans le passé,
ne s'appliquent souvent plus à une situation qui diffère de celle de l'époque. Sous prétexte qu'un
modèle de développement économique a bien fonctionné à un moment donné, il est judicieux mais
malhonnête de vouloir plaquer ce même modèle à une situation actuelle qui diffère sur bien des
aspects. La citation en exergue illustre mon propos.
En cherchant à retracer l'histoire et le fonctionnement des modèles de l'économétrie, on s'aperçoit
d'ailleurs que la notion de temps a été occultée pendant longtemps. Aujourd'hui il est davantage
pris en considération mais reste néanmoins un aspect secondaire. Ainsi, [Boussard et al., 2005]
expliquent que les plus frustres des modèles d'équilibre général ne tiennent pas compte du temps.
En effet, dans les modèles "walrassiens" 31, tous les phénomènes sont simultanés et tout réagit sur
tout de façon instantanée. Par exemple, la production et la consommation sont instantanées pour
permettre un équilibre idéal entre l'offre et la demande. Or "l'imperfection de l'information" et les
délais de réaction des agents génèrent des phénomènes loin d'être secondaires. A partir de ces
premiers modèles, le temps a progressivement été pris en compte.
Ainsi les économistes ont d'abord introduit la notion d'actualisation dans leurs équations. Elle est
utilisée pour estimer la valeur ou le revenu futur d'un bien et déterminer ainsi sa valeur actuelle.
Mais les techniques d'évaluation sont complexes et dépendent de la nature de l'investissement. Ces

31
A l'origine de l'introduction des équations mathématiques en économie, Léon Walras (1834-1910) est considéré
comme le précurseur des modèles économiques. Il a également cherché à introduire la notion d'anticipation des agents
économiques.
81

estimations, censées prendre en compte le coût du temps, sont fournies au préalable par le
concepteur ; elles ne proviennent pas de résultat du modèle.
Les économistes ont ensuite cherché à évaluer la rémunération du risque sur le moyen ou le long
terme en introduisant la dimension temporelle dans leurs modèles. [Boussard et al., 2005]
expliquent que "la façon « pure » de voir le temps dans un modèle dit « néoclassique » est de
considérer qu'un objet identifié à deux moments différents constitue en fait deux objets différents".
En reconnaissant l'artifice de modélisation, les auteurs estiment que ce procédé permet d'introduire
"les considérations sur l'épargne et l'investissement qui manquait évidemment dans le modèle
walrassien" [ibid.]. Ainsi, la prise en compte du temps revient à nouveau à chercher à mieux
définir un taux d'actualisation qui reste l'un des sujets majeurs de préoccupation des économistes.
Mais il est dommage de restreindre l'importance du temps à cette seule notion.

4.2.2 Distribution des interactions au cours du temps


La simulation consiste à faire s'exprimer un modèle. En déroulant le temps, elle permet de déplier
sa représentation à la manière d'un bon vin qui délivre ses arômes une fois ouvert. La simulation
révèle alors à l'observateur des comportements qui peuvent paraître surprenants. Certains parlent
d'émergence, c'est-à-dire de phénomènes globaux qui ne sont pas spécifiés au niveau du modèle.
Nulle magie n'est à l'œuvre ici. Le cerveau humain n'est simplement pas capable de "prendre en
compte en même temps le comportement d'un grand nombre d'éléments qui s'influencent
mutuellement" [Deffuant et al., 2003a]. La force de la simulation est justement de permettre cette
prise en compte. C'est précisément ce pouvoir de la simulation qui reste un objet de fascination,
même pour un modélisateur habitué à manipuler ce type d'outils.

4.3 LA SIMULATION REVELE LA COMPLEXITE


4.3.1 La complexité selon Von Neumann
En étudiant de manière détaillée le déroulement d’une simulation, nous sommes capables a
posteriori d'énoncer une explication logique du phénomène émergent. Dans cette perspective, "les
simulations ont pour objectif premier de faire progresser la connaissance du fonctionnement du
modèle, avant de faire progresser la connaissance du phénomène représenté" [Deffuant et al.,
2003b]. On présume pourtant qu’un modèle devrait être connu par ses concepteurs, dans ses
moindres mécanismes. Comment se fait-il alors qu’il faille encore l’étudier pour le comprendre
[ibid.], [Amblard, 2003] ? Les auteurs rappellent alors la notion de complexité telle que Von
Neumann la percevait : une machine est complexe si l’ensemble de ses comportements possibles
est infiniment plus difficile à caractériser que ses règles de fonctionnement [Von Neumann et
Burks, 1956]. Von Neumann s'inspire du fonctionnement de la machine de Turing pour expliquer
sa perception de la complexité. Il explique que si les règles de fonctionnement de cette machine
sont simples, ses comportements sont bien plus difficiles à prévoir. Il est impossible par exemple
de savoir à l'avance si la machine s’arrêtera ou non. Ainsi, une machine très compliquée comme
une centrale nucléaire n’est pas complexe dans le sens de Von Neumann car l’ensemble de ses
comportements est réduit [Amblard, 2003].

4.3.2 ECEC : un exemple de modèle simple et de résultats non triviaux


Le modèle ECEC (Evolution de la Cooperation dans un Contexte Ecologique) est un bon exemple
de complexité par simulation. Etant donné qu'ECEC est un exemple sur lequel je reviendrai au
cours de cette thèse, il est présenté plus en détail en annexe 3 (la description de sa structure est
présenté page 295). En effet, il s'agit d'un modèle-école pour notre équipe car :
 Sa structure est simple et ses mécanismes sont aisés à comprendre,
82

 Il illustre deux dynamiques couplées : une dynamique "naturelle" de croissance de végétation


et une dynamique "sociale" d'agents en compétition pour cette ressource,
 Il est spatialisé : les plantes sont distribuées de façon hétérogène sur un espace sur lequel des
agents ruminants se déplacent et broutent les plantes.
 Malgré sa simplicité, ses résultats de simulation ne sont pas triviaux,
 On peut le comparer à des modèles classiques de l'écologie : le modèle de Lotka-Volterra
(dans le cas d'une seule population d'agents (prédateurs) prélevant de la végétation qu'on
associe aux proies) ou le modèle de Gause et son principe d'exclusion compétitive ou d'autres
modèles décrivant des comportements de compétitions intra et inter-spécifiques,
 Nous en avons fait la réplication à partir d'un article d'une autre équipe [Pepper et Smuts,
2000] et comme nous le verrons plus loin (chap. 9.1), la réplication est un phénomène à
prendre sérieusement en compte à l'heure actuelle.
Nous nous en servons fréquemment comme modèle standard pour présenter et expliquer le
fonctionnement d’un SMA. Il est aisé d'en expliquer la structure et les dynamiques. En montrant
une simulation pas à pas, les personnes non-initiées aux SMA en saisissent rapidement les
mécanismes et perçoivent mieux ce que nous entendons par modèle multi-agent dans le cadre de la
gestion des ressources. Les biologistes y voient une démonstration du principe d'exclusion
compétitive (principe de Gause) : deux espèces ne peuvent coexister indéfiniment si elles sont en
compétition sur une ressource limitée ; elles ne peuvent occuper la même niche écologique et
l’espèce la plus performante (mesurée en termes de fitness de population 32) élimine l'autre. Dans le
cas du modèle ECEC, l'espèce des ruminants la plus vorace exclut l'espèce la moins vorace en
consommant la majorité des plantes et en se reproduisant plus rapidement.
Les figures suivantes illustrent une vue de la grille spatiale avec les deux populations de ruminants
ainsi que des graphes temporels montrant l'évolution des tailles des populations.

Figure 4-1 : Exemple de simulation de ECEC. A gauche, une vue de la grille spatiale montrant la répartition
des plantes dont le niveau d'énergie de chacune suit à un gradient de vert et les agents "restreints" (bleu) et
"non restreints" (rouge). A droite, évolution des effectifs au cours du temps d'une simulation : au pas de temps
100, la population des "restreints" est exclue par la population des "non restreints".
Après avoir expliqué ce premier scénario, nous en présentons un autre : sans modifier le modèle,
mais juste en remplaçant la structure initiale de l'espace en une répartition hétérogène des plantes

32
La fitness est un mot anglais, signifiant santé, forme. Si l'aérobic fait un usage intensif de ce mot, l'écologie
évolutive l'utilise également mais dans un autre sens : il exprime l' "aptitude phénotypique" des individus à avoir des
descendants matures. La structure interne d’une niche écologique est déterminée par plusieurs critères dont la fitness.
83

par paquets (ou patchs), la réponse à la question "que va-t-il se passer ?" est beaucoup moins
évidente. La majorité des personnes interrogées ne la connaissent pas, même si elles n'ont plus de
doute sur le fonctionnement du modèle. Elles découvrent alors avec intérêt que l'espèce des
ruminants la moins compétitive survie quant la plus vorace disparaît.

Figure 4-2 : Exemple de simulation de ECEC sur un espace fragmenté : il y a autant de plantes que dans la
simulation précédente, mais les patchs sont séparés par des zones vides. A gauche, une vue de la grille spatiale
montrant les patchs de plantes. A droite, évolution des effectifs au cours du temps : la population des "non
restreints" s'éteint quand les "restreints" parviennent à survivre.
L'explication de ce phénomène semble évidente a posteriori. Quelle que soit son espèce, chaque
ruminant éprouve des difficultés à trouver les patchs éparpillés. Mais ceux qui sont découverts par
les ruminants les moins voraces sont maintenus à un niveau de production satisfaisant, alors que
ceux qui sont découverts par les "plus compétitifs" sont rapidement coupés à blanc et ne
produisent plus assez pour la survie de leurs hôtes.
La réfutation du principe d'exclusion compétitive est montrée ici de façon simple. Le modèle
ECEC révèle à l'observateur des résultats étonnants. Mais l'explication de ce phénomène n'est
raisonnée qu'a posteriori. Sa relative simplicité permet d'en comprendre facilement la structure et
le fonctionnement. Et pourtant, il est extrêmement difficile d'anticiper le déroulement de tous les
évènements qui influencent les résultats globaux. Nous ne pouvons simplement pas imaginer son
fonctionnement global sans aide. Il nous faut l'assistance de la simulation. Car si l'ordinateur
n'éprouve aucune difficulté à calculer un grand nombre de changements d'état et d'interactions,
notre esprit n'est capable d'en imaginer que quelques-uns. Malgré la simplicité d'un modèle, même
clairement spécifié, le déroulement du temps dans une simulation nous révèle des phénomènes
complexes que notre cerveau, seul, n'est pas capable d'anticiper.

4.4 LA SIMULATION : UNE EXPERIENCE INCOMPRESSIBLE


4.4.1 Une expérience sans raccourci…
Dans [Varenne, 2001], l'auteur montre qu'il existe dans la littérature scientifique, philosophique et
sociologique, trois grands types de thèses concernant le statut de la simulation par ordinateur. On y
considère la simulation soit comme une sorte d'expérience, soit au contraire comme un simple
outil intellectuel ou théorique, soit enfin, comme un moyen "d'apprendre quelque chose au sujet de
la nature des choses, un moyen intermédiaire entre théorie et expérience" (c’est cette troisième
thèse qui a permis une discussion sur l'épistémologie au chapitre 1). Par exemple, une simulation
par ordinateur de type "Artificial Life" sera considérée comme une expérience à part entière. Dans
un autre cadre, de type agronomique par exemple, la croissance d'une plante selon une formule
84

mathématique peut se révéler comme étant purement théorique, l'ordinateur ne servant qu'à
accélérer les calculs qu'un être humain pourrait patiemment exécuter à la main. L'extrait suivant de
[Varenne, 2003] exprime la troisième thèse :
Nous pouvons en effet en déduire que la simulation nous apprend toujours quelque chose, à l’image
d’un récit dont on ne connaît pas a priori la fin. Certains auteurs ont ainsi assimilé la simulation à
une « histoire d’états » à cause du caractère pas à pas de son traitement. L’ordinateur raconterait
une histoire, mot à mot, sans donner pour autant la capacité de la résumer. Cette capacité que la
simulation possède de passer pour une aventure de l’esprit provient en effet du caractère
incompressible de son traitement formel : pour telle simulation particulière, il n’y a pas – dans l’état
des connaissances du moment - d’autres chemins intellectuels pour parvenir aux résultats. Et le
résultat est dépendant de l’intégralité du chemin. Il faut donc le parcourir pas à pas sans espérer le
raccourcir.
Ainsi un modèle multi-agent dont les règles de fonctionnement sont totalement connues, peut
devenir un objet d’investigation expérimentale. La simulation acquiert alors le statut
d’expérimentation au même titre que l’expérimentation classique de laboratoire. Elle a simplement
lieu dans un laboratoire virtuel.

4.4.2 … qui ne peut se démontrer


En étudiant mathématiquement les propriétés combinatoires des automates cellulaires, Claude
Lobry dans [Lobry et Elmoznino, 2000] apporte le même constat, mais il considère au contraire
que cet état de fait est un grave problème. Sans même aborder le problème des erreurs
d'implémentation, il argumente sa position à partir d'une étude portant sur un modèle décrivant un
processus théorique de contagion spatialisée : un automate cellulaire à quatre états possibles
(susceptible, infecté, infectieux et réfractaire) dont la fonction de transition est simple et
déterministe. Le modèle étant complètement déterministe et fini, "toute solution finira par être
périodique" [Treuil et Lobry, 2003]. Le problème est qu'à partir d'une configuration initiale
quelconque, nous ne pouvons pas prédire (ou prouver mathématiquement) la taille de ce cycle
périodique. Le système peut rapidement converger vers une solution stable ou bien peut à l'opposé
entrer dans un cycle dont on ne connaît pas à l'avance la taille de la période. Nous ne pouvons que
faire tourner la simulation pendant une durée inconnue à l’avance pour constater si le système est
rentré dans un cycle.

Une simulation ne peut donner qu'un résultat (un "fait de calcul"). Or il faut pouvoir décrire et
affirmer les propriétés d’un modèle ou de l’ensemble complet des simulations (convergence,
cycles, attracteurs, …). À l'opposé, un système d'équations est un "être mathématique" qui fournit
des faits de calculs mais surtout qui autorise une démonstration porteuse de sens. En partant du
constat qu'il est matériellement impossible de faire une analyse exhaustive de toutes les
configurations possibles, Claude Lobry conclut que les automates cellulaires et les SMA ne
permettent pas de démontrer les conséquences générales d'un modèle : à partir du domaine de
définition de leurs paramètres, on ne peut pas connaître ni prouver l'ensemble de leurs propriétés.
Il appelle alors de ses vœux la mise en place d'une théorie du modèle 33 : "pour savoir ce qui se

33
A ne pas confondre avec la théorie des modèles. La théorie des modèles est une théorie de la vérité
mathématique. Elle consiste essentiellement à dire qu’une théorie est mathématiquement valide si on peut définir un
univers dans laquelle elle est vraie.
Claude Lobry explique : « Depuis Newton, on résout des équations par un calcul mathématique. Depuis 1950 en
plus du calcul mathématique on dispose d'un instrument qui permet de faire des simulations sur des équations, ce qui
augmente la puissance du mathématicien. Mais il n'y a rien de changé dans le processus intellectuel. On va simplement
beaucoup plus vite. Ensuite ce qui change de façon fondamentale depuis les années 80 environ, c'est l'accès à la mise
en programme. La mise en programme remplace la mise en équations. C'est très différent parce qu'avec la mise en
équation mathématique on est dans un champ très théorisé alors que la mise en programme suivie de simulations ne
s'accompagne pas d'une théorie du modèle. L’ordinateur est incontestable car c’est une mécanique qui produit des
85

passe [dans un modèle multi-agent], il n'y a pas d'autre solution que de faire une théorie" [ibid].
Car prévient-il "le risque est grand de connaître un jour un « accident de modélisation », c'est-à-
dire une décision catastrophique prise sur la base des prédictions d’un mauvais modèle" 34.
Il est vrai que l'on peut difficilement résumer un SMA, dans le sens d'en déduire une théorie plus
concise (ou plutôt un autre modèle plus concis). Même si on reconnaît avec JP. Treuil qu'un
programme informatique est aussi un être mathématique ("il n’y a pas de différence de nature entre
mise en équations et mise en programme" [ibid.]), il faut admettre que dans l'état actuel de nos
connaissances, nous ne pouvons pas démontrer ses conclusions. On peut seulement montrer un
certain nombre de résultats issus de simulations particulières (des faits de calcul), sans possibilité
d'exhaustivité. Ainsi, dans l'exemple de l’automate cellulaire exposé par Claude Lobry, les
mécanismes de base sont entièrement spécifiés et simples. A partir de ces conditions, on peut
rechercher une théorie qui résumerait l'ensemble des comportements du modèle. Mais, je doute d’y
parvenir. Il me paraît difficile qu’une telle théorie puisse expliquer la totalité des propriétés d’un
SMA ; à mon avis, elle ne pourra être que partielle et incomplète.
Par ailleurs, ces problèmes ne sont pas exclusifs des SMA. Le fameux modèle macroéconomique
standard à 300.000 équations ne peut pas non plus être démontré. [Boussard et al., 2005]
expliquent qu'il ne peut pas fonctionner plus d'une dizaine d'années car ”au-delà le système
d'équations à résoudre n'a plus de solution en raison des difficultés de calcul numérique liées à la
trop grande variabilité des prix”. Comme il est expliqué au début de ce chapitre, le temps de ces
modèles néoclassiques est représenté par un artifice qui consiste à dupliquer un objet (donc une
équation) pour chaque année supplémentaire. De ce fait, à chaque nouvelle une année que l'on
souhaite simuler, il faut rajouter 30.000 équations ! Par ailleurs et pour la majorité d'entre eux, les
modèles mathématiques nécessitent des approximations pour être résolus et font souvent
l'hypothèse de se situer à l'équilibre.
Pour résumer, "cet objet créé par l’homme est donc opaque à son propre créateur, qui doit
appliquer une démarche scientifique pour comprendre sa propre création" [Amblard, 2003]. Il est
donc indispensable d’observer les comportements d'un modèle par l’expérimentation, pour tenter
éventuellement de produire une forme de théorie, plus compacte, de ce fonctionnement. Le
chapitre 8 concernant l'exploration des modèles, confirme ces réflexions et montre toute la richesse
inattendue qu'un modèle même simple peut dévoiler. A ce propos, [Grimm, 1999], [Deffuant et al.
2003b] et [Amblard, 2003] déplorent l'absence de réflexion plus approfondie sur ce sujet dans la
communauté multi-agent. Ils dénoncent le manque de temps et d’efforts passés à tester les modèles
après leur élaboration : ”généralement quelques simulations sont sommairement comparées à
quelques données” [ibid.].
Ainsi, les réticences que C. Lobry émet à l'égard des modèles multi-agents me semblent fondées
lorsqu'il s'agit de prendre des décisions importantes à partir des résultats issus d'un modèle mal
évalué. Néanmoins, il faut nuancer son propos. Grâce à une exploration approfondie du modèle, on
est capable de bien comprendre son comportement et d'en tirer une synthèse pouvant s'approcher
d'une théorie. L'analyse poussée d'un modèle procure pour celui qui la mène une meilleure
compréhension de son fonctionnement que pour celui qui l'a conçu. De plus, l'absence de preuve
formelle d'un SMA n'interdit ni son intérêt, ni son utilisation, à condition bien sûr de garder un
regard critique sur cet objet (cf. chap. 1).
Ces considérations doivent inciter les modélisateurs à la prudence : ils doivent surtout favoriser la
conception de modèles simples (et donc analysables) plutôt que des systèmes hautement

nombres. Quand on fabrique un outil de modélisation il faut connaître et comprendre le fonctionnement de cet outil :
avoir une théorie du modèle, mais plus le modèle est compliqué plus il est difficile d'en faire une théorie. »
34
Cette remarque à mon avis s'applique à tout type de modèle, et c'est bien pour cette raison qu'il faut être très
prudent sur l'emploi du mot ”validation” et l'utilisation des modèles.
86

compliqués et soi disant ”réalistes” que personne ne pourra ni ne voudra analyser de manière
approfondie. Alors dans ce cas, le modèle risque de rester au stade d'usine à gaz, inutile car non
porteur de sens.

4.5 LA SIMULATION ET LA NOTION D'EMERGENCE


La notion d'émergence est essentielle pour appréhender la simulation. Il est donc important d'en
avoir un aperçu. Car cette notion a fait l'objet de nombreux travaux et est utilisée dans des
domaines variés.

4.5.1 Préambule
Le libéralisme économique repose sur l'idée d'ordre spontané du marché et affirme l'existence d'un
mécanisme caché grâce auquel les intérêts des individus s'harmonisent naturellement, sans que
ceux-ci en aient conscience 35. Cette façon de voir la régulation des marchés a été décrite par Adam
Smith 36 (sa fameuse métaphore de la « main invisible »). Plus tard, Friedrich Hayek [1966]
partisan de la déréglementation et de la privatisation reprend ces idées pour expliquer à sa façon
les lois du marché 37. Ce sont encore ces mêmes idées qui font dire à feu 38 Milton Friedman que
"l’ordre économique est une émergence, c’est la conséquence non intentionnelle et non voulue des
actions d’un grand nombre de personnes mues par leurs seuls intérêts" [Friedman, 1981, cité dans
Pesty et al., 1997]. Pour les tenants du libéralisme économique, les interventions de l'état ne font
qu'entraver les mécanismes "harmonieux" à l'œuvre.
En biologie, on considère que "la vie d'un individu multicellulaire en tant qu'unité se déroule par
l'intermédiaire du fonctionnement de ses composants, mais elle n'est pas déterminée par leurs
propriétés" [Maturana & Varela, 1994]. L'attirance du chat pour les souris n'est pas rattachée à
l'attrait de toutes les cellules de son corps vers les cellules de la souris, mais procède du
comportement du chat dans son entier : une entité émergente dotée de qualités spécifiques. Pour
François Jacob, "Les propriétés d'un organisme dépassent la somme des propriétés de ses
constituants. La nature fait plus que des additions : elle intègre" [F. Jacob, Leçon inaugurale au
Collège de France, 1965, cité dans Morin, 1977].
En allant encore plus loin, les notions de raisonnement et de conscience peuvent être perçues
comme des phénomènes émergents à partir de l'interaction des activités des neurones et des
perceptions de l'environnement. Partant de ce principe, une architecture d'agents élémentaires,
indépendants et néanmoins hiérarchisés, pourrait produire une "Société de l'Esprit" dans les termes
de Marvin Minsky [1988] qui se demande "à partir de quel moment se déclenche-t-il quelque

35
La fable des abeilles publiée en 1714 par Mandeville illustre cette déconnexion entre les activités individuelles et
les mécanismes collectifs [Deffuant et al., 2003b]. Mandeville, considéré comme le précurseur du libéralisme
économique, affirme que contrairement aux idées répandues, les ”vices privés” comme l'égoïsme contribuent à la
richesse des nations alors que la vertu condamne une population à la pauvreté.
36
Pour Adam Smith, la "main invisible" fait référence à une notion d'ordre social spontané. Il exclut toute
référence à une providence cachée. Ce n'est qu'une métaphore utilisée pour décrire le processus d’autorégulation à
partir de conduites individuelles.
37
A propos de la fable des abeilles de Mandeville, Hayek écrit "[…] dans l'ordre complexe de la société, les
résultats des actions des hommes sont très différents de ce qu'ils ont voulu faire, et les individus, en poursuivant leurs
propres fins, qu'elles soient égoïstes ou altruistes, produisent des résultats utiles aux autres qu'ils n'avaient pas prévus
et dont ils n'ont peut-être même pas eu connaissance ; en fin de compte, l'ordre entier de la société, et même tout ce
que nous appelons la culture, est le produit d'efforts individuels qui n'ont jamais eu un tel but, mais ont été canalisés à
cette fin par des institutions, des pratiques, et des règles qui n'ont jamais été délibérément inventées, mais dont le
succès a assuré la survie et le développement" [Hayek, 1966]
38
MIlton Friedman est mort au moment où j'écris ces lignes.
87

chose qu'on peut appeler une conscience, voire une intelligence ?". Selon de Maturana et Varela,
notre esprit ou le sens que nous attachons aux événements, émerge des interactions entre notre
milieu extérieur et intérieur.
Enfin, dans son livre très controversé [Wolfram, 2002], Stephen Wolfram pousse la notion
d'émergence encore plus loin et affirme que les opérations conduites dans les automates cellulaires
se retrouvent partout dans le monde réel. Il propose alors l'hypothèse selon laquelle l'univers entier
serait un vaste calculateur fonctionnant sur le mode d'un automate cellulaire et il appelle à une
nouvelle science basée sur ces principes.
Comme on vient de le voir, la notion d'émergence touche de très nombreux domaines. Elle est
parfois mobilisée pour encourager des pratiques néolibérales ou pour justifier des théories plus ou
moins douteuses. Il n'empêche qu'elle demeure une notion très intéressante et novatrice qui se
trouve être à la base des SMA.

4.5.2 Une notion délicate qui lie un phénomène global à des comportements
individuels
La notion d'émergence s’exprime par des formules vagues telles que « le tout est plus que la
somme des parties ». Mais c'est une notion encore à l'état de discussion et sujette à controverses (il
suffit de s'intéresser aux débats entre les neurobiologistes et les psychologues pour comprendre
l'étendue de la problématique). Différents points de vue concurrents aboutissent à différents types
d'émergence, même si la définition qu'en donne le Santa Fe Institut semble convenir à tous :
"Emergence is the arising at the macro level of some patterns, structures and properties of a
complex adaptive system that are not contained in the property of its parts". [Cité dans Dessalles
& Phan, 2005]
Nombre de ces définitions sont citées et analysées dans [Pesty et al., 1997]. Ce collectif de
chercheurs qui réfléchit sur ce sujet dans le cadre des SMA, oppose le concept d'émergence à celui
de réduction. Ce dernier consiste à considérer qu'un phénomène peut toujours être expliqué par des
processus sous-jacents. Ainsi par exemple, la température est une notion réductible qui résulte de
l'agitation thermique des molécules : elle peut se calculer par la moyenne des énergies cinétiques
des molécules. On peut donc utiliser cette idée pour souligner ce que n'est pas l'émergence : une
manifestation dont l'apparence provient de la conséquence évidente des propriétés des composants
du système. A l'opposé, un phénomène est dit émergent lorsqu'on ne peut pas anticiper son
évolution à partir de la seule connaissance de ses composants. C'est "le constat de la non-
réductibilité de certains domaines à d'autres" [ibid.].
Peut-être touchons-nous ici simplement aux limites de la compréhension humaine, qui ne peut pas
prendre en compte simultanément le comportement d’un grand nombre d’éléments qui
s’influencent mutuellement. Ces limites nous obligeraient donc à rechercher des explications
directement au niveau collectif. On peut alors faire un parallèle avec la notion sur la complexité
selon Von Neumann, décrite précédemment : des hypothèses sur les mécanismes élémentaires d'un
système ne permettent pas toujours d'en comprendre le comportement global.
Une propriété émergente résulte donc des relations entre les composants d'un système et, dans
certains cas, d'un pouvoir causal macroscopique irréductible lié au système lui-même [Dessalles et
al., 2007].

4.5.3 Surprise et observateur


A la notion d'émergence, E. Morin associe l'idée de surprise et de nouveauté : ”On peut appeler
émergence les qualités ou propriétés d'un système qui présentent un caractère de nouveauté par
rapport aux qualités ou propriétés des composants considérés isolément ou agencés différemment
dans un autre type de système” [Morin, 1977].
88

Cette idée de surprise fournit ainsi une piste pour souligner que l'émergence nécessite le regard
d'un observateur qui s'étonnerait d'un phénomène qu'il perçoit. L'émergence implique que
l'articulation qui existe entre un phénomène global et des comportements individuels reste
difficilement discernable. La thermodynamique par exemple a établi des lois physiques reliant la
pression, le volume et la température d’un gaz (PV=nRT pour les gaz parfaits). Mais le lien avec le
niveau inférieur (celui des particules de gaz) est resté longtemps obscur. Seule la théorie cinétique
des gaz parfaits a permis après coup de caractériser ce lien grâce à des modèles mathématiques
basés sur les statistiques. Les lois physiques de la thermodynamique s'appuient donc sur des
phénomènes sous-jacents opérant au niveau de la vitesse et de la collision des atomes de gaz. Cette
explication d'un phénomène global par des comportements ayant lieu au niveau inférieur s'inscrit
de mon point de vue dans la définition de l'émergence. Même si l'explication fondamentale paraît
finalement triviale, celle-ci n'a été proposée qu'a posteriori. De nos jours, ce phénomène n'est plus
la source d'étonnement car nous avons compris le lien entre les différents niveaux. On peut répéter
les expériences ou les simulations sans être surpris des résultats. Cette absence de surprise n'exclut
pas l'émergence. Ainsi, même dans les cas où la déconnexion entre deux niveaux paraît
importante, il se peut que les comportements collectifs puissent être caractérisés de manière
simple.
Ce qui est émergent n’est pas l’état stable, l’invariant ou la trace mais son expression dans un
vocabulaire distinct de celui dans lequel les processus sont programmés. Par exemple chez les
fourmis, le phénomène émergent n'est pas la trace de phéromones mais son identification par
l'observateur comme un chemin entre le nid et la source de nourriture. [Pesty et al., 1997]
C'est dans cette mesure que l'émergence, caractérisée par le passage du niveau micro au niveau
macro, dépend de l'observateur. A ce sujet, les auteurs notent qu'en ce qui concerne la température
par exemple, l’énergie cinétique moyenne d’un ensemble de molécules n’est pas émergent, "mais
le fait de l’appeler “ température “ et de lui associer une phénoménologie distincte de celle des
molécules en fait une". Selon [Atlan, 1986], le problème de la connexion entre niveaux
d’organisation serait un faux problème. De par nos méthodes scientifiques, héritées du
réductionnisme, nous inventons un vocabulaire à chaque niveau d’organisation. Dans cette
acceptation, chaque niveau d’organisation est un point de vue sur la réalité avec ses propres
paradigmes. La connexion entre les niveaux est réalisée par l’observateur, mais elle n'a pas
d’existence en soit. Dans le même ordre d'idée, [Pesty et al., 1997] expliquent que l'émergence
d'un phénomène "est contenue dans le système indépendamment de notre regard comme
observateur, mais c'est le changement de regard de l'observateur qui lui permet de percevoir cette
émergence (et qui lui a valu la qualification d'émergence). Les fourmilières avec leurs ponts et les
termitières avec leurs œuvres architecturales émergent dans la nature depuis des années… sans
qu'il y ait présence d'observateur !"

4.5.4 Définition édifiante de l'émergence


Après ces précisions, Jean Pierre Müller propose alors une définition constructive de l'émergence.
Dans la lignée des travaux de Stephanie Forrest [Forrest, 1990], il définit qu’un phénomène est
émergent si :
-Il y a un ensemble d’entités en interaction dont la dynamique est exprimée dans un
vocabulaire ou théorie D distincte du phénomène émergent à produire ;
-La dynamique de ces entités interagissantes produit un phénomène global qui peut être
un état structuré stable ou même la trace d’exécution ;
-Ce phénomène global peut être observé et décrit dans un vocabulaire ou théorie D’,
distincte de la dynamique sous-jacente. [Müller, 2002]
Le jeu de la vie, inventé par le mathématicien John Conway en 1970, permet d'illustrer cette
définition. Une grille de connexité 8 (voisinage de Moore) contient des cellules dont l'état de
89

chacune est soit vivant soit mort. Les cellules de l'automate obéissent à une règle simple : la
fonction de transition D (si morte et 3 voisins vivants alors vivant. Si vivant et 2 ou 3 voisins
vivants alors vivant, sinon mort). La dynamique de l'automate cellulaire produit dans certaines
configurations des phénomènes globaux dans lesquels on perçoit des amas de cellules vivantes
semblant se déplacer sur la grille (les glisseurs ou "gliders"). Mais le glisseur n’est un objet que du
point de vue de l’observateur de la simulation. De plus, le glisseur semble soumis à une règle
d’évolution qui le conserve au court du temps (stabilité) comme le montre le tableau suivant :
Tableau 4-1 : Règle d'évolution D' d'un glisseur au court du temps. Au court d'un cycle de 5 pas de temps, le
glisseur change de forme et "glisse" sur la grille (la ligne "Position" indique les coordonnées du centre du
glisseur par rapport à sa position initiale à T1).

Temps T1 T2 T3 T4 T5

Forme

Position x,y x,y-1 x,y-1 x+1,y-1 x+1,y-1


Même si aucun objet ne glisse réellement sur la grille, cette analyse du glisseur est formulée par un
observateur extérieur qui décrit une nouvelle règle D’, distincte de la dynamique sous-jacente D.
Par ailleurs, pour identifier et reconnaître un phénomène émergent, le processus qui émerge doit
être suffisamment stable, d'où cette idée d'ordre, évoquant justement cette stabilité [Pesty et al.,
1997].
A partir de cette définition, on trouvera dans [Bonabeau & Dessalles, 1997] et [Dessalles et al.,
2007], les premières formalisations d'un calcul de l'émergence basé sur la différence entre la
complexité observée et la complexité attendue.

4.5.5 Emergence faible – émergence forte


Comme nous venons de le voir, l'observation d'un phénomène émergent ne peut se faire qu'avec
l'inscription du processus dans l'environnement et à travers l'interprétation de ce phénomène par
l'observateur.
Mais le lien entre différents niveaux peut parfois être plus intense que la simple observation
décrivant des différences de niveaux. Dans certains cas en effet, le niveau global rétroagit sur les
comportements individuels. Ce procédé est souvent appelé "l'émergence forte". Certains auteurs
utilisent d'ailleurs l’existence de cette rétroaction comme définition même de la complexité. On
constate de telles situations dans les phénomènes sociaux : existence d'un marché économique (la
main invisible) ou d’institutions produites par un collectif et qui modifient les comportements des
individus. Mais nul besoin d'agents intelligents pour voir apparaître cette émergence forte. Des
processus de type co-évolution ou sélection naturelle peuvent aussi être considérés comme en
faisant partie. On la rencontre aussi en physique lorsque les comportements individuels de
particules créent un champ global qui agit en retour sur les trajectoires individuelles. Le chemin
parcouru par les fourmis appartient également à ce type d'émergence forte. Par opposition
l'exemple du jeu de la vie est catalogué comme émergence faible car le glisseur qui émerge des
dynamiques élémentaires n'influence pas le comportement des cellules.
De cette distinction, [Müller, 2004] et [Dessalles et al., 2007] en ont une interprétation différente
dans le cas des agents cognitifs. Ils définissent l'émergence forte par le fait que l'interprétation du
phénomène émergent doit être faite par les entités elles-mêmes qui y participent. Les auteurs
nomment cette observation consciente du phénomène la "M-Strong emergence" : les membres d'un
collectif prennent conscience de ce que leur collectif produit; ils en possèdent une représentation.
90

"Dans l’émergence forte, les agents sont partie prenante du processus tout en observant ce
dernier, ce qui entraîne une rétroaction du niveau d’observation sur le niveau du processus.
L’émergence est immanente au système" [Müller, 2002].
A contrario, ils définissent l'émergence faible comme un phénomène produit par un collectif,
indépendamment du fait que les membres en aient conscience (même si ce phénomène rétroagit
sur les comportements individuels). "On parle d'émergence «faible» lorsque des structures ou
propriétés émergentes sont identifiées comme telles par un observateur extérieur" [ibid.].

4.5.6 Auto-organisation et autonomie


La notion d'émergence, on le voit, est un vaste sujet qui a fait l'objet de nombreux travaux dans
une grande variété de domaines. Or, cette notion est également essentielle pour aborder ce que
John Holland, le père des algorithmes génétiques, appelle les systèmes complexes adaptatifs
[Holland, 1995] : par exemple, le chemin du va et vient des fourmis entre la fourmilière et la
nourriture est souvent la route la plus directe. Lors de perturbations de l'environnement, ce chemin
est par ailleurs capable de s'adapter pour retrouver une certaine optimisation.
Les travaux d'éthologues et d'entomologistes sur les insectes sociaux font apparaître que les
propriétés émergentes deviennent observables lorsqu'elles vont dans le sens d'une organisation
nouvelle. On parle alors de mécanismes d'auto-organisation. Par exemple, [Grassé, 1959] propose
la théorie de la stigmergie qui explique que le travail des insectes est coordonné par ce qu’il
produit (stigma → piqure et ergon → travail => œuvre stimulante) : la réponse à un stimulus
transforme ce stimulus dans le stimulus suivant. La coordination et la régulation des tâches sont
réalisées sur la base d'information déposée dans l'environnement. Tout comme les approches par
marquage, la coordination du groupe ne nécessite pas de communication directe ni de contrôle
central. Les agents communiquent indirectement via des phéromones qui diffusent dans
l'environnement. Sur les mêmes principes, A. Drogoul a simulé la sociogenèse de spécialisation
chez les fourmis [Drogoul, 1993] : la localisation d'une fourmi à un endroit de la fourmilière
stimule le renforcement d'une tâche et entraîne progressivement la spécialisation réversible de la
fourmi. Craig Reynolds a simulé des comportements d’attaque et de fuite ainsi que des
déplacements réalistes de groupes d'agents (appelés Boids) qui régulent leurs distances entre eux
par des interactions par champs de forces [Reynolds, 1987].
La particularité de l'auto-organisation des systèmes repose sur leur capacité à produire
spontanément et sans contrôle externe une nouvelle organisation du groupe d'agents face à des
changements environnementaux. Ces mécanismes produisent des systèmes particulièrement
robustes [Di M. Serugendo et al., 2006]. Dans le même ordre d'idée, Francisco Varela, en fondant
la notion d'autopoïèse (explications page 140), explique que les organisations vivantes, de la
cellule à la société, doivent présenter les capacités de s'auto-produire [Varela, 1979].
On l’aura remarqué, les définitions des systèmes complexes adaptatifs, des systèmes auto-
organisés et des systèmes autopoïétiques se basent toutes sur les notions d'émergence. Mais, dans
le cadre de cette thèse, l'objectif n'est pas de réfléchir plus avant sur l'émergence, ni sur la
justification de principes néolibéraux ou de quelques théories que ce soient qui se prévalent de
cette notion, mais d'en capter les éléments fondateurs pour une modélisation véritablement multi-
agent.
Le premier de ces éléments est de promouvoir une approche bottom-up en ne s'attachant qu'à
représenter les comportements individuels et à laisser apparaître, grâce au rôle du temps et des
interactions, l'émergence de phénomènes globaux.
Le deuxième point important est de concevoir des agents qui n'ont pas la possibilité de contrôler
complètement la dynamique d'une population, mais de les laisser percevoir et agir localement.
Pour un agent donné, les autres agents sont extérieurs à lui-même (nous reviendrons sur ce point
au chap. 6 qui traite de l'autonomie) et chacun perçoit l'environnement de façon différente.
91

Ainsi, plutôt que de "câbler" entièrement l'enchaînement des activités d'un agent, il semble plus
intéressant d'essayer de retrouver des schémas comportementaux de base qui refléteraient des
stratégies observées sur le terrain. Dans de nombreuses applications des SMA traitant de la gestion
des ressources naturelles, on constate fréquemment des descriptions de comportements conçues de
façon imposée par le modélisateur. Bien que ce travail soit souvent nécessaire pour comprendre et
expliquer des pratiques d'acteurs, les modèles produits montrent des comportements qui restent
confinés dans des schémas figés. Il leur manque une certaine forme de liberté pouvant déboucher
sur des nouvelles capacités d'adaptation. En conséquence, après cette première description des
pratiques d'acteur, il est recommandé d'essayer d'en extraire les activités de bases pour les mettre à
disposition des agents informatiques. Lors du déroulement de la simulation, ils évoluent alors plus
librement, sans un contrôle forcé de l'enchaînement de leurs activités. Si on retrouve par
simulation, des conduites évolutives cohérentes, on aura alors beaucoup progressé dans la
compréhension du système étudié. On pourra alors mieux utiliser le modèle pour tester des
situations alternatives ou pour expérimenter ses réactions face à des événements
environnementaux. Une illustration de cette démarche est présentée sur le modèle TransAmazon
au chapitre 12).

4.6 DISCUSSION : LA SIMULATION ET SES CONSEQUENCES POUR


LA "VALIDATION" DES SYSTEMES MULTI-AGENTS
Le chapitre 1 s'attachait au problème de l'évaluation des modèles pris dans un sens général. Les
conclusions que j'en tire sont donc aussi valables pour les modèle multi-agents : il est préférable de
parler d'évaluation plutôt que de validation qui semble trop chargé de présupposés. L'évaluation
d'un modèle dépend de l'objectif et de la question à l'origine du processus de modélisation. Et quoi
qu'il en soit, celle-ci relève davantage de son absence de réfutation plutôt que de quelques
corroborations à des données empiriques. Aussi, l'ajustement d'un modèle à un jeu de données
permet dans le meilleur des cas d'augmenter notre confiance dans le modèle, mais en aucune
manière de décider de la véracité de ce modèle. On conçoit ainsi pourquoi l'absence de validation
(forte) reprochée aux SMA devrait s'appliquer à l'ensemble des modèles. Mais il faut néanmoins
comprendre ce qui fait la spécificité des SMA vis-à-vis de la question de l'évaluation et pourquoi
le statut d'instrument scientifique leur est parfois refusé.

4.6.1 Importance de distinguer "modèle", "simulation" et "simulateur"


«Simulation is a third way of doing science» [Axelrod, 1997].
Comme il a été souligné au début de ce chapitre, certaines définitions font un amalgame entre
modèle et simulation. Or il est important de distinguer ces deux termes car les écarts entre le
modèle et le simulateur peuvent être considérables.
Un modèle représente la structure conceptuelle d'un système observé, c'est-à-dire la structure des
agents et des autres entités ainsi que les relations qui lient les composants au niveau de
l'organisation. Il décrit également les comportements individuels, c'est-à-dire les mécanismes de
changement d'état ainsi que la façon dont les activités se succèdent au cours du temps.
De son côté, le simulateur correspond à l'implémentation de ce modèle sur une machine ce qui
permet de l'exécuter. "Un simulateur désigne ainsi tout système de calcul capable d'exécuter le
modèle de manière à générer son comportement" [Michel, 2004]. Or, comme le soulignent
[Edmonds & Hales, 2003], seul le modèle conceptuel sert à expliquer le phénomène observé :
"This conceptual model mediates between the simulation and the phenomena, the purpose of the
simulation is to inform the conceptual model, but it is only the conceptual model which directly
represents the phenomena". [Edmonds & Hales, 2003]
92

La phase de codage peut être assimilée à une traduction plus ou moins fidèle du modèle conceptuel
vers un langage informatique. Le simulateur, au sens de [Zeigler et al., 2000] 39, est un logiciel
complet qui peut être initialisé et qui peut tourner sur une machine 40. La relation qui le lie à son
modèle s'appelle la "relation de simulation". D'après Zeigler, séparer les concepts de modèle et de
simulateur procure de nombreux bénéfices 41 qu'il énumère ainsi :
– Un même modèle peut être exécuté par différents simulateurs, ce qui définit ainsi sa
portabilité à un haut niveau d’abstraction.
– Les algorithmes mis en œuvre dans les simulateurs peuvent être étudiés en tant que tels et leur
validité peut donc être établie.
– Les ressources nécessaires pour simuler correctement un modèle donnent une mesure de sa
complexité.
Or dans le domaine encore récent des SMA, faire cette distinction me semble réellement
indispensable. On parle trop souvent des résultats d'un modèle en faisant référence à ceux de son
implémentation. Pourtant, sans même en avoir conscience, la distance entre le modèle conceptuel
et le simulateur peut être très importante. La traduction du modèle peut s'avérer être une véritable
trahison. Non pas que le codeur ait délibérément trahit la pensée du concepteur, mais bien parce
que cet exercice présente de nombreux pièges qui, s'ils sont mal traités, peuvent produire des
écarts importants entre les résultats d'une simulation et les conclusions qu'on en déduit pour le
modèle : les résultats peuvent être liés à des paramètres qui ne sont pas ceux que l'on a présentés.
Fabien Michel a nommé ce problème, le phénomène de divergence implémentatoire [Michel
2004].

4.6.2 Vérification et "validation” : "Building the model right" et "Building the


right model"
Une distinction maintenant classique consiste à différentier la vérification de la validation des
SMA [Balci, 1998], [Manson, 2002], [Parker et al., 2003]. La vérification s'attache à juger de la
bonne réalisation du simulateur, c'est-à-dire de l'implémentation sans défaut d'un modèle sur une
machine. Selon Osman Balci, il s'agit de vérifier ”la transformation de la formulation d'un
problème en une spécification adéquate ou de tester la conversion d'un modèle sous forme de
flowchart en un programme informatique exécutable” sensé être une traduction du modèle
conceptuel. En d'autres termes, il s'agit de savoir si on a bien construit le modèle :
”Building the model right" [Balci, 1998]
La "validation", elle, consiste à évaluer la pertinence du modèle; ”à prouver si, dans son domaine
d'applicabilité, il se comporte avec une justesse satisfaisante en accord avec ses objectifs”.
Toujours selon Balci, il s'agit de comparer le comportement du modèle avec le système réel qu'il
est sensé représenter. Si la comparaison est satisfaisante, la "validation" serait avérée. En d'autres
termes, on cherche à savoir si on a construit le bon modèle :
”Building the right model” [ibid.].
Je ne reviendrai pas ici sur mes réticences vis-à-vis de cette façon de considérer la validation d'un
modèle (chap. 1). Par contre, en accord avec cette séparation entre vérification et "validation", on

39
Zeigler a introduit cette notion dans la deuxième édition de son livre [Zeigler et al. 2000].
40
Que le modèle soit implémenté directement sur un langage cible ou sur une plate-forme de simulation, cela ne
change rien : dans les deux cas, le produit délivré s'appelle un simulateur.
41
[Gilbert, 1998] explique également que «It is useful to make distinctions between the model as something that is
capable of running, the simulation as a running model and the specification as a description of the model».
93

comprend bien l'intérêt de distinguer le modèle du simulateur : la question de la "validation" se


pose pour le premier tandis que la vérification se pose pour le second.
Dans sa thèse, Thomas Meurisse s'appuie sur cette séparation vérification / validation ainsi que sur
la classification des pratiques de la modélisation décrite par Bruce Edmons 42 [Edmonds, 2000a]
qu'il décline à travers une proposition de cadre méthodologique. Il subdivise les étapes de la
modélisation qu'il répartit en 3 rôles [Meurisse, 2004] :
1. le thématicien conçoit le Modèle du domaine c'est-à-dire une abstraction du phénomène
2. le modélisateur fournit le Modèle de conception sensé lever les ambiguïtés dans la description
du modèle du domaine, et
3. l'informaticien propose le Modèle opérationnel (indépendant de tout langage informatique) qui
”sert de base opérationnelle à toute solution informatique”.
A ces trois rôles sont associés trois étapes : résultats, analyses et interprétations dont
l'ordonnancement ”correspond à une « généralisation » des résultats fournis par l'outil de
simulation” [ibid.]. La figure suivante, proposée par Meurisse à partir de [Vanbergue & Meurisse,
2002] et [Vanbergue, 2003], décrit ce cadre méthodologique. Il permet de repérer les phases liées à
la vérification de celles liées à la "validation". Chaque phase est composée de deux sous-phases
(interne et externe) :
 la vérification interne consiste à contrôler l’implémentation du simulateur, c'est-à-dire le
“débuggage” du programme informatique;
 la vérification externe établit la cohérence entre le modèle opérationnel et l'implémentation en
étudiant les résultats bruts des simulations. Selon [Parker et al., 2003], ”the main idea is that
you must test out your model rules methodically to make sure they are doing what you intend
them to do";
 la "validation" interne établit la cohérence entre le modèle de conception et les résultats
obtenus par l'ensemble des simulations. Elle permet alors de rechercher et d'identifier les
propriétés du modèle comme sa robustesse ou ses réponses sur l'espace des paramètres (chap.
8);
 la "validation" externe correspond à l’évaluation de l’adéquation entre le modèle et le
phénomène étudié. Toutes les discussions du chapitre 1 sur la "validation" des modèles en
général touchent en définitive à cette dernière phase.

42
B. Edmonds propose une classification des pratiques pour la conception et l'exploitation de simulations : (1)
produire une abstraction (Establishing an Abstraction), (2) documenter une proposition de conception (Documenting a
Design Proposal ), (3) explorer le comportement d’une abstraction (Exploring the behaviour of an abstraction), (4)
suggérer des solutions à un problème réel (Suggesting Solutions to Real Problems) et (5) rédiger des articles
méthodologiques (Methodological Papers).
94

Figure 4-3 : La vérification et la validation, d'après [Meurisse, 2004].


Evidemment la frontière entre vérification externe et validation interne semble difficilement
discernable comme le reconnaît [Vanbergue, 2003]. D'ailleurs l'analyse de la structure (voir
chapitre 8.1) par exemple qui cherche à vérifier la cohérence des comportements individuels, peut
s'apparenter aussi bien à la vérification qu'à la "validation". Néanmoins, la distinction des phases
de la modélisation multi-agent ainsi que la séparation modèle / simulateur permettent de discerner
les zones sensibles particulièrement susceptibles de générer des divergences entre des résultats de
simulation et leurs interprétations vis-à-vis d'un modèle conceptuel.

4.6.3 Fiabilité du simulateur


Comme je l'ai souligné à plusieurs reprises, il est impossible, à l'heure actuelle, de démontrer les
propriétés d'un SMA. On peut ne peut que constater un résultat en faisant tourner une simulation.
En outre, on peut à juste titre être sceptique sur la fiabilité de ce résultat, car rien ne garantit qu'il
découle uniquement des mécanismes que l'on pense avoir élaborés dans le modèle conceptuel.
Comme de fait, il y a de nombreuses possibilités de faire apparaître des artefacts. Ceux-ci peuvent
provenir d'erreurs de programmation (codage) ou de calcul (modèle opérationnel), de la qualité du
générateur de variables aléatoires (modèle opérationnel), ou d'une gestion approximative du temps
de la simulation et des interactions entre agents (modèle opérationnel et modèle de conception).
Ces artefacts ne sont donc pas forcément liés à un mauvais codage du simulateur mais peuvent
provenir d'approximations dans la chaîne de traduction qui consiste à passer du modèle du
domaine au simulateur.
95

Etant donné que ces artefacts peuvent facilement provenir des modèles opérationnel et de
conception, nous nous attacherons dans la deuxième partie de la thèse à prévenir ce problème en
approfondissant la question de la gestion du temps des SMA ainsi que celle relative à l'autonomie
et à la protection des données internes aux agents. Car la modélisation du temps et le traitement de
la simultanéité des actions et des interactions apparaissent comme des points hyper-sensibles des
simulations multi-agents. Or la sensibilité des simulateurs à ces aspects est souvent sous-estimée.
D'ailleurs, leur traitement permet d'interroger en retour le modèle du domaine. Ce dialogue entre
les concepteurs favorise alors un enrichissement du processus de modélisation. En complément de
l'explicitation des traitements du temps et des interactions, des analyses détaillées et exploratoires
permettent de vérifier la fiabilité du simulateur.

4.6.4 Réplication et alignement de modèles


Comme il a été présenté au chapitre 1, ”l'alignement de modèles” (ou ”docking”) qui consiste à
confronter les résultats de modèles conçus indépendamment, est également un aspect de
l'évaluation qu'il ne faut pas négliger.
Dans [Axtell et al., 1996], les auteurs (qui sont à l'origine du terme docking) ont ainsi comparé une
adaptation de Sugarscape 43 au modèle d'Axelrod traitant des transmissions culturelles d'une société
d'agents [Axelrod, 1995]. A la lecture de cet article, on s'aperçoit que les travaux décrits par les
auteurs s'apparentent plus à la réplication de modèles qu'à la seule comparaison de leurs résultats.
Or, la réplication, non traitée en 1996, devient à l’heure actuelle un sujet délicat mais essentiel
dans le domaine des SMA et qui sera abordé au chapitre 9.1. Je l'identifie à une phase décisive de
la vérification des modèles qui consiste à retrouver des résultats à partir de spécifications. En
d'autres termes, il s'agit de ré-implémenter un simulateur en partant de la description publiée du
modèle du domaine ou du modèle de conception. Une réplication avérée joue alors le rôle de
vérification d'un SMA.
En ce qui concerne les questions d'alignement, les auteurs s'interrogent notamment sur la façon de
qualifier l'équivalence de leurs modèles. Ils cherchent en particulier à établir les différences
constatées, à savoir si des résultats équivalents sont produits dans des conditions équivalentes et à
démontrer les conséquences de l'abandon de ces conditions équivalentes. Ils proposent par ailleurs

43
Sugarscape est un modèle multi-agent qui représente ”la croissance de sociétés artificielles”. Il a donné lieu à un
livre [Epstein & Axtell, 1997] très fameux qui fait date au sein de la recherche en simulation multi-agent. L'objectif
des auteurs est de montrer qu'il est possible d'expliquer de nombreux concepts venant des sciences sociales via des
simulations basées sur des modèles relativement simples. Ils posent ainsi le problème: "How does the heterogeneous
micro-world of individuals behaviors generate the global macroscopic regularities of the society?" [ibid.].
Sugarscape est basé sur la distribution spatiale de ressources en sucre et en épices qui se renouvellent selon des règlent
simples. Des agents appelés "Citizen" utilisent ces ressources. Dans les simulations de base, les agents perçoivent et se
déplacent vers les meilleurs endroits pour collecter du sucre qu'ils absorbent pour contrer les effets de leur
catabolisme. Le monde virtuel que les auteurs ont développé permet d’expérimenter diverses hypothèses sur
l’apparition de structures sociales émergentes telles que les phénomènes de migrations, les échanges commerciaux, les
crises et les guerres. A travers des représentations simples, les auteurs cherchent donc à expliquer des phénomènes
sociaux complexes :
« Perhaps one day people will interpret the question, “Can you explain it?” as asking “Can you grow it? ”
Artificial society modeling allows us to “grow” social structures in silico demonstrating that certain sets of
microspecifications are sufficient to generate the macrophenomena of interest. Indeed, it holds out the prospect of a
new, generative, kind of social science » [ibid.]
Une des raisons du succès de Sugarscape réside dans la simplicité du modèle et dans la facilité d'en reproduire les
résultats. D'ailleurs, de nombreuses ré-implémentations et adaptations de Sugarscape ont été réalisées. Certaines sont
présentées à différents moments de cette thèse.
Un environnement spatialisé, le renouvellement de ressources et leur utilisation par des agents capables de les
percevoir localement, fondent également les principes qui ont guidé le développement de Cormas.
96

trois catégories d'équivalence qu'ils classent ainsi : (i) identité numérique (reproduction précise des
résultats), (ii) équivalence distributionnelle (équivalence statistique) et (iii) équivalence
relationnelle” (équivalence qualitative) (voir [Axelrod, 1997] et chapitre 9.1.6). Ces catégories
d'équivalence peuvent tout à fait s'appliquer à la réplication de modèles.

4.6.5 La lisibilité des modèles multi-agents


La difficulté à répliquer un simulateur est évidemment à rattacher au manque de lisibilité des
modèles multi-agents. En effet, il est nécessaire de fournir une description claire et concise pour
expliquer un modèle et transmettre un discours. Pour permettre la réplication, le modèle
conceptuel doit être compréhensible par tous et doit lever les ambiguïtés concernant entre autre la
gestion du temps et le traitement des actions et des interactions. La mise à disposition des sources
du simulateur ne suffit pas car elles n'offrent pas une vision synthétique du modèle. Et surtout
parce que ce n'est pas le code source qu'il faut répliquer. Il faut au contraire pouvoir reproduire des
résultats à partir de l'essence même du modèle, c'est à dire à partir du modèle conceptuel. Même si
une parfaite explicitation du modèle reste un idéal, il est indispensable de clarifier le propos et de
lever les ambiguïtés en mettant la lumière sur les aspects les plus importants du modèle. Cette
question sera traitée au chapitre 9.

4.6.6 Traçabilité et robustesse du modèle


Pour évaluer un modèle multi-agent, l'analyse des résultats macroscopiques n'est pas suffisante. Un
ajustement correct à des données ne signifie pas forcément un modèle pertinent. Un des intérêts de
l'approche SMA, est de vérifier la crédibilité des comportements individuels. Cette exploration
fine du simulateur contribue à révéler les mécanismes explicatifs qui participent à l'émergence du
phénomène global. Le modèle doit donc nous apporter des informations (sa traçabilité [Rouchier,
2006]) sur son comportement global à partir de ses mécanismes fins, afin de pouvoir expliquer les
changements de direction et déterminer les points sensibles, sujets à bifurcations.
Par ailleurs, pour bien comprendre les tenants et les aboutissants de ces mécanismes, une
exploration par analyse de sensibilité est obligatoire (cf. chap. 8). Elle permet de tester la
sensibilité du modèle aux paramètres et par là même de tester la robustesse de ses résultats. Car
l'hypersensibilité affaiblit un modèle, puisque ses résultats dépendent uniquement de la valeur des
paramètres et des conditions initiales. Ils permettent de dire tout et son contraire. Par contre, si les
réponses apparaissent à la fois pertinentes et robustes aux changements, alors le concepteur aura su
saisir les caractéristiques importantes de son objet d'étude. Il me semble donc plus essentiel de
montrer la robustesse d'un SMA plutôt qu'une corrélation fine à des données par ajustement précis
de ses paramètres. D'ailleurs, cette analyse n'oblige pas à utiliser des données, mais à montrer que
le simulateur mime les grandes tendances ou qu'il permet de détecter les changements de phase.
Aussi, montrer la robustesse d'un modèle en indiquant les zones de stabilité permet de généraliser
les résultats, d'expliquer des tendances et de prévoir certaines évolutions; autrement dit, d'être plus
réfutable.

4.6.7 Autonomie et modèle Ad Hoc


Pour reprendre ce qui a été énoncé au premier chapitre et confirmé par ce qui vient d'être
développé, un bon modèle n'est pas un modèle qui ”colle” aux données. Une bonne corrélation
avec des données peut provenir d'un facteur externe non pris en compte ou être le fruit du hasard.
De plus, si les données utilisées pour calculer cette corrélation ont aussi servi à calibrer le modèle,
alors il s'agit d'une imposture. Mais il n'est pas rare de trouver des articles énonçant la "validité"
d'un modèle par l'adéquation à un seul jeu de données qui a souvent servi à sa calibration. Ainsi en
”câblant” les comportements des agents c'est-à-dire en les calquant de façon figée sur une
séquence observée, on obtient rapidement un modèle ad hoc : un modèle-film qui ne nous apprend
97

rien d'autre que ces observations initiales. Certes, il peut être intéressant d'introduire dans un
modèle des variables de forçage (variables dont les valeurs ne dépendent pas du modèle mais sont
fournies de façon imposée, par exemple pluviométrie ou prix d'une denrée), mais elles jouent alors
de rôle de variables externes qui perturbent l'environnement et les agents. L'intérêt est alors de
tester les facultés d'adaptation de ces derniers à ces perturbations. Ainsi, au lieu de décrire des
comportements figés sur une séquence préétablie d'activités, il est préférable de concevoir des
agents les plus autonomes possibles (cf. chap. 6) pour répondre de façon appropriée et flexible à
des modifications de leur environnement.

4.7 CONCLUSION DU CHAPITRE


Il n'est pas nécessaire de concevoir des modèles complexes présentant un haut degré de réalisme.
Car le but principal de la modélisation multi-agent n'est pas de mimer la réalité ni d'en simplifier la
complexité, mais plutôt d'essayer de la comprendre [Edmonds, 2000a]. Plutôt que de chercher à
tendre vers un réalisme illusoire, il est plus important d'essayer de trouver les mécanismes
élémentaires qui caractérisent le système et en dirigent les grandes tendances. Dès lors, si on pense
avoir saisi ces mécanismes, la simulation, qui déroule le temps, en dévoile l'importance en les
mettant en action et en faisant interagir les entités du système. La simulation fait ainsi émerger une
complexité qui n'est pas explicitement formalisée par le modèle conceptuel.
D'ailleurs si les propriétés émergentes paraissent surprenantes au premier abord, il est
indispensable d'en comprendre les raisons pour en tirer une explication. Toutefois, il n'est pas
toujours évident d'expliquer un résultat car il est difficile de synthétiser une simulation. Ainsi,
comme le dénoncent [Lobry et Elmoznino, 2000], l'absence de preuve des propriétés générales
d'un modèle entraîne des inconvénients qui peuvent affecter les SMA.
De plus, il n'y a pas de certitude à ce qu'un résultat découle uniquement des mécanismes issus du
modèle. De nombreuses sources d'erreurs ou de biais peuvent avoir été introduits par mégarde lors
du passage du modèle conceptuel à son implémentation en un simulateur. Ce "phénomène de
divergence implémentatoire" [Michel 2004] peut être à l'origine d'écarts importants entre les
résultats d'une simulation et les conclusions qu'on en déduit pour le modèle. Ainsi, c'est moins
l'absence de preuve des propriétés d'un modèle que le manque de fiabilité d'un simulateur, qui
fragilise le domaine de la modélisation multi-agent.
Par conséquent, la compréhension de ce que produit un simulateur est une condition sine qua non
pour s'assurer de son bon fonctionnement et pour vérifier sa connexion sans faille avec le modèle
conceptuel. S'il est encore impossible de prouver les propriétés d'un SMA, une des clés de sa
fiabilité repose sur l'assurance que le modélisateur garde le contrôle du simulateur, c'est à dire qu'il
en maîtrise tous les tenants et les aboutissants. Parce qu'il contrôle complètement son système, il
doit être capable d' en expliquer tous les résultats. En d'autres termes (et pour faire un parallèle
avec la fiabilité de la filière bovine !), il doit pouvoir montrer la traçabilité d'un résultat en
déroulant la chaîne des événements à partir des mécanismes élémentaires du modèle [Rouchier,
2006].
Enfin, la fiabilité de ces résultats sera renforcée si d'autres personnes sont capables de répliquer le
simulateur à partir de ses spécifications et de retrouver des propriétés similaires. Or ceci implique
une bonne lisibilité du modèle qui doit lever toutes les ambiguïtés en mettant la lumière sur ses
aspects les plus sensibles, en particulier sur la gestion du temps et sur le traitement des actions et
des interactions.
La suite de cette thèse a pour objectif de faire connaître les points sensibles de la modélisation
multi-agent. Elle aborde certains aspects des problèmes liés à la vérification. Elle cherche à donner
des pistes pour construire correctement un modèle plutôt que de construire le bon modèle, même si
ces deux notions sont étroitement liées.
DEUXIEME PARTIE :

LES ARTEFACTS LIES A LA GESTION DU TEMPS ET DES

INTERACTIONS
99

Chapitre 5

GESTION DU TEMPS DANS LES SIMULATIONS

5.1 LES TEMPS


La notion de simulation est indissociable d'une représentation du temps. [Fianyo, 2001] et [Fianyo
et al., 1998] distinguent 3 types de temps :
 Le temps réel (ou temps physique) des phénomènes que l'on observe.
 Le temps virtuel (ou temps de simulation) qui correspond à une représentation du temps réel
que l'on cherche à simuler; par exemple, "chaque unité de temps représentant une semaine de
temps de la réalité" [ibid.]
 Le temps computationnel (ou temps de calcul) qui correspond au temps d'exécution d'une
simulation et qui est lié à la rapidité de l'ordinateur.
Les applications appelées "temps-réel" cherchent à confondre le temps réel avec le temps virtuel.
Ce sont souvent des applications à but d'entraînement dans lesquelles les hommes sont plongés
dans un environnement virtuel pour apprendre à gérer des situations difficiles (simulateurs de vols,
simulateurs d'incendies, etc.).
Dans le domaine de la modélisation et de la simulation, avant même de s'attacher aux problèmes
de performances, le temps virtuel est évidemment le point le plus important sur lequel il faut se
concentrer. Les systèmes dynamiques de façon générale proposent plusieurs moyens de
représenter l'écoulement du temps. [Amblard & Dumoulin, 2004] en distinguent trois types : le
temps continu, le temps discret et l’approche à évènements discrets. Pour étudier les diverses
manières de les simuler nous présentons différents types de modèles : les modèles mathématiques
à dynamiques continues et à dynamiques discrètes puis les modèles multi-agents à dynamiques
événementielles et à dynamiques séquentielles.

5.2 TEMPS DISCRET ET TEMPS CONTINU DES MODELES


MATHEMATIQUES
Ce paragraphe présente succinctement les modèles mathématiques à travers deux types de
représentation du temps, continu et discret. A partir de là, je développerai la question de savoir s'il
faut utiliser ou non une gestion discrète du temps et quels peuvent être les biais liés à cette
discrétisation.

5.2.1 Modèles à temps continu


Les modèles à temps continu considèrent l'écoulement du temps comme un phénomène continu où
les variables d'état d'un système évoluent de façon lissée, même si par moments des à-coups
peuvent survenir. Selon la classification de [Zeigler et al. 2000], ces modèles appartiennent à la
famille des modèles DESS (Differential Equation System Specification). En effet, pour représenter
les variations des variables, on utilise des équations différentielles de type :
dx  f(x,t)
dt
pour lesquelles, l’état d’un système à un instant t est donné par t et un vecteur x : xt = (at, bt, …). A
partir des outils mathématiques, on peut résoudre ces systèmes d'équation pour en étudier les
100

caractéristiques générales. La force des mathématiques repose alors sur une formulation non-
ambiguë des concepts du modèle et sur la possibilité d'en prouver les caractéristiques globales
(convergence vers un état d'équilibre, régime cyclique ou chaotique, identification des zones d'état
du modèle, identification des seuils, etc.) sans avoir besoin de faire tourner les simulations sur
toutes les configurations possibles.

5.2.2 Exemple de modèle à temps continu : le modèle de Verhulst


Pierre-François Verhulst, mathématicien belge a décrit en [1838] un modèle de dynamique des
populations. Ce modèle est également connu sous le terme de modèle logistique continu. Ici, le
temps et la taille de la population sont continus: ils sont tous deux représentés par des nombres
réels. Même si le nombre d'individus devrait être considéré comme un entier, on peut admettre
qu'à l'échelle d'une population ce nombre soit un réel. Une des hypothèses de ce modèle repose sur
l'idée que pour de faibles variations de temps, l'accroissement de la population est proportionnel au
temps et à la taille de la population.

dx
 R .x
dt
Ici, X représente la taille d'une population et R, son facteur de croissance.
Ce premier modèle a été conçu par Malthus en 179844 pour modéliser la croissance de la
population humaine. La solution par intégration de cette équation différentielle donne :
X t  X 0.eR.t
Elle décrit une croissance exponentielle de la population avec le temps. Or si on constate qu'une
population peut croître de façon exponentielle pour de faibles effectifs, dans les faits, la croissance
d'une population est limitée et R ne peut pas être considéré comme constant. Verhulst introduit
alors une contrainte de l'environnement qui ne peut accepter une population infinie. Il propose
alors d'envisager R comme une fonction décroissante de X :

R(x)r. 1 x
K
 
où r est appelé taux intrinsèque de croissance et où K représente la capacité de charge que peut
supporter le milieu. Ainsi le facteur de croissance est positif ou négatif selon la taille de la
population. L'équation logistique continue de Verhulst s'écrit donc :

dt
 
dx  r.x. 1 x
K (1)

et sa solution par intégration est 45 :

44
Le Révérend Thomas Robert Malthus (1766-1834) fut l'initiateur de la démographie avec sa célèbre théorie des
populations. Economiste britannique, il observait la tendance de croissance exponentielle de la population humaine.
En supposant que la production agricole n’augmenterait que linéairement il prédisait une augmentation de la misère
humaine et proposait donc un contrôle de la natalité humaine, surtout à l'égard des familles pauvres… dans leurs
propres intérêts évidemment.
45
Pour résoudre cette équation différentielle, il faut l'intégrer sur l'intervalle t0 – t pour des valeurs respectives de x

égales à x0 et xt : dt
   
dx  r.x. 1 x  dx  r.dt  xt dx  tr.dt
K x.1 x
x0 x. 1 x 0  
K K


xt

x0 x.K x 0 x0 x.K x x0 x K x  


K .dx  r.tt  xt K x x .dx  r.t  xt 1  K .dx  r.t  ln(x)xt ln(K x)xt r.t
x0 x0
101

K
f ( x, t )  xt 
K  x0  r .t (2)
.e  1
x0

Grâce à cette solution, on constate que les états du système à l'instant initial x0 et la fonction f
suffisent à caractériser tous les états possibles du système sans avoir besoin de "faire tourner" le
modèle pour connaître la valeur de x à un instant t quelconque. La résolution de l'équation
logistique continue permet entre autre de démontrer que lorsque t tend vers l'infini, toute condition
initiale (non nulle) de la population tend vers une situation d'équilibre x* égale à K.
 
 
x *  tlim (x )  lim  K  K  x 0 0
  t t  
 K  x0 .e  r.t 1 
 x0 
Les variations de x en fonction du temps montrent une courbe dite sigmoïde qui s'aplatit
progressivement vers la valeur K.

K
X(t)

Xo proche 0
Xo > K

Figure 5-1 : Evolution d'une population selon le modèle de Verhulst. Quelle que soit la valeur initiale,
différente de 0, la population tend progressivement vers un état d'équilibre.
En étudiant le profil des phases (c'est-à-dire en traçant la production de nouveaux individus dx/dt
en fonction de x), on montre que le modèle logistique continue possède deux points d'équilibre: x*0
= 0 et x*1 = K. x*0 est un équilibre instable alors que x*1 est stable.
d x /d t

K/2 - K x

Figure 5-2 : Profil des phases de l'équation logistique. Il révèle deux points d'équilibre, l'un instable (bleu),
l'autre stable (orange).

 ln  xt   r.t ln x0   xt  x0 er.t  x  K


   t
 K xt   K  x0 K  xt K  x0 K  x0
er.t 1
x0
102

On montre également que le taux d'accroissement de la population est maximum lorsque sa taille
vaut la moitié de K. C'est à cette valeur que la population est la plus dynamique.
En étudiant la production d'un stock halieutique, Schaefer [1957] a utilisé cette propriété du
modèle pour définir les rendements maximums que l'on peut espérer d'une pêcherie. Depuis,
l'équation logistique est à la base d'un grand nombre de modèles, tant en écologie (modèle proie –
prédateur, ECEC) qu'en économie (modèle de Gordon – Schaefer) 46.
On considère que ces modèles représentent des populations asynchrones car les naissances des
nouveaux individus ont lieu de façon aléatoire dans le temps. On les oppose aux populations
synchrones où les individus naissent simultanément sur des périodes de temps données.
L’annexe 1 (page 289) présente un exemple de modèle mathématique à temps continu (le modèle
de Lotka-Volterra) pour lequel il n'existe pas de résolution analytique complète. Il est nécessaire
de faire des approximations importantes pour résoudre le système d'équations, sinon on est obligé
de faire tourner des simulations pour en étudier la dynamique.

5.2.3 Modèles à temps discret : Systèmes dynamiques discrets


Pour cette catégorie de modèles mathématiques, on considère que le temps évolue de façon
discrète et les variables du système changent par à-coups et simultanément. Ici, le temps évolue
par sauts réguliers Δt.
La discrétisation la plus élémentaire d'un modèle continu est obtenue avec les premiers termes du
développement de Taylor (ou schéma d'intégration d'Euler) qui utilise les dérivées d'une équation
pour estimer localement cette fonction par un polynôme:

f (2)(x0 ) f (n)(x0 )
f(x) f(x0 )  f '(x0 ).(x x0 )  .(x x0 )  ...
2 .(x x0 )n o(x x0 )
2! n!
Le théorème de Taylor donne le développement limité d'une fonction f au voisinage de x0. C'est
l'écriture d'une fonction sous la forme d'une fonction polynôme et d'un reste. Si l'on se contente
d'un développement d'ordre 1, on parle alors d'approximation linéaire :
f(x)  f(x0 )  f'(x0 ).(x  x0 )
ou encore, en introduisant la variable temps :
f ( t   t )  f ( t )  f ' ( t ).  t
Cette discrétisation permet d'exprimer l’état du système à l’instant t en fonction de son état à
l’instant précédent. Si Δt égale à 1, la fonction f() est dans ce cas une fonction récurrente:
Xt+1= f(Xt) (3)

46
Sur la base d'expérimentations menées par des éthologues [Calhoun, 1962] et de données observées en milieu
naturel, Edwards T. Hall explique que les fluctuations des populations sont également régies par des phénomènes de
régulations intra-spécifiques. Sans aucune limitation de la nourriture présente dans l'environnement (le fameux K), de
fortes densités perturbent la régulation de la distance entre les animaux et "lorsque cette distance spécifique n'est pas
respectée, ils succombent à l'agression de leurs congénères plutôt qu'à la famine, à la maladie ou à l'attaque des
prédateurs" [Hall, 1971]. Il explique que des mécanismes physiologiques de stress dû à la trop grande proximité
provoquent des effondrements de la population alors même que le milieu reste suffisamment riche.
103

5.2.4 Exemple de modèle à temps discret : équation logistique discrète


A partir de l'équation de Verhulst (1), on obtient une équation logistique discrète en effectuant une
approximation linéaire :

X (t   t )  X (t )   t.rX (t ).  1 
X (t ) 
 K  (4)

Le graphique suivant montre plusieurs simulations de l'équation logistique discrète (4) pour
différentes valeurs de Δt que l'on compare avec la fonction continue (2).
100

80
Δt=0,05
Δt=0,1
Δt=1
60 Δt=2
Δt=4
continue

40

20

0
0 10 20 30 40 50 60 70 80 90

Figure 5-3 : Simulations de l'équation logistique discrète (4) à divers Δt et comparaison avec le modèle continu
de Verhulst. Ici, K= 100 ; r=0,2; X0=0,01
On remarque évidemment que plus Δt tend vers zéro, meilleure est la qualité de l'approximation.
En posant Δt = 1, on obtient alors la fonction récurrente suivante :

X t 1  X t  rX t .  1  X t  (5)
 K 
Cette fonction récurrente (5) constitue une approximation correcte de la fonction continue (1). Or,
un siècle après Verhulst, l'étude de cette fonction récurrente a conduit à la découverte de la théorie
du chaos déterministe (voir explication et historique au chapitre 2.3.2). En effet, on observe que
pour certaines valeurs des paramètres du modèle discret, les dynamiques s'avèrent très instables.
Dans ce cas, des modifications infimes des conditions initiales ou des paramètres produisent des
résultats très différents à moyen terme. L'exemple de la figure suivante illustre cette sensibilité : à
partir de l'équation récurrente (5), dont les paramètres K et r sont fixés respectivement à 100 et 3,
un écart de 10-5 sur la valeur initiale conduit dans un premier temps à des résultats similaires, puis
à des réponses totalement différentes à moyen terme.
104

140

120

100

80
Xo=1
60
Xo=1,00001

40

20

0
0 20 40 60

Figure 5-4 : Exemple de sensibilité aux conditions initiales. Deux résultats de simulation de l'équation
récurrente (2) pour deux conditions initiales très proches (X0 = 1 et X0' = 1,00001 ; Δ=10-5) montrent
rapidement des divergences importantes. Pour certaines valeurs des paramètres (ici K=100, r=3), ce modèle
déterministe s'avère indéterminé.
Par conséquent pour certaines valeurs de ses paramètres, l'équation logistique récurrente,
apparemment si simple, peut exhiber des comportements chaotiques. Le système reste déterministe
et pourtant il devient non prédictible à moyen terme.

5.2.5 Alors… discret ou continue ?


En faisant abstraction du monde de l'infiniment petit qui révèle des processus quantiques, on
considère généralement qu'à notre échelle, le temps semble s'écouler de façon continue.
Néanmoins, le temps d'un modèle à temps discret peut être vu comme étant associé à des mesures
effectuées sur un système à temps continu dont on observe l'évolution à intervalles réguliers 47.
D'autre part, il existe bien des phénomènes discrets. Par exemple, en dehors du fait qu'elle favorise
une approximation de la fonction continue, l’équation logistique discrète garde toute sa
justification en écologie pour décrire la dynamique d’une population qui se reproduit de façon
synchronisée une fois par an.
Mais si on considère le phénomène comme étant continu, alors il faut faire très attention à la façon
dont on modélise son évolution si on choisit une dynamique "à pas de temps". Dans l'exemple de
la fonction logistique, la comparaison des dynamiques entre le modèle de Verhulst, continu, et le
modèle logistique discret montre que cette discrétisation peut complètement bouleverser la

47
Sans rentrer dans des débats philosophiques hors de ma portée, il me faut néanmoins souligner la critique que
Bergson fait vis-à-vis du temps des scientifiques qu'il compare à la méthode cinématographique: ”Or l'action, avons-
nous dit, procède par bonds. Agir, c'est se réadapter. Savoir, c'est-à-dire prévoir pour agir, sera donc aller d'une
situation à une situation, d'un arrangement à un réarrangement. La science pourra considérer des réarrangements de
plus en plus rapprochés les uns des autres ; elle fera croître ainsi le nombre des moments qu'elle isolera, mais toujours
elle isolera des moments. Quant à ce qui se passe dans l'intervalle, la science ne s'en préoccupe pas plus que ne font
l'intelligence commune, les sens et le langage : elle ne porte pas sur l'intervalle, mais sur les extrémités.” Ainsi, si le
mathématicien ”divise l'intervalle en parties infiniment petites par la considération de la différentielle dt, il exprime
simplement par là qu'il considérera des accélérations et des vitesses, c'est-à-dire des nombres qui notent des tendances
et qui permettent de calculer l'état du système à un moment donné ; mais c'est toujours d'un moment donné, je veux
dire arrêté, qu'il est question, et non pas du temps qui coule. Bref, le monde sur lequel le mathématicien opère est un
monde qui meurt et renaît à chaque instant […]. Mais, dans le temps ainsi conçu, comment se représenter une
évolution, c'est-à-dire le trait caractéristique de la vie ? L'évolution, elle, implique une continuation réelle du passé par
le présent, une durée qui est un trait d'union. En d'autres termes, la connaissance d'un être vivant ou système naturel est
une connaissance qui porte sur l'intervalle même de durée, tandis que la connaissance d'un système artificiel ou
mathématique ne porte que sur l'extrémité.” [Berson, 1907]
105

dynamique pour certaines valeurs des paramètres. On observe dans ce cas des comportements
chaotiques qui ne peuvent pas apparaître dans le modèle continu. Si le problème biologique est
continu, cette différence a donc de fortes chances d’être un artéfact numérique et non un
phénomène biologique. Pour éviter ce piège, on peut moduler le pas de la discrétisation et tester si
la dynamique prédite est robuste par rapport à cette modulation (cf. figure suivante).
100
Δt=0,05

80 Δt=0,1
Δt=1
Δt=2
60
Δt=4
continue
40

20

0
0 10 20 30 40 50

Figure 5-5 : Simulations de l'équation logistique discrète à divers Δt et comparaison avec le modèle continu de
Verhulst. Ici, K= 100 ; r=0,8; X0=0,01. Pour Δt = 2, on observe des oscillations amorties et pour Δt = 4, un
comportement chaotique très différent de la courbe sigmoïde du modèle continu.
Toutefois, l'apparition de comportements chaotiques n'est pas uniquement rattachée aux systèmes
discrets. Des modèles à temps continu peuvent également exhiber des dynamiques chaotiques. En
cherchant à décrire les phénomènes brusques, René Thom a montré qu'un système mathématique
continu pouvait produire des résultats discontinus. Il montre qu'après avoir résisté au changement
(résilience), un système peut quitter un attracteur pour basculer brusquement vers un autre. Un
changement "catastrophique" résulte du conflit entre les deux attracteurs sur un point de tension
(appelé point Phi) entre deux variables, l'une lente, l'autre rapide. La théorie des catastrophes 48 met
l'accent sur les discontinuités, mais elle repose sur des dynamiques sous-jacentes lentes et
continues :
"La théorie des catastrophes consiste à dire qu'un phénomène discontinu peut émerger en
quelque sorte spontanément à partir d'un milieu continu".[Thom, 1991]
Ainsi, selon le niveau d'organisation étudié, des dynamiques peuvent apparaître continues,
graduelles ou discrètes.
D'autre part et d'un point de vue technique, les systèmes d'équations différentielles à temps continu
sont rarement intégrables. Il est alors fréquent de faire appel à des approximations numériques
pour décrire leur comportement. Dans ce cas, le calcul numérique nécessite une discrétisation du
système continu. En effet, les mathématiques fournissent des outils pour trouver la solution d'une
équation différentielle : méthode de séparation des variables, méthode de modification des
variables permettant de résoudre des équations ordinaires (ne prenant en compte que les dérivées
dans le temps mais pas dans l'espace) linéaires. Dans certains cas, on peut utiliser la méthode des
isoclines qui indique l'évolution qualitative des variables. Mais le plus souvent, ces outils ne
suffisent pas. Et souvent, il faut approcher le modèle continu par un modèle discret et employer
des méthodes numériques pour simuler des solutions (méthode d'Euler, méthode de Runge-

48
La théorie des catastrophes est maintenant considérée comme faisant partie de la théorie du chaos déterministe,
mais elle a été développée tout à fait indépendamment par René Thom qui l'a présentée en 1972 dans son ouvrage
"Stabilité et morphogenèse structurale".
106

Kutta) 49. En décrivant les raisons de la simulation multi-agent, R. Axtell parvient également à cette
conclusion [Axtell, 2000]. Il range ces raisons en trois catégories : (a) il existe une solution
analytique au système d'équations et alors la simulation ne sert qu'à illustrer des résultats. (b) La
résolution ne peut être que partielle : on peut par exemple trouver des solutions seulement pour
certaines valeurs de paramètres, ou bien ne résoudre le système qu'en faisant l'hypothèse d'un
équilibre. Pour étudier les parties non-résolvables, il faut recourir à la simulation. (c) Le modèle
n'a pas de solution (modèle indécidable) ou les outils à disposition ne permettent pas de résolution,
et dans ce cas, seules les simulations permettent d'obtenir une série de résultats.
Par ailleurs, les modèles à équations différentielles prennent difficilement en compte les
interactions entre composants d'un système. Souvent, elles sont considérées comme continues et
réparties de façon homogène dans l'espace. Il est par exemple difficile de prendre en compte des
perturbations ponctuelles. Or cette considération s'avère être une hypothèse trop restrictive pour la
modélisation des écosystèmes et les systèmes sociaux.
Ainsi, au-delà de la question quasi philosophique de savoir si le temps est continu ou discret, les
outils mathématiques à notre disposition nous obligent bien souvent à concevoir des modèles où le
temps avance par à-coups. La discrétisation des équations aux dérivées partielles est en effet
indispensable car les inconnues, dont les valeurs numériques sont à déterminer grâce aux
simulations, sont a priori en nombre infini [Lions, 2003].
Parce qu'elles sont basées sur des processeurs cadencés, les simulations informatiques impliquent
également de discrétiser le temps. Les SMA, basés sur les concepts Objets, n'échappent pas à cette
règle. Mais, comme nous venons de le voir (figure précédente), ce constat ne doit pas nous
empêcher, bien au contraire, de considérer l'évolution temporelle de nos modèles avec le plus
grand soin.

5.3 LES POLITIQUES DE GESTION DU TEMPS DES SMA


Les simulateurs multi-agents utilisent deux types d’implémentation pour manipuler des
événements discrets : la simulation à "pas de temps" constant, également appelée "simulation par
horloge", et la simulation événementielle.

5.3.1 Les modèles à événements discrets : simulation dirigée par les événements
L’approche à événements discrets considère le temps comme une variable continue (un réel). Mais
par contre, l'état du système change de façon discrète à des instants précis : les évènements. Δt est
donc variable. La date d’occurrence des évènements est calculée au début ou au cours de la
simulation et les événements sont souvent ordonnés dynamiquement dans une liste encore appelée
échéancier [Amblard & Dumoulin, 2004]. Pour ces simulations, le temps, considéré comme
continu, est représenté par une suite d'événements discrets qui apparaissent à des intervalles
variables.

49
Les plates-formes de simulation numérique, type Vensim ou Stella, fonctionnent sur ce principe. Elles
permettent de simuler des équations que l'utilisateur entre de façon graphique. Mais derrière ces outils graphiques, la
procédure consiste à discrétiser automatiquement le temps en utilisant la méthode d'Euler ou de Runge-Kutta. Δt prend
par défaut la valeur 0,5. Si cette valeur peut être changée manuellement, on note cependant que le module d'analyse de
sensibilité à disposition ne permet pas de mesurer les effets de Δt (cf. figure 5-5). Ainsi donc, même dans le domaine
de la simulation numérique, les effets de la discrétisation du temps sont minimisés et nombreux sont les utilisateurs
qui n'ont pas conscience de ces conséquences.
107

Evénement discret

Figure 5-6: Evolution d'une variable dans un modèle évènementiel (d'après [Michel, 2004])
Plutôt que de déclencher l'activation de tous les agents à chaque pas de temps, les événements qui
déclencheront l'activation de chacun sont rangés au préalable ou en cours de simulation dans une
liste chronologique.

1.23 1.97 2.15 2.90


...
Agent 4 Agent 2 Agent 9 Agent 21
Figure 5-7 : Représentation d'une liste d'évènements d'après [Lawson et Park, 2000]. Dans ce qu'ils appellent
"a Next-event asynchonous time evolution" le temps global évolue par succession d'événements. Le premier
événement de la liste (daté par un réel) est sélectionné. L'horloge globale est alors mise à jour et prend la
valeur de la date de l'événement. Celui-ci active l'agent qu'il référence. Puis cet événement est supprimé et on
passe à l'événement suivant.
La réalisation de la simulation consiste à sélectionner l'événement en tête de l'échéancier, à mettre
à jour l'horloge et à exécuter le changement d'état décrit par l'événement.
Cette gestion du temps peut apporter un avantage en termes de temps de calcul. Lors d'une période
d'inactivité des entités, le simulateur avance directement au prochain événement plutôt que de
traiter une suite de pas de temps inutiles. Mais de façon générale, comme le constatent [Lawson et
Park, 2000], la gestion événementielle s'accompagne souvent de performances faibles des temps
d'exécution des simulateurs.

5.3.1.1 Exemple de gestion événementielle : la file d'attente


[Balci, 1988] et [Guessoum, 1996] distinguent trois types de gestion pour l'approche
événementielle (approche par événements, par activités et par processus), mais la plus usitée reste
l'approche par événements. Pour l'illustrer, on utilise fréquemment l'exemple classique de la file
d'attente :
Le système peut être décomposé en trois zones (l'entrée des clients, la file d'attente et le guichet),
qui sont parcourues par des clients. Les événements qui entraînent les changements d'état de ce
système, peuvent être :
- L'arrivée d'un client venant de l'extérieur (événement extérieur),
- Le début d'une opération de traitement au guichet (événement interne),
- La fin d'une opération de traitement au guichet (événement interne).
La simulation consiste alors en une boucle :
- prendre le prochain événement et le retirer de l'échéancier
- avancer la date de simulation à la date de cet événement
108

- calculer les changements d'état de l'entité pointée par cet événement


- calculer les nouveaux événements qui sont les conséquences de cet événement, et les
insérer dans l'échéancier. Par exemple, l'événement "début de traitement au guichet", est
déclenché par le receveur du guichet qui connaît la durée de l'opération de traitement. Il est
alors capable d'anticiper le moment où aura lieu la fin de cette opération. Il crée donc un
événement "fin de traitement", avec une date qu'il a calculée, et remet cette instance
d'événement à l'échéancier.
L'échéancier est capable d'insérer les événements en les triant et d'en extraire le prochain (dans
l'ordre des dates).

5.3.1.2 Formalisation de Zeigler : DEVS


Il faut ici nous attarder un peu pour décrire succinctement les travaux de B. P. Zeigler et son
équipe qui, depuis plus de trente ans, contribuent à l'élaboration d'une théorie de la modélisation et
de la simulation (M&S). Bien qu'initié dans les années 70 [Zeigler, 1972], l'ouvrage majeur de
Zeigler a été récemment réactualisé dans [Zeigler et al., 2000]. L'objectif de la théorie M&S est de
fournir une base méthodologique pour la conception de simulation pris dans un sens général. Le
formalisme de base utilisé pour la spécification des modèles événementiels est le Discrete Event
System Specification, noté DEVS. Il s'abstrait de la mise en œuvre de simulateurs même si des
algorithmes sont proposés pour implémenter des modèles. DEVS vise également à intégrer
différents formalismes (équations différentielles, réseaux de Petri, etc.) en un seul; on parle dans ce
cas de multi-modélisation. A l'exception des travaux pionniers de Uhrmacher [Uhrmacher &
Schattenberg, 1998], peu de modèles multi-agents prennent en compte ce formalisme. Et si les
thèses récentes de [Duboz, 2004] et [Michel, 2004] promeuvent DEVS, ce formalisme reste encore
peu connu de l'ensemble de la communauté multi-agent. Car s’il existe une extension de DEVS à
la spécification de simulations multi-agents (DEVS-RAP pour Reactive Action Packages), son
utilisation reste encore difficile.
DEVS est basé sur un formalisme d’automates à états finis et s’attache à spécifier les relations
entre entités atomiques. En s'inspirant de l'approche systémique, Zeigler propose de représenter un
système dynamique de la façon suivante :
X, S : état interne Y,
ensemble δ : fonction de transition ensemble
d'inputs d'outputs
Figure 5-8 : Représentation d'un système dynamique selon Zeigler
Un système dynamique est une boite noire présentant des ports en entrée et des ports en sortie.
Pour un observateur ou une autre entité, il n'est perçu que par ses sorties. Le formalisme DEVS
prend en compte deux niveaux : le niveau atomique et le niveau couplé.

 Niveau DEVS atomique


Dans sa forme la plus classique, un modèle DEVS dit "atomique" correspond à la structure
suivante :
DEVS =< X; Y; S; ext; int; ; ta >
où :
- X est l'ensemble des valeurs possibles sur les ports d'entrée (c'est à ce niveau que les
événements externes sont reçus),
- Y est l'ensemble des valeurs possibles sur les ports de sortie (ports à travers lesquels les
événements émis par le modèle atomique sont émis vers l'extérieur),
- S est l'ensemble des états du système,
109

- ext est la fonction de transition externe (elle représente la réponse du système aux
événements en entrée),
- int est la fonction de transition interne (c'est la partie autonome de la fonction de
transition),
-  est la fonction de sortie,
- ta est la fonction d'avancement du temps. Elle représente la durée de vie d'un état s du
système lorsque n'intervient aucun événement extérieur.

On peut alors reprendre le graphe de la figure précédente de la façon suivante :


transition interne
 in t
Ports d’entrée Ports de sortie

X, S : ensemble des Y,
ensemble des ensemble des
valeurs en entrée
états internes
valeurs en sortie

ext λ
transition externe fonction de sortie

Figure 5-9 : Représentation graphique d'un modèle DEVS atomique

DEVS propose une décomposition de la fonction de transition de l'automate en deux fonctions ext
et int. Ceci est l'un des points forts de DEVS car il permet de différencier les modifications liées à
des événements externes, de celles liées aux évolutions autonomes du système. ext (S x X → S)
représente la réponse du système aux événements survenant en entrée. Alors que, sans
l'intervention d'événement externe, int (int : S → S) est la seule fonction qui fasse évoluer le
système de façon autonome en ne prenant en compte que l'état S et le temps. Dans ce cas, lors d'un
changement d'état interne s, la fonction ta(s) est évaluée. Elle définit alors par anticipation la date à
laquelle s passera dans le prochain état s'. Elle active également la fonction de sortie  (S → Y)
qui permet d'exhiber l'ensemble des états S du système sur la sortie Y et d'émettre à son tour de
nouveaux événements vers l'extérieur.
Le chapitre 3 de la thèse de [Duboz, 2004] explique clairement les spécifications de Zeigler. Le
graphe suivant, qu'il propose, illustre le déroulement d'un scénario. En voici les explications :
A l'état initial, le système est dans l'état s0 à T0. La fonction ta nous indique que pour l'état s0, le
système changera d'état à T0 + ta(s0) si aucun événement externe ne survient. A T1 = T0 + ta(s0),
aucune entrée n'a eu lieu. La fonction de sortie (s0) est donc activée et Yi prend pour valeur la
valeur produite par l'évaluation de cette fonction. Après avoir affecté les ports de sortie, la fonction
de transition interne int est appliquée. Le système passe dans l'état s1 = int (s0) et changera d'état à
T1 + ta(s1). A l'instant T2 < T1 + ta(s1), un événement externe arrive en entrée sur le port Xi. Il est
alors fait appel à la fonction de transition externe pour déterminer le nouvel état. Dans ce cas, la
fonction de sortie n'est pas appliquée : elle n'est appliquée que lors d'une transition interne. A
l'instant T2, le système passe dans l'état s3 = ext ((s1; e); v) avec e = T2 - T1 et v la valeur de
l'événement attaché au port Xi. Ici, c'est bien la fonction de transition externe qui détermine le
changement d'état. On suppose que s3 est transitoire (ta(s3) = 0). Il y a évaluation immédiate de la
fonction de sortie (s3) qui donne une valeur au port de sortie Yn. Cette évaluation est
instantanément suivie par celle de s4 = int(s3). Le nouvel état s4 est passif (ta(s4) = ). [Duboz, 2004]
110

Figure 5-10 : Exemple de graphe de transitions d'un modèle DEVS atomique d'après [Duboz, 2004]. Les lignes
pointillées verticales représentent les dates d'occurrences d'événements. Les cercles pleins représentent l'état
courant du système et les lignes horizontales l'avancement du temps. Une transition est marquée par le passage
d'un niveau à un autre sur la verticale.

 Niveau DEVS couplé


Ce niveau permet de définir un modèle agrégé formé de modèles atomiques et de modèles couplés
par réflexivité. Un réseau d'automates par exemple est défini comme un système composé de sous-
systèmes couplés : les entrées des uns étant les sorties des autres. C'est une construction
hiérarchique que Zeigler représente de la façon récursive suivante :

Figure 5-11 : Décomposition d'un système hiérarchique, selon Zeigler.


Zeigler démontre dans ce qu'il appelle la propriété de "fermeture sous couplage" qu'un modèle
couplé est rigoureusement équivalent à un modèle DEVS atomique en termes de comportement
dynamique.

 Exemple : modèle proie-prédateur de R. Duboz


En travaillant sur la modélisation des copépodes, R. Duboz est un des premiers à avoir intégré la
formalisation DEVS dans un modèle multi-agent. Son travail a permis une implémentation non
ambigüe d'un simulateur de dynamique de populations de phytoplancton et de copépodes en
interaction. Il montre entre autres, que les caractéristiques individuelles influencent la dynamique
globale. Pour cela, il propose un couplage de modèles pour la spécification d'un système où
cohabitent plusieurs niveaux d'organisations. Cet exemple nous sert à illustrer une gestion
événementielle dans un SMA.
111

En s'appuyant sur DEVS, son multi-modèle intègre un système d'équations différentielles couplé à
un SMA. Au niveau global, la dynamique de la population est décrite par un modèle à équations de
type Lotka-Volterra (modèle à dynamique lente). Mais à l'intérieur même du système d'équations,
ce modèle intègre un SMA qui redéfinit les interactions proies-prédateurs (modèle à dynamique
rapide). Le modèle lent NP, décrivant la dynamique des proies N (phytoplancton) et des prédateurs
P (Copépodes), est donné par le système d'équations suivant:

 dN N
 dt  r.N.(1  K )  G(N,P).P
 dP
  G(N,P).P  m.P
 dt
La dynamique des proies N par exemple se compose d'une partie classique (fonction logistique) et
d'une autre partie G(N,P).P qui correspond à la pression de prédation. Mais l'originalité de ce travail
repose sur le fait que la fonction G(N,P) n'est pas connue. Sa valeur g est calculée de façon externe
par un SMA. Ainsi, à tout moment, la résolution numérique du système d'équations différentielles
peut être perturbée par l'occurrence d'un événement retournant la valeur g. Inversement, à chaque
pas d'intégration, le modèle lent interroge le SMA qui simule alors les interactions proies-
prédateurs et qui retourne la valeur de ce paramètre d'interaction.
Les figures suivantes illustrent la structure de ce modèle :

Système Couplé SAR


SAR1

Copepode1
SAR2
pivot NP Environne
ment

SARn
Copepoden

Figure 5-12 : Partie gauche : Structure du modèle couplé. Le modèle pivot joue le rôle d'intégrateur des
résultats de simulations des SMA (système d'agent réactif noté SAR). 30 modèles SARs sont simulés pour le
calcul d'une valeur moyenne de g.
Partie droite : Modèle SAR présentant la structure des connexions internes du SMA. Les noms sur les
connexions correspondent au nom des événements. (D'après [Duboz, 2004])
Le modèle d'agent copépode est lui-même composé de quatre sous-modèles atomiques définissant
les comportements élémentaires de l'agent. Ce modèle d'agent est plongé dans un environnement à
qui il demande des informations sous forme d'émission d'événements externes à l'environnement
("Liste?", "Limites?", "Mange"). L'environnement répond en émettant en retour des événements
externes au copépode, contenant par exemple la liste des proies localisées dans le rayon de
perception de l'agent. La figure suivante montre la structure d'un agent copépode représenté par un
modèle DEVS couplé.
112

Figure 5-13 : Représentation graphique du modèle couplé de l'agent copépode. En bleu, figurent les
événements externes attachés aux ports d'entrée ou de sortie du modèle couplé. Les événements véhiculés par
les connexions internes figurent en rouge. (D'après [Duboz, 2004])
A ce niveau, le modèle d'agent intègre également un couplage multi-modèle. En effet, le modèle
atomique "Gestion énergie" qui informe l'agent du niveau de satiété, contient une équation
différentielle représentant la dynamique du bilan énergétique de l'animal. Ce modèle atomique
écoute les événements externes notés "Energie(q)" déclenchés lors d'une capture de proie. En
retour, il est capable de générer des événements de type "faim" (satiété(false)) et "mort" (plus
d'énergie). A chaque réception de l'événement "Energie(q)", une nouvelle valeur initiale de
l'énergie est calculée. La solution analytique de l'équation différentielle permet alors de calculer les
prochaines dates des événements "faim" et "mort".
Événe ment « fa im » à Ts

Seuil satiété Événe ment « mort » à T m

Seuil én ergie vitale

Ts Tm

Figure 5-14 : Calcul et déclenchement des événements par modèle atomique "Gestion énergie" qui intègre une
équation différentielle représentant le bilan énergétique du copépode
Bien qu'il existe des simulateurs abstraits pour les modèles DEVS, on peut noter que le simulateur
de dynamique des populations implémenté par R. Duboz n'utilise pas d'objet Evénement (par
exemple la classe Event de Java) pour activer les dynamiques, mais par soucis d'efficacité, les
interactions ont été émulées par de simples appels de méthodes.

5.3.2 Les modèles à pas de temps : simulation dirigée par l'horloge


Pour représenter l'évolution du temps, les simulations par horloge "discrétisent" le temps en "pas
de temps" réguliers comme dans le cas des systèmes dynamiques discrets. Pour ce type de
modèles, Δt est constant (on considère généralement que c'est une valeur entière égale à 1, par
exemple Δt = 1 seconde, 1 jour, 1 an…). Les changements d’état ayant lieu durant l’intervalle
]t, t+Δt], une variable du système peut changer d'état toutes les Δt périodes. Entre les deux, elle est
113

censée rester constante. Par ailleurs, les entités sont supposées évoluer toutes en même temps et
simultanément.
Les simulations par "pas de temps" peuvent être considérées comme un sous-type de simulation
évènementielle où les tops d'horloge constitueraient les évènements. Mais, leurs mises en œuvre
sont très différentes et bien plus aisées à réaliser. Elles proposent deux procédures d'activation des
entités qu'on nomme approche synchrone et approche asynchrone 50.

5.3.2.1 Approche synchrone


On considère ici que d'un point de vue du temps réel, les agents évoluent tous simultanément. Du
point de vue du temps virtuel, ils évoluent en parallèle. Les automates cellulaires (créés par Von
Neumann et Ulam) constituent un bon exemple de déroulement synchrone. En effet, les cellules
d'un réseau d'automates changent d'état toutes simultanément. Pour émuler une évolution
synchrone d'un réseau d'automates, on passe fréquemment par un artifice informatique appelé
double buffering [Travers, 1996] qui consiste en une mise à jour en deux passes de l’état des
cellules. En effet, les automates cellulaires étant généralement exécutés sur des machines
monoprocesseurs, l'algorithme doit simuler le traitement parallèle par l'intermédiaire d'une variable
tampon (buffer). Lors du nouveau "pas de temps", l'ordonnanceur (aussi appelé scheduler) active
séquentiellement toutes les cellules de l'automate qui exécutent alors leur fonction de transition.
Chaque cellule change d'état en fonction de son état interne et en fonction de l'état de ses voisines.
Mais bien sûr, il ne faut pas que le nouvel état soit immédiatement pris en compte dans le calcul de
la fonction de transition d'une autre cellule. La fonction de transition doit s'opérer sur des états
calculés et mémorisés au "pas de temps" précédent. Deux stratégies sont proposées. Pour chacune,
un "pas de temps" est décomposé en deux phases:
- La plus répandue des stratégies consiste à stocker le résultat du calcul dans une variable
tampon de la cellule. Lorsque toutes les cellules ont terminé cette première phase de calcul,
l'ordonnanceur balaie à nouveau toutes les cellules du réseau pour demander à chacune de
mettre à jour son nouvel état qui prend alors la valeur de l'état tampon.
- Une autre solution consiste à faire une copie du réseau (snapshot) en début de chaque "pas
de temps" puis de faire calculer à chaque cellule sa fonction de transition en utilisant les
valeurs des cellules clonées.
Ainsi, quelle que soit la stratégie d'exécution choisie, l'ordre séquentiel d'activation de chaque
cellule n'a pas d'influence sur les résultats de simulation. Ici, chaque entité (cellule) ne modifie que
son propre état. Mais dans le cas d'un SMA, il est souvent possible que des entités veuillent
modifier l'état d'une autre entité (l'environnement, un autre agent, etc.). Nous verrons plus loin que
ce cas de figure nécessite souvent des résolutions de conflits dans le cas de modifications
concurrentes ou conflictuelles.
Selon la classification de Zeigler, ces modèles appartiennent à la famille des modèles DTSS
(Discrete Time System Specification). De façon plus formelle, la spécification d'une DTSS est:
DTSS =< X; Y; S; ; ; c >
où :
X est l'ensemble des valeurs possibles sur les ports d'entrée,
Y est l'ensemble des valeurs possibles sur les ports de sortie,
S est l'ensemble des états du système,
 est la fonction de transition (interne et/ou externe), δ: S x X→ S

50
Dans la littérature, l'approche asynchrone fait souvent référence à l'approche à évènements discrets. Nous
préférons garder ce terme pour les simulations par horloge qui, contrairement aux automates cellulaires, activent les
entités de façon séquentielle.
114

 est la fonction de sortie (Moore, Mealy ou sans mémoire)


c est une constante employée pour spécifier la base temporelle (Δt).
Pour spécifier la fonction de transition d'un automate cellulaire, Zeigler défini deux fonctions:
– δ, la fonction de transition qui permet de calculer le nouvel état interne S' d'une entité en
fonction de son état courant (S) et d'un ensemble d'inputs (X). Dans le cas des automates
cellulaires, c'est une fonction de transition externe dont l'ensemble X correspond à l'état des
voisins (visibles sur leurs ports de sortie).
– λ, la fonction de sortie qui peut être calculée selon trois procédés :
-le type Moore, sans entrée : l'output d'une entité n'est calculé qu'en fonction de son état
interne S. λ: S→Y
-le type Mealy : l'output d'une entité est calculé en fonction de son état interne S et d'un
ensemble d'inputs X. λ: S x X→Y
-le type sans mémoire FNSS (que l'on peut considérer comme un cas particulier du type
de Mealy) : l'output d'une entité n'est calculé qu'en fonction d'un ensemble d'inputs
X. λ: X→Y
Classiquement, les automates cellulaires utilisent une fonction de sortie λ de type Moore pour
laquelle l'output est égal à l'état interne (calculé par la fonction de transition δ):
λ: S→Y avecY=S.
En d'autres termes, pour cette deuxième fonction, l'état "visible" d'une cellule devient l'état interne
stocké en mémoire tampon. La majorité des simulations multi-agents utilisent les fonctions de type
Moore et de type Mealy et nous reviendrons sur l'importance de discerner ces fonctions. Dans le
cas d'un réseau d'automates, ce système est appelé multiDTSS (a multi-component DTSS model).
Un simulateur DTSS se décrit alors de la façon suivante :

incrémentation du temps
t←t+1

application de la fonction
de transition δ à
toutes les cellules

application de la fonction Figure 5-15 : Diagramme d'activité d'un pas de


de sortie λ à temps d'un simulateur DTSS. Le cas d'un
toutes les cellules ordonnanceur synchrone implique deux phases : une
phase de calcul de la fonction de transition et une de
mise à jour des variables de sortie.

Cette figure présente un diagramme d'activité d'un pas de temps de l'ordonnanceur synchrone. On
peut également utiliser un diagramme de séquence pour expliquer le déroulement d'un pas de
temps. Il a l'avantage de présenter différentes entités du système et des échanges de messages.
115

SD: Main Step


: OrdonnanceurSynchrone : Cellule

incrémentation du temps
t t+1
* fonction de transition δ
Qbuffer ← δ(X)

* fonction de sortie λ Q ← Qbuffer

Figure 5-16 : Diagramme de séquence d'un pas de temps d'un ordonnanceur synchrone d'automate cellulaire.

5.3.2.2 Approche asynchrone


Dans l'approche asynchrone, d'un point de vue du temps réel, les agents sont censés évoluer
simultanément. A chaque "pas de temps", tous les agents doivent avoir été activés une fois et une
seule (on parle dans ce cas d'activation n-asynchrone). Dans leur grande majorité, les SMA
utilisent ce principe pour activer les entités des modèles car la mise en œuvre de l'approche
asynchrone est simple et aisée comme le montre la figure suivante :

SD: Main Step

:OrdonnanceurAsynchrone : Agent

incrémentation du temps
t ← t+1

* step

Figure 5-17 : Diagramme de séquence d'un pas de temps d'un ordonnanceur asynchrone. L'astérisque placé
devant le "step" signifie en UML que l'appel de méthode est effectué sur toutes les instances d'Agent. Cette
représentation ne montre pas quelles sont ces instances, ni dans quel ordre elles sont activées. De mon point de
vue, ceci constitue une faiblesse.
A chaque itération, tous les individus sont activés un par un, de façon séquentielle. Aussi,
contrairement à l'approche synchrone, on ne peut pas considérer que les agents évoluent
effectivement en parallèle. En observant une simulation de ce type, on peut peut-être le croire.
Mais ceci est dû à la rapidité d'exécution de leurs activités. Dans le détail, il n'en est rien : les
agents agissent séquentiellement. De plus, chacun met à jour son état visible directement pendant
son activation. Ainsi, à un instant donné pris au cours d'un "pas de temps", certains agents ont déjà
changé d'état quand d'autres n'ont pas encore été activés. Souvent, en s'inspirant des systèmes
dynamiques discrets (cf. équation (2)), les simulations par "pas de temps" sont formalisées de la
façon suivante : une fonction F permet de calculer l'état du système au temps t + 1 à partir de son
état à l'instant t. Si on note t l'état du système au temps t, on trouve :
t 1  F(t )
116

Or cette formalisation s'avère être fausse dans le cas d'une gestion asynchrone ! Pour passer de t à
t+1, le système a subi une suite de modifications dues à l'activation séquentielle des agents et à la
mise à jour en une seule passe de leur nouvel état.
En reprenant le formalisme DTSS décrit page 115, on considère dans ce cas de gestion asynchrone
que la fonction de sortie λ utilisée au niveau du sous-modèle d'agent est de type Mealy :
λ: S x X→Y
Pour rappel, X est l'ensemble des valeurs possibles sur les ports d'entrée, Y est l'ensemble des
valeurs possibles sur les ports de sortie, S est l'ensemble des états du système et  est la fonction de
sortie. Ici, l'output d'un agent est calculé immédiatement en fonction de son état interne S et d'un
ensemble d'inputs X. La fonction de sortie qui permet de calculer le nouvel état visible de l'agent,
utilise directement des données sur ses ports en entrée, c'est-à-dire qu'elle utilise des informations
internes (S) et externes (X) à l'agent pour calculer immédiatement son nouvel état. Ce changement
d'état est immédiatement perçu par les autres entités du système. Ainsi le principal problème de
l'approche par horloge relève de la cohérence des différentes perceptions que les agents ont du
monde :
Le monde perçu par différents agents à un même instant t de la simulation n’est pas identique. En
effet, un agent perçoit à t un monde qui a été modifié par les agents qui ont agi avant lui. En d’autres
termes, la perception d’un agent peut potentiellement s’appuyer sur des variables qui devraient être
estampillées à t + dt. Et ce, alors que les agents sont supposés agir de manière concurrente à cet
instant. Ainsi le dernier agent peut avoir une vue du monde totalement différente du premier alors
que l’état de celui-ci est censé toujours être donné pour l’instant t. L’action d’un agent, qui est en
principe déduite de sa perception du monde, est en fait directement liée à sa position dans la liste
d’activation et par conséquent aux actions effectuées auparavant par les autres agents. [Michel
2004]
Il faut donc garder à l'esprit que ce type de gestion du temps peut dans certains cas avoir des effets
non négligeables sur les résultats de simulation. Comme nous le verrons ultérieurement sur des
exemples concrets, les impacts sur le comportement d'un modèle peuvent être importants. En effet,
dans le cas d'utilisation de ressources par exemple, le premier agent activé prend rapidement
l'avantage sur les autres agents : il se sert toujours le premier ! Pour essayer de remédier à ce
problème, la technique la plus employée consiste à mélanger aléatoirement l'ordre d’exécution des
agents à chaque "pas de temps". Statistiquement, on rétablit ainsi un partage en évitant de donner
l'avantage systématiquement aux mêmes agents. C’est par exemple la méthode utilisée dans
[Epstein & Axtell, 1996].

5.3.3 Biais liés à la séquentialisation du temps


Dans la lignée de Sugarscape, de très nombreux modèles utilisent une gestion par "pas de temps"
avec brassage aléatoire. Si dans certains cas, cette stratégie influence peu les résultats des
simulations, dans d'autres, les conséquences peuvent être considérables.

5.3.3.1 Expliquer les impacts sur les résultats d'une gestion synchrone et asynchrone
Pour faire prendre conscience de ce problème de synchronie – asynchronie à des apprentis-
modélisateurs, nous utilisons un petit jeu de rôle lors des formations. La règle du jeu est la
suivante: l'état de chaque joueur peut prendre quatre valeurs : les 2 mains à plats, les 2 mains en
l'air, main droite en l'air – main gauche à plat, et réciproquement, main droite à plat – main gauche
en l'air. La fonction de transition est : la main droite doit copier la position de la main gauche du
voisin de droite et la main gauche doit copier la main droite du voisin de gauche. A T0, chaque
joueur décide d'un état aléatoire qu'il doit mémoriser. Le formateur joue alors le rôle de
l'ordonnanceur.
117

1er déroulement du jeu : Procédure asynchrone. Le formateur demande à un joueur au hasard


d'appliquer la règle de transition. Puis en passant successivement tous les joueurs, il demande à
chacun d'exécuter cette règle en prenant en compte l'état actuel de ses voisins.

Figure 5-18 : Déroulement d'un jeu de rôle "automate cellulaire humain", lors d'une session de formation à
l'Université de Pretoria - Afrique du Sud.
En rejouant cette session mais en commençant par un autre joueur, chacun constate que sa position
finale est différente de la première session. L'état final dépend du choix aléatoire que le formateur
a pris pour désigner le premier joueur. En quoi ce choix intervient-il dans la règle du jeu ?
2ième déroulement : Procédure synchrone. Le formateur demande à chaque joueur de calculer
intérieurement sa prochaine position en fonction de l'état actuel de ses voisins, sans changer la
position de ses mains. Puis lors d'un deuxième passage, il demande à chacun d'appliquer la
position mémorisée précédemment. En répétant ce jeu, on retrouve le même état final et ceci quel
que soit l'ordre des joueurs choisi par le formateur.

5.3.3.2 Automate cellulaire synchrone et asynchrone


Pour mieux se rendre compte de ce phénomène, regardons les conséquences de ces différentes
gestions du temps sur un automate cellulaire simple simulant un feu de forêt. Ici, la fonction de
transition est rudimentaire et déterministe : si une cellule est dans l'état "forêt" et qu'au moins une
de ses voisines est en "feu", alors elle deviendra en "feu" à son tour. Si elle est vide, son état ne
peut changer. Si elle est en feu, elle s'éteint d'elle-même. Le diagramme d’état-transition ci-
dessous représente cette fonction de transition en présentant tous les états possibles d'une cellule et
les évènements qui provoquent les changements d'état :
Voisin fin autom atique
forêt en feu feu de feu vide

Figure 5-19 : Diagramme d’état-transition d'une cellule.


A partir d'une même configuration spatiale initiale, nous simulons la propagation du feu pour
étudier trois gestions différentes du temps. En appliquant la même fonction de transition, les trois
images suivantes montrent les résultats sur une grille spatiale d'un "pas de temps" de simulation
géré de trois manières différentes : (a) par approche synchrone, (b) par approche asynchrone sans
brassage (l'ordre d'activation correspond à l'ordre de la répartition des cellules, c'est-à-dire d'en
haut à gauche jusqu'en bas à droite) et (c) par approche asynchrone avec mélange aléatoire de
l'activation.
118

a b c

Figure 5-20 : Résultats après un pas de temps de trois gestions différentes du temps: (a) approche synchrone,
(b) approche asynchrone non mélangée et (c) approche asynchrone avec mélange aléatoire de l'activation. Les
trois simulations ont été effectuées à partir d'un même état initial : une grille de 30x30 en voisinage 8 (Moore),
couverte de forêt avec un foyer de départ du feu toujours localisé au même endroit.
Dans le cas (a) d'un déroulement synchrone, on reconnaît une diffusion concentrique du feu qui
s'étend progressivement sur la forêt. C'est le résultat escompté d'une diffusion simple.
Dans la gestion asynchrone non mélangée (b), le feu envahit quasiment tout l'espace en un seul
"pas de temps". L'activation ordonnée (par ligne, du haut vers le bas) et la mise à jour de l'état des
cellules en une seule passe est la cause unique de ce phénomène. En effet, au cours de ce "pas de
temps" et au moment de son activation, chaque cellule située au sud du foyer sera voisine d'une
cellule en feu. Elle prendra alors feu à son tour. Son nouvel état est perçu par ses voisines du sud
qui prendront également feu au moment de leur activation. L'application immédiate de la fonction
de transition couplée à l'ordonnancement de l'activation des cellules de bas en haut explique donc
cette diffusion instantanée du feu sur toute la partie sud de la grille.
L'approche asynchrone avec mélange aléatoire de l'activation (c) produit un résultat intermédiaire.
De façon statistique, le feu se diffuse beaucoup plus rapidement que dans le cas (a) mais n'envahit
pas tout l'espace d'un seul coup. Dans certains cas, il peut même s'éteindre tout de suite : la cellule-
foyer est activée avant ses voisines. Pour cette troisième gestion, si statistiquement on obtient une
diffusion très rapide, tous les cas de figures sont néanmoins possibles, de l'extinction immédiate à
un embrasement total. Le problème ici c'est que le résultat d'une simulation dépend en grande
partie d'un facteur aléatoire. Le plus grave est que ce facteur n'est pas rattaché à l'essence même du
modèle : la diffusion simple, telle qu'elle est décrite, est déterministe. Ici ce facteur aléatoire
touche à la mac