IA et décision
Antoine Naulet
Dans Revue Défense Nationale 2019/5 (N° 820), pages 99 à 102
Éditions Comité d’études de Défense Nationale
ISSN 2105-7508
ISBN 9782919639861
DOI 10.3917/rdna.820.0099
© Comité d?études de Défense Nationale | Téléchargé le 04/03/2024 sur www.cairn.info (IP: 105.159.251.56)
© Comité d?études de Défense Nationale | Téléchargé le 04/03/2024 sur www.cairn.info (IP: 105.159.251.56)
Article disponible en ligne à l’adresse
https://www.cairn.info/revue-defense-nationale-2019-5-page-99.htm
Découvrir le sommaire de ce numéro, suivre la revue par email, s’abonner...
Flashez ce QR Code pour accéder à la page de ce numéro sur Cairn.info.
Distribution électronique Cairn.info pour Comité d’études de Défense Nationale.
La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les limites des conditions générales d'utilisation du site ou, le
cas échéant, des conditions générales de la licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie, sous quelque
forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est
précisé que son stockage dans une base de données est également interdit.
CONSTRUIRE L’IA
IA et décision
Antoine Naulet
Chef de bataillon (TA) breveté de l’École de Guerre
et titulaire du master data science de l’École poly-
technique.
L
e chef militaire décide dans l’incertitude. Un des principaux gains attendus
de l’IA est l’aide à la décision. Comment concilier ces deux approches ? La
décision est l’articulation entre le monde des idées et celui de l’action. On
peut en parler des heures. Pourtant il est bien difficile de l’enseigner. Transmettre
l’art de décider est déjà une gageure. L’infusion est lente et se fait au contact de
chefs qui laissent parfois un exemple à reproduire et d’autres fois un souvenir qu’on
se promet d’éviter. Les temps de formation en école sont ainsi davantage la
construction d’un référentiel commun que l’occasion d’apprendre à être chef.
Le chercheur scientifique partage beaucoup de valeurs avec le chef militaire :
© Comité d?études de Défense Nationale | Téléchargé le 04/03/2024 sur www.cairn.info (IP: 105.159.251.56)
© Comité d?études de Défense Nationale | Téléchargé le 04/03/2024 sur www.cairn.info (IP: 105.159.251.56)
l’acte gratuit, la persévérance et, bien entendu, la décision face à l’inconnu que l’on
va affronter. Le parrain des masters de sciences fondamentales de l’Université Paris-
Saclay, Jean-Philippe Uzan, soulignait lors de la remise des diplômes le 29 mars
2019, combien il est difficile d’apprendre à devenir chercheur. Au final, c’est par
une forme de compagnonnage que le doctorant apprend une démarche et non une
connaissance. La comparaison la plus simple reprenait l’apprentissage du vélo. Bien
difficile à théoriser et impossible à transmettre par la théorie. Et pourtant si natu-
rel à apprendre.
Face à ces terrae incognitae, le chercheur comme le décideur se prépare par
l’acquisition de référentiels, de méthodes et de connaissances. Puis, lorsque de
cadet il devient praticien, il lui faut agir par lui-même dans l’inconnu. La décou-
verte comme la victoire ne doivent qu’une petite part à la chance pure. Et beau-
coup à la chance provoquée. Un concours de circonstances se prépare dans un
laboratoire de recherche comme dans un camp d’entraînement.
Le soldat, comme le scientifique, lorsque les responsabilités exigent de lui
une planification, doit mettre en place une stratégie. La conquête de ressources,
l’anticipation des équipements, le recrutement des talents sont des jalons partagés.
La stratégie, pas plus que la décision, ne s’enseigne. On présente l’histoire de la
stratégie et au mieux on décrit des attitudes stratégiques. On est alors stratégiste,
mais pas stratège ! En un mot, la stratégie, c’est le rapport aux opportunités pour
atteindre un but : on les prépare ou on les contre, on les nourrit, et surtout on les
saisit. Bref, on ne peut être stratège que si l’on décide.
Revue Défense Nationale n° 820 - Mai 2019
99
L’IA renforce la compréhension du présent et permet jusqu’à la prédiction
d’un certain avenir. En un mot, l’IA déchire le voile de l’incertitude. Mais elle ne le
lève pas. En revanche, l’IA s’invite ainsi dans la prise de décision. Conceptuellement,
l’IA a le même champ d’action que la décision car elle s’articule entre le réel et les
idées. Concrètement, elle utilise des données du passé et des méthodes qui pré-
supposent que les circonstances continuent à évoluer dans un même espace pour
construire un modèle à appliquer au présent et au futur.
Évacuons d’emblée la caricature de l’IA autonome qui remplace le chef.
Personne ne la prône ni dans la communauté scientifique, ni parmi les décideurs.
Cherchons plutôt à comprendre comment travailler avec l’IA puisqu’elle est là !
Quantifier le gain de l’IA dans la décision réelle est un objectif vain car on
ne peut construire de référentiel sur le réel. Autrement dit, une prise de décision n’a
de sens que dans son contexte et ne peut pas être reproduite dans son entièreté.
Tentons donc une analyse théorique. L’IA ne détermine pas ce qui va se
passer mais le quantifie par une probabilité. L’incertitude s’incarne alors en un
objet mathématique mais ne disparaît pas. Elle est ainsi mieux maîtrisable par la
© Comité d?études de Défense Nationale | Téléchargé le 04/03/2024 sur www.cairn.info (IP: 105.159.251.56)
© Comité d?études de Défense Nationale | Téléchargé le 04/03/2024 sur www.cairn.info (IP: 105.159.251.56)
raison. Cependant, la nature des choses ne change pas. Celui qui était déséquilibré
par la prise de décision dans un environnement incertain ne se trouvera pas plus à
l’aise avec des probabilités plaquées sur cet environnement. Au contraire, celui qui
était aidé par le flou conceptuel découlant de l’incertain peut être déstabilisé par la pré-
cision des chiffres. Cette force comporte donc une réelle vulnérabilité.
L’autre gain de l’IA est de mettre à plat les biais cognitifs. L’homme bâtit
des décisions sur son expérience. C’est pour cela qu’une organisation humaine ne
produit pas de décisions déterministes. L’IA bâtit sa décision par un apprentissage
sur un set de données connues ou selon une méthode algorithmique explicite. Les
biais d’apprentissage et de mesure sont donc finis et souvent connus. Ils sont ainsi
appréhendables par l’homme qui se donne la peine de se former. Pour autant, l’IA
n’est pas déterministe et tous ses biais ne sont pas identifiables.
En quelque sorte, l’IA diminue l’inconnu dans la dimension traditionnelle
de la quantification du futur au prix de générer un nouvel incertain. Cet incertain
est intrinsèquement lié au modèle qui repose sur des théories mathématiques inac-
cessibles pour la plupart des décideurs. Il est renforcé par l’usage de modèles non
explicables mais simplement interprétables, voire seulement justifiables par l’expé-
rience ou la théorie.
Une opportunité est donc aussi à chercher dans l’emploi que l’adversaire
fera de l’IA. L’IA leurre et se leurre. Déstabilise et se déstabilise. Apprendre à agir
100
CONSTRUIRE L’IA
contre l’IA est aussi essentiel que d’apprendre à combattre avec elle. À ce stade, seul
un retour très abstrait est à notre disposition par les jeux vidéo. Ce retour est très
documenté techniquement (1). On peut, d’ores et déjà, méditer la phrase du cham-
pion battu par l’IA : « C’était surhumain ! » (2) Mais il faut aller plus loin dans l’ana-
lyse car l’environnement du jeu est généré par des algorithmes donc entièrement
modélisable par d’autres algorithmes.
Réfléchir sur l’incertitude, demande d’appréhender la connaissance. À la suite
de Nassim Nicholas Taleb (3), nous partageons trois degrés de connaissance. Le
« connu », « l’inconnu » et « l’inconnu inconnu ». La différence entre les deux der-
nières notions mérite un exemple. Le nombre d’accidents de la route en 2020 en
France est « inconnu » mais modélisable. On se trompe peut-être de quelques pour-
cents, on a sûrement une imprécision géographique mais on arrive très bien à antici-
per les investissements à l’échelle d’une assurance. La survenue du 11 septembre fait
partie de la catégorie « inconnu inconnu » car non seulement elle n’était pas prévue
mais n’était pas prévisible. En fait, si on l’avait prévue, elle ne serait pas survenue. Cet
« inconnu » est donc forcément un « inconnu inconnu », autrement appelé l’imprévu.
La première conclusion en IA pour le combat est que si elle peut détecter une
anomalie plus vite que l’homme, elle ne sait pas s’y adapter par construction. L’IA est
© Comité d?études de Défense Nationale | Téléchargé le 04/03/2024 sur www.cairn.info (IP: 105.159.251.56)
© Comité d?études de Défense Nationale | Téléchargé le 04/03/2024 sur www.cairn.info (IP: 105.159.251.56)
donc adaptée à « l’inconnu » mais pas à l’imprévu. Il y a là une complémentarité forte
entre IA et humain. La première donne l’alerte et au mieux peut proposer des solu-
tions mais la décision face à l’imprévu ne peut que reposer sur l’humain. En effet, il
y a nécessité d’avoir une conscience pour s’adapter à cet inconnu.
La seconde conclusion est une notion de domaine d’emploi. À l’échelle
d’une armée ennemie, la modélisation du combat des sections pourrait avoir un
sens si l’accès à la connaissance des objectifs et des doctrines est suffisant. En effet,
la multiplication des cas permet d’envisager un apprentissage. Surtout, la liberté
d’action d’un chef de section reste « faible ». En revanche, au niveau de la division
ou du corps il n’y a plus aucun sens à appliquer de l’IA. Les doctrines de ce niveau
sont de simples référentiels et les chefs sont rompus à l’action dans l’inconnu. Bref,
il y a là un bourbier pour l’IA. Pour les niveaux intermédiaires, le curseur est à
réévaluer fréquemment et avec finesse car un apport de l’IA peut contribuer à la
supériorité informationnelle comme à la bêtise tactique.
La nature de la décision dans l’incertitude est renforcée par l’IA. La rapidité
des analyses mises à disposition du décideur lui fait même courir de nouvelles
(1) « L’intelligence artificielle dans les jeux vidéo » et « L’intelligence artificielle dans les jeux vidéo - Part 2 », Saagie
(www.saagie.com/).
(2) « ‘C’était surhumain’ : des joueurs professionnels ont perdu contre une IA à Starcraft 2 », Numerama
(www.numerama.com/).
(3) Nassim Nicholas Taleb : Le Cygne noir : la puissance de l’imprévisible ; Les Belles Lettres, 2008 ; 496 pages.
101
vulnérabilités. Dans un environnement où l’IA devient omniprésente, le chef mili-
taire doit plus que jamais se construire autour du triptyque : collaboration, culture et
force de caractère. La collaboration avec ses pairs, c’est la possibilité de la générali-
sation que l’IA ne peut obtenir car pour une tâche définie, il faut une IA définie.
La culture, c’est la profondeur qui permet l’appréhension éthique garante du temps
long ; l’IA peut optimiser nos gains tout en détruisant la planète, seul l’humain
peut et doit avoir une vue au-delà de ses objectifs ! Enfin, la force de caractère car
soumet sera encore plus dangereux ! Décider, c’est user de sa liberté. w
si celui qui ne comprend pas l’IA sera bientôt entièrement dépassé, celui qui s’y
© Comité d?études de Défense Nationale | Téléchargé le 04/03/2024 sur www.cairn.info (IP: 105.159.251.56)
© Comité d?études de Défense Nationale | Téléchargé le 04/03/2024 sur www.cairn.info (IP: 105.159.251.56)
Mots clés : IA, décision, culture, incertitude.
102