UNIVERSITÉ PROTESTANTE AU CONGO
Faculté des Sciences Informatiques
PARTIE I — FONDEMENTS DE
L’INTELLIGENCE ARTIFICIELLE
Référence : Stuart Russell & Peter Norvig, Artificial Intelligence : A Modern Approach,
4e édition (2021)
Introduction générale de la partie
L’intelligence artificielle (IA) constitue aujourd’hui l’un des domaines les plus dyna-
miques et les plus structurants de la science moderne. Elle se situe à la croisée de plusieurs
disciplines (mathématiques, logique, neurosciences, linguistique, économie et philosophie)
dont elle hérite les concepts fondamentaux pour modéliser la pensée, la décision et l’action.
Depuis les premiers travaux d’Alan Turing dans les années 1950, la question qui fonde
l’IA demeure la même : une machine peut-elle penser ? Toutefois, au fil du temps, cette
interrogation s’est déplacée du registre métaphysique vers celui de la rationalité com-
putationnelle : il ne s’agit plus tant de savoir si une machine peut « penser » au sens
humain du terme, mais de déterminer comment elle peut raisonner, apprendre et agir
de manière efficace dans un environnement complexe.
L’IA se définit ainsi comme la science de la construction d’agents intelligents, c’est-
à-dire de systèmes capables de percevoir leur environnement, d’en modéliser les états
possibles, de raisonner sur ces représentations et de choisir les actions les plus appropriées
pour atteindre un objectif donné.
Cette première partie du cours vise à poser les fondements conceptuels et théo-
riques de cette discipline. Elle ne cherche pas seulement à décrire les méthodes, mais à
comprendre les principes qui rendent possible l’émergence de comportements intelligents
chez des entités artificielles.
1 Les fondements de l’intelligence artificielle
1.1 Les fondements mathématiques
Les mathématiques représentent la colonne vertébrale de toute entreprise scientifique
et en particulier de l’intelligence artificielle. Elles constituent à la fois son langage, sa
1
méthode et son instrument de validation.
Dans l’IA, les mathématiques interviennent à plusieurs niveaux :
— La logique mathématique : elle permet de représenter la connaissance sous
forme de propositions et de relations, de raisonner à partir de prémisses, et de
garantir la cohérence des conclusions obtenues. Elle fonde les bases des systèmes
experts et des raisonnements automatisés.
— L’algèbre linéaire : elle soutient les calculs matriciels et vectoriels nécessaires
à la manipulation des données dans les réseaux de neurones et l’apprentissage
automatique.
— Le calcul différentiel et intégral : indispensable pour la descente de gradient,
l’optimisation des fonctions de coût et la modélisation des dynamiques d’appren-
tissage.
— La théorie des probabilités : elle introduit la notion de raisonnement sous
incertitude, permettant à un agent de formuler des croyances partielles et de
prendre des décisions même lorsque l’information est incomplète ou bruitée.
— La théorie des graphes et de la complexité algorithmique : elles inter-
viennent dans les algorithmes de recherche, la planification, les problèmes de
cheminement (ex. A*, Dijkstra), et la modélisation des réseaux neuronaux et
sociaux.
Les mathématiques confèrent à l’IA son caractère scientifique : elles permettent de
passer du descriptif à l’explicatif, du symbolique à l’analytique.
1.2 Les fondements logiques
La logique est à la fois un outil de formalisation et un principe d’organisation du
raisonnement. Dans le cadre de l’intelligence artificielle, elle permet de représenter les
connaissances d’une manière manipulable par une machine et d’automatiser l’inférence.
Deux propriétés fondamentales guident la logique en IA :
— La sonorité : une procédure d’inférence est dite sonore si toutes les conclusions
qu’elle tire sont vraies lorsque les prémisses le sont.
— La complétude : elle désigne la capacité d’une procédure à déduire toutes les
conclusions vraies pouvant être tirées des prémisses.
Ces principes assurent que le raisonnement artificiel demeure fidèle à la vérité logique
et à la cohérence interne du système.
La logique a permis le développement des systèmes experts, capables de simuler le
raisonnement d’un spécialiste humain en appliquant des règles explicites du type si. . .
alors. . .. Cependant, sa rigidité face à l’incertitude a conduit à l’émergence de modèles
probabilistes plus souples, marquant la transition vers l’IA statistique.
2
1.3 Les fondements neuroscientifiques
Les neurosciences constituent une source d’inspiration majeure pour l’IA. Elles cherchent
à comprendre les mécanismes biologiques du cerveau humain, et à en extraire des principes
de calcul et d’adaptation que l’on peut reproduire artificiellement.
Les réseaux de neurones artificiels sont issus de cette analogie : chaque neurone
artificiel reçoit des signaux d’entrée, les combine selon des poids synaptiques, applique une
fonction d’activation, et produit une sortie. L’apprentissage consiste à ajuster ces poids
afin de minimiser une erreur ou maximiser une performance.
La révolution du Deep Learning a permis à ces réseaux d’apprendre des représen-
tations hiérarchiques des données — des formes simples (bords, contours) jusqu’à des
concepts abstraits (visages, objets, mots). Cette approche a bouleversé les domaines de
la vision, du langage et de la reconnaissance vocale.
L’apport des neurosciences ne se limite pas à l’architecture : elles rappellent que l’in-
telligence est un processus émergent, fondé sur l’interaction, la plasticité et l’adaptation
continue au milieu.
1.4 Les fondements économiques et décisionnels
L’intelligence artificielle partage avec l’économie une préoccupation commune : la re-
cherche de la décision optimale sous contrainte. La théorie de la décision et la théorie
des jeux fournissent à l’IA les concepts de rationalité, d’utilité et d’équilibre.
Dans ce cadre, un agent rationnel est défini comme une entité qui choisit l’action
maximisant son utilité attendue, compte tenu des informations dont il dispose et des
probabilités des événements possibles.
Cette vision a conduit à la formalisation des agents autonomes capables de planifier,
d’évaluer les risques et d’ajuster leurs comportements en fonction des récompenses reçues.
Elle a également inspiré l’apprentissage par renforcement, où l’agent apprend par
essai et erreur, en recevant des signaux de renforcement positifs ou négatifs selon la qualité
de ses actions.
En d’autres termes, la rationalité économique devient ici la base d’une rationalité
artificielle, quantifiable et programmable.
1.5 Les fondements philosophiques
La philosophie a posé les premières questions sur la nature de la pensée, de la conscience
et de l’intelligence. Elle permet d’interroger les présupposés de la recherche en IA et d’en
éclairer les enjeux éthiques.
Depuis Descartes et Kant jusqu’à Turing et Searle, la réflexion philosophique sur l’in-
telligence artificielle a évolué autour de plusieurs tensions :
3
— La différence entre simuler la pensée et penser réellement ;
— La question de la conscience artificielle et de la subjectivité des machines ;
— Le problème de la responsabilité morale des agents autonomes.
Ainsi, la philosophie invite à ne pas réduire l’intelligence à une simple capacité de
calcul, mais à envisager ses dimensions sociales, morales et symboliques.
1.6 Les fondements linguistiques
Le langage constitue un pivot essentiel entre la pensée et l’action. La linguistique offre
à l’IA les outils pour traiter le langage naturel sous ses dimensions syntaxique, sémantique
et pragmatique.
Les premiers modèles, dits statistiques, reposaient sur des distributions de mots et
sur la modélisation probabiliste de séquences. Aujourd’hui, les modèles de traitement
automatique du langage naturel (TALN) intègrent des réseaux neuronaux profonds,
capables de comprendre le contexte, la polysémie et l’intention.
Cette dimension linguistique permet à l’IA de dialoguer avec l’humain, d’interpréter
ses requêtes et de générer des réponses cohérentes. Elle confère à la machine la faculté
d’interagir, d’expliquer et d’apprendre par le langage — ce qui en fait un acteur cognitif
complet.
2 Définir l’intelligence artificielle
Définir l’IA revient à préciser ses finalités. Russell et Norvig distinguent quatre grandes
approches selon deux axes fondamentaux : - L’axe Penser vs Agir ; - L’axe Humain vs
Rationnel.
De cette distinction émergent quatre conceptions :
— Penser humainement : comprendre comment les humains raisonnent, à travers la
modélisation cognitive.
— Agir humainement : reproduire le comportement observable de l’être humain,
comme dans le Test de Turing.
— Penser rationnellement : formaliser le raisonnement correct selon la logique et
les principes de validité.
— Agir rationnellement : concevoir des agents capables d’agir de manière optimale
selon leurs connaissances et leurs objectifs.
L’approche moderne retient principalement la dernière définition : celle de l’agent
rationnel, pivot de l’intelligence artificielle contemporaine.
4
3 Les grandes familles d’approches
L’histoire de l’IA est marquée par plusieurs paradigmes successifs ou complémentaires :
1. L’approche symbolique : dominante dans les années 1950-1980, elle repose sur
la manipulation explicite de symboles et de règles logiques pour résoudre des pro-
blèmes.
2. L’approche connexionniste : inspirée du cerveau, elle s’appuie sur les réseaux
de neurones pour apprendre à partir des données, sans représentation explicite.
3. L’approche statistique : fondée sur la modélisation probabiliste et la théorie de
la décision, elle gère l’incertitude et le bruit des données réelles.
4. L’approche générative : caractéristique des modèles récents, elle vise non seule-
ment à reconnaître, mais à produire du contenu nouveau (texte, image, son, code).
Aujourd’hui, ces approches convergent dans des systèmes hybrides combinant logique,
apprentissage et génération, en quête d’une intelligence artificielle véritablement intégrée.
4 État de l’art contemporain et perspectives
L’état actuel de la recherche en IA témoigne d’une transformation profonde de la
discipline. Loin d’être confinée à la théorie, elle irrigue désormais l’ensemble des secteurs
de l’activité humaine : santé, finance, éducation, agriculture, industrie, cybersécurité,
environnement, et arts.
Les tendances majeures sont les suivantes :
— L’apprentissage à grande échelle : l’utilisation de quantités massives de données
(big data) et de calcul distribué.
— L’hybridation des paradigmes : la fusion du symbolique et du connexionniste
dans des architectures neuro-symboliques.
— L’émergence de l’IA générative : les modèles de langage (GPT, Gemini, Claude,
etc.) et les réseaux de diffusion bouleversent la création et la communication.
— Le souci d’éthique et d’explicabilité : la nécessité de garantir la transparence, la
responsabilité et la fiabilité des décisions automatisées.
L’intelligence artificielle du XXIe siècle n’est donc plus seulement une science de la
performance, mais aussi une science de la compréhension, de la confiance et du sens.
Son avenir repose sur la capacité à allier rigueur mathématique, inspiration biologique et
responsabilité sociale.
5
« L’intelligence artificielle n’est pas seulement une affaire de calculs, mais de
compréhension du monde. »
— Stuart Russell