Représentation mentale en philosophie
Représentation mentale en philosophie
!
ISSN 2606-6661
i.
i . Résumé
En première approximation, on peut caractériser une « représentation mentale » comme une entité mentale avec des Comment citer ?
caractéristiques sémantiques : quand je crois que le chat est sur la table, mon état mental a un contenu
représentationnel (il représente le chat comme étant sur la table) et des conditions de satisfaction (ou vérité) qui font
que mon état représente correctement ce à propos de quoi est la représentation (ma croyance est vraie si le chat est
effectivement sur la table, et fausse dans le cas contraire). Cette définition minimale apparaît en filigrane dans nos
échanges quotidiens, quand nous attribuons des croyances et des désirs aux autres personnes pour expliquer leurs
comportements et quand nous remarquons que leurs croyances sont fausses ou bien leurs désirs insatisfaits. Depuis le
« tournant cognitif » des années 1950, « représentation mentale » est aussi devenu un terme théorique dans les sciences
de la cognition. Dans cette entrée nous allons discuter les deux sens de la notion, et passer en revue certains problèmes
concernant les représentations mentales. Quels facteurs jouent un rôle dans l’individuation des contenus mentaux ?
Quels facteurs jouent un rôle dans la détermination du contenu des représentations ? Comment intégrer les
représentations mentales dans une conception physicaliste du monde ? Comment distinguer entre structures
cognitives non-représentationnelles et représentationnelles ? Quels sont les formats possibles des représentations
mentales ?
1. L’esprit représentationnel
a. Préliminaires
b. Qu’est-ce que représenter ?
c. Les états mentaux représentationnels
d. Théories du contenu mental : internalisme et externalisme
e. Les représentations mentales entre psychologie du sens commun et psychologie scientifique
2. Les représentations mentales en philosophie des sciences cognitives
a. La théorie représentationnelle-computationnelle de l’esprit
b. L’approche connexionniste des représentations mentales
3. Critiques de la notion de représentation mentale
a. Les positions anti-représentationalistes
b. Critères pour l’introduction des représentations mentales
4. Débats spécifiques sur les représentations mentales
a. Naturalisation des contenus mentaux
b. Le débat sur le format des représentations mentales
c. Représentations tacites
d. Représentations mentales et conscience
Bibliographie
1. L’esprit représentationnel
a. Préliminaires
Quand on parle de représentation mentale, il est utile de distinguer entre deux projets. Le premier projet prend pour
point de départ la psychologie du sens commun et les attributions quotidiennes d’états mentaux avec un contenu aux
autres agents (comme dans des énoncés tels que : « Il prend son parapluie parce qu’il croit qu’il va pleuvoir ce soir »), et
cherche à dégager les caractéristiques implicites des représentations à partir du rôle qu’elles jouent dans la théorie
tacite sous-jacente à la psychologie du sens commun. Le deuxième projet s’intéresse au rôle des représentations
mentales dans les théories scientifiques de la cognition et du comportement et essaie de dégager le rôle des
représentations mentales dans les explications scientifiques.
Dans les deux cas, il semble que les représentations mentales jouent un rôle crucial pour comprendre le comportement
complexe des agents. Pour prendre un exemple de comportement animal, une abeille qui butine en cherchant du nectar
navigue à travers le monde et communique avec les autres abeilles. Afin de pouvoir retracer le chemin qui l’a menée à un
champ de fleurs particulièrement goûteux, elle doit pouvoir se souvenir du chemin parcouru, et, si elle veut que d’autres
abeilles la suivent, communiquer la position du champ à ses camarades. Une représentation mentale permet à l’animal
de garder une trace mnémonique de la position du champ et lui donne la possibilité de revenir le lendemain, et de
communiquer la position du champ à d’autres abeilles par la danse (Gould, 1990). Employer des représentations
mentales est donc une façon plus efficace de se diriger dans le monde que la simple réaction aux stimuli immédiatement
présents, comme le réflexe d’extension, où l’animal réagit directement à une stimulation externe sans la représenter.
Dans le cas d’êtres plus complexes, comme les êtres humains, les représentations mentales leurs donnent la capacité de
planifier l’avenir, se souvenir du passé, imaginer, communiquer linguistiquement, prendre des décisions, etc.
b. Qu’est-ce que représenter ?
J’observe un coucher de soleil au bord de la mer et je forme dans mon esprit l’image d’un disque rouge derrière une ligne
horizontale entourée par de l’orange et du bleu. Je lis le roman « Anna Karénine » et j’essaie d’imaginer l’état d’esprit de
l’héroïne dans les dernières minutes avant sa décision finale. J’ouvre ce document et je pense aux différentes façons
dont les philosophes ont théorisé la notion de représentation mentale. J’ai soif, je désire un verre de jus et, puisque je
crois qu’il reste du jus dans le placard, je forme l’intention d’ouvrir la porte du placard pour prendre le jus afin de le
boire. Tous ces exemples mettent en jeu des états mentaux représentationnels. Un état mental (comme une perception,
un désir, une croyance, une intention, …) est représentationnel quand il est à propos du monde ou des aspects du
monde, c’est-à-dire quand il vise quelque chose (par exemple, un objet, une propriété, ou bien un état de choses). Mon
expérience visuelle pendant le coucher du soleil est à propos du coucher de soleil ; mon état imaginatif est à propos des
émotions d’Anna Karénine, mes pensées en écrivant ce document sont à propos des théories philosophiques des
représentations mentales. Ces exemples nous fournissent une définition ostensive des états mentaux
représentationnels avant toute théorisation. On appelle la propriété d’être à propos de quelque chose ou de viser
quelque chose, l’intentionnalité (un terme qui dérive de l’analyse du mental de Brentano, 1874) (Pacherie, 1993 ;
Jacob, 2004 ; Recanati, 2008, chapitre 7). Si la tradition analytique rend généralement compte de l’intentionnalité en
termes de représentation au point d’assimiler les deux notions, notons qu’il est possible de distinguer entre visée
intentionnelle et représentation, comme le fait la tradition phénoménologique (voir Moran, 2013).
Afin d’introduire le thème des représentations mentales de façon intuitive nous allons commencer par des exemples de
représentations qui nous sont plus familières : les représentations non-mentales. Un cas de représentation non-
mentale est une peinture figurative. Les peintures figuratives sont des représentations d’états de choses et peuvent
être caractérisées comme ayant deux aspects : un contenu représentationnel et un support matériel. Ainsi, une image
d’un chat sur la table représente un état de choses à un moment donné, même si l’image elle-même n’est pas cet état de
choses, mais en est une représentation. En même temps, une image est aussi un objet matériel, par exemple la toile sur
laquelle l’image a été dessinée, ou bien un ensemble de pixels sur notre téléphone portable.
Un autre exemple de représentation non-mentale est un code secret. Supposons que nous sommes complices dans le
vol d’un sac de bijoux et que nous avons créé un code pour communiquer la position du sac en public sans que les
passants puissent nous comprendre. Nous nous sommes accordés qu’un O fait par l’index et le pouce représente le fait
que le sac est caché sous le matelas de la chambre à coucher. Contrairement à une photographie, le code ne ressemble
généralement pas à la chose qu’il représente. Néanmoins, même s’il n’y a rien en commun entre le O fait par mes doigts
et la position du sac, le O représente la position du sac par convention (via notre stipulation au moment de la création
du code).
L’exemple de la peinture figurative et l’exemple du code secret exemplifient deux façons de représenter. Tandis que les
images représentent par ressemblance
ressemblance, le code secret représente par convention. Toutefois, la ressemblance et la
convention ne sont pas les seules façons de représenter. Paul Grice (Grice, 1957) a introduit la notion de « signification
naturelle » (natural meaning) pour désigner des cas où de l’information est indiquée par des états de choses naturels.
Par exemple, le nombre de cernes d’un tronc d’arbre indique son âge. Dans ce cas, la relation entre le nombre de cernes
et l’âge est une relation causale (ou plus précisément une relation de covariance) : l’âge cause le nombre de cernes
d’un tronc d’arbre, et en inversant cette relation, le nombre de cernes indique l’âge de l’arbre. Bien que la relation de
signification naturelle ne soit pas tout à fait de la représentation, pour des raisons que nous verrons en section 1.c, c’est
néanmoins un type de relation (quasi)-représentationnelle qui joue un rôle important dans les projets de naturalisation
du contenu, discutés dans la section 4.a.
En prenant comme guide les représentations non-mentales, nous commençons à esquisser la notion de représentation
mentale de manière plus précise. Une représentation mentale, tout comme une représentation non-mentale, est à
propos de quelque chose, puisqu’elle représente le monde sous un certain aspect, et elle a un support qui réalise la
représentation. Par soi-même, la notion de support est neutre par rapport au type de réalisation : une représentation
mentale pourrait être réalisée dans un support matériel (des neurones, des circuits d’ordinateur), mais aussi dans un
support immatériel (une âme).
Tout état mental est à propos de quelque chose : par exemple ma croyance que le lait est dans le frigo est à propos du
lait et de sa propriété d’être dans le frigo. En disant que mon état mental est à propos de quelque chose, on introduit une
ambiguïté entre ce qui serait le contenu propre de l’état mental et l’objet (ou propriété ou état de choses) dans le monde
auquel on pense. En suivant Prior (1971) on peut dire que le contenu est ce que je pense (what I’m thinking), tandis que
objet visé serait ce à quoi je pense (what I’m thinking about). Ainsi le contenu représente l’objet d’une certaine
l’objet
manière ou sous un certain aspect (Searle, 1983). Dans l’exemple de départ, il existe un objet que mon état mental vise
et auquel je pense (le lait). Mais ceci n’est pas toujours le cas : je peux penser aussi à des licornes ou à des cercles carrés.
Par exemple si je crois qu’il y a une licorne dans mon jardin, ma croyance a comme contenu la proposition « qu’il y a une
licorne dans mon jardin », mais elle n’a pas d’objet visé – pas de référent dans le monde extra-mental.
Notons que la notion de contenu, telle que nous l’employons ici, est une notion délibérément vague, et à peu près
synonyme de « signification ». Un état mental avec un contenu représente le monde ou des aspects du monde, et son
contenu est la manière dont l’état représente le monde ou ses aspects. Nous allons discuter de certaines théories du
contenu dans la section 1.d, mais dans cette entrée nous laissons de côté une présentation approfondie des théories du
contenu (ou de la signification) en philosophie de l’esprit et du langage (voir entrée « langage », section 3, [Link]
[Link]/langage-a/ et entrée « référence », [Link]
A travers les exemples des représentations non-mentales, nous pouvons aussi dégager trois façons de fonder
(partiellement) la relation de représentation : par convention, par ressemblance, par causalité. Nous allons
maintenant explorer ces façons de représenter plus en détail, à la fois dans le cas général d’une relation de
représentation, et dans le cas spécifique de la relation de représentation mentale. La question qui nous guide est :
laquelle parmi celles-ci arrive à mieux fonder la relation de représentation ?
Commençons par la convention. En simplifiant, dans le cas de la représentation par convention, le pouvoir
représentationnel vient d’une stipulation entre les interprètes du signe. La stipulation peut être explicite, comme dans
le cas du code secret, ou implicite, comme dans le cas des mots d’une langue naturelle, dont le sens est issu de facteurs
historiques. Une approche selon laquelle on ne représente que par convention serait-elle tenable ? Un premier
problème pour la convention est qu’il existe des relations représentationnelles qui ne sont pas fondées sur la
stipulation : par exemple la relation de covariance entre les cernes du tronc et l’âge de l’arbre, ou la relation de
ressemblance entre une image d’un chat et le chat.
Un autre problème pour la convention est que cette relation est fondée sur deux composantes : une stipulation et un
(ou plusieurs) interprète(s) du signe. C’est bien l’interprète qui attribue le sens au signe. Mais comment fait-il pour
attribuer un sens au signe ? C’est en vertu du fait qu’il possède des états mentaux dotés de sens, qui lui permettent
d’interpréter le signe. Par exemple, dans le cas du code secret ce sont nos croyances et nos intentions qui créent le code.
Mais alors, d’où vient le pouvoir représentationnel des états mentaux ? Si on accepte la thèse selon laquelle il est issu de
la convention on fait face à une régression à l’infini. Dans le cas des représentations mentales l’interprète serait une
entité interne au sujet qui pense, une espèce d’« homoncule », de sujet interprétant miniature. Mais, afin que les états
mentaux soient interprétés, l’homoncule interne possèderait aussi des états représentationnels, qui sont les états qui
donnent sens aux représentations mentales du sujet. Et comment les états de l’homuncule acquirent-ils le pouvoir de
représenter ? Par la définition de la convention, d’un autre sujet interprétant. Et ainsi de suite. Comment bloquer cette
régression à l’infini ? Si on est un philosophe dualiste, comme Descartes, on postule que l’homoncule interprétant est
une âme immatérielle donnée par Dieu. En revanche, si on est un philosophe naturaliste, pour bloquer cette régression
il faut trouver une relation de représentation sans interprète, ou bien réduire l’interprète à une composante mécaniste
et naturaliste du système cognitif (comme dans l’approche de Barbara Von Eckardt, 1995, qui s’inspire de Charles
Peirce).
On arrive ainsi à un présupposé crucial dans la littérature sur les représentations mentales. Les représentations
mentales représentent de façon fondamentale. Ce sont les porteurs ultimes du sens. Les mots dans un livre sont aussi
à propos de quelque chose (par exemple à propos d’Anna Karénine et son histoire), mais ils ne le sont que de façon
dérivée : ils reçoivent leur pouvoir représentationnel de celui des états mentaux de l’auteur qui les a écrits. Mais les
états mentaux de l’auteur ne reçoivent pas leur pouvoir représentationnel d’autres états représentationnels. On
distingue ainsi entre deux genres d’intentionnalité : l’intentionnalité non-dérivée ou originelle, et
l’intentionnalité dérivée
dérivée. Les représentations non-mentales artificielles ont leur intentionnalité de façon dérivée,
c’est-à-dire à partir des états intentionnels de leur créateur (ou de leur interprète). Dans les mots de John Haugeland : «
Au moins certains symboles externes (par exemple, un code secret sur lequel toi et moi nous nous accordons
explicitement) sont intentionnels de façon dérivée – c’est-à-dire qu’ils héritent leur intentionnalité de quelque chose
d’autre qui a déjà le même contenu (comme la stipulation dans notre accord). Et, cette autre chose peut elle aussi avoir
son contenu de façon dérivée de quelque chose d’autre encore ; mais, évidemment, ce [processus] ne peut pas continuer
à l’infini. » (Haugeland, 1998a, p. 129).
Cette distinction n’est pas universellement acceptée : par exemple, Daniel Dennett la rejette en faveur de la thèse selon
laquelle il n’y a pas de distinction entre intentionnalité originelle et intentionnalité dérivée (Dennett, 1994). Cependant
c’est une position minoritaire, et, si on accepte cette distinction, on fait face à la question de la source du pouvoir
représentationnel des états intentionnels originaux.
Le deuxième candidat pour fonder la relation de représentation est la relation de ressemblance
ressemblance. Dans le cas des
représentations non-mentales, une image représenterait le chat sur la table en vertu du fait qu’elle ressemble à l’état
des choses dépeint sur l’image. La ressemblance, cependant, échoue à fonder la relation de représentation, puisqu’elle
n’est ni nécessaire ni suffisante pour représenter, comme l’a montré Nelson Goodman dans une critique très influente
de la ressemblance (Crane, 2015; Cummins, 1989; Goodman, 1951).
La ressemblance n’est pas nécessaire puisqu’il existe des représentations qui représentent sans ressembler aux objets
représentés, comme on vient de le voir dans le cas de la représentation par convention, ou de la signification naturelle.
Elle n’est pas non plus suffisante puisqu’on trouve des choses qui se ressemblent sans se représenter : par exemple, je
ressemble à ma mère, mais je ne suis pas une représentation de ma mère. De plus, la ressemblance est une relation
réflexive, et toute chose ressemble trivialement à soi-même, mais ceci n’implique pas que toute chose se représente. En
effet, tandis que la relation de représentation peut être asymétrique et non-réflexive, la relation de ressemblance est à
la fois symétrique et réflexive. Enfin, la ressemblance échoue à fonder la représentation des idées abstraites, ou des
relations logiques. Comment dessiner la négation d’un énoncé, par exemple qu’il ne pleut pas ? On pourrait le faire en
mettant une croix sur l’image d’un paysage pluvieux. Mais ce qui fait que la croix représente une négation est en fait une
stipulation portant sur le sens de la croix, et non pas la ressemblance. Le fait que les images aient besoin
d’interprétation pour représenter est un point discuté par Ludwig Wittgenstein dans les Investigations Philosophiques :
quand je vois l’image d’un vieillard qui monte sur une colline à l’aide d’un bâton, pourquoi l’image ne serait-elle pas
plutôt celle d’un vieillard qui glisse vers le bas de la colline dans la même position ? (Wittgenstein, 1953/1986, p. 53e §
139).
Dans le cas des représentations mentales réalisées dans le cerveau, il est encore moins plausible qu’elles ressemblent
aux choses qu’elles représentent : un réseau de neurones ne ressemble pas à l’état de choses qu’un chat est sur la table.
Même si la ressemblance ne peut pas fonder la relation de représentation de manière générale, des théories récentes
proposent une notion de ressemblance plus raffinée, où on ne parle plus de ressemblance de premier ordre, mais
d’homomorphisme, ressemblance de deuxième ordre (O'Brien & Opie, 2004). En effet, dans les sciences cognitives les
expériences sur les cartes rétinotopiques et sur les cartes cognitives de navigation (Gallistel, 2007) suggèrent que
certaines représentations mentales (mais pas toutes) peuvent être dans une relation d’homomorphisme avec les objets
qu’elles représentent, par le biais d’une relation de « ressemblance structurelle ».
Le dernier candidat pour fonder la relation de représentation est la relation de causalité : une photographie
représente un chat sur la table non pas parce qu’elle lui ressemble, mais parce qu’il y a eu un contact causal au moment
où la photo a été prise. Prenons un exemple de Dennis Stampe : qu’est-ce qui fait qu’une photo de Marie représente
Marie et non pas sa sœur jumelle identique Perrine ? Ce n’est pas la ressemblance (la photo ressemble à la fois à Marie
et à Perrine), mais c’est le fait que Marie a été, à un moment, dans la bonne relation causale à l’appareil photographique
qui a produit la photo (Stampe, 1977). Dans le cas des représentations mentales le fait que ma représentation mentale
représente un chien serait alors dû à l’existence d’une relation causale entre la représentation et la présence de chiens.
La solution causale au problème de la relation de représentation n’est pas sans problèmes. Supposons que je reçoive un
coup sur la tête qui provoque l’activation d’une représentation de chiens, même si aucun chien n’est présent.
Intuitivement, bien qu’un lien causal existe, nous ne voudrions pas de théorie qui laisse la porte ouverte à la possibilité
que ma représentation mentale des chiens soit activée soit par la présence de chiens soit par des coups sur la tête. En
conséquence, même les philosophes qui défendent l’option causale admettent qu’elle n’est pas suffisante par elle-même
pour fonder la relation de représentation (Dretske, 1981 ; Fodor, 1987).
Pour résumer cette sous-section, les représentations sont caractérisées par la propriété d’être « à propos » de quelque
chose, propriété qu’on appelle l’« intentionnalité ». Il existe plusieurs candidats pour fonder la relation de
représentation : convention, ressemblance, causalité. Aucun de ces candidats ne réussit à rendre compte parfaitement
de la façon dont les représentations en général, et les représentations mentales en particulier, représentent. La plupart
des philosophes acceptent la thèse selon laquelle le pouvoir représentationnel des représentations mentales est plus
fondamental que celui des représentations non-mentales, et distinguent ainsi entre intentionnalité originelle (ou non-
dérivée) et intentionnalité dérivée.
Clarifications
Avant d’entrer dans le vif du sujet, il est important de dissiper tout de suite certaines confusions à propos de la (ou
plutôt des) notion(s) de représentation mentale.
1 ère confusion : On découvre les représentations mentales par introspection, ce qui met en danger l’objectivité des
théories scientifiques qui les emploient.
Bien qu’il soit vrai que, quand on recourt à l’introspection, on a l’impression de « voir » des images ou de penser par des
mots, il est important ici de distinguer entre deux approches des représentations mentales. D’un côté, on a la
conception moderne des représentations mentales (endossée par des philosophes comme Descartes, Hobbes, Hume,
Berkeley, Locke), selon laquelle la pensée est définie comme tout ce dont je m’aperçois immédiatement par moi-
même : « Par le mot de penser j'entends tout ce qui se fait en nous de telle sorte que nous l'apercevons immédiatement
par nous-même ; c'est pourquoi non seulement entendre, vouloir, imaginer, mais aussi sentir, est la même chose que
penser. » (Descartes, 1644/2009, p. 56). De l’autre, les représentations mentales sont considérées comme des
postulats théoriques introduits pour expliquer des comportements et des phénomènes observables et quantifiables
en 3ème personne. En tant que postulats théoriques elles sont découvertes en employant des méthodes expérimentales
et des inférences à la meilleure explication. Les effets psychologiques (Cummins, 2000) jouent un rôle crucial dans la
découverte des représentations mentales. Combien de temps faut-il au sujet pour compléter une tâche ? Combien
d’objets peut-il retenir dans sa mémoire à court terme ? Est-il plus facile de se souvenir de traits particuliers
(orientation, couleur, forme…) ou de traits attachés à un objet (un cube rouge penché vers la gauche) ? Pour une
discussion du rôle des effets psychologiques dans la découverte des représentations mentales, voir Smortchkova et
Murez (2020).
2 ème confusion : Introduire les représentations mentales dans notre façon d’appréhender le monde implique
forcement une position internaliste, et entraîne le scepticisme quant à l’existence des objets externes à mon esprit.
La notion de « voile de la perception » désigne l’idée selon laquelle si nous sommes conscients des représentations
d’objets externes, mais non pas des objets eux-mêmes, alors notre perception constitue comme un « voile » entre nous
et la réalité, et ne nous permet pas de voir la réalité telle qu’elle est (J. Bennett, 1971 ; Huemer, 2001). On parle ici
souvent de position « représentationaliste », exemplifiée par les philosophes empiristes, qui ont soutenu la thèse selon
laquelle nous ne connaissons pas les choses de façon immédiate, mais par la médiation d’idées, sense-data,
représentations. Dans sa version la plus radicale, le voile de la perception est synonyme de scepticisme à propos de la
possibilité de connaître le monde extérieur. La critique du voile de la perception soulève des questionnements en
théorie de la connaissance et en phénoménologie. Comment garantir l’existence des objets externes si je ne suis en
contact qu’avec des entités mentales ? Comment réconcilier la position représentationaliste avec l’expérience
subjective que nous percevons les objets eux-mêmes, et non pas des représentations de ceux-ci (principe de la
transparence) ? Il serait cependant erroné de conclure de ces problèmes épistémologiques et phénoménologiques qu’il
n’y a pas de représentations mentales, si par « représentation mentale » on entend non pas une entité essentiellement
accessible en première personne, mais un postulat théorique. Ainsi il faut distinguer la notion de représentation
mentale, telle qu’elle figure dans les sciences de la cognition, de la notion empiriste de sense-datum. C’est pourquoi
Richard Rorty note que la conception de l’esprit de Jerry Fodor comme un système de représentations mentales n’a que
peu à voir avec l’image de l’esprit comme miroir de la nature qu’il critique (Rorty, 1979/2009, p. 246). Les questions de
théorie de la connaissance posées par la conception des représentations mentales comme objets immédiats de la
perception et de l’introspection trouveraient leur place dans une entrée sur l’épistémologie de la perception, et nous
allons les mettre de côté ici.
3 ème confusion : Quand on parle de représentation mentale, on postule littéralement des images ou des mots dans le
cerveau.
En philosophie de l’esprit, la thèse représentationnelle est qu’il existe des entités mentales avec des caractéristiques
sémantiques. Mais cette thèse laisse ouverte la question de la réalisation des représentations. Même dans les sciences
cognitives, la thèse représentationnelle n’est généralement pas que le cerveau contient des images ou des mots qui
peuvent être observés (sauf peut-être pour Thomson & Piccinini, 2018, qui pensent qu’on peut observer directement
les représentations mentales dans le cerveau, même si ils ne se prononcent pas sur leur format) ; au contraire la thèse
représentationnelle est le plus souvent formulée à un niveau de description plus abstrait que le niveau neuronal, qu’on
appelle le niveau algorithmique-représentationnel (Marr, 1982). Cette description est compatible avec nombre de
façons dont les représentations mentales pourraient être « réalisées ».
4 ème confusion : Confusion entre véhicule représentationnel et contenu représentationnel.
Il ne faut pas confondre le contenu de la représentation (la manière dont un objet représente quelque chose) avec le
véhicule de la représentation (ce avec quoi l’on représente). Dennett décrit la distinction ainsi : « En général, nous
devons distinguer les propriétés du représentant des propriétés des représentés ; quelqu’un pourrait crier
« doucement, sans bruit » avec toute la force de ses poumons, il existe des images géantes d’objets microscopiques, et
des peintures à l’huile d’artistes dessinant des croquis au fusain. » (Dennett & Kinsbourne, 1992, p. 188). On remarque
aussi que la notion de « véhicule » inclut à la fois le format et le support dans lequel la représentation est réalisée. Des
représentations avec le même contenu pourraient avoir des formats différents : on peut représenter le chemin entre ma
maison et mon bureau en dessinant une carte qui indique leurs positions respectives, mais aussi par l’énoncé « Après le
parc, tourne à gauche jusqu’au boulevard Daumesnil ». On peut aussi représenter le même contenu avec des formats
différents, mais dans un même support matériel : un dessin d’un chat et le mot « chat » peuvent être réalisés dans du
sable si je dessine et j’écris sur la plage.
c. Les états mentaux représentationnels
Que veut-on dire quand on affirme qu’une représentation mentale représente ? Pour l’instant aucune définition précise
de « représentation mentale » n’a été donnée, et à la place nous avons introduit le pouvoir représentationnel de l’esprit
en faisant appel à des états mentaux représentationnels, comme les croyances, les désirs, les intentions. Nous
pouvons donc reformuler la question de la façon suivante : que signifie qu’un état mental est représentationnel ?
Suivant Bertrand Russell, on appelle certains états mentaux des « attitudes propositionnelles » (Russell,
1918/2009). Cette expression indique qu’un état mental, par exemple une croyance, est composé de deux éléments : un
contenu et une attitude. Quand on parle d’attitude propositionnelle on indique que le contenu est une proposition :
dans l’expression « Je crois que le lait est au frigo », « je » est le sujet de l’attitude propositionnelle, « crois » est l’attitude,
et « que le lait est au frigo » est la proposition. On identifie les propositions par le préfixe « que », même si on peut
trouver des propositions qui ne sont pas introduites par « que », par exemple dans l’expression « j’ai l’intention d’ouvrir la
porte ». Identifier le contenu d’une attitude avec une proposition n’est pas tout à fait heureux et risque de nous faire
croire que les seuls contenus possibles pour les états mentaux soient des propositions. Or, il existe des contenus qui ne
sont pas propositionnels, par exemple les contenus de certains états perceptifs qui sont exprimés par des énoncés
comme « Je vois la mer bleue » et non pas par des énoncés comme « Je vois que la mer est bleue » (Crane, 2009).
L’attitude
attitude indique la façon dont nous nous rapportons au contenu : par exemple, je peux croire que le lait est dans le
frigo, mais je peux aussi espérer que le lait soit dans le frigo. Dans ce cas, il y a un seul contenu [lait dans le frigo], mais
deux attitudes différentes envers ce contenu, une attitude de croyance et une autre d’espérance. Selon une théorie
influente des attitudes, ce qui distingue entre, par exemple, ma croyance et mon espoir sont leurs rôles fonctionnels
respectifs, ou plus précisément les rôles fonctionnels des types d’attitudes (type croyance et type espoir). Un rôle
fonctionnel est identifié par la place de l’état mental dans l’économie cognitive du sujet qui pense, par ses relations avec
les autres états mentaux, et par ses relations avec les comportements (Lewis, 1980).
Les états mentaux ont plusieurs caractéristiques sémantiques en vertu du fait que ce sont des états représentationnels.
En suivant John Searle, nous pouvons employer l’analogie entre actes de langage et états mentaux afin de dégager les
caractéristiques sémantiques des états mentaux représentationnels (Searle, 1979, 1983). Ces caractéristiques sont : les
conditions de satisfaction (ou vérité), l’aspectualité,
aspectualité, et la direction d’adéquation.
Les conditions de satisfaction ou de vérité sont les conditions sous lesquelles la représentation représente
correctement ou incorrectement. En d’autres termes, le contenu d’un état mental consiste dans les conditions de vérité
ou de satisfaction qui identifient les conditions selon lesquelles la représentation réussit ou échoue à faire référence à
son objet intentionnel, et à lui attribuer telles ou telles propriétés. Les conditions de vérité ou satisfaction sont donc les
conditions sous lesquelles ma croyance est vraie, mon désir est satisfait, mon intention réalisée, et ainsi de suite. Les
états mentaux représentationnels peuvent être erronés (on appelle cela aussi de la « méprise représentationnelle » ou
« méreprésentation ») : si je suis dans le désert et que je vois une oasis qui n’existe pas, je suis victime d’un mirage et ma
représentation perceptive est fausse. Même les désirs peuvent « se tromper » et méreprésenter. Dans ce cas l’erreur
n’est pas par rapport à l’état du monde représenté, mais par rapport à la possibilité de réaliser le désir en question. La
possibilité de méprise représentationnelle est souvent considérée comme la caractéristique principale des
représentations mentales (Dretske, 1986), d’où le slogan « pas de représentation sans méreprésentation » (Dennett,
1988). On comprend ainsi pourquoi l’indication naturelle n’est pas tout à fait de la représentation : il n’y a pas de place
pour l’erreur dans une relation d’indication naturelle, par exemple on ne trouve pas de cas où le nombre de cernes du
tronc méreprésente l’âge de l’arbre.
Selon la thèse de l’aspectualité
aspectualité des états mentaux intentionnels, tout état mental présente son contenu sous un
certain aspect (Searle, 1992). Ceci signifie que tout objet, propriété ou état de choses est présenté à l’esprit sous
certains points de vue ou « modes de présentation », mais pas d’autres. Par exemple, je peux désirer boire de l’eau, sans
désirer boire de l’H2O, même si eau et H2O sont deux manières de faire référence au même objet. Je peux voir Milou
comme un chat câlin, sans le voir comme un chasseur redoutable (même s’il est les deux). Bien que la locution « voir
comme » pourrait suggérer une lecture conceptualiste de l’aspectualité, c’est-à-dire suggérer que nous ayons besoin de
concepts afin de voir un objet sous un aspect, la thèse de l’aspectualité est plus large. Nous pouvons par exemple voir
des aspects d’un objet même si nous ne possédons pas les concepts pertinents pour les catégoriser.
Quand on passe du niveau des états mentaux au niveau des attributions d’attitudes propositionnelles (par le langage) on
appelle les contextes dans lesquels on ne peut pas remplacer des expressions coextensionnelles ou coréférentielles
salva veritate, des contextes « intensionnels ». Des expressions sont échangeables salva veritate si elles peuvent être
inter-changées sans altérer la valeur de vérité de l’énoncé où elles apparaissent. L’intensionnalité est une propriété
logique des énoncés, et s’oppose à la notion d’« extensionnalité ». Par exemple, « étoile du matin » et « étoile du soir » ont
la même extension parce que ce sont des expressions vraies d’un même individu : la planète Venus, mais elles ont des
intensions différentes parce que « étoile du matin » n’a pas la même signification que « étoile du soir » (Frege, 1892).
Ainsi, nous pouvons attribuer à un individu la croyance « que l’étoile du matin est lumineuse » sans lui attribuer la
croyance « que l’étoile du soir est lumineuse », sans contradiction, s’il ne sait pas que ces deux expressions réfèrent au
même individu. L’intensionnalité pourrait être un critère, ou du moins un symptôme, pour distinguer entre les énoncés
qui rapportent des états intentionnels et les autres énoncés (Chisholm, 1957). Néanmoins, on trouve aussi des
contextes intensionnels dans des énoncés où il n’est apparemment pas question d’états intentionnels – par exemple
dans les contextes modaux (« Le nombre de planètes est nécessairement égal à huit. » vs. « Huit est nécessairement égal
à huit. »)
Enfin, les états mentaux peuvent différer selon leur direction d’ajustement (Anscombe, 1957). La direction
d’ajustement détermine si l’état mental doit se conformer au monde pour être vrai ou si c’est le monde qui doit se
conformer à l’état mental pour le réaliser. Les directions d’ajustement sont donc de deux types : du monde à l’esprit et
de l’esprit au monde. Les états mentaux qui ont une direction d’ajustement du monde à l’esprit peuvent être satisfaits
ou pas, selon que le monde se conforme ou non à ces états. C’est le cas des désirs, des espoirs, des intentions, etc. Mon
désir de réussir le concours est satisfait seulement dans le cas où je réussis le concours, c’est-à-dire dans le cas où le
monde se conforme à mes désirs ; dans le cas contraire, mon désir n’est pas satisfait. Les états mentaux qui ont une
direction d’ajustement de l’esprit au monde, en revanche, sont vrais quand ils décrivent correctement le monde. Par
exemple, ma croyance que la terre est ronde est vraie si la terre est vraiment ronde, et est fausse s’il s’avère qu’elle est
plate. Ma croyance décrit le monde tel qu’il est, et elle est fausse si elle échoue à décrire le monde tel qu’il est.
Enfin, on peut se demander si tous les états mentaux sont représentationnels. Selon certains philosophes il existe des
états mentaux qui n’ont pas de contenu représentationnel, mais simplement un caractère qualitatif (Aydede, 2009). Les
états de douleur sont des exemples possibles. Quand je me coupe un doigt, je ressens une douleur aigue, mais, même si
la source de la douleur est la blessure (un certain dommage corporel), l’expérience ne représente pas forcement la
blessure. C’est peut-être plus parlant dans le cas d’une douleur chronique, qui n’est pas à propos d’une zone
endommagée du corps en particulier, mais consiste en un état généralisé qui absorbe tout mon esprit et mon attention.
En revanche, les philosophes qui défendent une approche représentationnelle de tous les états mentaux, y compris la
douleur, essaient de trouver un contenu représentationnel pour tout état mental (Tye, 1995a).
En conclusion de cette section on peut esquisser les contours de la notion de représentation mentale comme entité
mentale avec des caractéristiques sémantiques (conditions de satisfaction ou vérité, aspectualité, et direction
d’ajustement).
d. Théories du contenu mental : internalisme et externalisme
Les mots et les énoncés ont un sens. Mais nos pensées et états mentaux ont aussi un sens. Quand on parle des théories
de la signification, il faut distinguer entre deux façons de comprendre cette expression. La première indique les théories
sémantiques qui décrivent les significations des expressions du langage (des théories qui attribuent systématiquement
des contenus sémantiques aux expressions du langage). La deuxième façon indique les théories de la signification
fondamentales ou fondationnelles, qui cherchent les composantes ultimes du sens de nos expressions et qui les
trouvent souvent (mais pas toujours) dans des facteurs mentaux (Speaks, 2010).
Une théorie fondationnelle possible de la signification linguistique propose que le sens des expressions linguistiques
provient du sens des états mentaux correspondants. Mais d’où vient le sens des états mentaux eux-mêmes ? Cette
question peut être analysée en deux sous-questions. D’un côté, on peut se demander quels sont les facteurs qui font
qu’un état mental a un certain type de contenu, par exemple, les facteurs qui font qu’il soit à propos des chats, et non pas
des chiens. De l’autre, l’on peut aussi se demander quels facteurs jouent un rôle dans l’individuation
individuation du contenu des
états mentaux (en général).
Nous allons nous concentrer dans cette sous-section sur cette dernière question : comment les contenus des états
mentaux sont-ils individués ?
Selon la position internaliste concernant le contenu les seuls facteurs qui comptent sont les facteurs internes au sujet,
comme les propriétés de son corps et de son cerveau. Une copie parfaite d’un sujet pensant aurait exactement les
mêmes pensées avec les mêmes contenus que le sujet d’origine. De même un cerveau dans une cuve aurait le même
contenu mental que ne l’aurait une personne normale au cerveau identique, si elle était située à l’extérieur de la cuve.
Selon la position externaliste du contenu, en revanche, les facteurs qui comptent sont externes, ou plus précisément, ce
sont les interactions causales du sujet avec ces facteurs externes qui déterminent le contenu. Une copie parfaite d’un
sujet pourrait ne pas avoir les mêmes pensées avec le même contenu que le sujet originel, si elle est intégrée dans un
autre contexte naturel ou social.
On parle aussi de contenu étroit et de contenu large : si le contenu étroit est individué par des facteurs internes au
sujet, le contenu large est quant à lui individué par des facteurs externes au sujet. Les externalistes affirment que le
contenu mental est large, tandis que les internalistes affirment qu’il est étroit. Une position mixte postule deux niveaux
de contenus : étroit et large.
Afin d’introduire l’externalisme du mental nous allons présenter deux expériences de pensée qui ont joué un rôle
proéminent dans la défense de l’externalisme du mental. La première expérience est celle de la « terre jumelle » de
Putnam (1975), la deuxième est celle de l’arthrite de Burge (1979). Selon Putnam, l’approche internaliste du contenu
s’appuie sur le présupposé selon lequel le contenu d’un concept est constitué par les états psychologiques du sujet, et le
contenu détermine la référence du concept. C’est une approche dérivée de la doctrine frégéenne du sens et de la
référence, et de l’idée que le sens linguistique d’un nom propre est fixé par une description définie que le locuteur
associe avec ce nom. Cette idée a été d’abord remise en question en philosophie du langage par la production de cas où
le sens ne détermine pas la référence (Burge, 1992). Par la suite, l’externalisme au sujet des concepts et des termes
associés montre que la référence des termes et concepts ne dépend pas des descriptions, croyances, capacités à
reconnaître et discriminer que le sujet associe avec le terme, mais plutôt des relations que le sujet entretient avec des
facteurs externes à sa cognition.
Ainsi, Putnam nous demande d’imaginer une planète similaire à la Terre sous quasiment tous les aspects, sauf un : si sur
la Terre la structure moléculaire de l’eau est H2O, sur Terre Jumelle cette structure est XYZ. L’eau ne diffère pas dans
son apparence entre Terre et Terre Jumelle : sur les deux planètes c’est un liquide transparent qui étanche la soif et peut
être utilisé pour arroser la végétation, ou pour préparer un thé, etc. Les croyances à propos de l’eau des habitants de la
Terre et des habitants de la Terre Jumelle sont pareilles en tous points. Supposons que nous sommes en l’année 1750,
avant le développement de la chimie et la découverte de la structure moléculaire de l’eau (H2O) sur Terre et de l’eau
(XYZ) sur Terre Jumelle. Pour Putnam, quand un terrien parle de l’eau ou pense à l’eau en 1750, il fait référence à
l’élément ayant la structure moléculaire H2O, tandis que l’habitant de la Terre Jumelle, quand il pense à l’eau ou parle de
l’eau, fait référence à la structure XYZ, même si leurs croyances (étroites) à propos de l’eau sont les mêmes. Ce qui
détermine la référence, pour Putnam, c’est la structure chimique et non pas les croyances associées au concept « eau ».
Même si les deux individus sont dans les mêmes états psychologiques quand ils pensent à l’eau ou parlent de l’eau, leurs
concepts ne réfèrent pas à la même chose dans le monde, et ont des sens différents.
Si l’externalisme de Putnam se limite aux concepts d’espèce naturelle et aux facteurs naturels, Burge étend
l’externalisme de deux façons. D’une part ce sont non seulement les facteurs naturels, mais aussi les normes sociales qui
jouent un rôle dans l’individuation des contenus ; d’autre part, l’externalisme s’applique non seulement à des concepts
d’espèces naturelles, mais aussi aux concepts d’artefacts, aux perceptions, et même aux états de mémoire. Dans
l’expérience de pensée de Burge, un individu (Bert) a des croyances à propos de l’arthrite, dont beaucoup sont vraies.
Toutefois, il croit aussi qu’il a de l’arthrite dans la cuisse (Burge, 1979). Quand il va se plaindre au médecin, son médecin
l’informe qu’il ne souffre pas d’arthrite, puisque ce n’est qu’une maladie des articulations. Dans un autre contexte vit
Bert-Jumeau, une copie parfaite de Bert, mais qui grandit et vit dans une communauté linguistique où le terme
« arthrite » réfère à la fois à une maladie des articulations et à une maladie des muscles. Dans ce contexte, Bert-Jumeau
n’a pas de croyance fausse s’il croit qu’il a de l’arthrite dans la cuisse, et son médecin ne le corrige pas au cours de la
visite. La différence entre Bert et Bert-Jumeau n’est pas dans leurs états internes, mais dans leurs communautés
linguistiques et dans les normes d’usage du concept « arthrite », normes établies par les experts de leurs communautés
respectives.
Même si la position externaliste reste dominante en philosophie de l’esprit, on assiste à un retour de l’internalisme,
notamment grâce à David Chalmers (Chalmers, 2003) et Gabriel Segal (Segal, 2000), parmi d’autres, qui essaient de
formuler une version de l’internalisme répondant aux objections externalistes.
Un autre type d’externalisme est l’externalisme du véhicule, défendu par Andy Clark et David Chalmers (Clark &
Chalmers, 1998). Dans leur approche, non seulement le contenu d’un état mental est déterminé par des facteurs
externes, mais aussi le véhicule de l’état mental lui-même (en tant qu’objet matériel sous-tendant des processus
cognitifs) peut être externalisé. Leur argument est fondé sur le « principe de parité ». Imaginons deux personnes qui,
chacune à leur manière, gardent en mémoire l’endroit où se trouve le musée d’art moderne de New York. Inga, dont la
mémoire marche parfaitement, retient l’information dans son cerveau. Otto, qui souffre de la maladie d’Alzheimer, écrit
l’information dans un carnet, qu’il conserve toujours à proximité. Les rôles fonctionnels de l’état cérébral d’Inga et de
celui du carnet d’Otto sont les mêmes : les aider à s’orienter dans New York et à retrouver le musée. Selon Clark et
Chalmers, on peut alors affirmer que l’état mental mnémonique d’Otto a été externalisé dans le carnet.
Les adversaires de cette position reprochent au théoricien de l’esprit étendu de commettre le sophisme de la
« constitution – couplage » : il introduit un cas où un objet ou un processus est couplé à un agent cognitif, et en conclut
que cet objet ou ce processus constitue le processus cognitif de l’agent (Adams & Aizawa, 2010). Cette objection
s’appuie sur une prémisse cachée de l’argument de parité : on définit le rôle fonctionnel d’un état cognitif de façon assez
large et abstraite de manière à ce que la distinction entre objet ou processus qui entre dans une relation de constitution
et objet ou processus qui entre dans une relation causale est brouillée. En arrière-plan se trouve un débat sur la
« marque du cognitif » : qu’est-ce qui fait qu’un processus est cognitif plutôt que non-cognitif ? Pour Adams et Aizawa,
comme pour nombre d’autres philosophes, la cognition est constituée par des processus causaux impliquant des
contenus non-dérivés. Cependant, d’autres approches sont possibles. Par exemple Morgan (2014) critique cette
position en montrant qu’on peut trouver des contenus non-dérivés même dans des entités non-cognitives, comme des
plantes, et suggère d’autres critères pour démarquer la cognition de la non-cognition.
Pour résumer, si pour l’internalisme ce qui compte dans l’individuation des contenus mentaux sont les facteurs internes
(corps et cerveau), pour l’externalisme ce sont les interactions causales avec des facteurs naturels et sociaux qui sont
constitutives de l’individuation des contenus. Dans l’hypothèse de l’esprit étendu, non seulement les contenus, mais
aussi les véhicules peuvent être individués au-delà du corps.
e. Les représentations mentales entre psychologie du sens commun et psychologie scientifique
L’approche des représentations mentales que l’on a présentée jusqu’ici les conçoit comme étant attribuées au sujet
entier, par exemple quand on dit que « Jean croit que Paris est une grande ville ». Mais en sciences cognitives, les
représentations mentales ne sont pas toujours attribuées à un sujet entier. Elles peuvent aussi être attribuées à des
facultés ou à des processus cognitifs du sujet. Par exemple, des représentations des angles des objets sont introduites
pour expliquer le fonctionnement de la vision de bas niveau, et de telles représentations ne sont pas consciemment
accessibles par le sujet (Marr, 1982). Ceci pose la question du lien entre les deux types d’attributions de représentations
mentales.
On peut analyser ce lien en faisant appel aux notions de « personnel » et « sous-personnel » (Dennett, 1969/2010).
Cette distinction a reçu de multiples interprétations. Pour Dennett, au niveau personnel, on fournit des explications non
mécanistes du comportement d’une personne, qui font appel aux états mentaux du sujet entier, et qui arrivent vite à
leur terme. Au niveau sous-personnel, en revanche, on analyse la personne en sous-systèmes organisés et on explique le
comportement de la personne comme étant le résultat de l’interaction entre ces sous-systèmes. Les sous-systèmes sont
à leur tour analysables en sous-sous-systèmes, de sorte que les explications sous-personnelles en appellent d’autres.
Pour Dennett, cette distinction permet d’éviter le sophisme méréologique, qui consiste dans l’usage de prédicats vrais
du tout pour décrire les parties (par exemple quand on dit que les particules de l’eau sont mouillées) et le sophisme de
l’homoncule, qui consiste dans l’explication du comportement intelligent par le biais d’un autre être également
intelligent. Pour John McDowell, en revanche, cette distinction correspond à la distinction sellarsienne entre le
domaine des normes et des raisons, et le domaine des causes. Ainsi, pour lui, les attitudes propositionnelles trouvent
leur place dans des explications dans lesquelles « les choses sont rendues intelligibles en étant révélées être, ou
s’approchant d’être, comme elles doivent l’être du point de vue rationnel. » (McDowell, 1985, p. 389).
Dans la première partie de cette entrée nous avons présenté les caractéristiques sémantiques des états mentaux
représentationnels. Ce sont les états que nous utilisons au quotidien pour essayer de comprendre les autres, prédire
leur comportement, et expliquer leurs actions. Par exemple, si je vois quelqu’un rater son avion, je fais appel aux états
mentaux pour expliquer pourquoi cette personne s’agite : elle est enragée et dépitée, et elle croit qu’elle ne pourra plus
rentrer chez elle à temps. On appelle cette théorie préscientifique consistant dans un ensemble de principes largement
partagés dans une communauté, la « psychologie du sens commun » (Stich & Ravenscroft, 1994).
La psychologie du sens commun est réaliste à propos de l’intentionnalité. Quand on explique le comportement d’une
personne, on lui attribue des états mentaux avec un contenu représentationnel causalement efficace dans la production
du comportement (voir entrée sur la causalité mentale : [Link] Jerry Fodor décrit
la présupposition réaliste ainsi : « La psychologie du sens commun marche si bien qu’elle disparaît. Elle est comme une
de ces voitures Rolls Royce mythiques dont les moteurs sont scellés une fois qu’elles quittent l’usine ; seulement [la
psychologie du sens commun] est mieux parce qu’elle n’est pas un mythe. Si quelqu’un que je ne connais pas m’appelle à
mon bureau de New York de – supposons – l’Arizona et prononce les mots « Voulez-vous faire une présentation ici
mardi prochain ? ». Je réponds : « Oui, merci. Je serai à votre aéroport avec le vol de 15 heures. ». Ceci est tout ce qui se
passe, mais c’est plus que suffisant, le fardeau de prédire le comportement – de combler le fossé entre énoncés et
actions – est porté de façon routinière par la théorie. » (Fodor, 1987, p. 3)
Le réalisme intentionnel implique qu’il existe des états mentaux qui sont : a) sémantiquement évaluables ; b) ont un
impact causal dans la production des comportements ; c) sont décrits par des généralisations de la psychologie du sens
commun. Il ne faut pas oublier cependant que le réalisme intentionnel n’est pas la thèse selon laquelle la psychologie du
sens commun sera entièrement confirmée par la psychologie scientifique. C’est plutôt la thèse qu’il existe des
caractéristiques que nous pouvons découvrir en analysant la psychologie du sens commun et qui seront aussi présentes
dans la psychologie scientifique. Ainsi, pour Fodor, le réalisme intentionnel fera partie de la science de la cognition
(Fodor, 1987), mais avec des hypothèses supplémentaires. Mais certains philosophes ont soutenu l’idée contraire selon
laquelle la psychologie du sens commun sera complétement abandonnée, sur l’exemple du phlogistique, en faveur
d’explications scientifiques du comportement qui font appel au cerveau (P. S. Churchland, 1989, voir aussi l’entrée
cerveau [Link] Pour Robert Cummins, qui défend une position moins radicale, les
représentations mentales dont parle la psychologie du sens commun sont tout à fait différentes des représentations
mentales dans les théories computationnelles de la cognition (Cummins, 1989).
Même si l’on accepte le réalisme intentionnel, la psychologie du sens commun reste silencieuse sur nombre de
questions concernant les représentations mentales. Elle ne nous donne pas une théorie de la structure des
représentations, ni du format des représentations, ni de l’origine des contenus mentaux, ni de l’interaction entre le
mental et le physique. Il faut se tourner ailleurs pour trouver des réponses à ces questions.
2. Les représentations mentales en philosophie des sciences cognitives
Depuis le « tournant cognitif » des années 1950, la notion de « représentation mentale » a été déterminante dans le
développement des sciences cognitives. Cette notion théorique est au cœur des projets de recherche en neuroscience,
psychologie cognitive, psychologie sociale, linguistique, intelligence artificielle, anthropologie cognitive, et cognition
animale. Elle est utilisée pour expliquer des capacités psychologiques comme le langage, la perception, la mémoire, le
raisonnement, la production des actions, etc. Historiquement, le « tournant cognitif » a été accompagné par le retour de
l’emploi des représentations mentales pour expliquer la cognition, contre le courant behavioriste, qui visait à réduire au
minimum le recours aux processus et entités mentaux dans les explications psychologiques. Les découvertes
scientifiques qui ont provoqué la disparition du béhaviorisme et la naissance des sciences cognitives sont la grammaire
universelle (voir entrée « langage » [Link]/langage-a) proposée par Noam Chomsky pour expliquer le
fonctionnement et l’apprentissage du langage (Chomsky, 1957/2002), la découverte des limites de la mémoire à court
terme par George Miller (Miller, 1956), la découverte des « cartes mentales » utilisées pour naviguer l’espace par les
humains et les animaux non-humains (Tolman, 1948), et le travail sur l’intelligence artificielle de John McCarthy, Marvin
Minsky, Allen Newell, et Herbert Simon (Miller, 2003).
De façon générale, dans les sciences cognitives, « représentation mentale » indique une structure qui collecte, conserve,
et contribue à la transmission de l’information. Les représentations mentales en sciences cognitives ne sont pas
simplement des entités avec des caractéristiques sémantiques, mais des entités physiques réalisées dans le cerveau et
qui possèdent aussi des propriétés syntaxiques et matérielles. En tant qu’objets physiques réalisés dans des structures
matérielles, les représentations mentales participent aux processus cognitifs qui constituent la pensée ; en tant
qu’objets avec un contenu et des caractéristiques sémantiques elles expliquent le comportement en termes
intentionnels (Dretske, 1991).
Il existe plusieurs approches des représentations mentales dans les sciences cognitives, qui diffèrent quant au rôle
qu’elles attribuent aux représentations mentales et quant au type de structure que possèderaient les représentations.
a. La théorie représentationnelle-computationnelle de l’esprit
La théorie représentationnelle-computationnelle de l’esprit est sans doute le paradigme le plus influant et le plus
fécond dans les sciences de la cognition. Kim Sterelny le résume ainsi : « Une théorie computationnelle de la cognition et
une approche des relations causales entre l’esprit et le monde expliquant comment nous possédons des esprits qui
représentent. La décomposition de capacités complexes en capacités plus simples, en combinaison avec une approche
de la manière dont des opérations simples peuvent être bâties dans l’organisation physique de l’esprit, expliquent
comment nous possédons des esprits computationnels. » (Sterelny, 1990, p. 40).
Bien que pour la plupart des philosophes les computations ne soient pas séparables des représentations – une idée
exprimée par le slogan « pas de computation sans représentation » (Fodor, 1981) – des développements récents en
théorie de la computation ont remis en question cette connexion nécessaire. Par exemple, Gualtiero Piccinini a
récemment défendu une approche de la computation qui ne fait pas appel aux représentations, en définissant des
computations sur des véhicules sans référence à leur contenu sémantique (c’est-à-dire sur des objets physiques non
représentationnels) (Piccinini, 2008). Une présentation de la computation sans représentation est au-delà de la portée
de cet article et dans le cadre de cette entrée, on présupposera que pour les êtres dotés d’un esprit les computations
sont définies sur des représentations (mentales), des objets mentaux avec des caractéristiques sémantiques, des
propriétés syntaxiques, et des propriétés matérielles.
L’idée que penser est faire des computations est souvent résumée par l’expression de la « métaphore de l’ordinateur » :
l’esprit serait (comme) un ordinateur (digital). Toutefois, il faut déconstruire le mythe de la métaphore de l’ordinateur.
D’une part, les recherches sur les computations et les ordinateurs ont été inspirées au départ par le fonctionnement de
la cognition humaine et du système nerveux (McCulloch & Pitts, 1943), ainsi que par l’existence de « machines
computationnelles » humaines, par exemple à la NASA (qui étaient souvent des femmes, dont le rôle était de faire des
calculs pour prédire les trajectoires). De ce point de vue, c’est l’ordinateur qui est modélisé sur le fonctionnement de la
cognition, plutôt que l’inverse. D’autre part, on peut soutenir que le cerveau est littéralement un ordinateur, mais pas au
sens où on emploie le plus souvent le mot « ordinateur » dans la vie courante de nos jours, c’est-à-dire pour désigner le
type de machines qu’on trouve sur nos bureaux, qui se caractérisent par une architecture fonctionnelle particulière,
celle des machines de Von Neumann. D’après la théorie computationnelle, l’esprit est un ordinateur, puisque c’est bien
une entité physique qui fait des calculs (par exemple, quand des processus visuels dérivent la couleur d’une surface à
partir de l’information sur la lumière ambiante) (McCulloch & Pfeiffer, 1949).
Afin de comprendre la notion de computation nous devons présenter deux autres notions : celle de fonction
mathématique et celle d’algorithme. Une fonction est une relation entre des entrées (ou arguments) et des sorties (les
valeurs) telle que pour chaque ensemble d’entrées correspond une seule sortie. On écrit cela formellement : F=m(x,y).
Par exemple, la multiplication est une fonction : pour chaque paire de chiffres en entrée la fonction multiplication
produit un seul chiffre en sortie. Un algorithme est l’explicitation d’un processus qui spécifie la série finie des étapes
nécessaires pour calculer une fonction. Une même fonction peut être calculée par différents algorithmes.
Un ordinateur est un outil qui reçoit des symboles en entrée et produit des symboles en sortie en suivant des
procédures algorithmiques. La machine de Turing, décrite par Alan Turing en 1936 (Petzold, 2008), est une description
abstraite d’un programme : les symboles apparaissent sur le ruban d’une machine et sont lus par une tête de lecture et
modifiés en accord avec les règles écrites dans le programme. La seule chose qui compte sont les propriétés
« formelles » des symboles, et non leur contenu. Tout comme un ordinateur, l’esprit peut aussi être décrit par le moyen
de règles algorithmiques (les processus cognitifs) qui manipulent des symboles (les représentations mentales).
Il existe au moins trois avantages de la théorie computationnelle-représentationnelle. Le premier avantage est que
cette théorie est compatible avec le physicalisme (même si elle est aussi compatible avec le dualisme), et plus
précisément elle montre comment l’esprit peut exister dans un support purement physique. Pour le physicalisme, tout
ce qui existe fait partie du monde physique naturel, et il n’y a pas de phénomènes surnaturels. Grâce à l’ordinateur on
arrive à saisir comment un esprit peut exister dans le monde physique. L’argument est le suivant :
Si les processus mentaux sont computationnels, ils peuvent être exécutés par un [Link] ordinateur est une
machine qui exécute des processus en accord avec les lois de la [Link] processus mentaux sont donc compatibles
avec les lois de la physique.
Le deuxième avantage de la théorie est qu’elle explique la rationalité de la pensée par les relations causales entre
états computationnels (Fodor, 1987). Un raisonnement est un processus psychologique qui commence par des
prémisses et aboutit à une conclusion via l’application de règles. Les règles qui amènent des prémisses à la conclusion
sont des règles logiques et d’inférence. Mais les processus psychologiques sous-jacents aux raisonnements
psychologiques sont causaux et non pas logiques/inférentiels. Comment se fait-il que les propriétés causales des états
mentaux d’un individu reflètent les propriétés logiques et les relations sémantiques des propositions ? Pour la théorie
computationnelle-représentationnelle, les transitions causales portent sur les propriétés syntaxiques et formelles des
représentations mentales ; mais ces transitions causales respectent les contenus des représentations, et de façon
indirecte les transitions entre propositions.
Le dernier avantage est que la théorie propose une solution simple au problème de la causalité mentale (voir l’entrée sur
la causalité mentale [Link] Les représentations mentales sont des symboles
physiques avec un véhicule matériel qui possède des propriétés syntaxiques et un contenu qui possède des
caractéristiques sémantiques. En vertu de leur aspect matériel et syntaxique elles peuvent participer à des
manipulations physiques, les computations, qui ont une efficacité causale. En même temps le contenu est
systématiquement corrélé avec la syntaxe. Grâce à cette corrélation entre sémantique et syntaxe le contenu peut avoir
un rôle causal indirect. Ainsi, même si seules les propriétés syntaxiques ont une efficacité causale à proprement parler,
le contenu mental est indirectement causal. Pour le mettre sous forme de slogan : « si on se soucie de la syntaxe, la
sémantique prendra soin d’elle-même » (Haugeland, 1985, p. 106).
Cette solution simple a été remise en question. Elle suggère que le contenu des représentations est causalement
indirect. Pourtant quand on explique le comportement des agents on fait appel aux contenus de leurs pensées et non
pas aux véhicules qui sous-tendent la pensée (Dretske, 1991). Une tension naît alors entre la causalité définie
seulement sur les propriétés formelles (syntaxiques et matérielles) des représentations, et le rôle central du contenu
dans l’explication et la prédiction du comportement. Y a-t-il un rôle pour le contenu des représentations dans la
causation mentale ?
En bref, la théorie computationnelle-représentationnelle de l’esprit est la combinaison de la théorie computationnelle
de l’esprit (l‘idée que les processus mentaux peuvent être formalisés via des algorithmes) avec la théorie
représentationnelle de l’esprit (penser c’est manipuler des entités mentales avec des caractéristiques sémantiques).
Le langage de la pensée
Une version de la théorie computationnelle-représentationnelle de l’esprit est le « langage de la pensée » (ou
« mentalais »), selon laquelle les représentations mentales ont un format quasi-linguistique.
L’hypothèse du langage de la pensée combine l’idée que penser est un processus computationnel avec la théorie selon
laquelle les attitudes propositionnelles sont des relations à des symboles mentaux dans un langage de la pensée. Bien
qu’on trouve des ancêtres du langage de la pensée chez des philosophes comme Occam (Panaccio, 2017), la version
contemporaine a été proposée par Jerry Fodor (1975) et Gilbert Harman (1975).
Dans la version fodorienne de l’hypothèse du langage de la pensée les attitudes propositionnelles sont des relations
entre des organismes et des formules dans un langage de la pensée. Pour chaque organisme O ayant une attitude
propositionnelle AP envers une proposition p, il existe une relation computationnelle R et une représentation mentale
RM tels que RM signifie que p, et O possède l’AP si et seulement si O est en R avec RM. Plus concrètement, si Jean croit
qu’il y aura un Brexit sans accord, Jean est en relation computationnelle avec un token interne qui signifie qu’il y aura un
Brexit sans accord, exprimé dans le langage de la pensée.
Comme nous l’avons déjà vu, Fodor est un réaliste intentionnel : les états intentionnels existent et les
caractéristiques sémantiques des attitudes propositionnelles contribuent à la production et à l’explication des
comportements. En outre, les caractéristiques sémantiques des énoncés linguistiques sont dérivées des propriétés
sémantiques des attitudes propositionnelles. Bien que l’introduction du langage de la pensée s’enracine dans le réalisme
intentionnel, l’hypothèse va au-delà de ce qui est postulé dans la psychologie du sens commun. Plus précisément, le
langage de la pensée introduit une hypothèse sur la structure des représentations mentales : les représentations
mentales ont une structure en constituants.
Pour comprendre cette hypothèse, on peut penser au langage naturel : une langue naturelle (comme le français) a des
éléments atomiques (les mots) qui peuvent être combinés dans des structures complexes (les phrases) en suivant des
règles de grammaire. N’oublions pas, cependant, que la thèse du langage de la pensée n’est pas qu’on pense dans
une langue naturelle (comme le français ou l’anglais), mais qu’on pense dans un langage mental, le mentalais, qui ne
coïncide avec aucune langue naturelle (sauf chez Peter Carruthers (1998)).. De plus, le langage de la pensée n’est pas
une thèse sur la phénoménologie de la pensée, et ne dépend pas du fait qu’on a souvent l’impression de penser en
utilisant des mots. Au contraire, c’est une thèse empirique sur la pensée au niveau sous-personnel. L’argument principal
en faveur de langage de la pensée est une inférence à la meilleure explication à partir des propriétés de la productivité
et de la systématicité.
« Productivité » indique ici la capacité d’un locuteur d’une langue de produire un nombre potentiellement infini
d’énoncés à partir d’un nombre fini de constituants. Pour prendre un exemple simple, dans un langage formé par
« Marie », « Jean », « Pierre », « aime », et des connecteurs logiques comme « et », on peut formuler les énoncés suivants :
« Marie aime Jean », « Jean aime Marie », « Marie aime Pierre et Jean », « Jean aime Pierre », « Pierre aime Jean », « Pierre
aime Marie et Jean », et ainsi de suite. On remarque que cette propriété est une idéalisation : de fait nous ne produisons
jamais un nombre infini d’énoncés vu les limites de nos capacités mnémoniques et de performance.
« Systématicité » désigne une propriété qui joue un rôle central dans le débat sur le format des représentations
mentales. En effet, la systématicité implique une certaine conception du format des représentations comme étant des
entités discrètes et identifiables, combinables entre elles. La systématicité peut être définie comme suit : dans le cas du
langage naturel la capacité de générer et de comprendre certains énoncés est intrinsèquement liée à la capacité de
générer et comprendre une multiplicité d’autres énoncés. Si l’on parle couramment français, alors si on comprend
l’énoncé « Marie aime Jean », on comprend aussi l’énoncé « Jean amie Marie ». Fodor présente son argument ainsi : « Les
capacités linguistiques sont systématiques puisque les énoncés ont des structures en constituants. Mais les capacités
cognitives sont aussi systématiques, et cela doit être dû au fait que les pensées ont aussi une structure en constituants.
Mais si les pensées ont une structure en constituants le langage de la pensée est vrai. » (Fodor, 1987, pp. 150-151).
On peut reconstruire l’argument en faveur du langage de la pensée comme suit :
Le langage a des propriétés telles que la productivité et la systématicité.On explique la productivité et la systématicité
du langage en faisant appel au fait que le langage a une syntaxe combinatoire et une sémantique [Link]
propriétés syntaxiques et sémantiques du langage dérivent des propriétés syntaxiques et sémantiques de la pensé[Link]
pensée possède aussi ces propriétés, c’est-à-dire la pensée est productive et systé[Link] les pensées (les
représentations mentales) ont aussi une structure en constituants, similaire à celle du langage.
La pensée est, donc, dans la perspective du langage de la pensée, combinatoire et compositionnelle. « Combinatoire »
signifie que les états mentaux sont construits à partir d’éléments simples (comme des atomes), qui amènent avec eux
leur contribution sémantique dans les structures complexes dans lesquelles ils figurent. Un exemple classique est la
logique propositionnelle, qui contient des atomes et des expressions moléculaires formées en partant des atomes. Pour
le langage de la pensée les atomes sont les concepts (qui sont ici des représentations mentales). « Compositionnel »
désigne le fait que le contenu sémantique (le sens) d’une expression complexe est déterminé par le contenu sémantique
de ses constituants et la façon dont ils sont combinés. Par exemple le sens de « petit chien » est constitué par le sens de
« petit » et celui de « chien ». Une exception possible à la compositionnalité fait appel aux expressions idiomatiques,
comme « casser sa pipe », dont le sens n’est pas déterminé par la composition des sens de ses constituants.
Pour Fodor, les symboles mentaux primitifs dans le langage de la pensée sont les porteurs de l’intentionnalité non-
dérivée. L’intentionnalité des états psychologiques des locuteurs dérive de l’intentionnalité des symboles mentaux dans
le langage de la pensée, et les expressions linguistiques sont intentionnelles en vertu des états psychologiques des
locuteurs.
b. L’approche connexionniste des représentations mentales
Le connexionnisme est un paradigme alternatif à la théorie représentationnelle-computationnelle de l’esprit classique
et au langage de la pensée. Par contraste avec l’approche classique, le connexionnisme puise son inspiration plus
directement dans le cerveau et ses propriétés neurobiologiques pour élaborer des principes computationnels. Si la
conception classique de la cognition s’intéresse aux propriétés fonctionnelles et à leurs relations, en faisant abstraction
des propriétés neurologiques, pour le connexionnisme les structures biologiques sont primordiales pour comprendre
comment on pense (Horgan, 1997). En même temps, il est important de noter que, même si le connexionnisme s’inspire
des neurones biologiques, cela reste une théorie computationnelle qui fait abstraction de nombreuses propriétés
concrètes du cerveau. En effet, l’origine du connexionnisme vient de deux développements dans le domaine de
l’intelligence artificielle : la création de « neurones formels » capables de faire des opérations logiques (McCulloch &
Pitts, 1943) et la création du perceptron, une intelligence artificielle capable de reconnaître des images (Rosenblatt,
1958).
Les réseaux connexionnistes sont formés par des « nœuds » interconnectés qui sont organisés en plusieurs couches. Les
nœuds d’entrée s’activent en réponse à la détection de stimuli externes au réseau. Ensuite ils transmettent l’activation à
des couches de nœuds « cachés » dont la valeur d’activation dépend de la force d’activation des entrées (et des « poids »
des connexions entre les nœuds). Enfin le signal se propage à travers le réseau jusqu’aux nœuds de sortie (Bechtel &
Abrahamsen, 1991).
Quelle est la conception des représentations mentales dans le connexionnisme ? Le connexionnisme étant une famille
de théories, plutôt qu’une seule théorie bien identifiée, la notion de représentation mentale dans le connexionnisme va
dépendre de l’interprétation de la théorie. Il existe (au moins) deux interprétations possibles : locale et distribuée.
Selon l’interprétation locale on peut identifier dans un réseau de neurones un sous-ensemble discret qui correspond à
une représentation mentale « atomique », par exemple la représentation pour « chien ». Si l’on accepte cette
interprétation, il n’y a pas de facto de différence profonde entre le modèle classique et le modèle connexionniste de la
cognition.
Selon la conception « distribuée », en revanche, les représentations mentales sont des patterns d’activations
implémentés dans des nœuds et des poids, et on ne peut pas identifier une partie du réseau comme ayant un contenu
distinct. En d’autres termes, les représentations mentales distribuées ne sont pas des symboles mentaux discrets
comme dans le langage de la pensée, et l’information n’est pas encodée dans un seul symbole, mais elle est distribuée à
travers le réseau neuronal, dans des « micropropriétés » qui ne correspondent pas à des concepts. Quand le réseau n’est
pas actif l’information n’est pas représentée de façon explicite, mais de façon tacite (voir section 4.c) (Davies, 2015). Le
réseau ne représente explicitement que quand il est actif. Par contraste, un symbole discret dans l’approche classique
est stocké de façon explicite même quand il n’est pas actif.
Selon les défenseurs du connexionnisme, les réseaux de neurones artificiels présentent plusieurs avantages dans la
modélisation de l’esprit (Bechtel & Abrahamsen, 1991, pp. 45-51). Les réseaux neuronaux sont plus proches de la
manière dont fonctionne le cerveau et ceci permet d’éviter le problème de l’implémentation (P. S. Churchland, 1989). Le
connexionnisme permet d’expliquer la « dégradation lente » (graceful degradation), où le disfonctionnement d’une
partie du réseau n’impacte pas le réseau entier qui continue à fonctionner (contrairement au paradigme classique où la
destruction d’un symbole impacte le processus entier). Le connexionnisme est naturellement compatible avec une
approche empiriste de l’apprentissage et permet de modéliser l’apprentissage par expérience, par contraste avec le
langage de la pensée qui est souvent accompagné par la thèse supplémentaire de l’innéité des représentations mentales
(voir entrée sur l’innéité : [Link]/inneite-a/). Les réseaux ont des contraintes souples plutôt que rigides grâce à
la présence de multiples connexions à la place des connexions déterministes un-à-un du classicisme. Cela permet de
modéliser le fait que les règles ont souvent des exceptions (par exemple le fait que la croyance générique que les
oiseaux volent est compatible avec la croyance qu’il existe des oiseaux qui ne volent pas, comme les pingouins).
Comment arbitrer entre le paradigme classique et le paradigme connexionniste distribué des représentations
mentales ? Tandis que les défenseurs du connexionnisme ont souligné combien leur modèle se rapproche de la façon
dont nous pensons, les défenseurs du classicisme ont contesté cet avantage en soulignant combien le connexionnisme
échoue dans la modélisation de la systématicité de la pensée (Fodor & Pylyshyn, 1988).
Si le paradigme classique explique cette propriété en postulant des symboles mentaux atomiques qui peuvent être
combinés et recombinés, les représentations connexionnistes ne peuvent pas être combinées de façon systématique en
raison de leur structure distribuée, où chaque activation est légèrement différente de la précédente. De plus, puisqu’il
n’y a pas de correspondance un-à-un entre un symbole mental et une catégorie dans le monde, les réseaux peuvent
apprendre une expression comme un bloc entier sans apprendre une expression résultante de la combinaison des
éléments de ce bloc. Par exemple, un réseau peut apprendre « Marie aime Pierre » sans apprendre « Pierre aime Marie ».
Le débat ne porte pas sur la question de savoir si un réseau de neurones peut implémenter la systématicité : c’est bien
sûr possible si le réseau implémente une architecture classique de la cognition. Le point de Fodor et Pylyshyn est plutôt
que la seule façon dont le connexionnisme peut expliquer la systématicité est d’implémenter une architecture classique.
Mais si c’est le cas, le connexionnisme n’est plus un paradigme alternatif au paradigme classique, mais une proposition
concernant son implémentation.
Le débat entre classicisme et connexionnisme a connu une période d’oubli après 1990, mais une nouvelle version du
débat est revenue sur le devant de la scène depuis 2006 grâce aux avancées de l’intelligence artificielle, et en particulier
grâce aux travaux sur l’apprentissage profond (deep learning ; LeCun, Bengio, Hinton, 2015). En effet, nombre de
chercheurs travaillant sur les programmes d’intelligence artificielle connus aujourd’hui (par exemple AlphaGo) utilisent
des outils connexionnistes, mais plus complexes que ceux proposés dans les années 1980-1990. Ces chercheurs ne
revendiquent parfois pas l’étiquette de « connexionnisme » (contrairement aux années 1980-1990), mais le cadre global
est similaire, ainsi que certaines questions qu’il soulève – par exemple celle des limites des réseaux de neurones dans
l’explication des capacités cognitives, en particulier des capacités intellectuelles générales (Marcus, 2018) et celle de la
possibilité de paradigmes hybrides intégrants l’approche classique à celle connexionniste (Marcus, 2001).
Nonobstant leurs différences les deux approches susmentionnées donnent une place centrale aux représentations
mentales dans les explications scientifiques de la cognition. Dans la prochaine sous-section nous allons voir des
positions qui limitent la portée, voire éliminent, les représentations mentales.
3. Critiques de la notion de représentation mentale
a. Les positions anti-représentationalistes
Dans cette sous-section nous allons passer en revue différentes positions anti-représentationalistes.
Une première position critique s’appuie sur les arguments de Gilbert Ryle contre les erreurs de catégorie (Ryle, 1949).
Peter Hacker, avec le neuroscientifique Maxwell Bennett, critique ainsi la neuroscience contemporaine en arguant
qu’elle commet une erreur de catégorie en attribuant des propriétés des attitudes propositionnelles (qui s’appliquent au
sujet entier) à des systèmes neurobiologiques, qui ne sont pas sujets aux mêmes normes (M. R. Bennett & Hacker,
2003). Ainsi, la notion de représentation mentale ne trouverait pas sa place dans les sciences de la cognition, puisque
c’est un concept pertinent uniquement quand on l’applique au sujet entier et dans le domaine de l’analyse conceptuelle
en philosophie. Cette position est en partie motivée par l’idée que la philosophie est largement une entreprise a priori,
sans continuité avec la science, par contraste avec des approches plus naturalistes de la philosophie, qui la conçoivent
comme étant en continuité avec les sciences naturelles. On remarque brièvement que cette position ne tient pas
compte de la distinction entre les deux approches des représentations mentales esquissée en introduction, ni
véritablement de la distinction entre explications au niveau personnel et au niveau sous-personnel (M. R. Bennett,
Dennett, Hacker, & Searle, 2007).
Une deuxième façon d’être anti-représentationaliste consiste dans la position qui admet l’utilité pratique des
attributions d’états mentaux intentionnels avec un contenu aux entités qui manifestent un comportement intelligent,
mais qui n’est pas réaliste quant à l’existence des représentations mentales pour autant. C’est la position défendue par
Dennett, qui conçoit l’intentionnalité en termes de « stratégie de l’interprète » (intentional stance) (Dennett, 1987).
Selon Dennett, l’intentionnalité se comprend comme une attitude de prédiction et d’explication. L’usage d’une telle
stratégie est justifié quand l’entité qu’on veut interpréter se comporte comme si elle avait des états mentaux
intentionnels. Mais on peut l’utiliser pour n’importe quelle entité : le comportement d’un ordinateur qui joue aux
échecs, voire d’un thermostat très sophistiqué, pourraient être expliqués par la stratégie de l’interprète. Le succès de la
stratégie n’est pas dû à la présence réelle d’états mentaux intentionnels (contra Fodor), mais à son efficacité dans
l’explication des comportements.
Une troisième façon d’être sceptique quant aux représentations est d’admettre que les représentations mentales
existent dans le cerveau, mais nier l’utilité ou la réalité des attributions d’attitudes propositionnelles, c’est-à-dire nier
l’existence des représentations mentales postulées par la psychologie du sens commun. C’est, en somme, la position
inverse de celle de Dennett, et elle a été soutenue par Paul et Patricia Churchland. Ils admettent l’existence et la réalité
de représentations mentales de type connexionniste dans le cerveau, mais ils rejettent les représentations mentales en
tant qu’attitudes propositionnelles de la psychologie du sens commun (P. M. Churchland, 1992).
Une autre façon d’être anti-représentationalistes est le déflationnisme.. Il se distingue des théories anti-
représentationalistes radicales dans la mesure où il laisse une place aux représentations mentales dans les explications
en sciences cognitives, mais il refuse l’engagement ontologique envers des entités dans le cerveau ayant un contenu
sémantique large. Ainsi, c’est une position intermédiaire entre le réalisme à propos des représentations mentales et
l’éliminativisme. Une telle position a été défendue notamment par Frances Egan (Egan, 2014), et peut-être plus
étonnamment par Noam Chomsky (Chomsky, 1995). Selon cette approche, il ne faut pas identifier les représentations
mentales par leur contenu large (leur référence aux objets dans le monde), puisque la façon dont les scientifiques
cognitifs identifient les représentations est par leur contenu étroit, ou plus précisément par les algorithmes calculés sur
les représentations (ce qu’Egan appelle leur « contenu mathématique »). Pour Egan, le contenu sémantique à
proprement parler n’est qu’un raccourci pragmatique, et non pas un aspect essentiel de notre théorie des
représentations mentales. De même, l’approche fictionnaliste, proposée (mais pas défendue) par Mark Sprevak
(Sprevak, 2013), conçoit les représentations mentales comme des fictions utiles, qui jouent un rôle heuristique dans les
explications, mais qui n’ont pas d’existence ontologique.
Une approche anti-représentationaliste radicale, quant à elle, rejette à la fois l’existence ontologique et tout rôle
explicatif pour les représentations mentales.
Une façon d’être anti-représentationaliste est de souscrire au paradigme dynamiciste (Port & Van Gelder, 1995), dont
l’idée centrale est que l’esprit est un système complexe qui peut être modélisé par des modèles dynamiques. Ce projet
remplace le modèle de l’ordinateur par la métaphore du régulateur à boules de Watts, dont le comportement peut être
expliqué par des équations différentielles, mais non pas par l’identification des parties du régulateur avec des
représentations mentales, des algorithmes, et des séquences actionnables.
Il existe d’autres positions anti-représentationalistes. Une position anti-représentationaliste inspirée de la
phénoménologie en philosophie de la perception donne une place centrale à l’action dans la cognition, par opposition à
la manipulation de symboles mentaux. Selon Hubert Dreyfus (Dreyfus, 2002), le corps agissant dans le monde acquiert
des compétences (motrices) qui sont stockées comme des dispositions à agir et non pas comme des représentations
mentales.
L’attention portée à l’action, par opposition à la manipulation de symboles mentaux, trouve ses origines dans la
psychologie écologique défendue par le psychologue James Gibson (Gibson, 1979/2014), selon laquelle nous n’avons
pas besoin de représentations mentales (et plus généralement de processus cognitifs impliquant le traitement de
l’information) puisque les stimulations de l’environnement et les dispositions à agir (« affordances ») suffisent à
expliquer le comportement. Par exemple, mon comportement quand je mange une pomme pourrait être expliqué par la
propriété de la pomme d’être « comestible » et par ma disposition à la prendre pour la manger quand j’en vois une. La
notion d’affordance en soi n’est pas en contradiction avec l’existence de représentations mentales (par exemple si on
introduit des représentations mentales orientées vers l’action, comme le fait Andy Clark, 1998, ou bien des « boucles »
action-perception comme le fait Susan Hurley, 1998), mais d’autres philosophes opposent les explications en termes
d’affordance et de couplage agent-environnement aux explications en termes de représentations mentales (voir par
exemple Kiverstein & Rietveld 2020, qui tentent aussi d’étendre la portée de ces notions du champ de l’explication de
l’action à celui des capacités cognitives de plus haut niveau).
Plus généralement, on appelle « 4E » une famille d’approches qui conçoit la cognition comme étant incarnée, située,
étendue, et enactée (embodied, embedded, extended, enacted) (Newen, De Bruin, Gallagher, 2018). Cette étiquette
inclut des positions très différentes entre elles, voire incompatibles, par exemple celle d’Andy Clark (1998) qui reste
encore fortement représentationaliste, et celle de Anthony Chemero (2009) qui est, en revanche, fortement anti-
représentationaliste. Mais, si on fait abstraction de ces différences, l’approche 4E est caractérisée par le rejet (plus ou
moins fort) du modèle symbolique abstrait de la cognition, et par un rejet de la thèse selon laquelle les états cognitifs
sont réalisés seulement par des états cérébraux (Newen, De Bruin, Gallagher, 2018, Introduction).
Nombre de positions 4E restent compatibles avec le représentationalisme, et comblent des lacunes du paradigme
symbolique classique de la cognition en y intégrant une dimension corporelle et orientée vers l’action, qui manquait
dans ses premières formulations (Varela, Thompson, Rosch, 1991, pp. 40-41). En effet, l’approche incarnée est ambiguë
entre différentes interprétations plus ou moins radicales (Goldman et de Vignemont, 2009) : a) que le corps a une
influence sur la cognition ; b) que le corps et les actions corporelles constituent la cognition sans passer par des
représentations mentales ; c) que certaines représentations mentales ont un format corporel. La thèse a) est peu
controversée, la thèse c) est compatible avec le représentationalisme, et intègre une dimension corporelle aux
symboles abstraits. Seule la thèse b est anti-représentationaliste.
Les positions anti-représentationalistes radicales sont controversées, puisqu’elles sont difficilement généralisables à
des activités cognitives complexes, comme mémoriser et retrouver ses souvenirs, garder la trace d’un objet quand il
disparaît derrière un obstacle, reconnaître des objets dans un environnement nouveau et instable, compléter la forme
d’un objet partiellement caché de vue, choisir la bonne action non seulement en fonction des objets présents, mais aussi
du contexte et des connaissances d’arrière-plan, réfléchir à un problème afin d’en trouver la solution, se projeter dans
l’avenir, penser de façon métacognitive, et ainsi de suite. Bien qu’on trouve des expériences en psychologie inspirées par
les approches 4E, les paradigmes expérimentaux les plus employés en psychologie et neuroscience tendent à
présupposer parmi leurs entités théoriques les représentations mentales et les états mentaux avec du contenu (voir
Rupert, 2011, qui propose un argument selon lequel les données empiriques soutiennent le représentationalisme).
Pour clarifier ce point, considérons un exemple concret : le comportement animal. Même des êtres moins sophistiqués
que les humains, comme les insectes, s’orientent dans leur territoire en utilisant un mécanisme de « navigation à
l’estime » et en gardant une « carte » du territoire dans leur cognition, qui leur permettent de retrouver leur chemin
dans de multiples contextes (Gallistel, 2007). Un autre exemple fascinant est la danse des abeilles : « quand une abeille
butineuse découvre une source de nectar et pollen, elle enregistre l’angle formé par la ruche, l’azimut du soleil, et la
position de la source de la nourriture. […] [Quand elle remue], l’angle de cette fraction de mouvement relative à la
verticale gravitationnelle est égal à l’angle formé par la ruche, l’azimut du soleil, et la source de nourriture. […] On
appelle cet angle le palier solaire de la source de nourriture à partir de la ruche. De cette façon, la danse des abeilles
symbolise la direction de la source de la ruche. Les autres abeilles butineuses observent le segment de la danse où
l’abeille remue, et enregistrent dans leur propre système nerveux la valeur qui spécifie la direction. Ensuite, elles
quittent la ruche et partent vers la source indiquée par la danse » (Gallistel, 2007, p. 18). C’est un système de
communication assez raffiné, où le nombre de remuements effectués est proportionnel à la distance : plus l’abeille
remue pendant la danse plus la source est éloignée. Comment expliquer ces exemples si on ne fait pas appel au stockage
des valeurs des variables, telle que la distance, qui peuvent ensuite être utilisées pour faire des calculs sur lesquels le
comportement est basé ? Pour Randy Gallistel, les données expérimentales montrent que le système nerveux est un
système qui retient des valeurs et est capable d’accomplir des opérations arithmétiques et logiques tout comme un
système symbolique de traitement de l’information (p. 51).
Enfin, on mentionnera brièvement une approche récente, celle du « cerveau bayésien » ou du « code prédictif »
(Clark, 2015; Friston, 2010; Hohwy, 2013). Cette approche conçoit l’esprit comme une machine dont le but est de
minimiser les erreurs de prédiction face à l’instabilité de l’environnement. Le principe sous-tendant une telle
architecture est le théorème de Bayes, qui permet de formaliser la façon dont un organisme met à jour la probabilité
d’un événement suite à la présence d’informations nouvelles. Quelle est la place des représentations dans le cerveau
bayésien ? Et plus généralement, y-t-il des représentations probabilistes dans le cerveau ? Il existe au moins trois
interprétations possibles. Une première interprétation est que l’hypothèse du cerveau bayésien est une description de
la cognition au niveau le plus abstrait et non pas une théorie des algorithmes et des représentations impliquées (Block,
2018). Une deuxième interprétation est que les modèles de l’environnement construits par le cerveau sont des
véritables représentations mentales (Kiefer & Hohwy, 2018). Et enfin, Andy Clark supplémente l’hypothèse du cerveau
bayésien avec une théorie des représentations mentales comme étant probabilistes et orientées vers l’action,
s’inspirant de l’idée énactiviste d’un engagement avec l’environnement plutôt que du paradigme symbolique pure des
représentations mentales (Clark, 2015).
b. Critères pour l’introduction des représentations mentales
Même si on accepte le paradigme représentationaliste de la cognition, expliquer tous les processus cognitifs par la
présence de représentations risque de rendre la notion triviale. Nous pouvons alors nous poser la question suivante :
quels sont les critères pour introduire des représentations mentales dans les explications psychologiques ? Comment
distinguer les processus qui emploient les représentations mentales des processus qui n’en ont pas besoin ?
Intuitivement, nous ne voulons pas de théorie qui inclut un tournesol qui suit la position du soleil parmi les systèmes
représentationnels. Seule Carrie Figdor a défendu la position radicale selon laquelle nous devons étendre le champ
d’application des notions d’états mentaux et de représentations mentales même aux plantes et aux neurones
individuels (Figdor, 2018, voir Smortchkova, 2019 pour une critique de cette position).
Il faut distinguer la question de l’identification des représentations comme postulats explicatifs dans la cognition de la
question de la manière dont les représentations acquièrent le contenu qu’elles ont (Ramsey, 2007, p. 5). Bien que
beaucoup de philosophes ont identifié ces deux questions comme étant inséparables (même si rarement de façon
explicite – à l’exception par exemple de Nick Shea (2018)), on peut voir comment la première question se focalise sur
l’identification des structures représentationnelles, tandis que la deuxième question se focalise sur comment une
certaine structure représentationnelle acquiert son contenu (par exemple comment une certaine configuration
représente la catégorie « chien » et non pas « chat »).
Une façon de comprendre la question du rôle représentationnel est de l’étudier à travers le « travail » accompli par les
représentations mentales dans la cognition (Ramsey, 2007). Ce travail est un travail d’explication : en quoi l’attribution
du pouvoir représentationnel dans un processus cognitif porte-t-elle un poids explicatif ? William Ramsey appelle cela
« le défi de la description du travail » (the job description challenge), c’est-à-dire le défi de cerner le travail accompli
par une structure en tant que représentation. Il compare le cas où une structure est représentationnelle au cas où elle
joue un simple rôle de « récepteur », comme les neurones dans le cortex visuel primaire qui s’activent en présence d’un
seul type de stimulus (par exemple l’orientation d’une barre). Selon Ramsey ces structures fonctionnent comme des
détecteurs de fumée, qui réagissent à la présence d’un seul stimulus, et non pas comme de véritables représentations
mentales.
Mais quel est alors le travail accompli par une véritable représentation mentale ? Les philosophes ont proposé
différents critères pour identifier des structures représentationnelles. John Haugeland suggère trois critères qui vont
jouer un rôle important dans la suite des discussions (Haugeland, 1998b). Un système est représentationnel si :
Le système coordonne son comportement avec des traits dans l’environnement, même quand ces traits ne sont pas
présents de façon fiable ;Dans le cas où les traits ne sont pas présents, le système utilise des « remplacements » qui
guident le comportement, même quand des stimulations immédiates ne sont pas présentes ;Cette relation de
« remplacement » est systématique et fait partie d’un schéma plus général d’états représentationnels liés.
Ainsi, Andy Clark développe des critères pour distinguer entre tâches cognitives qui n’ont pas besoin de
représentations pour être accomplies et tâches cognitives qui sont forcément représentationnelles (Clark, 1998). Il
nomme ces dernières les « problèmes friands de représentations » (representation hungry problems) :
Ce sont d’une part des problèmes qui impliquent de penser à des états de choses absents, inexistants ou contrefactuels
(imaginer l’avenir, se souvenir du passé, explorer des possibilités).D’autre part, ce sont des problèmes qui portent sur
des états de choses dont les manifestations physiques sont complexes et turbulentes (par exemple la capacité de penser
à tous les objets de valeur dans une chambre ou la capacité de penser seulement aux objets appartenant au Pape).
En revanche, les problèmes qui ne sont pas « friands de représentations » peuvent être expliqués par un couplage entre
l’organisme et l’environnement qui évolue en temps réel et qui dépend de la présence du stimulus pour exister.
Dans un livre publié en 2010, Tyler Burge propose une autre façon de distinguer entre systèmes non-
représentationnels et systèmes doués de véritables représentations mentales (Burge, 2010). Bien que le point focal du
livre soit la perception, et la distinction entre sensation et représentation perceptive, l’un des buts du livre est de
trouver des critères constitutifs pour la représentation mentale. Le point de départ est l’idée (largement acceptée) que
pour qu’il y ait de la représentation il faut qu’il y ait possibilité de méprise représentationnelle. Pour Burge, plus
précisément, il faut que les conditions de satisfaction jouent un rôle dans les explications scientifiques qui emploient les
représentations. Quand on perçoit le monde, on fait face au problème de la sous-détermination : à partir de l’image en
2-D sur la rétine, le cerveau pourrait produire un nombre presque infini d’objets 3-D correspondants. Pourtant, la
perception résout régulièrement ce problème et, pour Burge, nous présente le monde de façon objective. Burge
explique la transition entre sensations et véritables représentations perceptives via les constances perceptives, par
exemple la capacité de percevoir un objet comme étant de la même couleur sous des conditions de luminosité très
différentes. Avec les constances perceptives vient l’objectivité, et avec l’objectivité vient la méprise
représentationnelle : il existe des conditions sous lesquelles la perception représente correctement le monde. La
représentation pour Burge est ainsi une notion normative, où les normes (d’objectivité) sont propres à la
représentation, et ne peuvent pas être réduites aux normes de la théorie de l’évolution (voir section 4.a).
Enfin une façon d’identifier les véritables structures représentationnelles consiste à faire appel à la relation de
« ressemblance structurelle » (Cummins, 1989; O'Brien & Opie, 2004; Ramsey, 2007). Cette relation est exemplifiée par
les représentations non-mentales cartographiques, comme la carte d’un territoire. La ressemblance structurelle n’est
pas une relation d’identité ni une ressemblance de premier ordre : c’est plutôt une relation qui préserve l’organisation
structurelle du territoire visé par la carte de façon à faciliter l’usage de celle-ci par un agent dans un processus de
navigation. Il est utile de développer la notion de représentation cartographique un peu plus en détail afin de
comprendre comment cette notion aide à identifier le rôle des représentations mentales dans la cognition.
Une carte aide l’usager à accomplir des actions (comme naviguer) avec l’information fournie par la représentation.
Ensuite, les cartes sont « détachées » de ce qu’elles représentent (le territoire), par contraste avec des outils comme les
détecteurs de fumée qui n’ont de fonction que quand le stimulus est présent. Enfin, les cartes peuvent méreprésenter et
les usagers peuvent s’en rendre compte et adapter leur comportement en conséquence. Par exemple, si un quartier a
été détruit, mais qu’il est encore représenté sur la carte, alors la carte est erronée. L’usager qui remarque l’erreur peut
modifier son action, en décidant de ne pas aller dans le quartier détruit, et corriger la carte avec la nouvelle information.
Dans le cas mental aussi, pour qu’une structure soit représentationnelle, trois facteurs doivent être réunis :
l’information est exploitée pour guider l’action, la représentation peut s’activer en l’absence de l’état de choses qu’elle
représente, et le système qui utilise l’information doit être capable de détecter l’erreur dans l’information reçue. La
notion d’erreur ici s’articule sur deux niveaux : a) la carte encode de l’information qui ne correspond plus à l’état de
choses qu’elle est censée représenter ; b) cette information fausse peut-être remarquée par l’usager et utilisée pour
ajuster l’action. On peut se demander alors si pour qu’une structure soit représentationnelle il suffit qu’elle puisse
méreprésenter, ou s’il faut aussi que l’erreur soit détectable par l’organisme ou le sous-système cognitif afin d’être
corrigée (Gładziejewski, 2016; Gładziejewski & Miłkowski, 2017).
4. Débats spécifiques sur les représentations mentales
Ici nous allons présenter quelques débats spécifiques sur les représentations mentales.
a. Naturalisation des contenus mentaux
Suivant une approche qui remonte à Brentano (1874), la notion d’intentionnalité est considérée comme la « marque du
mental ». Cette thèse peut être déclinée en deux sous-thèses :
Seuls les états mentaux peuvent être intentionnels ;Si des choses autres que les états mentaux sont intentionnelles, leur
intentionnalité peut être réduite à l’intentionnalité mentale.
Si seuls les états mentaux sont intentionnels et si les états mentaux ne sont pas physiques, ceci pose un problème pour
le physicalisme, la thèse selon laquelle tout phénomène doit trouver sa place dans le monde physique et être expliqué
en termes purement physiques. En effet, le physicalisme et la thèse de Brentano forment un ensemble de propositions
mutuellement incompatibles (Jacob, 2004) :
Seuls les états mentaux sont intentionnels ;Tout ce qui existe est physique ;Les états mentaux ne sont pas physiques.
Un philosophe physicaliste non-éliminativiste à propos du rôle du contenu mental dans l’explication du comportement
ne peut pas accepter la thèse c) et doit rendre compte des caractéristiques sémantiques des états mentaux avec
contenu (comme la méprise représentationnelle) en termes physiques. Le but du projet de naturalisation du contenu
mental est donc de bâtir l’intentionnalité à partir d’ingrédients purement physiques (Dretske, 2002).
Différents projets de naturalisation du contenu des représentations mentales ont été proposés afin de répondre à ce
défi. Une présentation exhaustive de tous les projets de naturalisation du contenu est au-delà de la portée de cet article.
Ici on va passer en revue les deux approches les plus influentes, c’est-à-dire la sémantique informationnelle impure
(Rupert, 1999; Dretske, 2002; Ryder, 2004), et la sémantique basée sur la consommation (Papineau, 1984 ; Millikan,
1989 ; Neander, 2017). Les deux approches sont souvent groupées sous le label de « téléosémantique » en raison du fait
que toutes deux font appel à la notion de « fonction » afin de naturaliser l’intentionnalité. Une approche
informationnelle pure (sans fonctions) a été défendue par Fodor, avec la théorie de la dépendance nomique
asymétrique (Fodor, 1990).
Les théories de la sémantique informationnelle partent de la notion d’information naturelle (voir section 1.a).
L’information naturelle est un type de relation d’indication, qui est presque (mais pas tout à fait) de la représentation
(Dretske, 2002). Un exemple d’information naturelle est quand la présence de la fumée signale la présence du feu, ou
bien quand la présence de taches rouges sur le visage signale la présence de la rougeole. Pour la théorie
informationnelle ce qui compte est la relation de covariance : il est nécessaire que quand un système S possède la
propriété P, alors le système R possède la propriété D, c’est-à-dire il existe une dépendance nomique (dérivant d’une loi)
entre les deux. La covariance naturelle n’est pas suffisante pour naturaliser le contenu, puisqu’elle ne nous donne pas les
caractéristiques sémantiques nécessaires pour qu’une structure soit représentationnelle (voir section 1.b) : la méprise
représentationnelle, l’aspectualité, la direction d’ajustement. Pour résoudre le problème de la méprise
représentationnelle, Dretske fait appel à la notion de fonction naturelle issue de l’apprentissage individuel (fonction
ontogénique) : un signe naturel est sélectionné au cours de l’apprentissage afin d’indiquer certains états de choses dans
l’environnement. Ainsi, A représente B si la fonction de A est d’indiquer B de façon fiable. Si tout marche bien la fonction
est accomplie et A représente B ; en revanche, quand la fonction n’est pas accomplie, A méreprésente B.
Par contraste, les théories basées sur la consommation (Millikan, 1989) détournent leur attention du système qui
produit de l’information pour se concentrer sur le système qui consomme de l’information, c’est-à-dire le système qui
utilise les représentations mentales pour accomplir des tâches, et remplacent les fonctions issues de l’apprentissage par
les fonctions issues de l’évolution. Plus précisément, pour Ruth Millikan le contenu d’une représentation est donné par
la façon dont cette représentation est utilisée par des systèmes cognitifs qui reçoivent le signal. Les systèmes
consommateurs ont été sélectionnés par les mécanismes de sélection naturelle afin de réagir à certains types de
représentations. Prenons comme illustration l’exemple préféré de Millikan : la danse des abeilles. Quand des abeilles
dansent pour signaler la présence du nectar dans un lieu, ce signal est consommé par les abeilles qui voient la danse et
qui volent vers le lieu indiqué. Le comportement des abeilles contribue à leur survie et à la reproduction de la ruche.
Ainsi le contenu de la représentation est l’injonction impérative « il faut voler vers ce lieu ».
La sémantique des rôles fonctionnels s’oppose aux théories téléosémantiques : ce qui donne le contenu aux
représentations sont les relations inférentielles dans lesquelles entrent les représentations mentales (Harman, 1973;
Loar, 1981). Cette position s’inspire du fonctionnalisme et de l’approche étroite de l’individuation des contenus
mentaux (voir section 1.c), et elle embrasse l’holisme au sujet du mental, la thèse selon laquelle les états mentaux
forment un système de telle manière que l’individuation d’un état mental ou de son contenu dépend constitutivement
de son rapport aux autres états mentaux.
Cette courte sous-section ne rend pas justice à la complexité des approches naturalistes de l’intentionnalité, mais elle
donne un bref aperçu du problème. Le débat sur la naturalisation du contenu mental est loin d’être résolu et une vive
discussion se poursuit aujourd’hui sur la meilleure façon de naturaliser le contenu, et sur les avantages et limites des
approches téléosémantiques, et sur la force des objections aux projets de naturalisation.
En guise de conclusion, nous pouvons esquisser ainsi une cartographie partielle des positions actuelles sur le projet de
naturalisation. Pour certains philosophes, comme Hutto et Myin (2013), les limites du projet montrent qu’on ne peut
pas naturaliser le contenu et que nous devons éliminer les représentations mentales de nos explications du
comportement (voir Miłkowski, 2015a et Matthen, 2014 pour des réponses). Une autre position possible est
d’abandonner le projet de naturalisation, mais sans abandonner pour autant le projet de comprendre la nature de
l’intentionnalité des états mentaux. Un exemple est l’approche selon laquelle l’intentionnalité est constitutivement liée
à la conscience phénoménale (voir dernier paragraphe section 4.d.). Une autre réponse possible est de continuer à
développer le projet de naturalisation, en présentant des nouvelles versions de la théorie téléosémantique (voir les
livres récents de Neander, 2017 et Shea, 2018). Des nouveaux projets de recherche dans cette veine sont la
« neurosémantique », le projet de naturalisation du contenu des représentations neuronales (Morgan & Piccinini, 2018 ;
Ryder, 2004), et le projet de naturalisation dans une perspective mécaniste de l’explication psychologiques (Miłkowski,
2015b). Enfin, notons que l’approche de nombreux chercheurs en sciences cognitives est d’utiliser la notion de
représentation mentale comme entité théorique, sans se poser la question « philosophique » de la naturalisation du
contenu.
b. Le débat sur le format des représentations mentales
L’idée que nous pensons par images n’est pas nouvelle. La théorie des images mentales a été discutée par les
philosophes britanniques de l’époque moderne, qui souvent considéraient les idées (les entités avec lesquelles on
pense) comme représentant à la manière d’images. Hobbes a écrit que les idées dans l’esprit sont des « perceptions
estompées » (Hobbes, 1651/2008) ; Locke parle d’« images peintes dans nos esprits » (Locke, 1690/1979) ; Hume décrit
les idées comme des copies des impressions sensorielles (Hume, 1738/2000); et enfin Berkeley défend sans doute la
version la plus explicite de la position dans les Principes de connaissance humaine (Berkeley, 1734/1998).
Mais il ne faut pas oublier la distinction entre deux traditions à propos de représentations mentales discutées en
section 1 : on distingue entre l’approche des représentations mentales basée sur l’introspection, et l’approche des
représentations mentales comme postulats théoriques. Dans cette sous-section nous nous intéressons à la question de
savoir si le format des représentations mentales peut être non-linguistique.
Le débat sur le format des représentations mentales se focalise sur le véhicule, et doit être séparé du débat sur les types
de contenu des états mentaux, par exemple si le contenu est propositionnel ou pas, ou s’il est constitué par une
proposition Russellienne, Frégéenne, ou un ensemble de mondes possibles (voir Jeff Speaks sur les différentes façons
de comprendre le débat (Speaks, 2005)).
On trouve ci-dessous un tableau récapitulatif des formats possibles du véhicule représentationnel :
i.
i . Résumé
En première approximation, on peut caractériser une « représentation mentale » comme une entité mentale avec
des caractéristiques sémantiques : quand je crois que le chat est sur la table, mon état mental a un contenu
représentationnel (il représente le chat comme étant sur la table) et des conditions de satisfaction (ou vérité) qui
font que mon état représente correctement ce à propos de quoi est la représentation (ma croyance est vraie si le
chat est effectivement sur la table, et fausse dans le cas contraire). Cette définition minimale apparaît en filigrane
dans nos échanges quotidiens, quand nous attribuons des croyances et des désirs aux autres personnes pour
expliquer leurs comportements et quand nous remarquons que leurs croyances sont fausses ou bien leurs désirs
insatisfaits. Depuis le « tournant cognitif » des années 1950, « représentation mentale » est aussi devenu un terme
théorique dans les sciences de la cognition. Dans cette entrée nous allons discuter les deux sens de la notion, et
passer en revue certains problèmes concernant les représentations mentales. Quels facteurs jouent un rôle dans
l’individuation des contenus mentaux ? Quels facteurs jouent un rôle dans la détermination du contenu des
représentations ? Comment intégrer les représentations mentales dans une conception physicaliste du monde ?
Comment distinguer entre structures cognitives non-représentationnelles et représentationnelles ? Quels sont les
formats possibles des représentations mentales ?
1. L’esprit représentationnel
a. Préliminaires
b. Qu’est-ce que représenter ?
c. Les états mentaux représentationnels
d. Théories du contenu mental : internalisme et externalisme
e. Les représentations mentales entre psychologie du sens commun et psychologie scientifique
2. Les représentations mentales en philosophie des sciences cognitives
a. La théorie représentationnelle-computationnelle de l’esprit
b. L’approche connexionniste des représentations mentales
3. Critiques de la notion de représentation mentale
a. Les positions anti-représentationalistes
b. Critères pour l’introduction des représentations mentales
4. Débats spécifiques sur les représentations mentales
a. Naturalisation des contenus mentaux
b. Le débat sur le format des représentations mentales
c. Représentations tacites
d. Représentations mentales et conscience
Bibliographie
1. L’esprit représentationnel
a. Préliminaires
Quand on parle de représentation mentale, il est utile de distinguer entre deux projets. Le premier projet prend pour
point de départ la psychologie du sens commun et les attributions quotidiennes d’états mentaux avec un contenu
aux autres agents (comme dans des énoncés tels que : « Il prend son parapluie parce qu’il croit qu’il va pleuvoir ce
soir »), et cherche à dégager les caractéristiques implicites des représentations à partir du rôle qu’elles jouent dans
la théorie tacite sous-jacente à la psychologie du sens commun. Le deuxième projet s’intéresse au rôle des
représentations mentales dans les théories scientifiques de la cognition et du comportement et essaie de dégager le
rôle des représentations mentales dans les explications scientifiques.
Dans les deux cas, il semble que les représentations mentales jouent un rôle crucial pour comprendre le
comportement complexe des agents. Pour prendre un exemple de comportement animal, une abeille qui butine en
cherchant du nectar navigue à travers le monde et communique avec les autres abeilles. Afin de pouvoir retracer le
chemin qui l’a menée à un champ de fleurs particulièrement goûteux, elle doit pouvoir se souvenir du chemin
parcouru, et, si elle veut que d’autres abeilles la suivent, communiquer la position du champ à ses camarades. Une
représentation mentale permet à l’animal de garder une trace mnémonique de la position du champ et lui donne la
possibilité de revenir le lendemain, et de communiquer la position du champ à d’autres abeilles par la danse (Gould,
1990). Employer des représentations mentales est donc une façon plus efficace de se diriger dans le monde que la
simple réaction aux stimuli immédiatement présents, comme le réflexe d’extension, où l’animal réagit directement à
une stimulation externe sans la représenter. Dans le cas d’êtres plus complexes, comme les êtres humains, les
représentations mentales leurs donnent la capacité de planifier l’avenir, se souvenir du passé, imaginer,
communiquer linguistiquement, prendre des décisions, etc.
b. Qu’est-ce que représenter ?
J’observe un coucher de soleil au bord de la mer et je forme dans mon esprit l’image d’un disque rouge derrière une
ligne horizontale entourée par de l’orange et du bleu. Je lis le roman « Anna Karénine » et j’essaie d’imaginer l’état
d’esprit de l’héroïne dans les dernières minutes avant sa décision finale. J’ouvre ce document et je pense aux
différentes façons dont les philosophes ont théorisé la notion de représentation mentale. J’ai soif, je désire un verre
de jus et, puisque je crois qu’il reste du jus dans le placard, je forme l’intention d’ouvrir la porte du placard pour
prendre le jus afin de le boire. Tous ces exemples mettent en jeu des états mentaux représentationnels. Un état
mental (comme une perception, un désir, une croyance, une intention, …) est représentationnel quand il est à propos
du monde ou des aspects du monde, c’est-à-dire quand il vise quelque chose (par exemple, un objet, une propriété,
ou bien un état de choses). Mon expérience visuelle pendant le coucher du soleil est à propos du coucher de soleil ;
mon état imaginatif est à propos des émotions d’Anna Karénine, mes pensées en écrivant ce document sont à propos
des théories philosophiques des représentations mentales. Ces exemples nous fournissent une définition ostensive
des états mentaux représentationnels avant toute théorisation. On appelle la propriété d’être à propos de quelque
chose ou de viser quelque chose, l’intentionnalité (un terme qui dérive de l’analyse du mental de Brentano, 1874)
(Pacherie, 1993 ; Jacob, 2004 ; Recanati, 2008, chapitre 7). Si la tradition analytique rend généralement compte de
l’intentionnalité en termes de représentation au point d’assimiler les deux notions, notons qu’il est possible de
distinguer entre visée intentionnelle et représentation, comme le fait la tradition phénoménologique (voir Moran,
2013).
Afin d’introduire le thème des représentations mentales de façon intuitive nous allons commencer par des exemples
de représentations qui nous sont plus familières : les représentations non-mentales. Un cas de représentation
non-mentale est une peinture figurative. Les peintures figuratives sont des représentations d’états de choses et
peuvent être caractérisées comme ayant deux aspects : un contenu représentationnel et un support matériel. Ainsi,
une image d’un chat sur la table représente un état de choses à un moment donné, même si l’image elle-même n’est
pas cet état de choses, mais en est une représentation. En même temps, une image est aussi un objet matériel, par
exemple la toile sur laquelle l’image a été dessinée, ou bien un ensemble de pixels sur notre téléphone portable.
Un autre exemple de représentation non-mentale est un code secret. Supposons que nous sommes complices dans
le vol d’un sac de bijoux et que nous avons créé un code pour communiquer la position du sac en public sans que les
passants puissent nous comprendre. Nous nous sommes accordés qu’un O fait par l’index et le pouce représente le
fait que le sac est caché sous le matelas de la chambre à coucher. Contrairement à une photographie, le code ne
ressemble généralement pas à la chose qu’il représente. Néanmoins, même s’il n’y a rien en commun entre le O fait
par mes doigts et la position du sac, le O représente la position du sac par convention (via notre stipulation au
moment de la création du code).
L’exemple de la peinture figurative et l’exemple du code secret exemplifient deux façons de représenter. Tandis que
les images représentent par ressemblance
ressemblance, le code secret représente par convention. Toutefois, la ressemblance
et la convention ne sont pas les seules façons de représenter. Paul Grice (Grice, 1957) a introduit la notion de
« signification naturelle » (natural meaning) pour désigner des cas où de l’information est indiquée par des états
de choses naturels. Par exemple, le nombre de cernes d’un tronc d’arbre indique son âge. Dans ce cas, la relation
entre le nombre de cernes et l’âge est une relation causale (ou plus précisément une relation de covariance) : l’âge
cause le nombre de cernes d’un tronc d’arbre, et en inversant cette relation, le nombre de cernes indique l’âge de
l’arbre. Bien que la relation de signification naturelle ne soit pas tout à fait de la représentation, pour des raisons que
nous verrons en section 1.c, c’est néanmoins un type de relation (quasi)-représentationnelle qui joue un rôle
important dans les projets de naturalisation du contenu, discutés dans la section 4.a.
En prenant comme guide les représentations non-mentales, nous commençons à esquisser la notion de
représentation mentale de manière plus précise. Une représentation mentale, tout comme une représentation non-
mentale, est à propos de quelque chose, puisqu’elle représente le monde sous un certain aspect, et elle a un support
qui réalise la représentation. Par soi-même, la notion de support est neutre par rapport au type de réalisation : une
représentation mentale pourrait être réalisée dans un support matériel (des neurones, des circuits d’ordinateur),
mais aussi dans un support immatériel (une âme).
Tout état mental est à propos de quelque chose : par exemple ma croyance que le lait est dans le frigo est à propos du
lait et de sa propriété d’être dans le frigo. En disant que mon état mental est à propos de quelque chose, on introduit
une ambiguïté entre ce qui serait le contenu propre de l’état mental et l’objet (ou propriété ou état de choses) dans le
monde auquel on pense. En suivant Prior (1971) on peut dire que le contenu est ce que je pense (what I’m thinking),
objet visé serait ce à quoi je pense (what I’m thinking about). Ainsi le contenu représente l’objet d’une
tandis que l’objet
certaine manière ou sous un certain aspect (Searle, 1983). Dans l’exemple de départ, il existe un objet que mon état
mental vise et auquel je pense (le lait). Mais ceci n’est pas toujours le cas : je peux penser aussi à des licornes ou à des
cercles carrés. Par exemple si je crois qu’il y a une licorne dans mon jardin, ma croyance a comme contenu la
proposition « qu’il y a une licorne dans mon jardin », mais elle n’a pas d’objet visé – pas de référent dans le monde
extra-mental.
Notons que la notion de contenu, telle que nous l’employons ici, est une notion délibérément vague, et à peu près
synonyme de « signification ». Un état mental avec un contenu représente le monde ou des aspects du monde, et son
contenu est la manière dont l’état représente le monde ou ses aspects. Nous allons discuter de certaines théories du
contenu dans la section 1.d, mais dans cette entrée nous laissons de côté une présentation approfondie des théories
du contenu (ou de la signification) en philosophie de l’esprit et du langage (voir entrée « langage », section 3,
[Link] et entrée « référence », [Link]
A travers les exemples des représentations non-mentales, nous pouvons aussi dégager trois façons de fonder
(partiellement) la relation de représentation : par convention, par ressemblance, par causalité. Nous allons
maintenant explorer ces façons de représenter plus en détail, à la fois dans le cas général d’une relation de
représentation, et dans le cas spécifique de la relation de représentation mentale. La question qui nous guide est :
laquelle parmi celles-ci arrive à mieux fonder la relation de représentation ?
Commençons par la convention. En simplifiant, dans le cas de la représentation par convention, le pouvoir
représentationnel vient d’une stipulation entre les interprètes du signe. La stipulation peut être explicite, comme
dans le cas du code secret, ou implicite, comme dans le cas des mots d’une langue naturelle, dont le sens est issu de
facteurs historiques. Une approche selon laquelle on ne représente que par convention serait-elle tenable ? Un
premier problème pour la convention est qu’il existe des relations représentationnelles qui ne sont pas fondées sur
la stipulation : par exemple la relation de covariance entre les cernes du tronc et l’âge de l’arbre, ou la relation de
ressemblance entre une image d’un chat et le chat.
Un autre problème pour la convention est que cette relation est fondée sur deux composantes : une stipulation et un
(ou plusieurs) interprète(s) du signe. C’est bien l’interprète qui attribue le sens au signe. Mais comment fait-il pour
attribuer un sens au signe ? C’est en vertu du fait qu’il possède des états mentaux dotés de sens, qui lui permettent
d’interpréter le signe. Par exemple, dans le cas du code secret ce sont nos croyances et nos intentions qui créent le
code. Mais alors, d’où vient le pouvoir représentationnel des états mentaux ? Si on accepte la thèse selon laquelle il
est issu de la convention on fait face à une régression à l’infini. Dans le cas des représentations mentales l’interprète
serait une entité interne au sujet qui pense, une espèce d’« homoncule », de sujet interprétant miniature. Mais, afin
que les états mentaux soient interprétés, l’homoncule interne possèderait aussi des états représentationnels, qui
sont les états qui donnent sens aux représentations mentales du sujet. Et comment les états de l’homuncule
acquirent-ils le pouvoir de représenter ? Par la définition de la convention, d’un autre sujet interprétant. Et ainsi de
suite. Comment bloquer cette régression à l’infini ? Si on est un philosophe dualiste, comme Descartes, on postule
que l’homoncule interprétant est une âme immatérielle donnée par Dieu. En revanche, si on est un philosophe
naturaliste, pour bloquer cette régression il faut trouver une relation de représentation sans interprète, ou bien
réduire l’interprète à une composante mécaniste et naturaliste du système cognitif (comme dans l’approche de
Barbara Von Eckardt, 1995, qui s’inspire de Charles Peirce).
On arrive ainsi à un présupposé crucial dans la littérature sur les représentations mentales. Les représentations
mentales représentent de façon fondamentale. Ce sont les porteurs ultimes du sens. Les mots dans un livre sont
aussi à propos de quelque chose (par exemple à propos d’Anna Karénine et son histoire), mais ils ne le sont que de
façon dérivée : ils reçoivent leur pouvoir représentationnel de celui des états mentaux de l’auteur qui les a écrits.
Mais les états mentaux de l’auteur ne reçoivent pas leur pouvoir représentationnel d’autres états
représentationnels. On distingue ainsi entre deux genres d’intentionnalité : l’intentionnalité non-dérivée ou
originelle, et l’intentionnalité dérivée
dérivée. Les représentations non-mentales artificielles ont leur intentionnalité
de façon dérivée, c’est-à-dire à partir des états intentionnels de leur créateur (ou de leur interprète). Dans les mots
de John Haugeland : « Au moins certains symboles externes (par exemple, un code secret sur lequel toi et moi nous
nous accordons explicitement) sont intentionnels de façon dérivée – c’est-à-dire qu’ils héritent leur intentionnalité
de quelque chose d’autre qui a déjà le même contenu (comme la stipulation dans notre accord). Et, cette autre chose
peut elle aussi avoir son contenu de façon dérivée de quelque chose d’autre encore ; mais, évidemment, ce
[processus] ne peut pas continuer à l’infini. » (Haugeland, 1998a, p. 129).
Cette distinction n’est pas universellement acceptée : par exemple, Daniel Dennett la rejette en faveur de la thèse
selon laquelle il n’y a pas de distinction entre intentionnalité originelle et intentionnalité dérivée (Dennett, 1994).
Cependant c’est une position minoritaire, et, si on accepte cette distinction, on fait face à la question de la source du
pouvoir représentationnel des états intentionnels originaux.
Le deuxième candidat pour fonder la relation de représentation est la relation de ressemblance
ressemblance. Dans le cas des
représentations non-mentales, une image représenterait le chat sur la table en vertu du fait qu’elle ressemble à l’état
des choses dépeint sur l’image. La ressemblance, cependant, échoue à fonder la relation de représentation,
puisqu’elle n’est ni nécessaire ni suffisante pour représenter, comme l’a montré Nelson Goodman dans une critique
très influente de la ressemblance (Crane, 2015; Cummins, 1989; Goodman, 1951).
La ressemblance n’est pas nécessaire puisqu’il existe des représentations qui représentent sans ressembler aux
objets représentés, comme on vient de le voir dans le cas de la représentation par convention, ou de la signification
naturelle. Elle n’est pas non plus suffisante puisqu’on trouve des choses qui se ressemblent sans se représenter : par
exemple, je ressemble à ma mère, mais je ne suis pas une représentation de ma mère. De plus, la ressemblance est
une relation réflexive, et toute chose ressemble trivialement à soi-même, mais ceci n’implique pas que toute chose
se représente. En effet, tandis que la relation de représentation peut être asymétrique et non-réflexive, la relation
de ressemblance est à la fois symétrique et réflexive. Enfin, la ressemblance échoue à fonder la représentation des
idées abstraites, ou des relations logiques. Comment dessiner la négation d’un énoncé, par exemple qu’il ne pleut
pas ? On pourrait le faire en mettant une croix sur l’image d’un paysage pluvieux. Mais ce qui fait que la croix
représente une négation est en fait une stipulation portant sur le sens de la croix, et non pas la ressemblance. Le fait
que les images aient besoin d’interprétation pour représenter est un point discuté par Ludwig Wittgenstein dans les
Investigations Philosophiques : quand je vois l’image d’un vieillard qui monte sur une colline à l’aide d’un bâton,
pourquoi l’image ne serait-elle pas plutôt celle d’un vieillard qui glisse vers le bas de la colline dans la même
position ? (Wittgenstein, 1953/1986, p. 53e § 139).
Dans le cas des représentations mentales réalisées dans le cerveau, il est encore moins plausible qu’elles
ressemblent aux choses qu’elles représentent : un réseau de neurones ne ressemble pas à l’état de choses qu’un chat
est sur la table. Même si la ressemblance ne peut pas fonder la relation de représentation de manière générale, des
théories récentes proposent une notion de ressemblance plus raffinée, où on ne parle plus de ressemblance de
premier ordre, mais d’homomorphisme, ressemblance de deuxième ordre (O’Brien & Opie, 2004). En effet, dans les
sciences cognitives les expériences sur les cartes rétinotopiques et sur les cartes cognitives de navigation (Gallistel,
2007) suggèrent que certaines représentations mentales (mais pas toutes) peuvent être dans une relation
d’homomorphisme avec les objets qu’elles représentent, par le biais d’une relation de « ressemblance structurelle ».
Le dernier candidat pour fonder la relation de représentation est la relation de causalité : une photographie
représente un chat sur la table non pas parce qu’elle lui ressemble, mais parce qu’il y a eu un contact causal au
moment où la photo a été prise. Prenons un exemple de Dennis Stampe : qu’est-ce qui fait qu’une photo de Marie
représente Marie et non pas sa sœur jumelle identique Perrine ? Ce n’est pas la ressemblance (la photo ressemble à
la fois à Marie et à Perrine), mais c’est le fait que Marie a été, à un moment, dans la bonne relation causale à l’appareil
photographique qui a produit la photo (Stampe, 1977). Dans le cas des représentations mentales le fait que ma
représentation mentale représente un chien serait alors dû à l’existence d’une relation causale entre la
représentation et la présence de chiens.
La solution causale au problème de la relation de représentation n’est pas sans problèmes. Supposons que je reçoive
un coup sur la tête qui provoque l’activation d’une représentation de chiens, même si aucun chien n’est présent.
Intuitivement, bien qu’un lien causal existe, nous ne voudrions pas de théorie qui laisse la porte ouverte à la
possibilité que ma représentation mentale des chiens soit activée soit par la présence de chiens soit par des coups
sur la tête. En conséquence, même les philosophes qui défendent l’option causale admettent qu’elle n’est pas
suffisante par elle-même pour fonder la relation de représentation (Dretske, 1981 ; Fodor, 1987).
Pour résumer cette sous-section, les représentations sont caractérisées par la propriété d’être « à propos » de
quelque chose, propriété qu’on appelle l’« intentionnalité ». Il existe plusieurs candidats pour fonder la relation de
représentation : convention, ressemblance, causalité. Aucun de ces candidats ne réussit à rendre compte
parfaitement de la façon dont les représentations en général, et les représentations mentales en particulier,
représentent. La plupart des philosophes acceptent la thèse selon laquelle le pouvoir représentationnel des
représentations mentales est plus fondamental que celui des représentations non-mentales, et distinguent ainsi
entre intentionnalité originelle (ou non-dérivée) et intentionnalité dérivée.
Clarifications
Avant d’entrer dans le vif du sujet, il est important de dissiper tout de suite certaines confusions à propos de la (ou
plutôt des) notion(s) de représentation mentale.
1 ère confusion : On découvre les représentations mentales par introspection, ce qui met en danger l’objectivité
des théories scientifiques qui les emploient.
Bien qu’il soit vrai que, quand on recourt à l’introspection, on a l’impression de « voir » des images ou de penser par
des mots, il est important ici de distinguer entre deux approches des représentations mentales. D’un côté, on a la
conception moderne des représentations mentales (endossée par des philosophes comme Descartes, Hobbes,
Hume, Berkeley, Locke), selon laquelle la pensée est définie comme tout ce dont je m’aperçois immédiatement
par moi-même : « Par le mot de penser j’entends tout ce qui se fait en nous de telle sorte que nous l’apercevons
immédiatement par nous-même ; c’est pourquoi non seulement entendre, vouloir, imaginer, mais aussi sentir, est la
même chose que penser. » (Descartes, 1644/2009, p. 56). De l’autre, les représentations mentales sont considérées
comme des postulats théoriques introduits pour expliquer des comportements et des phénomènes observables
et quantifiables en 3ème personne. En tant que postulats théoriques elles sont découvertes en employant des
méthodes expérimentales et des inférences à la meilleure explication. Les effets psychologiques (Cummins, 2000)
jouent un rôle crucial dans la découverte des représentations mentales. Combien de temps faut-il au sujet pour
compléter une tâche ? Combien d’objets peut-il retenir dans sa mémoire à court terme ? Est-il plus facile de se
souvenir de traits particuliers (orientation, couleur, forme…) ou de traits attachés à un objet (un cube rouge penché
vers la gauche) ? Pour une discussion du rôle des effets psychologiques dans la découverte des représentations
mentales, voir Smortchkova et Murez (2020).
2 ème confusion : Introduire les représentations mentales dans notre façon d’appréhender le monde implique
forcement une position internaliste, et entraîne le scepticisme quant à l’existence des objets externes à mon esprit.
La notion de « voile de la perception » désigne l’idée selon laquelle si nous sommes conscients des représentations
d’objets externes, mais non pas des objets eux-mêmes, alors notre perception constitue comme un « voile » entre
nous et la réalité, et ne nous permet pas de voir la réalité telle qu’elle est (J. Bennett, 1971 ; Huemer, 2001). On parle
ici souvent de position « représentationaliste », exemplifiée par les philosophes empiristes, qui ont soutenu la thèse
selon laquelle nous ne connaissons pas les choses de façon immédiate, mais par la médiation d’idées, sense-data,
représentations. Dans sa version la plus radicale, le voile de la perception est synonyme de scepticisme à propos de
la possibilité de connaître le monde extérieur. La critique du voile de la perception soulève des questionnements en
théorie de la connaissance et en phénoménologie. Comment garantir l’existence des objets externes si je ne suis en
contact qu’avec des entités mentales ? Comment réconcilier la position représentationaliste avec l’expérience
subjective que nous percevons les objets eux-mêmes, et non pas des représentations de ceux-ci (principe de la
transparence) ? Il serait cependant erroné de conclure de ces problèmes épistémologiques et phénoménologiques
qu’il n’y a pas de représentations mentales, si par « représentation mentale » on entend non pas une entité
essentiellement accessible en première personne, mais un postulat théorique. Ainsi il faut distinguer la notion de
représentation mentale, telle qu’elle figure dans les sciences de la cognition, de la notion empiriste de sense-datum.
C’est pourquoi Richard Rorty note que la conception de l’esprit de Jerry Fodor comme un système de
représentations mentales n’a que peu à voir avec l’image de l’esprit comme miroir de la nature qu’il critique (Rorty,
1979/2009, p. 246). Les questions de théorie de la connaissance posées par la conception des représentations
mentales comme objets immédiats de la perception et de l’introspection trouveraient leur place dans une entrée sur
l’épistémologie de la perception, et nous allons les mettre de côté ici.
3 ème confusion : Quand on parle de représentation mentale, on postule littéralement des images ou des mots dans
le cerveau.
En philosophie de l’esprit, la thèse représentationnelle est qu’il existe des entités mentales avec des caractéristiques
sémantiques. Mais cette thèse laisse ouverte la question de la réalisation des représentations. Même dans les
sciences cognitives, la thèse représentationnelle n’est généralement pas que le cerveau contient des images ou des
mots qui peuvent être observés (sauf peut-être pour Thomson & Piccinini, 2018, qui pensent qu’on peut observer
directement les représentations mentales dans le cerveau, même si ils ne se prononcent pas sur leur format) ; au
contraire la thèse représentationnelle est le plus souvent formulée à un niveau de description plus abstrait que le
niveau neuronal, qu’on appelle le niveau algorithmique-représentationnel (Marr, 1982). Cette description est
compatible avec nombre de façons dont les représentations mentales pourraient être « réalisées ».
4 ème confusion : Confusion entre véhicule représentationnel et contenu représentationnel.
Il ne faut pas confondre le contenu de la représentation (la manière dont un objet représente quelque chose) avec
le véhicule de la représentation (ce avec quoi l’on représente). Dennett décrit la distinction ainsi : « En général, nous
devons distinguer les propriétés du représentant des propriétés des représentés ; quelqu’un pourrait crier
« doucement, sans bruit » avec toute la force de ses poumons, il existe des images géantes d’objets microscopiques,
et des peintures à l’huile d’artistes dessinant des croquis au fusain. » (Dennett & Kinsbourne, 1992, p. 188). On
remarque aussi que la notion de « véhicule » inclut à la fois le format et le support dans lequel la représentation est
réalisée. Des représentations avec le même contenu pourraient avoir des formats différents : on peut représenter le
chemin entre ma maison et mon bureau en dessinant une carte qui indique leurs positions respectives, mais aussi
par l’énoncé « Après le parc, tourne à gauche jusqu’au boulevard Daumesnil ». On peut aussi représenter le même
contenu avec des formats différents, mais dans un même support matériel : un dessin d’un chat et le mot « chat »
peuvent être réalisés dans du sable si je dessine et j’écris sur la plage.
c. Les états mentaux représentationnels
Que veut-on dire quand on affirme qu’une représentation mentale représente ? Pour l’instant aucune définition
précise de « représentation mentale » n’a été donnée, et à la place nous avons introduit le pouvoir représentationnel
de l’esprit en faisant appel à des états mentaux représentationnels, comme les croyances, les désirs, les
intentions. Nous pouvons donc reformuler la question de la façon suivante : que signifie qu’un état mental est
représentationnel ?
Suivant Bertrand Russell, on appelle certains états mentaux des « attitudes propositionnelles » (Russell,
1918/2009). Cette expression indique qu’un état mental, par exemple une croyance, est composé de deux éléments :
un contenu et une attitude. Quand on parle d’attitude propositionnelle on indique que le contenu est une
proposition : dans l’expression « Je crois que le lait est au frigo », « je » est le sujet de l’attitude propositionnelle,
« crois » est l’attitude, et « que le lait est au frigo » est la proposition. On identifie les propositions par le préfixe
« que », même si on peut trouver des propositions qui ne sont pas introduites par « que », par exemple dans
l’expression « j’ai l’intention d’ouvrir la porte ». Identifier le contenu d’une attitude avec une proposition n’est pas
tout à fait heureux et risque de nous faire croire que les seuls contenus possibles pour les états mentaux soient des
propositions. Or, il existe des contenus qui ne sont pas propositionnels, par exemple les contenus de certains états
perceptifs qui sont exprimés par des énoncés comme « Je vois la mer bleue » et non pas par des énoncés comme « Je
vois que la mer est bleue » (Crane, 2009).
L’attitude
attitude indique la façon dont nous nous rapportons au contenu : par exemple, je peux croire que le lait est dans le
frigo, mais je peux aussi espérer que le lait soit dans le frigo. Dans ce cas, il y a un seul contenu [lait dans le frigo],
mais deux attitudes différentes envers ce contenu, une attitude de croyance et une autre d’espérance. Selon une
théorie influente des attitudes, ce qui distingue entre, par exemple, ma croyance et mon espoir sont leurs rôles
fonctionnels respectifs, ou plus précisément les rôles fonctionnels des types d’attitudes (type croyance et type
espoir). Un rôle fonctionnel est identifié par la place de l’état mental dans l’économie cognitive du sujet qui pense,
par ses relations avec les autres états mentaux, et par ses relations avec les comportements (Lewis, 1980).
Les états mentaux ont plusieurs caractéristiques sémantiques en vertu du fait que ce sont des états
représentationnels. En suivant John Searle, nous pouvons employer l’analogie entre actes de langage et états
mentaux afin de dégager les caractéristiques sémantiques des états mentaux représentationnels (Searle, 1979,
1983). Ces caractéristiques sont : les conditions de satisfaction (ou vérité), l’aspectualité,
aspectualité, et la direction
d’adéquation.
Les conditions de satisfaction ou de vérité sont les conditions sous lesquelles la représentation représente
correctement ou incorrectement. En d’autres termes, le contenu d’un état mental consiste dans les conditions de
vérité ou de satisfaction qui identifient les conditions selon lesquelles la représentation réussit ou échoue à faire
référence à son objet intentionnel, et à lui attribuer telles ou telles propriétés. Les conditions de vérité ou
satisfaction sont donc les conditions sous lesquelles ma croyance est vraie, mon désir est satisfait, mon intention
réalisée, et ainsi de suite. Les états mentaux représentationnels peuvent être erronés (on appelle cela aussi de la
« méprise représentationnelle » ou « méreprésentation ») : si je suis dans le désert et que je vois une oasis qui n’existe
pas, je suis victime d’un mirage et ma représentation perceptive est fausse. Même les désirs peuvent « se tromper »
et méreprésenter. Dans ce cas l’erreur n’est pas par rapport à l’état du monde représenté, mais par rapport à la
possibilité de réaliser le désir en question. La possibilité de méprise représentationnelle est souvent considérée
comme la caractéristique principale des représentations mentales (Dretske, 1986), d’où le slogan « pas de
représentation sans méreprésentation » (Dennett, 1988). On comprend ainsi pourquoi l’indication naturelle n’est
pas tout à fait de la représentation : il n’y a pas de place pour l’erreur dans une relation d’indication naturelle, par
exemple on ne trouve pas de cas où le nombre de cernes du tronc méreprésente l’âge de l’arbre.
Selon la thèse de l’aspectualité
aspectualité des états mentaux intentionnels, tout état mental présente son contenu sous un
certain aspect (Searle, 1992). Ceci signifie que tout objet, propriété ou état de choses est présenté à l’esprit sous
certains points de vue ou « modes de présentation », mais pas d’autres. Par exemple, je peux désirer boire de l’eau,
sans désirer boire de l’H2O, même si eau et H2O sont deux manières de faire référence au même objet. Je peux voir
Milou comme un chat câlin, sans le voir comme un chasseur redoutable (même s’il est les deux). Bien que la locution
« voir comme » pourrait suggérer une lecture conceptualiste de l’aspectualité, c’est-à-dire suggérer que nous ayons
besoin de concepts afin de voir un objet sous un aspect, la thèse de l’aspectualité est plus large. Nous pouvons par
exemple voir des aspects d’un objet même si nous ne possédons pas les concepts pertinents pour les catégoriser.
Quand on passe du niveau des états mentaux au niveau des attributions d’attitudes propositionnelles (par le
langage) on appelle les contextes dans lesquels on ne peut pas remplacer des expressions coextensionnelles ou
coréférentielles salva veritate, des contextes « intensionnels ». Des expressions sont échangeables salva veritate si
elles peuvent être inter-changées sans altérer la valeur de vérité de l’énoncé où elles apparaissent. L’intensionnalité
est une propriété logique des énoncés, et s’oppose à la notion d’« extensionnalité ». Par exemple, « étoile du matin »
et « étoile du soir » ont la même extension parce que ce sont des expressions vraies d’un même individu : la planète
Venus, mais elles ont des intensions différentes parce que « étoile du matin » n’a pas la même signification que
« étoile du soir » (Frege, 1892). Ainsi, nous pouvons attribuer à un individu la croyance « que l’étoile du matin est
lumineuse » sans lui attribuer la croyance « que l’étoile du soir est lumineuse », sans contradiction, s’il ne sait pas que
ces deux expressions réfèrent au même individu. L’intensionnalité pourrait être un critère, ou du moins un
symptôme, pour distinguer entre les énoncés qui rapportent des états intentionnels et les autres énoncés (Chisholm,
1957). Néanmoins, on trouve aussi des contextes intensionnels dans des énoncés où il n’est apparemment pas
question d’états intentionnels – par exemple dans les contextes modaux (« Le nombre de planètes est
nécessairement égal à huit. » vs. « Huit est nécessairement égal à huit. »)
Enfin, les états mentaux peuvent différer selon leur direction d’ajustement (Anscombe, 1957). La direction
d’ajustement détermine si l’état mental doit se conformer au monde pour être vrai ou si c’est le monde qui doit se
conformer à l’état mental pour le réaliser. Les directions d’ajustement sont donc de deux types : du monde à
l’esprit et de l’esprit au monde. Les états mentaux qui ont une direction d’ajustement du monde à l’esprit peuvent
être satisfaits ou pas, selon que le monde se conforme ou non à ces états. C’est le cas des désirs, des espoirs, des
intentions, etc. Mon désir de réussir le concours est satisfait seulement dans le cas où je réussis le concours, c’est-à-
dire dans le cas où le monde se conforme à mes désirs ; dans le cas contraire, mon désir n’est pas satisfait. Les états
mentaux qui ont une direction d’ajustement de l’esprit au monde, en revanche, sont vrais quand ils décrivent
correctement le monde. Par exemple, ma croyance que la terre est ronde est vraie si la terre est vraiment ronde, et
est fausse s’il s’avère qu’elle est plate. Ma croyance décrit le monde tel qu’il est, et elle est fausse si elle échoue à
décrire le monde tel qu’il est.
Enfin, on peut se demander si tous les états mentaux sont représentationnels. Selon certains philosophes il existe
des états mentaux qui n’ont pas de contenu représentationnel, mais simplement un caractère qualitatif (Aydede,
2009). Les états de douleur sont des exemples possibles. Quand je me coupe un doigt, je ressens une douleur aigue,
mais, même si la source de la douleur est la blessure (un certain dommage corporel), l’expérience ne représente pas
forcement la blessure. C’est peut-être plus parlant dans le cas d’une douleur chronique, qui n’est pas à propos d’une
zone endommagée du corps en particulier, mais consiste en un état généralisé qui absorbe tout mon esprit et mon
attention. En revanche, les philosophes qui défendent une approche représentationnelle de tous les états mentaux,
y compris la douleur, essaient de trouver un contenu représentationnel pour tout état mental (Tye, 1995a).
En conclusion de cette section on peut esquisser les contours de la notion de représentation mentale comme entité
mentale avec des caractéristiques sémantiques (conditions de satisfaction ou vérité, aspectualité, et direction
d’ajustement).
d. Théories du contenu mental : internalisme et externalisme
Les mots et les énoncés ont un sens. Mais nos pensées et états mentaux ont aussi un sens. Quand on parle des
théories de la signification, il faut distinguer entre deux façons de comprendre cette expression. La première indique
les théories sémantiques qui décrivent les significations des expressions du langage (des théories qui attribuent
systématiquement des contenus sémantiques aux expressions du langage). La deuxième façon indique les théories
de la signification fondamentales ou fondationnelles, qui cherchent les composantes ultimes du sens de nos
expressions et qui les trouvent souvent (mais pas toujours) dans des facteurs mentaux (Speaks, 2010).
Une théorie fondationnelle possible de la signification linguistique propose que le sens des expressions linguistiques
provient du sens des états mentaux correspondants. Mais d’où vient le sens des états mentaux eux-mêmes ? Cette
question peut être analysée en deux sous-questions. D’un côté, on peut se demander quels sont les facteurs qui font
qu’un état mental a un certain type de contenu, par exemple, les facteurs qui font qu’il soit à propos des chats, et non
pas des chiens. De l’autre, l’on peut aussi se demander quels facteurs jouent un rôle dans l’individuation
individuation du
contenu des états mentaux (en général).
Nous allons nous concentrer dans cette sous-section sur cette dernière question : comment les contenus des états
mentaux sont-ils individués ?
Selon la position internaliste concernant le contenu les seuls facteurs qui comptent sont les facteurs internes au
sujet, comme les propriétés de son corps et de son cerveau. Une copie parfaite d’un sujet pensant aurait exactement
les mêmes pensées avec les mêmes contenus que le sujet d’origine. De même un cerveau dans une cuve aurait le
même contenu mental que ne l’aurait une personne normale au cerveau identique, si elle était située à l’extérieur de
la cuve. Selon la position externaliste du contenu, en revanche, les facteurs qui comptent sont externes, ou plus
précisément, ce sont les interactions causales du sujet avec ces facteurs externes qui déterminent le contenu. Une
copie parfaite d’un sujet pourrait ne pas avoir les mêmes pensées avec le même contenu que le sujet originel, si elle
est intégrée dans un autre contexte naturel ou social.
On parle aussi de contenu étroit et de contenu large : si le contenu étroit est individué par des facteurs internes au
sujet, le contenu large est quant à lui individué par des facteurs externes au sujet. Les externalistes affirment que le
contenu mental est large, tandis que les internalistes affirment qu’il est étroit. Une position mixte postule deux
niveaux de contenus : étroit et large.
Afin d’introduire l’externalisme du mental nous allons présenter deux expériences de pensée qui ont joué un rôle
proéminent dans la défense de l’externalisme du mental. La première expérience est celle de la « terre jumelle » de
Putnam (1975), la deuxième est celle de l’arthrite de Burge (1979). Selon Putnam, l’approche internaliste du contenu
s’appuie sur le présupposé selon lequel le contenu d’un concept est constitué par les états psychologiques du sujet,
et le contenu détermine la référence du concept. C’est une approche dérivée de la doctrine frégéenne du sens et de
la référence, et de l’idée que le sens linguistique d’un nom propre est fixé par une description définie que le locuteur
associe avec ce nom. Cette idée a été d’abord remise en question en philosophie du langage par la production de cas
où le sens ne détermine pas la référence (Burge, 1992). Par la suite, l’externalisme au sujet des concepts et des
termes associés montre que la référence des termes et concepts ne dépend pas des descriptions, croyances,
capacités à reconnaître et discriminer que le sujet associe avec le terme, mais plutôt des relations que le sujet
entretient avec des facteurs externes à sa cognition.
Ainsi, Putnam nous demande d’imaginer une planète similaire à la Terre sous quasiment tous les aspects, sauf un : si
sur la Terre la structure moléculaire de l’eau est H2O, sur Terre Jumelle cette structure est XYZ. L’eau ne diffère pas
dans son apparence entre Terre et Terre Jumelle : sur les deux planètes c’est un liquide transparent qui étanche la
soif et peut être utilisé pour arroser la végétation, ou pour préparer un thé, etc. Les croyances à propos de l’eau des
habitants de la Terre et des habitants de la Terre Jumelle sont pareilles en tous points. Supposons que nous sommes
en l’année 1750, avant le développement de la chimie et la découverte de la structure moléculaire de l’eau (H2O) sur
Terre et de l’eau (XYZ) sur Terre Jumelle. Pour Putnam, quand un terrien parle de l’eau ou pense à l’eau en 1750, il
fait référence à l’élément ayant la structure moléculaire H2O, tandis que l’habitant de la Terre Jumelle, quand il
pense à l’eau ou parle de l’eau, fait référence à la structure XYZ, même si leurs croyances (étroites) à propos de l’eau
sont les mêmes. Ce qui détermine la référence, pour Putnam, c’est la structure chimique et non pas les croyances
associées au concept « eau ». Même si les deux individus sont dans les mêmes états psychologiques quand ils
pensent à l’eau ou parlent de l’eau, leurs concepts ne réfèrent pas à la même chose dans le monde, et ont des sens
différents.
Si l’externalisme de Putnam se limite aux concepts d’espèce naturelle et aux facteurs naturels, Burge étend
l’externalisme de deux façons. D’une part ce sont non seulement les facteurs naturels, mais aussi les normes sociales
qui jouent un rôle dans l’individuation des contenus ; d’autre part, l’externalisme s’applique non seulement à des
concepts d’espèces naturelles, mais aussi aux concepts d’artefacts, aux perceptions, et même aux états de mémoire.
Dans l’expérience de pensée de Burge, un individu (Bert) a des croyances à propos de l’arthrite, dont beaucoup sont
vraies. Toutefois, il croit aussi qu’il a de l’arthrite dans la cuisse (Burge, 1979). Quand il va se plaindre au médecin,
son médecin l’informe qu’il ne souffre pas d’arthrite, puisque ce n’est qu’une maladie des articulations. Dans un autre
contexte vit Bert-Jumeau, une copie parfaite de Bert, mais qui grandit et vit dans une communauté linguistique où le
terme « arthrite » réfère à la fois à une maladie des articulations et à une maladie des muscles. Dans ce contexte,
Bert-Jumeau n’a pas de croyance fausse s’il croit qu’il a de l’arthrite dans la cuisse, et son médecin ne le corrige pas
au cours de la visite. La différence entre Bert et Bert-Jumeau n’est pas dans leurs états internes, mais dans leurs
communautés linguistiques et dans les normes d’usage du concept « arthrite », normes établies par les experts de
leurs communautés respectives.
Même si la position externaliste reste dominante en philosophie de l’esprit, on assiste à un retour de l’internalisme,
notamment grâce à David Chalmers (Chalmers, 2003) et Gabriel Segal (Segal, 2000), parmi d’autres, qui essaient de
formuler une version de l’internalisme répondant aux objections externalistes.
Un autre type d’externalisme est l’externalisme du véhicule, défendu par Andy Clark et David Chalmers (Clark &
Chalmers, 1998). Dans leur approche, non seulement le contenu d’un état mental est déterminé par des facteurs
externes, mais aussi le véhicule de l’état mental lui-même (en tant qu’objet matériel sous-tendant des processus
cognitifs) peut être externalisé. Leur argument est fondé sur le « principe de parité ». Imaginons deux personnes qui,
chacune à leur manière, gardent en mémoire l’endroit où se trouve le musée d’art moderne de New York. Inga, dont
la mémoire marche parfaitement, retient l’information dans son cerveau. Otto, qui souffre de la maladie d’Alzheimer,
écrit l’information dans un carnet, qu’il conserve toujours à proximité. Les rôles fonctionnels de l’état cérébral d’Inga
et de celui du carnet d’Otto sont les mêmes : les aider à s’orienter dans New York et à retrouver le musée. Selon
Clark et Chalmers, on peut alors affirmer que l’état mental mnémonique d’Otto a été externalisé dans le carnet.
Les adversaires de cette position reprochent au théoricien de l’esprit étendu de commettre le sophisme de la
« constitution – couplage » : il introduit un cas où un objet ou un processus est couplé à un agent cognitif, et en
conclut que cet objet ou ce processus constitue le processus cognitif de l’agent (Adams & Aizawa, 2010). Cette
objection s’appuie sur une prémisse cachée de l’argument de parité : on définit le rôle fonctionnel d’un état cognitif
de façon assez large et abstraite de manière à ce que la distinction entre objet ou processus qui entre dans une
relation de constitution et objet ou processus qui entre dans une relation causale est brouillée. En arrière-plan se
trouve un débat sur la « marque du cognitif » : qu’est-ce qui fait qu’un processus est cognitif plutôt que non-cognitif ?
Pour Adams et Aizawa, comme pour nombre d’autres philosophes, la cognition est constituée par des processus
causaux impliquant des contenus non-dérivés. Cependant, d’autres approches sont possibles. Par exemple Morgan
(2014) critique cette position en montrant qu’on peut trouver des contenus non-dérivés même dans des entités non-
cognitives, comme des plantes, et suggère d’autres critères pour démarquer la cognition de la non-cognition.
Pour résumer, si pour l’internalisme ce qui compte dans l’individuation des contenus mentaux sont les facteurs
internes (corps et cerveau), pour l’externalisme ce sont les interactions causales avec des facteurs naturels et
sociaux qui sont constitutives de l’individuation des contenus. Dans l’hypothèse de l’esprit étendu, non seulement
les contenus, mais aussi les véhicules peuvent être individués au-delà du corps.
e. Les représentations mentales entre psychologie du sens commun et psychologie scientifique
L’approche des représentations mentales que l’on a présentée jusqu’ici les conçoit comme étant attribuées au sujet
entier, par exemple quand on dit que « Jean croit que Paris est une grande ville ». Mais en sciences cognitives, les
représentations mentales ne sont pas toujours attribuées à un sujet entier. Elles peuvent aussi être attribuées à des
facultés ou à des processus cognitifs du sujet. Par exemple, des représentations des angles des objets sont
introduites pour expliquer le fonctionnement de la vision de bas niveau, et de telles représentations ne sont pas
consciemment accessibles par le sujet (Marr, 1982). Ceci pose la question du lien entre les deux types d’attributions
de représentations mentales.
On peut analyser ce lien en faisant appel aux notions de « personnel » et « sous-personnel » (Dennett, 1969/2010).
Cette distinction a reçu de multiples interprétations. Pour Dennett, au niveau personnel, on fournit des explications
non mécanistes du comportement d’une personne, qui font appel aux états mentaux du sujet entier, et qui arrivent
vite à leur terme. Au niveau sous-personnel, en revanche, on analyse la personne en sous-systèmes organisés et on
explique le comportement de la personne comme étant le résultat de l’interaction entre ces sous-systèmes. Les
sous-systèmes sont à leur tour analysables en sous-sous-systèmes, de sorte que les explications sous-personnelles
en appellent d’autres. Pour Dennett, cette distinction permet d’éviter le sophisme méréologique, qui consiste dans
l’usage de prédicats vrais du tout pour décrire les parties (par exemple quand on dit que les particules de l’eau sont
mouillées) et le sophisme de l’homoncule, qui consiste dans l’explication du comportement intelligent par le biais
d’un autre être également intelligent. Pour John McDowell, en revanche, cette distinction correspond à la
distinction sellarsienne entre le domaine des normes et des raisons, et le domaine des causes. Ainsi, pour lui, les
attitudes propositionnelles trouvent leur place dans des explications dans lesquelles « les choses sont rendues
intelligibles en étant révélées être, ou s’approchant d’être, comme elles doivent l’être du point de vue rationnel. »
(McDowell, 1985, p. 389).
Dans la première partie de cette entrée nous avons présenté les caractéristiques sémantiques des états mentaux
représentationnels. Ce sont les états que nous utilisons au quotidien pour essayer de comprendre les autres, prédire
leur comportement, et expliquer leurs actions. Par exemple, si je vois quelqu’un rater son avion, je fais appel aux
états mentaux pour expliquer pourquoi cette personne s’agite : elle est enragée et dépitée, et elle croit qu’elle ne
pourra plus rentrer chez elle à temps. On appelle cette théorie préscientifique consistant dans un ensemble de
principes largement partagés dans une communauté, la « psychologie du sens commun » (Stich & Ravenscroft,
1994).
La psychologie du sens commun est réaliste à propos de l’intentionnalité. Quand on explique le comportement d’une
personne, on lui attribue des états mentaux avec un contenu représentationnel causalement efficace dans la
production du comportement (voir entrée sur la causalité mentale : [Link]
Jerry Fodor décrit la présupposition réaliste ainsi : « La psychologie du sens commun marche si bien qu’elle disparaît.
Elle est comme une de ces voitures Rolls Royce mythiques dont les moteurs sont scellés une fois qu’elles quittent
l’usine ; seulement [la psychologie du sens commun] est mieux parce qu’elle n’est pas un mythe. Si quelqu’un que je
ne connais pas m’appelle à mon bureau de New York de – supposons – l’Arizona et prononce les mots « Voulez-vous
faire une présentation ici mardi prochain ? ». Je réponds : « Oui, merci. Je serai à votre aéroport avec le vol de
15 heures. ». Ceci est tout ce qui se passe, mais c’est plus que suffisant, le fardeau de prédire le comportement – de
combler le fossé entre énoncés et actions – est porté de façon routinière par la théorie. » (Fodor, 1987, p. 3)
Le réalisme intentionnel implique qu’il existe des états mentaux qui sont : a) sémantiquement évaluables ; b) ont un
impact causal dans la production des comportements ; c) sont décrits par des généralisations de la psychologie du
sens commun. Il ne faut pas oublier cependant que le réalisme intentionnel n’est pas la thèse selon laquelle la
psychologie du sens commun sera entièrement confirmée par la psychologie scientifique. C’est plutôt la thèse qu’il
existe des caractéristiques que nous pouvons découvrir en analysant la psychologie du sens commun et qui seront
aussi présentes dans la psychologie scientifique. Ainsi, pour Fodor, le réalisme intentionnel fera partie de la science
de la cognition (Fodor, 1987), mais avec des hypothèses supplémentaires. Mais certains philosophes ont soutenu
l’idée contraire selon laquelle la psychologie du sens commun sera complétement abandonnée, sur l’exemple du
phlogistique, en faveur d’explications scientifiques du comportement qui font appel au cerveau (P. S. Churchland,
1989, voir aussi l’entrée cerveau [Link] Pour Robert Cummins, qui défend une position
moins radicale, les représentations mentales dont parle la psychologie du sens commun sont tout à fait différentes
des représentations mentales dans les théories computationnelles de la cognition (Cummins, 1989).
Même si l’on accepte le réalisme intentionnel, la psychologie du sens commun reste silencieuse sur nombre de
questions concernant les représentations mentales. Elle ne nous donne pas une théorie de la structure des
représentations, ni du format des représentations, ni de l’origine des contenus mentaux, ni de l’interaction entre le
mental et le physique. Il faut se tourner ailleurs pour trouver des réponses à ces questions.
2. Les représentations mentales en philosophie des sciences cognitives
Depuis le « tournant cognitif » des années 1950, la notion de « représentation mentale » a été déterminante dans le
développement des sciences cognitives. Cette notion théorique est au cœur des projets de recherche en
neuroscience, psychologie cognitive, psychologie sociale, linguistique, intelligence artificielle, anthropologie
cognitive, et cognition animale. Elle est utilisée pour expliquer des capacités psychologiques comme le langage, la
perception, la mémoire, le raisonnement, la production des actions, etc. Historiquement, le « tournant cognitif » a été
accompagné par le retour de l’emploi des représentations mentales pour expliquer la cognition, contre le courant
behavioriste, qui visait à réduire au minimum le recours aux processus et entités mentaux dans les explications
psychologiques. Les découvertes scientifiques qui ont provoqué la disparition du béhaviorisme et la naissance des
sciences cognitives sont la grammaire universelle (voir entrée « langage » [Link]/langage-a) proposée par
Noam Chomsky pour expliquer le fonctionnement et l’apprentissage du langage (Chomsky, 1957/2002), la
découverte des limites de la mémoire à court terme par George Miller (Miller, 1956), la découverte des « cartes
mentales » utilisées pour naviguer l’espace par les humains et les animaux non-humains (Tolman, 1948), et le travail
sur l’intelligence artificielle de John McCarthy, Marvin Minsky, Allen Newell, et Herbert Simon (Miller, 2003).
De façon générale, dans les sciences cognitives, « représentation mentale » indique une structure qui collecte,
conserve, et contribue à la transmission de l’information. Les représentations mentales en sciences cognitives ne
sont pas simplement des entités avec des caractéristiques sémantiques, mais des entités physiques réalisées dans le
cerveau et qui possèdent aussi des propriétés syntaxiques et matérielles. En tant qu’objets physiques réalisés dans
des structures matérielles, les représentations mentales participent aux processus cognitifs qui constituent la
pensée ; en tant qu’objets avec un contenu et des caractéristiques sémantiques elles expliquent le comportement en
termes intentionnels (Dretske, 1991).
Il existe plusieurs approches des représentations mentales dans les sciences cognitives, qui diffèrent quant au rôle
qu’elles attribuent aux représentations mentales et quant au type de structure que possèderaient les
représentations.
a. La théorie représentationnelle-computationnelle de l’esprit
La théorie représentationnelle-computationnelle de l’esprit est sans doute le paradigme le plus influant et le plus
fécond dans les sciences de la cognition. Kim Sterelny le résume ainsi : « Une théorie computationnelle de la
cognition et une approche des relations causales entre l’esprit et le monde expliquant comment nous possédons des
esprits qui représentent. La décomposition de capacités complexes en capacités plus simples, en combinaison avec
une approche de la manière dont des opérations simples peuvent être bâties dans l’organisation physique de l’esprit,
expliquent comment nous possédons des esprits computationnels. » (Sterelny, 1990, p. 40).
Bien que pour la plupart des philosophes les computations ne soient pas séparables des représentations – une idée
exprimée par le slogan « pas de computation sans représentation » (Fodor, 1981) – des développements récents en
théorie de la computation ont remis en question cette connexion nécessaire. Par exemple, Gualtiero Piccinini a
récemment défendu une approche de la computation qui ne fait pas appel aux représentations, en définissant des
computations sur des véhicules sans référence à leur contenu sémantique (c’est-à-dire sur des objets physiques non
représentationnels) (Piccinini, 2008). Une présentation de la computation sans représentation est au-delà de la
portée de cet article et dans le cadre de cette entrée, on présupposera que pour les êtres dotés d’un esprit les
computations sont définies sur des représentations (mentales), des objets mentaux avec des caractéristiques
sémantiques, des propriétés syntaxiques, et des propriétés matérielles.
L’idée que penser est faire des computations est souvent résumée par l’expression de la « métaphore de
l’ordinateur » : l’esprit serait (comme) un ordinateur (digital). Toutefois, il faut déconstruire le mythe de la métaphore
de l’ordinateur. D’une part, les recherches sur les computations et les ordinateurs ont été inspirées au départ par le
fonctionnement de la cognition humaine et du système nerveux (McCulloch & Pitts, 1943), ainsi que par l’existence
de « machines computationnelles » humaines, par exemple à la NASA (qui étaient souvent des femmes, dont le rôle
était de faire des calculs pour prédire les trajectoires). De ce point de vue, c’est l’ordinateur qui est modélisé sur le
fonctionnement de la cognition, plutôt que l’inverse. D’autre part, on peut soutenir que le cerveau est littéralement
un ordinateur, mais pas au sens où on emploie le plus souvent le mot « ordinateur » dans la vie courante de nos jours,
c’est-à-dire pour désigner le type de machines qu’on trouve sur nos bureaux, qui se caractérisent par une
architecture fonctionnelle particulière, celle des machines de Von Neumann. D’après la théorie computationnelle,
l’esprit est un ordinateur, puisque c’est bien une entité physique qui fait des calculs (par exemple, quand des
processus visuels dérivent la couleur d’une surface à partir de l’information sur la lumière ambiante) (McCulloch &
Pfeiffer, 1949).
Afin de comprendre la notion de computation nous devons présenter deux autres notions : celle de fonction
mathématique et celle d’algorithme. Une fonction est une relation entre des entrées (ou arguments) et des sorties
(les valeurs) telle que pour chaque ensemble d’entrées correspond une seule sortie. On écrit cela formellement :
F=m(x,y). Par exemple, la multiplication est une fonction : pour chaque paire de chiffres en entrée la fonction
multiplication produit un seul chiffre en sortie. Un algorithme est l’explicitation d’un processus qui spécifie la série
finie des étapes nécessaires pour calculer une fonction. Une même fonction peut être calculée par différents
algorithmes.
Un ordinateur est un outil qui reçoit des symboles en entrée et produit des symboles en sortie en suivant des
procédures algorithmiques. La machine de Turing, décrite par Alan Turing en 1936 (Petzold, 2008), est une
description abstraite d’un programme : les symboles apparaissent sur le ruban d’une machine et sont lus par une
tête de lecture et modifiés en accord avec les règles écrites dans le programme. La seule chose qui compte sont les
propriétés « formelles » des symboles, et non leur contenu. Tout comme un ordinateur, l’esprit peut aussi être décrit
par le moyen de règles algorithmiques (les processus cognitifs) qui manipulent des symboles (les représentations
mentales).
Il existe au moins trois avantages de la théorie computationnelle-représentationnelle. Le premier avantage est que
cette théorie est compatible avec le physicalisme (même si elle est aussi compatible avec le dualisme), et plus
précisément elle montre comment l’esprit peut exister dans un support purement physique. Pour le physicalisme,
tout ce qui existe fait partie du monde physique naturel, et il n’y a pas de phénomènes surnaturels. Grâce à
l’ordinateur on arrive à saisir comment un esprit peut exister dans le monde physique. L’argument est le suivant :
Si les processus mentaux sont computationnels, ils peuvent être exécutés par un ordinateur.
Un ordinateur est une machine qui exécute des processus en accord avec les lois de la physique.
Les processus mentaux sont donc compatibles avec les lois de la physique.
Le deuxième avantage de la théorie est qu’elle explique la rationalité de la pensée par les relations causales entre
états computationnels (Fodor, 1987). Un raisonnement est un processus psychologique qui commence par des
prémisses et aboutit à une conclusion via l’application de règles. Les règles qui amènent des prémisses à la
conclusion sont des règles logiques et d’inférence. Mais les processus psychologiques sous-jacents aux
raisonnements psychologiques sont causaux et non pas logiques/inférentiels. Comment se fait-il que les propriétés
causales des états mentaux d’un individu reflètent les propriétés logiques et les relations sémantiques des
propositions ? Pour la théorie computationnelle-représentationnelle, les transitions causales portent sur les
propriétés syntaxiques et formelles des représentations mentales ; mais ces transitions causales respectent les
contenus des représentations, et de façon indirecte les transitions entre propositions.
Le dernier avantage est que la théorie propose une solution simple au problème de la causalité mentale (voir l’entrée
sur la causalité mentale [Link] Les représentations mentales sont des
symboles physiques avec un véhicule matériel qui possède des propriétés syntaxiques et un contenu qui possède
des caractéristiques sémantiques. En vertu de leur aspect matériel et syntaxique elles peuvent participer à des
manipulations physiques, les computations, qui ont une efficacité causale. En même temps le contenu est
systématiquement corrélé avec la syntaxe. Grâce à cette corrélation entre sémantique et syntaxe le contenu peut
avoir un rôle causal indirect. Ainsi, même si seules les propriétés syntaxiques ont une efficacité causale à
proprement parler, le contenu mental est indirectement causal. Pour le mettre sous forme de slogan : « si on se
soucie de la syntaxe, la sémantique prendra soin d’elle-même » (Haugeland, 1985, p. 106).
Cette solution simple a été remise en question. Elle suggère que le contenu des représentations est causalement
indirect. Pourtant quand on explique le comportement des agents on fait appel aux contenus de leurs pensées et non
pas aux véhicules qui sous-tendent la pensée (Dretske, 1991). Une tension naît alors entre la causalité définie
seulement sur les propriétés formelles (syntaxiques et matérielles) des représentations, et le rôle central du
contenu dans l’explication et la prédiction du comportement. Y a-t-il un rôle pour le contenu des représentations
dans la causation mentale ?
En bref, la théorie computationnelle-représentationnelle de l’esprit est la combinaison de la théorie
computationnelle de l’esprit (l‘idée que les processus mentaux peuvent être formalisés via des algorithmes) avec la
théorie représentationnelle de l’esprit (penser c’est manipuler des entités mentales avec des caractéristiques
sémantiques).
Le langage de la pensée
Une version de la théorie computationnelle-représentationnelle de l’esprit est le « langage de la pensée » (ou
« mentalais »), selon laquelle les représentations mentales ont un format quasi-linguistique.
L’hypothèse du langage de la pensée combine l’idée que penser est un processus computationnel avec la théorie
selon laquelle les attitudes propositionnelles sont des relations à des symboles mentaux dans un langage de la
pensée. Bien qu’on trouve des ancêtres du langage de la pensée chez des philosophes comme Occam (Panaccio,
2017), la version contemporaine a été proposée par Jerry Fodor (1975) et Gilbert Harman (1975).
Dans la version fodorienne de l’hypothèse du langage de la pensée les attitudes propositionnelles sont des relations
entre des organismes et des formules dans un langage de la pensée. Pour chaque organisme O ayant une attitude
propositionnelle AP envers une proposition p, il existe une relation computationnelle R et une représentation
mentale RM tels que RM signifie que p, et O possède l’AP si et seulement si O est en R avec RM. Plus concrètement,
si Jean croit qu’il y aura un Brexit sans accord, Jean est en relation computationnelle avec un token interne qui
signifie qu’il y aura un Brexit sans accord, exprimé dans le langage de la pensée.
Comme nous l’avons déjà vu, Fodor est un réaliste intentionnel : les états intentionnels existent et les
caractéristiques sémantiques des attitudes propositionnelles contribuent à la production et à l’explication des
comportements. En outre, les caractéristiques sémantiques des énoncés linguistiques sont dérivées des propriétés
sémantiques des attitudes propositionnelles. Bien que l’introduction du langage de la pensée s’enracine dans le
réalisme intentionnel, l’hypothèse va au-delà de ce qui est postulé dans la psychologie du sens commun. Plus
précisément, le langage de la pensée introduit une hypothèse sur la structure des représentations mentales : les
représentations mentales ont une structure en constituants.
Pour comprendre cette hypothèse, on peut penser au langage naturel : une langue naturelle (comme le français) a
des éléments atomiques (les mots) qui peuvent être combinés dans des structures complexes (les phrases) en
suivant des règles de grammaire. N’oublions pas, cependant, que la thèse du langage de la pensée n’est pas qu’on
pense dans une langue naturelle (comme le français ou l’anglais), mais qu’on pense dans un langage mental, le
mentalais, qui ne coïncide avec aucune langue naturelle (sauf chez Peter Carruthers (1998)).. De plus, le langage de
la pensée n’est pas une thèse sur la phénoménologie de la pensée, et ne dépend pas du fait qu’on a souvent
l’impression de penser en utilisant des mots. Au contraire, c’est une thèse empirique sur la pensée au niveau sous-
personnel. L’argument principal en faveur de langage de la pensée est une inférence à la meilleure explication à
partir des propriétés de la productivité et de la systématicité.
« Productivité » indique ici la capacité d’un locuteur d’une langue de produire un nombre potentiellement infini
d’énoncés à partir d’un nombre fini de constituants. Pour prendre un exemple simple, dans un langage formé par
« Marie », « Jean », « Pierre », « aime », et des connecteurs logiques comme « et », on peut formuler les énoncés
suivants : « Marie aime Jean », « Jean aime Marie », « Marie aime Pierre et Jean », « Jean aime Pierre », « Pierre aime
Jean », « Pierre aime Marie et Jean », et ainsi de suite. On remarque que cette propriété est une idéalisation : de fait
nous ne produisons jamais un nombre infini d’énoncés vu les limites de nos capacités mnémoniques et de
performance.
« Systématicité » désigne une propriété qui joue un rôle central dans le débat sur le format des représentations
mentales. En effet, la systématicité implique une certaine conception du format des représentations comme étant
des entités discrètes et identifiables, combinables entre elles. La systématicité peut être définie comme suit : dans le
cas du langage naturel la capacité de générer et de comprendre certains énoncés est intrinsèquement liée à la
capacité de générer et comprendre une multiplicité d’autres énoncés. Si l’on parle couramment français, alors si on
comprend l’énoncé « Marie aime Jean », on comprend aussi l’énoncé « Jean amie Marie ». Fodor présente son
argument ainsi : « Les capacités linguistiques sont systématiques puisque les énoncés ont des structures en
constituants. Mais les capacités cognitives sont aussi systématiques, et cela doit être dû au fait que les pensées ont
aussi une structure en constituants. Mais si les pensées ont une structure en constituants le langage de la pensée est
vrai. » (Fodor, 1987, pp. 150-151).
On peut reconstruire l’argument en faveur du langage de la pensée comme suit :
Le langage a des propriétés telles que la productivité et la systématicité.
On explique la productivité et la systématicité du langage en faisant appel au fait que le langage a une syntaxe
combinatoire et une sémantique compositionnelle.
Les propriétés syntaxiques et sémantiques du langage dérivent des propriétés syntaxiques et sémantiques de la
pensée.
La pensée possède aussi ces propriétés, c’est-à-dire la pensée est productive et systématique.
Donc les pensées (les représentations mentales) ont aussi une structure en constituants, similaire à celle du langage.
La pensée est, donc, dans la perspective du langage de la pensée, combinatoire et compositionnelle.
« Combinatoire » signifie que les états mentaux sont construits à partir d’éléments simples (comme des atomes), qui
amènent avec eux leur contribution sémantique dans les structures complexes dans lesquelles ils figurent. Un
exemple classique est la logique propositionnelle, qui contient des atomes et des expressions moléculaires formées
en partant des atomes. Pour le langage de la pensée les atomes sont les concepts (qui sont ici des représentations
mentales). « Compositionnel » désigne le fait que le contenu sémantique (le sens) d’une expression complexe est
déterminé par le contenu sémantique de ses constituants et la façon dont ils sont combinés. Par exemple le sens de
« petit chien » est constitué par le sens de « petit » et celui de « chien ». Une exception possible à la compositionnalité
fait appel aux expressions idiomatiques, comme « casser sa pipe », dont le sens n’est pas déterminé par la
composition des sens de ses constituants.
Pour Fodor, les symboles mentaux primitifs dans le langage de la pensée sont les porteurs de l’intentionnalité non-
dérivée. L’intentionnalité des états psychologiques des locuteurs dérive de l’intentionnalité des symboles mentaux
dans le langage de la pensée, et les expressions linguistiques sont intentionnelles en vertu des états psychologiques
des locuteurs.
b. L’approche connexionniste des représentations mentales
Le connexionnisme est un paradigme alternatif à la théorie représentationnelle-computationnelle de l’esprit
classique et au langage de la pensée. Par contraste avec l’approche classique, le connexionnisme puise son
inspiration plus directement dans le cerveau et ses propriétés neurobiologiques pour élaborer des principes
computationnels. Si la conception classique de la cognition s’intéresse aux propriétés fonctionnelles et à leurs
relations, en faisant abstraction des propriétés neurologiques, pour le connexionnisme les structures biologiques
sont primordiales pour comprendre comment on pense (Horgan, 1997). En même temps, il est important de noter
que, même si le connexionnisme s’inspire des neurones biologiques, cela reste une théorie computationnelle qui fait
abstraction de nombreuses propriétés concrètes du cerveau. En effet, l’origine du connexionnisme vient de deux
développements dans le domaine de l’intelligence artificielle : la création de « neurones formels » capables de faire
des opérations logiques (McCulloch & Pitts, 1943) et la création du perceptron, une intelligence artificielle capable
de reconnaître des images (Rosenblatt, 1958).
Les réseaux connexionnistes sont formés par des « nœuds » interconnectés qui sont organisés en plusieurs couches.
Les nœuds d’entrée s’activent en réponse à la détection de stimuli externes au réseau. Ensuite ils transmettent
l’activation à des couches de nœuds « cachés » dont la valeur d’activation dépend de la force d’activation des entrées
(et des « poids » des connexions entre les nœuds). Enfin le signal se propage à travers le réseau jusqu’aux nœuds de
sortie (Bechtel & Abrahamsen, 1991).
Quelle est la conception des représentations mentales dans le connexionnisme ? Le connexionnisme étant une
famille de théories, plutôt qu’une seule théorie bien identifiée, la notion de représentation mentale dans le
connexionnisme va dépendre de l’interprétation de la théorie. Il existe (au moins) deux interprétations possibles :
locale et distribuée.
Selon l’interprétation locale on peut identifier dans un réseau de neurones un sous-ensemble discret qui correspond
à une représentation mentale « atomique », par exemple la représentation pour « chien ». Si l’on accepte cette
interprétation, il n’y a pas de facto de différence profonde entre le modèle classique et le modèle connexionniste de
la cognition.
Selon la conception « distribuée », en revanche, les représentations mentales sont des patterns d’activations
implémentés dans des nœuds et des poids, et on ne peut pas identifier une partie du réseau comme ayant un
contenu distinct. En d’autres termes, les représentations mentales distribuées ne sont pas des symboles
mentaux discrets comme dans le langage de la pensée, et l’information n’est pas encodée dans un seul symbole, mais
elle est distribuée à travers le réseau neuronal, dans des « micropropriétés » qui ne correspondent pas à des
concepts. Quand le réseau n’est pas actif l’information n’est pas représentée de façon explicite, mais de façon tacite
(voir section 4.c) (Davies, 2015). Le réseau ne représente explicitement que quand il est actif. Par contraste, un
symbole discret dans l’approche classique est stocké de façon explicite même quand il n’est pas actif.
Selon les défenseurs du connexionnisme, les réseaux de neurones artificiels présentent plusieurs avantages dans la
modélisation de l’esprit (Bechtel & Abrahamsen, 1991, pp. 45-51). Les réseaux neuronaux sont plus proches de la
manière dont fonctionne le cerveau et ceci permet d’éviter le problème de l’implémentation (P. S. Churchland, 1989).
Le connexionnisme permet d’expliquer la « dégradation lente » (graceful degradation), où le disfonctionnement
d’une partie du réseau n’impacte pas le réseau entier qui continue à fonctionner (contrairement au paradigme
classique où la destruction d’un symbole impacte le processus entier). Le connexionnisme est naturellement
compatible avec une approche empiriste de l’apprentissage et permet de modéliser l’apprentissage par expérience,
par contraste avec le langage de la pensée qui est souvent accompagné par la thèse supplémentaire de l’innéité des
représentations mentales (voir entrée sur l’innéité : [Link]/inneite-a/). Les réseaux ont des contraintes
souples plutôt que rigides grâce à la présence de multiples connexions à la place des connexions déterministes un-à-
un du classicisme. Cela permet de modéliser le fait que les règles ont souvent des exceptions (par exemple le fait que
la croyance générique que les oiseaux volent est compatible avec la croyance qu’il existe des oiseaux qui ne volent
pas, comme les pingouins).
Comment arbitrer entre le paradigme classique et le paradigme connexionniste distribué des représentations
mentales ? Tandis que les défenseurs du connexionnisme ont souligné combien leur modèle se rapproche de la façon
dont nous pensons, les défenseurs du classicisme ont contesté cet avantage en soulignant combien le
connexionnisme échoue dans la modélisation de la systématicité de la pensée (Fodor & Pylyshyn, 1988).
Si le paradigme classique explique cette propriété en postulant des symboles mentaux atomiques qui peuvent être
combinés et recombinés, les représentations connexionnistes ne peuvent pas être combinées de façon systématique
en raison de leur structure distribuée, où chaque activation est légèrement différente de la précédente. De plus,
puisqu’il n’y a pas de correspondance un-à-un entre un symbole mental et une catégorie dans le monde, les réseaux
peuvent apprendre une expression comme un bloc entier sans apprendre une expression résultante de la
combinaison des éléments de ce bloc. Par exemple, un réseau peut apprendre « Marie aime Pierre » sans apprendre
« Pierre aime Marie ».
Le débat ne porte pas sur la question de savoir si un réseau de neurones peut implémenter la systématicité : c’est
bien sûr possible si le réseau implémente une architecture classique de la cognition. Le point de Fodor et Pylyshyn
est plutôt que la seule façon dont le connexionnisme peut expliquer la systématicité est d’implémenter une
architecture classique. Mais si c’est le cas, le connexionnisme n’est plus un paradigme alternatif au paradigme
classique, mais une proposition concernant son implémentation.
Le débat entre classicisme et connexionnisme a connu une période d’oubli après 1990, mais une nouvelle version du
débat est revenue sur le devant de la scène depuis 2006 grâce aux avancées de l’intelligence artificielle, et en
particulier grâce aux travaux sur l’apprentissage profond (deep learning ; LeCun, Bengio, Hinton, 2015). En effet,
nombre de chercheurs travaillant sur les programmes d’intelligence artificielle connus aujourd’hui (par exemple
AlphaGo) utilisent des outils connexionnistes, mais plus complexes que ceux proposés dans les années 1980-1990.
Ces chercheurs ne revendiquent parfois pas l’étiquette de « connexionnisme » (contrairement aux années 1980-
1990), mais le cadre global est similaire, ainsi que certaines questions qu’il soulève – par exemple celle des limites
des réseaux de neurones dans l’explication des capacités cognitives, en particulier des capacités intellectuelles
générales (Marcus, 2018) et celle de la possibilité de paradigmes hybrides intégrants l’approche classique à celle
connexionniste (Marcus, 2001).
Nonobstant leurs différences les deux approches susmentionnées donnent une place centrale aux représentations
mentales dans les explications scientifiques de la cognition. Dans la prochaine sous-section nous allons voir des
positions qui limitent la portée, voire éliminent, les représentations mentales.
3. Critiques de la notion de représentation mentale
a. Les positions anti-représentationalistes
Dans cette sous-section nous allons passer en revue différentes positions anti-représentationalistes.
Une première position critique s’appuie sur les arguments de Gilbert Ryle contre les erreurs de catégorie (Ryle,
1949). Peter Hacker, avec le neuroscientifique Maxwell Bennett, critique ainsi la neuroscience contemporaine en
arguant qu’elle commet une erreur de catégorie en attribuant des propriétés des attitudes propositionnelles (qui
s’appliquent au sujet entier) à des systèmes neurobiologiques, qui ne sont pas sujets aux mêmes normes (M. R.
Bennett & Hacker, 2003). Ainsi, la notion de représentation mentale ne trouverait pas sa place dans les sciences de
la cognition, puisque c’est un concept pertinent uniquement quand on l’applique au sujet entier et dans le domaine
de l’analyse conceptuelle en philosophie. Cette position est en partie motivée par l’idée que la philosophie est
largement une entreprise a priori, sans continuité avec la science, par contraste avec des approches plus naturalistes
de la philosophie, qui la conçoivent comme étant en continuité avec les sciences naturelles. On remarque
brièvement que cette position ne tient pas compte de la distinction entre les deux approches des représentations
mentales esquissée en introduction, ni véritablement de la distinction entre explications au niveau personnel et au
niveau sous-personnel (M. R. Bennett, Dennett, Hacker, & Searle, 2007).
Une deuxième façon d’être anti-représentationaliste consiste dans la position qui admet l’utilité pratique des
attributions d’états mentaux intentionnels avec un contenu aux entités qui manifestent un comportement
intelligent, mais qui n’est pas réaliste quant à l’existence des représentations mentales pour autant. C’est la position
défendue par Dennett, qui conçoit l’intentionnalité en termes de « stratégie de l’interprète » (intentional stance)
(Dennett, 1987). Selon Dennett, l’intentionnalité se comprend comme une attitude de prédiction et d’explication.
L’usage d’une telle stratégie est justifié quand l’entité qu’on veut interpréter se comporte comme si elle avait des
états mentaux intentionnels. Mais on peut l’utiliser pour n’importe quelle entité : le comportement d’un ordinateur
qui joue aux échecs, voire d’un thermostat très sophistiqué, pourraient être expliqués par la stratégie de l’interprète.
Le succès de la stratégie n’est pas dû à la présence réelle d’états mentaux intentionnels (contra Fodor), mais à son
efficacité dans l’explication des comportements.
Une troisième façon d’être sceptique quant aux représentations est d’admettre que les représentations mentales
existent dans le cerveau, mais nier l’utilité ou la réalité des attributions d’attitudes propositionnelles, c’est-à-dire
nier l’existence des représentations mentales postulées par la psychologie du sens commun. C’est, en somme, la
position inverse de celle de Dennett, et elle a été soutenue par Paul et Patricia Churchland. Ils admettent l’existence
et la réalité de représentations mentales de type connexionniste dans le cerveau, mais ils rejettent les
représentations mentales en tant qu’attitudes propositionnelles de la psychologie du sens commun (P. M.
Churchland, 1992).
Une autre façon d’être anti-représentationalistes est le déflationnisme.. Il se distingue des théories anti-
représentationalistes radicales dans la mesure où il laisse une place aux représentations mentales dans les
explications en sciences cognitives, mais il refuse l’engagement ontologique envers des entités dans le cerveau ayant
un contenu sémantique large. Ainsi, c’est une position intermédiaire entre le réalisme à propos des représentations
mentales et l’éliminativisme. Une telle position a été défendue notamment par Frances Egan (Egan, 2014), et peut-
être plus étonnamment par Noam Chomsky (Chomsky, 1995). Selon cette approche, il ne faut pas identifier les
représentations mentales par leur contenu large (leur référence aux objets dans le monde), puisque la façon dont les
scientifiques cognitifs identifient les représentations est par leur contenu étroit, ou plus précisément par les
algorithmes calculés sur les représentations (ce qu’Egan appelle leur « contenu mathématique »). Pour Egan, le
contenu sémantique à proprement parler n’est qu’un raccourci pragmatique, et non pas un aspect essentiel de notre
théorie des représentations mentales. De même, l’approche fictionnaliste, proposée (mais pas défendue) par Mark
Sprevak (Sprevak, 2013), conçoit les représentations mentales comme des fictions utiles, qui jouent un rôle
heuristique dans les explications, mais qui n’ont pas d’existence ontologique.
Une approche anti-représentationaliste radicale, quant à elle, rejette à la fois l’existence ontologique et tout rôle
explicatif pour les représentations mentales.
Une façon d’être anti-représentationaliste est de souscrire au paradigme dynamiciste (Port & Van Gelder, 1995),
dont l’idée centrale est que l’esprit est un système complexe qui peut être modélisé par des modèles dynamiques. Ce
projet remplace le modèle de l’ordinateur par la métaphore du régulateur à boules de Watts, dont le comportement
peut être expliqué par des équations différentielles, mais non pas par l’identification des parties du régulateur avec
des représentations mentales, des algorithmes, et des séquences actionnables.
Il existe d’autres positions anti-représentationalistes. Une position anti-représentationaliste inspirée de la
phénoménologie en philosophie de la perception donne une place centrale à l’action dans la cognition, par
opposition à la manipulation de symboles mentaux. Selon Hubert Dreyfus (Dreyfus, 2002), le corps agissant dans le
monde acquiert des compétences (motrices) qui sont stockées comme des dispositions à agir et non pas comme des
représentations mentales.
L’attention portée à l’action, par opposition à la manipulation de symboles mentaux, trouve ses origines dans la
psychologie écologique défendue par le psychologue James Gibson (Gibson, 1979/2014), selon laquelle nous
n’avons pas besoin de représentations mentales (et plus généralement de processus cognitifs impliquant le
traitement de l’information) puisque les stimulations de l’environnement et les dispositions à agir (« affordances »)
suffisent à expliquer le comportement. Par exemple, mon comportement quand je mange une pomme pourrait être
expliqué par la propriété de la pomme d’être « comestible » et par ma disposition à la prendre pour la manger quand
j’en vois une. La notion d’affordance en soi n’est pas en contradiction avec l’existence de représentations mentales
(par exemple si on introduit des représentations mentales orientées vers l’action, comme le fait Andy Clark, 1998, ou
bien des « boucles » action-perception comme le fait Susan Hurley, 1998), mais d’autres philosophes opposent les
explications en termes d’affordance et de couplage agent-environnement aux explications en termes de
représentations mentales (voir par exemple Kiverstein & Rietveld 2020, qui tentent aussi d’étendre la portée de ces
notions du champ de l’explication de l’action à celui des capacités cognitives de plus haut niveau).
Plus généralement, on appelle « 4E » une famille d’approches qui conçoit la cognition comme étant incarnée, située,
étendue, et enactée (embodied, embedded, extended, enacted) (Newen, De Bruin, Gallagher, 2018). Cette étiquette
inclut des positions très différentes entre elles, voire incompatibles, par exemple celle d’Andy Clark (1998) qui reste
encore fortement représentationaliste, et celle de Anthony Chemero (2009) qui est, en revanche, fortement anti-
représentationaliste. Mais, si on fait abstraction de ces différences, l’approche 4E est caractérisée par le rejet (plus
ou moins fort) du modèle symbolique abstrait de la cognition, et par un rejet de la thèse selon laquelle les états
cognitifs sont réalisés seulement par des états cérébraux (Newen, De Bruin, Gallagher, 2018, Introduction).
Nombre de positions 4E restent compatibles avec le représentationalisme, et comblent des lacunes du paradigme
symbolique classique de la cognition en y intégrant une dimension corporelle et orientée vers l’action, qui manquait
dans ses premières formulations (Varela, Thompson, Rosch, 1991, pp. 40-41). En effet, l’approche incarnée est
ambiguë entre différentes interprétations plus ou moins radicales (Goldman et de Vignemont, 2009) : a) que le corps
a une influence sur la cognition ; b) que le corps et les actions corporelles constituent la cognition sans passer par
des représentations mentales ; c) que certaines représentations mentales ont un format corporel. La thèse a) est peu
controversée, la thèse c) est compatible avec le représentationalisme, et intègre une dimension corporelle aux
symboles abstraits. Seule la thèse b est anti-représentationaliste.
Les positions anti-représentationalistes radicales sont controversées, puisqu’elles sont difficilement généralisables à
des activités cognitives complexes, comme mémoriser et retrouver ses souvenirs, garder la trace d’un objet quand il
disparaît derrière un obstacle, reconnaître des objets dans un environnement nouveau et instable, compléter la
forme d’un objet partiellement caché de vue, choisir la bonne action non seulement en fonction des objets présents,
mais aussi du contexte et des connaissances d’arrière-plan, réfléchir à un problème afin d’en trouver la solution, se
projeter dans l’avenir, penser de façon métacognitive, et ainsi de suite. Bien qu’on trouve des expériences en
psychologie inspirées par les approches 4E, les paradigmes expérimentaux les plus employés en psychologie et
neuroscience tendent à présupposer parmi leurs entités théoriques les représentations mentales et les états
mentaux avec du contenu (voir Rupert, 2011, qui propose un argument selon lequel les données empiriques
soutiennent le représentationalisme).
Pour clarifier ce point, considérons un exemple concret : le comportement animal. Même des êtres moins
sophistiqués que les humains, comme les insectes, s’orientent dans leur territoire en utilisant un mécanisme de
« navigation à l’estime » et en gardant une « carte » du territoire dans leur cognition, qui leur permettent de
retrouver leur chemin dans de multiples contextes (Gallistel, 2007). Un autre exemple fascinant est la danse des
abeilles : « quand une abeille butineuse découvre une source de nectar et pollen, elle enregistre l’angle formé par la
ruche, l’azimut du soleil, et la position de la source de la nourriture. […] [Quand elle remue], l’angle de cette fraction
de mouvement relative à la verticale gravitationnelle est égal à l’angle formé par la ruche, l’azimut du soleil, et la
source de nourriture. […] On appelle cet angle le palier solaire de la source de nourriture à partir de la ruche. De
cette façon, la danse des abeilles symbolise la direction de la source de la ruche. Les autres abeilles butineuses
observent le segment de la danse où l’abeille remue, et enregistrent dans leur propre système nerveux la valeur qui
spécifie la direction. Ensuite, elles quittent la ruche et partent vers la source indiquée par la danse » (Gallistel, 2007,
p. 18). C’est un système de communication assez raffiné, où le nombre de remuements effectués est proportionnel à
la distance : plus l’abeille remue pendant la danse plus la source est éloignée. Comment expliquer ces exemples si on
ne fait pas appel au stockage des valeurs des variables, telle que la distance, qui peuvent ensuite être utilisées pour
faire des calculs sur lesquels le comportement est basé ? Pour Randy Gallistel, les données expérimentales montrent
que le système nerveux est un système qui retient des valeurs et est capable d’accomplir des opérations
arithmétiques et logiques tout comme un système symbolique de traitement de l’information (p. 51).
Enfin, on mentionnera brièvement une approche récente, celle du « cerveau bayésien » ou du « code prédictif »
(Clark, 2015; Friston, 2010; Hohwy, 2013). Cette approche conçoit l’esprit comme une machine dont le but est de
minimiser les erreurs de prédiction face à l’instabilité de l’environnement. Le principe sous-tendant une telle
architecture est le théorème de Bayes, qui permet de formaliser la façon dont un organisme met à jour la probabilité
d’un événement suite à la présence d’informations nouvelles. Quelle est la place des représentations dans le cerveau
bayésien ? Et plus généralement, y-t-il des représentations probabilistes dans le cerveau ? Il existe au moins trois
interprétations possibles. Une première interprétation est que l’hypothèse du cerveau bayésien est une description
de la cognition au niveau le plus abstrait et non pas une théorie des algorithmes et des représentations impliquées
(Block, 2018). Une deuxième interprétation est que les modèles de l’environnement construits par le cerveau sont
des véritables représentations mentales (Kiefer & Hohwy, 2018). Et enfin, Andy Clark supplémente l’hypothèse du
cerveau bayésien avec une théorie des représentations mentales comme étant probabilistes et orientées vers
l’action, s’inspirant de l’idée énactiviste d’un engagement avec l’environnement plutôt que du paradigme symbolique
pure des représentations mentales (Clark, 2015).
b. Critères pour l’introduction des représentations mentales
Même si on accepte le paradigme représentationaliste de la cognition, expliquer tous les processus cognitifs par la
présence de représentations risque de rendre la notion triviale. Nous pouvons alors nous poser la question
suivante : quels sont les critères pour introduire des représentations mentales dans les explications
psychologiques ? Comment distinguer les processus qui emploient les représentations mentales des processus qui
n’en ont pas besoin ? Intuitivement, nous ne voulons pas de théorie qui inclut un tournesol qui suit la position du
soleil parmi les systèmes représentationnels. Seule Carrie Figdor a défendu la position radicale selon laquelle nous
devons étendre le champ d’application des notions d’états mentaux et de représentations mentales même aux
plantes et aux neurones individuels (Figdor, 2018, voir Smortchkova, 2019 pour une critique de cette position).
Il faut distinguer la question de l’identification des représentations comme postulats explicatifs dans la cognition de
la question de la manière dont les représentations acquièrent le contenu qu’elles ont (Ramsey, 2007, p. 5). Bien que
beaucoup de philosophes ont identifié ces deux questions comme étant inséparables (même si rarement de façon
explicite – à l’exception par exemple de Nick Shea (2018)), on peut voir comment la première question se focalise sur
l’identification des structures représentationnelles, tandis que la deuxième question se focalise sur comment une
certaine structure représentationnelle acquiert son contenu (par exemple comment une certaine configuration
représente la catégorie « chien » et non pas « chat »).
Une façon de comprendre la question du rôle représentationnel est de l’étudier à travers le « travail » accompli par
les représentations mentales dans la cognition (Ramsey, 2007). Ce travail est un travail d’explication : en quoi
l’attribution du pouvoir représentationnel dans un processus cognitif porte-t-elle un poids explicatif ? William
Ramsey appelle cela « le défi de la description du travail » (the job description challenge), c’est-à-dire le défi de
cerner le travail accompli par une structure en tant que représentation. Il compare le cas où une structure est
représentationnelle au cas où elle joue un simple rôle de « récepteur », comme les neurones dans le cortex visuel
primaire qui s’activent en présence d’un seul type de stimulus (par exemple l’orientation d’une barre). Selon Ramsey
ces structures fonctionnent comme des détecteurs de fumée, qui réagissent à la présence d’un seul stimulus, et non
pas comme de véritables représentations mentales.
Mais quel est alors le travail accompli par une véritable représentation mentale ? Les philosophes ont proposé
différents critères pour identifier des structures représentationnelles. John Haugeland suggère trois critères qui
vont jouer un rôle important dans la suite des discussions (Haugeland, 1998b). Un système est représentationnel si :
Le système coordonne son comportement avec des traits dans l’environnement, même quand ces traits ne sont pas
présents de façon fiable ;
Dans le cas où les traits ne sont pas présents, le système utilise des « remplacements » qui guident le comportement,
même quand des stimulations immédiates ne sont pas présentes ;
Cette relation de « remplacement » est systématique et fait partie d’un schéma plus général d’états
représentationnels liés.
Ainsi, Andy Clark développe des critères pour distinguer entre tâches cognitives qui n’ont pas besoin de
représentations pour être accomplies et tâches cognitives qui sont forcément représentationnelles (Clark, 1998). Il
nomme ces dernières les « problèmes friands de représentations » (representation hungry problems) :
Ce sont d’une part des problèmes qui impliquent de penser à des états de choses absents, inexistants ou
contrefactuels (imaginer l’avenir, se souvenir du passé, explorer des possibilités).
D’autre part, ce sont des problèmes qui portent sur des états de choses dont les manifestations physiques sont
complexes et turbulentes (par exemple la capacité de penser à tous les objets de valeur dans une chambre ou la
capacité de penser seulement aux objets appartenant au Pape).
En revanche, les problèmes qui ne sont pas « friands de représentations » peuvent être expliqués par un couplage
entre l’organisme et l’environnement qui évolue en temps réel et qui dépend de la présence du stimulus pour exister.
Dans un livre publié en 2010, Tyler Burge propose une autre façon de distinguer entre systèmes non-
représentationnels et systèmes doués de véritables représentations mentales (Burge, 2010). Bien que le point focal
du livre soit la perception, et la distinction entre sensation et représentation perceptive, l’un des buts du livre est de
trouver des critères constitutifs pour la représentation mentale. Le point de départ est l’idée (largement acceptée)
que pour qu’il y ait de la représentation il faut qu’il y ait possibilité de méprise représentationnelle. Pour Burge, plus
précisément, il faut que les conditions de satisfaction jouent un rôle dans les explications scientifiques qui emploient
les représentations. Quand on perçoit le monde, on fait face au problème de la sous-détermination : à partir de
l’image en 2-D sur la rétine, le cerveau pourrait produire un nombre presque infini d’objets 3-D correspondants.
Pourtant, la perception résout régulièrement ce problème et, pour Burge, nous présente le monde de façon
objective. Burge explique la transition entre sensations et véritables représentations perceptives via les constances
perceptives, par exemple la capacité de percevoir un objet comme étant de la même couleur sous des conditions de
luminosité très différentes. Avec les constances perceptives vient l’objectivité, et avec l’objectivité vient la méprise
représentationnelle : il existe des conditions sous lesquelles la perception représente correctement le monde. La
représentation pour Burge est ainsi une notion normative, où les normes (d’objectivité) sont propres à la
représentation, et ne peuvent pas être réduites aux normes de la théorie de l’évolution (voir section 4.a).
Enfin une façon d’identifier les véritables structures représentationnelles consiste à faire appel à la relation de
« ressemblance structurelle » (Cummins, 1989; O’Brien & Opie, 2004; Ramsey, 2007). Cette relation est exemplifiée
par les représentations non-mentales cartographiques, comme la carte d’un territoire. La ressemblance structurelle
n’est pas une relation d’identité ni une ressemblance de premier ordre : c’est plutôt une relation qui préserve
l’organisation structurelle du territoire visé par la carte de façon à faciliter l’usage de celle-ci par un agent dans un
processus de navigation. Il est utile de développer la notion de représentation cartographique un peu plus en détail
afin de comprendre comment cette notion aide à identifier le rôle des représentations mentales dans la cognition.
Une carte aide l’usager à accomplir des actions (comme naviguer) avec l’information fournie par la représentation.
Ensuite, les cartes sont « détachées » de ce qu’elles représentent (le territoire), par contraste avec des outils comme
les détecteurs de fumée qui n’ont de fonction que quand le stimulus est présent. Enfin, les cartes peuvent
méreprésenter et les usagers peuvent s’en rendre compte et adapter leur comportement en conséquence. Par
exemple, si un quartier a été détruit, mais qu’il est encore représenté sur la carte, alors la carte est erronée. L’usager
qui remarque l’erreur peut modifier son action, en décidant de ne pas aller dans le quartier détruit, et corriger la
carte avec la nouvelle information.
Dans le cas mental aussi, pour qu’une structure soit représentationnelle, trois facteurs doivent être réunis :
l’information est exploitée pour guider l’action, la représentation peut s’activer en l’absence de l’état de choses
qu’elle représente, et le système qui utilise l’information doit être capable de détecter l’erreur dans l’information
reçue. La notion d’erreur ici s’articule sur deux niveaux : a) la carte encode de l’information qui ne correspond plus à
l’état de choses qu’elle est censée représenter ; b) cette information fausse peut-être remarquée par l’usager et
utilisée pour ajuster l’action. On peut se demander alors si pour qu’une structure soit représentationnelle il suffit
qu’elle puisse méreprésenter, ou s’il faut aussi que l’erreur soit détectable par l’organisme ou le sous-système
cognitif afin d’être corrigée (Gładziejewski, 2016; Gładziejewski & Miłkowski, 2017).
4. Débats spécifiques sur les représentations mentales
Ici nous allons présenter quelques débats spécifiques sur les représentations mentales.
a. Naturalisation des contenus mentaux
Suivant une approche qui remonte à Brentano (1874), la notion d’intentionnalité est considérée comme la « marque
du mental ». Cette thèse peut être déclinée en deux sous-thèses :
Seuls les états mentaux peuvent être intentionnels ;
Si des choses autres que les états mentaux sont intentionnelles, leur intentionnalité peut être réduite à
l’intentionnalité mentale.
Si seuls les états mentaux sont intentionnels et si les états mentaux ne sont pas physiques, ceci pose un problème
pour le physicalisme, la thèse selon laquelle tout phénomène doit trouver sa place dans le monde physique et être
expliqué en termes purement physiques. En effet, le physicalisme et la thèse de Brentano forment un ensemble de
propositions mutuellement incompatibles (Jacob, 2004) :
Seuls les états mentaux sont intentionnels ;
Tout ce qui existe est physique ;
Les états mentaux ne sont pas physiques.
Un philosophe physicaliste non-éliminativiste à propos du rôle du contenu mental dans l’explication du
comportement ne peut pas accepter la thèse c) et doit rendre compte des caractéristiques sémantiques des états
mentaux avec contenu (comme la méprise représentationnelle) en termes physiques. Le but du projet de
naturalisation du contenu mental est donc de bâtir l’intentionnalité à partir d’ingrédients purement physiques
(Dretske, 2002).
Différents projets de naturalisation du contenu des représentations mentales ont été proposés afin de répondre à
ce défi. Une présentation exhaustive de tous les projets de naturalisation du contenu est au-delà de la portée de cet
article. Ici on va passer en revue les deux approches les plus influentes, c’est-à-dire la sémantique informationnelle
impure (Rupert, 1999; Dretske, 2002; Ryder, 2004), et la sémantique basée sur la consommation (Papineau, 1984 ;
Millikan, 1989 ; Neander, 2017). Les deux approches sont souvent groupées sous le label de « téléosémantique » en
raison du fait que toutes deux font appel à la notion de « fonction » afin de naturaliser l’intentionnalité. Une
approche informationnelle pure (sans fonctions) a été défendue par Fodor, avec la théorie de la dépendance
nomique asymétrique (Fodor, 1990).
Les théories de la sémantique informationnelle partent de la notion d’information naturelle (voir section 1.a).
L’information naturelle est un type de relation d’indication, qui est presque (mais pas tout à fait) de la représentation
(Dretske, 2002). Un exemple d’information naturelle est quand la présence de la fumée signale la présence du feu,
ou bien quand la présence de taches rouges sur le visage signale la présence de la rougeole. Pour la théorie
informationnelle ce qui compte est la relation de covariance : il est nécessaire que quand un système S possède la
propriété P, alors le système R possède la propriété D, c’est-à-dire il existe une dépendance nomique (dérivant d’une
loi) entre les deux. La covariance naturelle n’est pas suffisante pour naturaliser le contenu, puisqu’elle ne nous donne
pas les caractéristiques sémantiques nécessaires pour qu’une structure soit représentationnelle (voir section 1.b) :
la méprise représentationnelle, l’aspectualité, la direction d’ajustement. Pour résoudre le problème de la méprise
représentationnelle, Dretske fait appel à la notion de fonction naturelle issue de l’apprentissage individuel (fonction
ontogénique) : un signe naturel est sélectionné au cours de l’apprentissage afin d’indiquer certains états de choses
dans l’environnement. Ainsi, A représente B si la fonction de A est d’indiquer B de façon fiable. Si tout marche bien la
fonction est accomplie et A représente B ; en revanche, quand la fonction n’est pas accomplie, A méreprésente B.
Par contraste, les théories basées sur la consommation (Millikan, 1989) détournent leur attention du système qui
produit de l’information pour se concentrer sur le système qui consomme de l’information, c’est-à-dire le système
qui utilise les représentations mentales pour accomplir des tâches, et remplacent les fonctions issues de
l’apprentissage par les fonctions issues de l’évolution. Plus précisément, pour Ruth Millikan le contenu d’une
représentation est donné par la façon dont cette représentation est utilisée par des systèmes cognitifs qui reçoivent
le signal. Les systèmes consommateurs ont été sélectionnés par les mécanismes de sélection naturelle afin de réagir
à certains types de représentations. Prenons comme illustration l’exemple préféré de Millikan : la danse des abeilles.
Quand des abeilles dansent pour signaler la présence du nectar dans un lieu, ce signal est consommé par les abeilles
qui voient la danse et qui volent vers le lieu indiqué. Le comportement des abeilles contribue à leur survie et à la
reproduction de la ruche. Ainsi le contenu de la représentation est l’injonction impérative « il faut voler vers ce lieu ».
La sémantique des rôles fonctionnels s’oppose aux théories téléosémantiques : ce qui donne le contenu aux
représentations sont les relations inférentielles dans lesquelles entrent les représentations mentales (Harman,
1973; Loar, 1981). Cette position s’inspire du fonctionnalisme et de l’approche étroite de l’individuation des
contenus mentaux (voir section 1.c), et elle embrasse l’holisme au sujet du mental, la thèse selon laquelle les états
mentaux forment un système de telle manière que l’individuation d’un état mental ou de son contenu dépend
constitutivement de son rapport aux autres états mentaux.
Cette courte sous-section ne rend pas justice à la complexité des approches naturalistes de l’intentionnalité, mais
elle donne un bref aperçu du problème. Le débat sur la naturalisation du contenu mental est loin d’être résolu et une
vive discussion se poursuit aujourd’hui sur la meilleure façon de naturaliser le contenu, et sur les avantages et
limites des approches téléosémantiques, et sur la force des objections aux projets de naturalisation.
En guise de conclusion, nous pouvons esquisser ainsi une cartographie partielle des positions actuelles sur le projet
de naturalisation. Pour certains philosophes, comme Hutto et Myin (2013), les limites du projet montrent qu’on ne
peut pas naturaliser le contenu et que nous devons éliminer les représentations mentales de nos explications du
comportement (voir Miłkowski, 2015a et Matthen, 2014 pour des réponses). Une autre position possible est
d’abandonner le projet de naturalisation, mais sans abandonner pour autant le projet de comprendre la nature de
l’intentionnalité des états mentaux. Un exemple est l’approche selon laquelle l’intentionnalité est constitutivement
liée à la conscience phénoménale (voir dernier paragraphe section 4.d.). Une autre réponse possible est de continuer
à développer le projet de naturalisation, en présentant des nouvelles versions de la théorie téléosémantique (voir les
livres récents de Neander, 2017 et Shea, 2018). Des nouveaux projets de recherche dans cette veine sont la
« neurosémantique », le projet de naturalisation du contenu des représentations neuronales (Morgan & Piccinini,
2018 ; Ryder, 2004), et le projet de naturalisation dans une perspective mécaniste de l’explication psychologiques
(Miłkowski, 2015b). Enfin, notons que l’approche de nombreux chercheurs en sciences cognitives est d’utiliser la
notion de représentation mentale comme entité théorique, sans se poser la question « philosophique » de la
naturalisation du contenu.
b. Le débat sur le format des représentations mentales
L’idée que nous pensons par images n’est pas nouvelle. La théorie des images mentales a été discutée par les
philosophes britanniques de l’époque moderne, qui souvent considéraient les idées (les entités avec lesquelles on
pense) comme représentant à la manière d’images. Hobbes a écrit que les idées dans l’esprit sont des « perceptions
estompées » (Hobbes, 1651/2008) ; Locke parle d’« images peintes dans nos esprits » (Locke, 1690/1979) ; Hume
décrit les idées comme des copies des impressions sensorielles (Hume, 1738/2000); et enfin Berkeley défend sans
doute la version la plus explicite de la position dans les Principes de connaissance humaine (Berkeley, 1734/1998).
Mais il ne faut pas oublier la distinction entre deux traditions à propos de représentations mentales discutées en
section 1 : on distingue entre l’approche des représentations mentales basée sur l’introspection, et l’approche des
représentations mentales comme postulats théoriques. Dans cette sous-section nous nous intéressons à la question
de savoir si le format des représentations mentales peut être non-linguistique.
Le débat sur le format des représentations mentales se focalise sur le véhicule, et doit être séparé du débat sur les
types de contenu des états mentaux, par exemple si le contenu est propositionnel ou pas, ou s’il est constitué par une
proposition Russellienne, Frégéenne, ou un ensemble de mondes possibles (voir Jeff Speaks sur les différentes
façons de comprendre le débat (Speaks, 2005)).
On trouve ci-dessous un tableau récapitulatif des formats possibles du véhicule représentationnel :
Digital Analogue
Linguistique Iconique
Cartographique
L’hypothèse du langage de la pensée considère que les représentations mentales ont un format quasi-linguistique.
Mais une alternative possible est que certaines représentations mentales aient un format iconique et représentent
comme des images et non pas comme des mots. C’est peut-être le cas des représentations perceptives ou des
représentations utilisées dans l’imagerie mentale. Comment comprendre la différence entre représentations
iconiques et non-iconique ? Une façon est de faire appel à ce que Fodor nomme le « principe de l’image » : une
représentation iconique ne possède pas de décomposition canonique, mais elle est soumise au principe sémantique
selon lequel si P est une image de X, alors des parties de P sont des images de parties de X (Fodor, 2007).
Une autre façon de comprendre comment certaines représentations mentales pourraient être comme des images
est d’appliquer la distinction de Goodman entre représentations analogues et représentations digitales (Goodman,
1976) au cas mental (Dretske, 1981), où analogue signifie que la représentation ne porte pas simplement de
l’information du type « x est P », mais elle porte nécessairement en plus de l’information cachée dans « x est P ». Pour
rendre cela concret, on cite Dretske : « Si je te dis simplement « La tasse contient du café », ce signal (acoustique)
transporte l’information que la tasse contient du café en format digital. Il n’y a pas d’information plus spécifique que
l’information sur la tasse (ou le café) et sur le fait qu’il y a du café dans la tasse. Tu ne sais pas combien de café il y a
dans la tasse, quelle est la largeur de la tasse, si le café est sombre…Si, en revanche, je prends une photo de la scène
et je te montre l’image, l’information que le café est dans la tasse est véhiculée de façon analogue. La photo t’informe
sur le fait qu’il y a du café dans la tasse en te disant, à peu près, combien de café il y a dans la tasse, la forme, la
dimension, et la couleur de la tasse, et ainsi de suite. » (Dretske, 1981, p. 137).
Comment prouver, empiriquement, que nous faisons parfois appel à des représentations au format d’image ? Dans
les années 1970, Stephen Kosslyn a utilisé certaines données empiriques pour soutenir l’hypothèse que certaines
représentations ont un format d’image. Une source de soutien pour cette hypothèse vient des expériences sur la
rotation mentale : il a été démontré que le temps qu’il faut pour identifier dans l’imagination si une image
correspond à la rotation d’une autre est approximativement le temps qu’il faudrait pour faire tourner l’image
(Kosslyn, Thompson, & Ganis, 2006). La question de la bonne interprétation de ces données expérimentales a donné
naissance au « débat sur l’imagerie mentale », dans lequel s’opposent d’un côté Kosslyn, qui défend les
représentations en format analogue, et de l’autre Pylyshyn et Fodor, qui défendent l’idée que toutes les
représentations sont en format digital (linguistique) (voir Tye, 2000 pour une présentation du débat).
Il est important de noter ici que Kosslyn ne défend pas l’idée qu’on pense littéralement par images, mais bien plutôt
une théorie fonctionnelle des images mentales (Tye, 2000). Les représentations mentales implémentées dans le
cerveau ne possèdent pas de propriétés spatiales correspondantes aux propriétés des objets qu’elles représentent,
mais elles se comportent comme si elles en possédaient. Le modèle de la manière dont l’esprit pense par images est
celui d’un ordinateur digital qui projette une image découpée en pixels sur la matrice d’un écran. Ce qui fait que la
représentation est en format d’image est le fait que les processus cognitifs qui l’utilisent sont sensibles aux
propriétés structurelles encodées dans les représentations.
L’existence des cartes cognitives, comme celles utilisées par les fourmis pour rentrer vers leur nid, soulève aussi la
question de l’existence de représentations mentales en format non linguistique. Comme nous l’avons vu, Fodor (dans
la lignée de Michael Dummett et Donald Davidson) a soutenu que tout processus de pensée engage des
représentations quasi-linguistiques, par l’argument général suivant :
La pensée est systématique ;
Afin d’expliquer cette systématicité nous devons postuler des représentations mentales avec une certaine
structure ;
Cette structure implique que les représentations mentales seraient constituées par des composantes qui sont
récurrentes et systématiques ;
Ceci est possible seulement si les représentations mentales sont en format quasi-linguistique.
En défendant l’idée que des représentations mentales puissent avoir un format cartographique, Elisabeth Camp
conteste la conclusion d), c’est-à-dire qu’un système composé des parties discrètes avec des règles de combinaison
systématiques peut être seulement de type linguistique (Camp, 2007, p. 152). Un système cartographique est un
système non-linguistique structuré en parties discrètes combinables via des règles systématiques. La thèse de Camp
n’est pas que les règles de combinaison soient les mêmes pour les représentations linguistiques et celles
cartographiques : les principes combinatoires sont différents, mais ils sont systématiques tous les deux.
Les cartes se situent entre les images et le langage. Les images n’ont pas de principe « grammatical » sauf le « principe
de l’image » énoncé par Fodor : elles sont isomorphes à ce qu’elles représentent selon de multiples dimensions
(syntaxiques et sémantiques). Les cartes, en revanche, sont isomorphes selon une seule dimension, la structure
spatiale. Par exemple, la distance entre éléments d’une carte correspond (une fois la différence d’échelle prise en
compte) à la distance entre objets dans le monde. Camp écrit : « Là où le principe syntaxique qui combine les
constituants dans les cartes repose sur un isomorphisme assez direct, quoique sélectif, le principe sémantique qui
fait correspondre ces constituants aux objets et aux propriétés du monde peut être assez indirect et arbitraire. (…)
[T]outes les cartes utilisent des constituants discrets et récurrents avec une sémantique hautement arbitraire, et les
combinent selon des règles systématiques pour produire des représentations complexes systématiquement liées »
(pp. 158 – 159). Pour Camp, la conclusion d) de l’argument de Fodor est tout simplement fausse : il existe des
représentations systématiques qui ne sont pas linguistiques.
c. Représentations tacites
Dans le langage de la pensée chaque symbole mental est stocké dans la mémoire et correspond à un contenu donné.
Mais il est possible que des représentations ne soient pas explicitement stockées dans la mémoire. La présentation
classique de cette possibilité vient de Dennett : « Dans une conversation récente avec le créateur d’un programme
qui joue aux échecs, j’ai entendu la critique suivante d’un programme rival : « il pense qu’il doit sortir la reine tôt. ».
Cette attribution d’une attitude propositionnelle au programme est très utile et sert à prédire son comportement,
puisque, comme le créateur a poursuivi, on peut compter sur le fait de chasser cette reine sur l’échiquier. Mais, bien
qu’on puisse trouver plusieurs niveaux de représentation explicite dans le programme, on ne trouve aucune
occurrence symbolique (token) explicite approximativement synonyme avec « Je dois sortir ma reine tôt. ». Le niveau
d’analyse auquel appartient la remarque du créateur décrit des caractéristiques du programme, qui sont, de façon
entièrement innocente, des propriétés émergentes des processus computationnels qui ont une « réalité
d’ingénierie ». Je ne vois aucune raison de croire que la relation entre le discours à propos des croyances et le
discours à propos des processus psychologiques soient plus directs que ça. » (Dennett, 1977, p. 279).
Dans cet exemple de Dennett l’information n’est pas encodée de façon explicite dans le système, c’est à dire dans un
énoncé dans le langage de la pensée, un algorithme, ou une instruction ; elle est au contraire implémentée dans le
système de façon implicite. Ce que Dennett suggère dans ce passage est que certaines règles émergent de la mise en
œuvre de règles explicites et des structures de données.
Pourquoi a-t-on besoin d’une notion de représentation tacite ? Une source de motivation est la menace d’une
régression à l’infini dans l’introduction de règles : afin de pouvoir utiliser des symboles et appliquer des règles nous
avons besoin de postuler une entité (un « fantôme dans la machine » pour utiliser l’expression de Ryle, qui a le
premier soulevé ce problème) qui sache comment manipuler les symboles et appliquer des règles. Ou pour décrire
cela en termes mécanistes : afin d’appliquer des règles la machine devrait posséder des instructions pour appliquer
les règles et aussi des instructions pour appliquer les instructions pour appliquer les règles, et ainsi de suite.
L’introduction de représentations tacites aide à arrêter la régression, en postulant un type de connaissance pratique
(know-how) incarnée dans l’architecture du système, qui ne demande pas la présence d’un fantôme ou d’un
mécanisme d’interprétation et de manipulation. Il est important de noter que cette notion n’est pas purement
théorique : les ordinateurs nous montrent comment la connaissance pratique tacite peut être implémentée dans un
système. Dans le cas d’un ordinateur, on sait que l’ordinateur est capable de suivre certaines règles (les instructions),
mais il n’a pas d’instructions explicites, en plus, sur comment suivre ces règles. Ainsi, la notion de représentation
tacite complète la théorie représentationnelle-computationnelle de l’esprit par une façon de représenter qui ne
demande pas de symboles explicites, règles écrites, voire un interprète, pour appliquer les règles et manipuler des
symboles.
Le statut des représentations tacites est controversé. D’abord, on retrouve dans la littérature scientifique d’autres
usages que celui de Dennett du même terme, qui est identifié parfois avec « inconscient », parfois avec « inactif »,
parfois avec « information suggérée », mais pas explicitement donnée. Un problème méthodologique est de démêler
tous ces usages dans les sciences cognitives. Ensuite, la notion de représentation tacite n’a pas été utilisée
seulement dans le cadre de la théorie computationnelle classique, mais aussi dans le connexionnisme, avec un but
différent. En effet, les connexionnistes disent souvent que dans une représentation distribuée et inactive
l’information est représentée tacitement. Pour Ramsey (2007, chapitre 5) ce type de représentation échoue à
accomplir le « défi de la description du travail » et ainsi n’est pas une véritable représentation mentale.
d. Représentations mentales et conscience
Dans cette sous-section l’on va discuter brièvement de la relation entre représentations mentales et conscience
(voir entrée « conscience » [Link] ; et aussi la revue de la problématique par Pautz, à
paraître). Cette relation est particulièrement centrale pour les états perceptifs et sensoriels, comme les états
visuels, olfactifs, tactiles, gustatifs, auditifs, voire proprioceptifs et intéroceptifs. Afin d’esquisser les contours de
cette relation, nous allons utiliser un exemple. Quand je suis en train de regarder un coucher de soleil au bord de la
mer, mon état perceptif peut être décrit comme ayant deux aspects. Le premier aspect est son contenu, c’est-à-dire
la représentation de la rougeur et de la ligne d’horizon entre le ciel et la mer, etc. Le deuxième aspect est mon
expérience subjective, l’effet que cela fait (Nagel, 1974) d’avoir l’expérience du coucher du soleil. Cet aspect est le
facteur phénoménal, qualitatif, conscient de mon état perceptif occurrent.
Les deux aspects peuvent être détachés : dans une perception subliminale mon état perceptif reste
représentationnel, mais je n’ai pas l’expérience phénoménale associée. De l’autre côté, il est plus controversé que je
puisse avoir un état phénoménal sans représenter de propriété associée. Le débat sur les représentations et la
conscience concerne donc la question de savoir si la conscience (c’est-à-dire l’expérience phénoménale) peut être
réduite à la représentation mentale. Il existe deux camps opposés : selon certains philosophes, et notamment
Michael Tye (Tye, 1995b) et David Rosenthal (Rosenthal, 1993), l’état conscient (subjectif, phénoménal) peut être
réduit à l’aspect représentationnel ; selon d’autres philosophes, et notamment Ned Block (Block, 1990) et David
Chalmers (Chalmers, 1996), l’aspect conscient n’est pas réductible à l’aspect représentationnel.
Les théories représentationnelles de la conscience peuvent être classées le long de deux axes. Le premier axe est la
force de la réduction : des positions basées sur une réduction relativement faible (comme la survenance des
propriétés phénoménales sur les propriétés représentées) aux positions basées sur une réduction forte (comme
l’identité entre propriétés phénoménales et représentationnelles). Le deuxième axe est le niveau de la
représentation qui rend un état conscient : on a d’un côté les théories représentationnelles de premier ordre, où les
contenus représentationnels auxquelles la conscience est réduite sont ceux de l’état conscient même (Tye, 1995b),
et de l’autre côté, les théories représentationnelles de deuxième ordre (Rosenthal, 1993), où l’état
représentationnel qui rend un autre état conscient est une pensée de deuxième ordre, ou une perception interne qui
porte sur l’état d’ordre inférieur.
Sans doute l’argument le plus connu contre la position représentationaliste est l’argument du spectre inversé, dont
nombre de variations ont été proposées. Une variation est celle de Block (1990), qui nous demande d’imaginer une
planète (« la Terre inversée »), qui ressemble exactement à la terre, sauf que certaines couleurs sont inversées sur le
spectre par rapport aux nôtres (par exemple si un terrien a l’expérience du bleu en regardant une myrtille, un terrien
inversé a l’expérience du jaune en regardant une myrtille). Cependant, les comportements et les termes utilisés sur
Terre inversée sont les mêmes que sur la Terre : le terrien inversé voit une myrtille et dit qu’elle est bleue, même si
son expérience est celle d’une myrtille jaune. Selon Block, un terrien transporté sur Terre inversée, et doté de
lentilles qui renversent les couleurs, après un certain temps, adaptera ses représentations mentales au nouvel
environnement (c’est-à-dire ses attitudes propositionnelles et les contenus de ses états mentaux seront les mêmes
que ceux des terriens inversés), mais son expérience phénoménale restera la même. Le but de l’expérience de pensée
est de montrer qu’il existe des cas possibles, où l’expérience phénoménale et les représentations correspondantes
ne sont pas alignées, et donc que nous pouvons avoir une expérience phénoménale sans un contenu
représentationnel associé.
Pour terminer cette sous-section un autre débat concernant la relation entre représentations mentales et
consciences est le débat sur l’« intentionnalité phénoménale », une position philosophique selon laquelle la
phénoménalité est l’origine de toute intentionnalité, et non pas l’inverse (Mendelovici & Bourget, 2014; Loar, 2003).
Plus précisément, cette approche essaie d’expliquer l’intentionnalité des états mentaux au niveau personnel par leur
aspect phénoménal, par opposition aux théories téléosémantiques présentées dans la sous-section 4.a, qui essaient
d’expliquer l’intentionnalité par des relations informationnelles et historiques. Par exemple, en voyant une myrtille
bleue le fait que mon état perceptif soit à propos de la myrtille bleue est dû à (voire constitué par) mon expérience
de la bleuité de la myrtille. L’approche de l’intentionnalité phénoménale existe en plusieurs variantes, et fait face à un
certain nombre de critiques, notamment concernant l’intentionnalité des états cognitifs (comme les croyances et les
désirs) qui ne sont pas censés avoir d’aspect phénoménal, sauf si on défend, en plus, la thèse de la « phénoménologie
cognitive » (Chudnoff, 2015; Kriegel, 2015), et l’énigme des états intentionnels non-conscients, répandus dans les
explications psychologiques.
Bibliographie
Adams, Fred, & Aizawa, Ken. (2010). Defending the bounds of cognition. In Richard Menary (Ed.), The Extended
Mind (pp. 67–80): MIT Press.
Anscombe, G. E. M. (1957). Intention: Harvard University Press.
Aydede, Murat. (2009). Is feeling pain the perception of something? The Journal of Philosophy, 106(10), 531-567.
Bechtel, William, & Abrahamsen, Adele. (1991). Connectionism and the mind: An introduction to parallel processing
in networks: Basil Blackwell.
Bennett, Jonathan. (1971). Locke, Berkeley, Hume; Central Themes: Oxford University Press UK.
Bennett, Maxwell R, Dennett, Daniel, Hacker, Peter, & Searle, John. (2007). Neuroscience and philosophy: Brain,
mind, and language: Columbia University Press.
Bennett, Maxwell R, & Hacker, Peter Michael Stephan. (2003). Philosophical foundations of neuroscience (Vol. 79):
Blackwell Oxford.
Berkeley, George. (1734/1998). A Treatise Concerning the Principles of Human Knowledge (Jonathan Dancy Ed.):
Oxford University Press.
Block, Ned. (1990). Inverted earth. Philosophical perspectives, 4, 53-79.
Block, Ned. (2018). If perception is probabilistic, why does it not seem probabilistic? Philosophical Transactions of
the Royal Society B: Biological Sciences, 373(1755), 20170341.
Brentano, Franz. (1874). Psychologie vom empirischen Standpunkt. Leipzig: Duncker & Humblot. Tr. Fr. Brentano
Franz. (2008). Psychologie du point de vue empirique. Vrin.
Burge, Tyler (1979). Individualism and the Mental. Midwest Studies in Philosophy, 4(1), 73-121.
Burge, Tyler. (1992). Philosophy of language and mind: 1950-1990. The Philosophical Review, 101(1), 3-51.
Burge, Tyler. (2010). Origins of objectivity: Oxford University Press.
Camp, Elisabeth. (2007). Thinking with maps. Philosophical Perspectives, 21, 145-182.
Carruthers, Peter. (1998). Conscious thinking: Language or elimination? Mind and Language, 13(4), 457-476.
Chalmers, David J. (1996). The conscious mind: In search of a fundamental theory: Oxford University Press. Tr. Fr.
Chalmers, David J. (2010). L’Esprit conscient : À la recherche d’une théorie fondamentale. Les éditions d’Ithaque.
Chalmers, David J. (2003). The nature of narrow content. Philosophical Issues, 13, 46-66.
Chemero, Anthony (2009). Radical Embodied Cognitive Science. Bradford.
Chisholm, Roderick M. (1957). Perceiving: A Philosophical Study: Cornell University Press.
Chomsky, Noam. (1957/2002). Syntactic structures: Walter de Gruyter. Tr. Fr. Chomsky, Noam. (1969). Structures
syntaxiques. Seuil.
Chomsky, Noam. (1995). Language and nature. Mind, 104(413), 1-61.
Chudnoff, Elijah. (2015). Phenomenal Contrast Arguments for Cognitive Phenomenology. Philosophy and
Phenomenological Research, 90(2), 82-104.
Churchland, Patricia Smith. (1989). Neurophilosophy: Toward a unified science of the mind-brain: MIT press. Tr. Fr.
Churchland, Patricia Smith (1999). Neurophilosophie. L’esprit-cerveau. PUF.
Churchland, Paul M. (1992). A neurocomputational perspective: The nature of mind and the structure of science:
MIT press.
Clark, Andy. (1998). Being there: Putting brain, body, and world together again: MIT press.
Clark, Andy. (2015). Surfing uncertainty: Prediction, action, and the embodied mind: Oxford University Press.
Clark, Andy, & Chalmers, David. (1998). The extended mind. Analysis, 58(1), 7-19.
Crane, Tim. (2009). Is perception a propositional attitude? The Philosophical Quarterly, 59(236), 452-469.
Crane, Tim. (2015). The mechanical mind: A philosophical introduction to minds, machines and mental
representation: Routledge.
Cummins, Robert. (1989). Meaning and mental representation: MIT Press
Cummins, Robert. (2000). « How does it work » versus « what are the laws? »: Two conceptions of psychological
explanation. In F. Keil & Robert A. Wilson (Eds.), Explanation and cognition (pp. 117-145): MIT Press.
Davies, Martin. (2015). Knowledge–Explicit, implicit and tacit: Philosophical aspects. In J. D. Wright (Ed.),
International encyclopedia of the social & behavioral sciences (pp. 74-90). Oxford: Elsevier Ltd.
Dennett, Daniel. (1969/2010). Personal and sub-personal levels of explanation: pain. In Content and consciousness
(pp. 101-108): Routledge.
Dennett, Daniel. (1977). Critical Notice of Jerry Fodor, The Language of Thought (New York, 1975). Mind, 86, 265-
280.
Dennett, Daniel. (1987). The Intentional Stance: MIT Press. Tr. Fr. Dennett Daniel (1990). La stratégie de
l’interprète, Paris, Gallimard.
Dennett, Daniel. (1988). Evolution, error and intentionality. In The Intentional Stance (pp. 287-322): MIT Press.
Dennett, Daniel, & Kinsbourne, Marcel. (1992). Time and the observer: The where and when of consciousness in the
brain. Behavioral and Brain sciences, 15(2), 183-201.
Dennett, Daniel. (1994). The myth of original intentionality. In Eric Dietrich (Ed.), Thinking Computers and Virtual
Persons (pp. 91-107). Academic Press.
Descartes, René. (1644/2009). Principes de la philosophie: première partie: sélection d’articles des parties 2, 3, 4,
lettre-préface: Vrin.
Dretske, Fred. (1981). Knowledge and the Flow of Information (Vol. 92): MIT Press.
Dretske, Fred (1986). Misrepresentation. In R. Bogdan (ed.), Belief: Form, Content, and Function. Oxford University
Press. pp. 17–36.
Dretske, Fred. (1991). Explaining behavior: Reasons in a world of causes: MIT press.
Dretske, Fred. (2002). A Recipe for Thought. In David J. Chalmers (Ed.), Philosophy of Mind: Classical and
Contemporary Readings: Oup Usa.
Dreyfus, Hubert L. (2002). Intelligence without representation–Merleau-Ponty’s critique of mental representation
The relevance of phenomenology to scientific explanation. Phenomenology and the cognitive sciences, 1(4), 367-
383.
Egan, Frances. (2014). How to think about mental content. Philosophical Studies, 170(1), 115-135.
Figdor, Carrie. (2018). Pieces of mind: The proper domain of psychological predicates: Oxford University Press.
Fodor, Jerry. (1975). The Language of Thought (Vol. 87): Harvard University Press.
Fodor, Jerry. (1981). The mind-body problem. Scientific American, 244, 114-125.
Fodor, Jerry. (1987). Psychosemantics: The problem of meaning in the philosophy of mind (Vol. 2): MIT press.
Fodor, Jerry. (1990). A theory of content and other essays: The MIT press.
Fodor, Jerry. (2007). The revenge of the given. In Brian P. McLaughlin & Jonathan D. Cohen (Eds.), Contemporary
Debates in Philosophy of Mind (pp. 105-116): Blackwell.
Fodor, Jerry, & Pylyshyn, Zenon W. (1988). Connectionism and cognitive architecture: A critical analysis. Cognition,
28(1-2), 3-71.
Frege, Gottlob (1892). Über sinn und bedeutung. Zeitschrift für Philosophie und philosophische Kritik, 100, 25-50.
Tr. Fr. Frege, Gottlob. Sens et dénotation. Écrits logiques et philosophiques,1971, p. 102-126.
Friston, Karl. (2010). The free-energy principle: a unified brain theory? Nature reviews neuroscience, 11(2), 127-
138.
Gallistel, Charles R. (2007). Dead reckoning, cognitive maps, animal navigation and the representation of space: An
introduction. In Margaret E. Jefferies & Wai-Kiang Yeap (Eds.), Robotics and cognitive approaches to spatial
mapping (pp. 137-143): Springer.
Gibson, James J. (1979/2014). The theory of affordances. In The Ecological Approach to Visual Perception (pp. 119-
136): Psychology Press.
Gładziejewski, Paweł. (2016). Predictive coding and representationalism. Synthese, 193(2).
Gładziejewski, Paweł, & Miłkowski, Marcin. (2017). Structural representations: causally relevant and different from
detectors. Biology and Philosophy, 32(3), 337-355.
Goldman, Alvin & de Vignemont, Frédérique (2009). Is social cognition embodied? Trends in Cognitive Sciences 13
(4):154-159.
Goodman, Nelson. (1951). The Structure of Appearance (Vol. 3): Harvard University Press.
Goodman, Nelson. (1976). Languages of Art. Indianapolis: Hackett. Tr. Fr. Goodman, Nelson (2011). Langages de l’art.
Pluriel.
Gould, James L. (1990). Honey bee cognition. Cognition, 37(1-2), 83-103.
Grice, H Paul. (1957). Meaning. The Philosophical Review, 377-388.
Harman, Gilbert. (1973). Thought: Princeton University Press.
Harman, Gilbert. (1975). Language, thought, and communication. Minnesota Studies in the Philosophy of Science, 7,
270-298.
Haugeland, John. (1985). Artificial Intelligence: The Very Idea (Vol. 38): MIT Press.
Haugeland, John. (1998a). Having thought: Harvard University Press.
Haugeland, John. (1998b). Representational genera. In Having thought: Essays in the metaphysics of mind (pp. 171-
206). Cambridge: Harvard University Press.
Hobbes, Thomas. (1651/2008). Leviathan (J. C. A. Gaskin Ed.): Oxford University Press.
Hohwy, Jakob. (2013). The predictive mind: Oxford University Press.
Horgan, Terence. (1997). Connectionism and the philosophical foundations of cognitive science. Metaphilosophy,
28(1‐2), 1-30.
Huemer, Michael (2001). Skepticism and the Veil of Perception. Rowman & Littlefield.
Hume, David. (1738/2000). A Treatise of Human Nature: Being an Attempt to Introduce the Experimental Method
of Reasoning Into Moral Subjects (David Fate Norton & Mary J. Norton Eds.): Oxford University Press.
Hurley, Susan L. (1998). Consciousness in Action. Harvard University Press.
Hutto, Daniel D. & Myin, Erik (2013). Radicalizing Enactivism: Basic Minds Without Content. Cambridge, MA: MIT
Press.
Jacob, Pierre. (2004). L’intentionnalité: Problèmes de philosophie de l’esprit: Odile Jacob.
Kiefer, Alex, & Hohwy, Jakob. (2018). Content and misrepresentation in hierarchical generative models. Synthese,
195(6), 2387-2415.
Kim Jaegwon (1996), Mind in a Physical World: An Essay on the Mind-Brody Problem and Mental Causation, Tr. fr.
Kim Jaegwon (2006). L’esprit dans un monde physique – Essai sur le problème corps-esprit et la causalité mentale,
Ithaque
Kiverstein, Julian & Rietveld, Erik (forthcoming). Scaling-up skilled intentionality to linguistic thought. Synthese:1-
20.
Kosslyn, Stephen M, Thompson, William L, & Ganis, Giorgio. (2006). The case for mental imagery: Oxford University
Press.
Kriegel, Uriah. (2015). The Varieties of Consciousness: Oxford University Press.
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.
Lewis, David. (1980). Mad pain and Martian pain. In Ned Block (Ed.), Readings in the Philosophy of Psychology (Vol.
1, pp. 216-222).
Loar, Brian. (1981). Mind and Meaning: Cambridge University Press.
Loar, Brian. (2003). Phenomenal intentionality as the basis of mental content. In Martin Hahn & B. Ramberg (Eds.),
Reflections and Replies: Essays on the Philosophy of Tyler Burge (pp. 229–258): MIT Press.
Locke, John. (1690/1979). An essay concerning human understanding (Peter H Nidditch Ed.): Oxford University
Press.
Marcus, Gary (2001). The Algebraic Mind. MIT Press.
Marcus, Gary. (2018). Deep learning: A critical appraisal. arXiv preprint arXiv:1801.00631.
Marr, David. (1982). Vision: The philosophy and the approach: Freeman.
Matthen, Mohan (2014). Debunking enactivism: a critical notice of Hutto and Myin’s Radicalizing
Enactivism. Canadian Journal of Philosophy 44 (1):118-128.
McCulloch, Warren S, & Pfeiffer, John. (1949). Of digital computers called brains. The Scientific Monthly, 69(6), 368-
376.
McCulloch, Warren S, & Pitts, Walter. (1943). A logical calculus of the ideas immanent in nervous activity. The
bulletin of mathematical biophysics, 5(4), 115-133.
McDowell, John. (1985). Functionalism and anomalous monism. In Brian P. McLaughlin & Ernest LePore (Eds.),
Actions and Events: Perspectives on the Philosophy of Donald Davidson: Blackwell.
Mendelovici, Angela & Bourget, David (2014). Naturalizing intentionality: Tracking theories versus phenomenal
intentionality theories. Philosophy Compass, 9(5), 325-337.
Miłkowski, Marcin (2015a). The Hard Problem Of Content: Solved (Long Ago). Studies in Logic, Grammar and
Rhetoric 41 (1):73-88.
Miłkowski, Marcin (2015b). Satisfaction conditions in anticipatory mechanisms. Biology and Philosophy 30 (5):709-
728.
Miller, George A. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing
information. Psychological review, 63(2), 81-97.
Miller, George A. (2003). The cognitive revolution: a historical perspective. Trends in cognitive sciences, 7(3), 141-
144.
Millikan, Ruth G. (1989). Biosemantics. Journal of Philosophy, 86, 281-297.
Moran, Dermot (2013). Intentionality: Some Lessons from the History of the Problem from Brentano to the
Present. International Journal of Philosophical Studies 21 (3):317-358.
Morgan, Alex (2014). Representations gone mental. Synthese 191 (2):213-244.
Morgan, Alex & Piccinini, Gualtiero (2018). Towards a Cognitive Neuroscience of Intentionality. Minds and
Machines 28 (1):119-139.
Nagel, Thomas. (1974). What is it like to be a bat? The Philosophical Review, 83(4), 435-450. Tr. Fr. Nagel, Thomas
(1983). « Quel effet cela fait-il d’être une chauve-souris ? » dans Questions mortelles, PUF.
Neander, Karen. (2017). A Mark of the Mental: A Defence of Informational Teleosemantics: MIT Press.
Newen, Albert ; De Bruin, Leon & Gallagher, Shaun (2018). The Oxford Handbook of 4E Cognition. Oxford: Oxford
University Press.
O’Brien, Gerard, & Opie, Jon. (2004). Notes toward a structuralist theory of mental representation. In Hugh Clapin,
Phillip Staines, & Peter Slezak (Eds.), Representation in mind (pp. 1-20): Elsevier.
Pacherie, Elisabeth (1993). Naturaliser l’intentionnalité: essai de philosophie de la psychologie. FeniXX.
Panaccio, Claude. (2017). Mental language: from Plato to William of Ockham: Fordham Univ Press.
Papineau, David. (1984). Representation and explanation. Philosophy of Science, 51(4), 550-572.
Pautz, Adam (forthcoming). Representationalism about Consciousness. In Uriah Kriegel (ed.), Oxford Handbook of
the Philosophy of Consciousness. Oxford University Press.
Petzold, Charles. (2008). The annotated Turing: a guided tour through Alan Turing’s historic paper on computability
and the Turing machine: Wiley Publishing.
Piccinini, Gualtiero. (2008). Computation without representation. Philosophical Studies, 137(2), 205-241.
Prior, Arthur N. (1971). Objects of Thought. Clarendon Press.
Port, Robert F, & Van Gelder, Timothy. (1995). Mind as motion: Explorations in the dynamics of cognition: MIT press.
Putnam, Hilary (1975). The meaning of ‘meaning’. Philosophical papers, 2. Tr. Fr. Putnam, Hilary (1997). Les
significations ne sont tout simplement pas dans la tête. in Pascal Ludwig (éd.), Le langage, Flammarion, p. 124-134)
Ramsey, William M. (2007). Representation reconsidered: Cambridge University Press.
Recanati, François (2008). Philosophie du langage (et de l’esprit). Folio Essais.
Rorty, Richard. (1979/2009). Philosophy and the Mirror of Nature: Princeton University Press. Tr. Fr. Rorty, Richard
(2017). La philosophie et le miroir de la nature. Ed. du Seuil.
Rosenblatt, Frank. (1958). The perceptron: a probabilistic model for information storage and organization in the
brain. Psychological review, 65(6), 386-408.
Rosenthal, David M. (1993). Thinking that one thinks. In Martin Davies & Glyn W. Humphreys (Eds.), Consciousness:
Psychological and Philosophical Essays: Blackwell.
Rupert, Robert D. (1999). The best test theory of extension: First principle(s). Mind and Language, 14(3), 321–355.
Rupert, Robert D. (2011). Embodiment, Consciousness, and the Massively Representational Mind. Philosophical
Topics 39 (1):99-120.
Russell, Bertrand. (1918/2009). The philosophy of logical atomism: Routledge.
Ryder, Dan. (2004). SINBaD neurosemantics: A theory of mental representation. Mind and Language, 19(2), 211-
240.
Ryle, Gilbert. (1949). The Concept of Mind: Hutchinson & Co. Tr. Fr. Ryle, Gilbert (2005). La notion d’esprit. Petite
bibliothèque Payot.
Searle, John R. (1979). What is an intentional state? Mind, 88(349), 74-92.
Searle, John R. (1983). Intentionality: An essay in the philosophy of mind: Cambridge University Press. Tr. Fr. Searle,
John R. (1985). L’intentionalité. Essai de philosophie des états mentaux. Les Editions de Minuit.
Searle, John R. (1992). The rediscovery of the mind: MIT press. Tr. Fr. Searle, John R. (1995). La rédecouverte de
l’esprit. NRF Essais Gallimard.
Segal, Gabriel MA. (2000). A slim book about narrow content: MIT Press.
Shea, Nicholas. (2018). Representation in cognitive science: Oxford University Press.
Smortchkova, Joulia, & Murez, Michael. (2020). Representational Kinds. In Joulia Smortchkova, Krzysztof Dolega, &
Tobias Schlicht (Eds.), What are Mental Representations? : Oxford University Press.
[Link]
Smortchkova, Joulia (2019). Review of Pieces of Mind: The Proper Domain of Psychological Predicates by Carrie
Figdor. British Journal for the Philosophy of Science.
Speaks, Jeff. (2005). Is there a problem about nonconceptual content? The philosophical review, 114(3), 359-398.
Speaks, Jeff. (2010). Theories of meaning. In Stanford Encyclopedia of Philosophy.
Sprevak, Mark. (2013). Fictionalism about neural representations. The Monist, 96(4), 539-560.
Stampe, Dennis W. (1977). Toward a causal theory of linguistic representation. Midwest studies in philosophy, 2(1),
42-63.
Sterelny, Kim. (1990). The representational theory of mind: An introduction: Basil Blackwell.
Stich, Stephen, & Ravenscroft, Ian. (1994). What is folk psychology? Cognition, 50(1-3), 447-468.
Thomson, E., & Piccinini, G. (2018). Neural Representations Observed. Minds and Machines, 28(1), 191-235.
Tolman, Edward C. (1948). Cognitive maps in rats and men. Psychological review, 55(4), 189.
Tye, Michael. (1995a). A representational theory of pains and their phenomenal character. Philosophical
perspectives, 9, 223-239.
Tye, Michael. (1995b). Ten problems of consciousness: A representational theory of the phenomenal mind: MIT
Press.
Tye, Michael. (2000). The imagery debate: MIT Press.
Varela, Francisco ; Thompson, Evan & Rosch, Eleanor (1991). The Embodied Mind: Cognitive Science and Human
Experience. MIT Press. Tr. Fr. Varela, Francisco, Evan Thompson, et Eléanor Rosch (1999). L’inscription corporelle de
l’esprit : Sciences cognitives et expérience humaine. Paris: Seuil.
Von Eckardt, Barbara. (1995). What is cognitive science? : MIT press.
Wittgenstein, Ludwig. (1953/1986). Philosophical investigations (G. E. M. Anscombe, Trans.): Basil Blackwell. Tr. Fr.
Wittgenstein, Ludwig (2005). Recherches philosophiques. Gallimard.
Joulia Smortchkova
University of Oxford
[Link]@[Link]
L’hypothèse du langage de la pensée considère que les représentations mentales ont un format quasi-linguistique. Mais
une alternative possible est que certaines représentations mentales aient un format iconique et représentent comme
des images et non pas comme des mots. C’est peut-être le cas des représentations perceptives ou des représentations
utilisées dans l’imagerie mentale. Comment comprendre la différence entre représentations iconiques et non-
iconique ? Une façon est de faire appel à ce que Fodor nomme le « principe de l’image » : une représentation iconique ne
possède pas de décomposition canonique, mais elle est soumise au principe sémantique selon lequel si P est une image
de X, alors des parties de P sont des images de parties de X (Fodor, 2007).
Une autre façon de comprendre comment certaines représentations mentales pourraient être comme des images est
d’appliquer la distinction de Goodman entre représentations analogues et représentations digitales (Goodman, 1976)
au cas mental (Dretske, 1981), où analogue signifie que la représentation ne porte pas simplement de l’information du
type « x est P », mais elle porte nécessairement en plus de l’information cachée dans « x est P ». Pour rendre cela concret,
on cite Dretske : « Si je te dis simplement « La tasse contient du café », ce signal (acoustique) transporte l’information
que la tasse contient du café en format digital. Il n’y a pas d’information plus spécifique que l’information sur la tasse (ou
le café) et sur le fait qu’il y a du café dans la tasse. Tu ne sais pas combien de café il y a dans la tasse, quelle est la largeur
de la tasse, si le café est sombre…Si, en revanche, je prends une photo de la scène et je te montre l’image, l’information
que le café est dans la tasse est véhiculée de façon analogue. La photo t’informe sur le fait qu’il y a du café dans la tasse
en te disant, à peu près, combien de café il y a dans la tasse, la forme, la dimension, et la couleur de la tasse, et ainsi de
suite. » (Dretske, 1981, p. 137).
Comment prouver, empiriquement, que nous faisons parfois appel à des représentations au format d’image ? Dans les
années 1970, Stephen Kosslyn a utilisé certaines données empiriques pour soutenir l’hypothèse que certaines
représentations ont un format d’image. Une source de soutien pour cette hypothèse vient des expériences sur la
rotation mentale : il a été démontré que le temps qu’il faut pour identifier dans l’imagination si une image correspond à
la rotation d’une autre est approximativement le temps qu’il faudrait pour faire tourner l’image (Kosslyn, Thompson, &
Ganis, 2006). La question de la bonne interprétation de ces données expérimentales a donné naissance au « débat sur
l’imagerie mentale », dans lequel s’opposent d’un côté Kosslyn, qui défend les représentations en format analogue, et de
l’autre Pylyshyn et Fodor, qui défendent l’idée que toutes les représentations sont en format digital (linguistique) (voir
Tye, 2000 pour une présentation du débat).
Il est important de noter ici que Kosslyn ne défend pas l’idée qu’on pense littéralement par images, mais bien plutôt une
théorie fonctionnelle des images mentales (Tye, 2000). Les représentations mentales implémentées dans le cerveau ne
possèdent pas de propriétés spatiales correspondantes aux propriétés des objets qu’elles représentent, mais elles se
comportent comme si elles en possédaient. Le modèle de la manière dont l’esprit pense par images est celui d’un
ordinateur digital qui projette une image découpée en pixels sur la matrice d’un écran. Ce qui fait que la représentation
est en format d’image est le fait que les processus cognitifs qui l’utilisent sont sensibles aux propriétés structurelles
encodées dans les représentations.
L’existence des cartes cognitives, comme celles utilisées par les fourmis pour rentrer vers leur nid, soulève aussi la
question de l’existence de représentations mentales en format non linguistique. Comme nous l’avons vu, Fodor (dans la
lignée de Michael Dummett et Donald Davidson) a soutenu que tout processus de pensée engage des représentations
quasi-linguistiques, par l’argument général suivant :
La pensée est systématique ;Afin d’expliquer cette systématicité nous devons postuler des représentations mentales
avec une certaine structure ;Cette structure implique que les représentations mentales seraient constituées par des
composantes qui sont récurrentes et systématiques ;Ceci est possible seulement si les représentations mentales sont
en format quasi-linguistique.
En défendant l’idée que des représentations mentales puissent avoir un format cartographique, Elisabeth Camp
conteste la conclusion d), c’est-à-dire qu’un système composé des parties discrètes avec des règles de combinaison
systématiques peut être seulement de type linguistique (Camp, 2007, p. 152). Un système cartographique est un
système non-linguistique structuré en parties discrètes combinables via des règles systématiques. La thèse de Camp
n’est pas que les règles de combinaison soient les mêmes pour les représentations linguistiques et celles
cartographiques : les principes combinatoires sont différents, mais ils sont systématiques tous les deux.
Les cartes se situent entre les images et le langage. Les images n’ont pas de principe « grammatical » sauf le « principe de
l’image » énoncé par Fodor : elles sont isomorphes à ce qu’elles représentent selon de multiples dimensions
(syntaxiques et sémantiques). Les cartes, en revanche, sont isomorphes selon une seule dimension, la structure spatiale.
Par exemple, la distance entre éléments d’une carte correspond (une fois la différence d’échelle prise en compte) à la
distance entre objets dans le monde. Camp écrit : « Là où le principe syntaxique qui combine les constituants dans les
cartes repose sur un isomorphisme assez direct, quoique sélectif, le principe sémantique qui fait correspondre ces
constituants aux objets et aux propriétés du monde peut être assez indirect et arbitraire. (…) [T]outes les cartes utilisent
des constituants discrets et récurrents avec une sémantique hautement arbitraire, et les combinent selon des règles
systématiques pour produire des représentations complexes systématiquement liées » (pp. 158 - 159). Pour Camp, la
conclusion d) de l’argument de Fodor est tout simplement fausse : il existe des représentations systématiques qui ne
sont pas linguistiques.
c. Représentations tacites
Dans le langage de la pensée chaque symbole mental est stocké dans la mémoire et correspond à un contenu donné.
Mais il est possible que des représentations ne soient pas explicitement stockées dans la mémoire. La présentation
classique de cette possibilité vient de Dennett : « Dans une conversation récente avec le créateur d’un programme qui
joue aux échecs, j’ai entendu la critique suivante d’un programme rival : « il pense qu’il doit sortir la reine tôt. ». Cette
attribution d’une attitude propositionnelle au programme est très utile et sert à prédire son comportement, puisque,
comme le créateur a poursuivi, on peut compter sur le fait de chasser cette reine sur l’échiquier. Mais, bien qu’on puisse
trouver plusieurs niveaux de représentation explicite dans le programme, on ne trouve aucune occurrence symbolique
(token) explicite approximativement synonyme avec « Je dois sortir ma reine tôt. ». Le niveau d’analyse auquel
appartient la remarque du créateur décrit des caractéristiques du programme, qui sont, de façon entièrement
innocente, des propriétés émergentes des processus computationnels qui ont une « réalité d’ingénierie ». Je ne vois
aucune raison de croire que la relation entre le discours à propos des croyances et le discours à propos des processus
psychologiques soient plus directs que ça. » (Dennett, 1977, p. 279).
Dans cet exemple de Dennett l’information n’est pas encodée de façon explicite dans le système, c’est à dire dans un
énoncé dans le langage de la pensée, un algorithme, ou une instruction ; elle est au contraire implémentée dans le
système de façon implicite. Ce que Dennett suggère dans ce passage est que certaines règles émergent de la mise en
œuvre de règles explicites et des structures de données.
Pourquoi a-t-on besoin d’une notion de représentation tacite ? Une source de motivation est la menace d’une
régression à l’infini dans l’introduction de règles : afin de pouvoir utiliser des symboles et appliquer des règles nous
avons besoin de postuler une entité (un « fantôme dans la machine » pour utiliser l’expression de Ryle, qui a le premier
soulevé ce problème) qui sache comment manipuler les symboles et appliquer des règles. Ou pour décrire cela en
termes mécanistes : afin d’appliquer des règles la machine devrait posséder des instructions pour appliquer les règles et
aussi des instructions pour appliquer les instructions pour appliquer les règles, et ainsi de suite. L’introduction de
représentations tacites aide à arrêter la régression, en postulant un type de connaissance pratique (know-how)
incarnée dans l’architecture du système, qui ne demande pas la présence d’un fantôme ou d’un mécanisme
d’interprétation et de manipulation. Il est important de noter que cette notion n’est pas purement théorique : les
ordinateurs nous montrent comment la connaissance pratique tacite peut être implémentée dans un système. Dans le
cas d’un ordinateur, on sait que l’ordinateur est capable de suivre certaines règles (les instructions), mais il n’a pas
d’instructions explicites, en plus, sur comment suivre ces règles. Ainsi, la notion de représentation tacite complète la
théorie représentationnelle-computationnelle de l’esprit par une façon de représenter qui ne demande pas de symboles
explicites, règles écrites, voire un interprète, pour appliquer les règles et manipuler des symboles.
Le statut des représentations tacites est controversé. D’abord, on retrouve dans la littérature scientifique d’autres
usages que celui de Dennett du même terme, qui est identifié parfois avec « inconscient », parfois avec « inactif », parfois
avec « information suggérée », mais pas explicitement donnée. Un problème méthodologique est de démêler tous ces
usages dans les sciences cognitives. Ensuite, la notion de représentation tacite n’a pas été utilisée seulement dans le
cadre de la théorie computationnelle classique, mais aussi dans le connexionnisme, avec un but différent. En effet, les
connexionnistes disent souvent que dans une représentation distribuée et inactive l’information est représentée
tacitement. Pour Ramsey (2007, chapitre 5) ce type de représentation échoue à accomplir le « défi de la description du
travail » et ainsi n’est pas une véritable représentation mentale.
d. Représentations mentales et conscience
Dans cette sous-section l’on va discuter brièvement de la relation entre représentations mentales et conscience (voir
entrée « conscience » [Link] ; et aussi la revue de la problématique par Pautz, à paraître).
Cette relation est particulièrement centrale pour les états perceptifs et sensoriels, comme les états visuels, olfactifs,
tactiles, gustatifs, auditifs, voire proprioceptifs et intéroceptifs. Afin d’esquisser les contours de cette relation, nous
allons utiliser un exemple. Quand je suis en train de regarder un coucher de soleil au bord de la mer, mon état perceptif
peut être décrit comme ayant deux aspects. Le premier aspect est son contenu, c’est-à-dire la représentation de la
rougeur et de la ligne d’horizon entre le ciel et la mer, etc. Le deuxième aspect est mon expérience subjective, l’effet que
cela fait (Nagel, 1974) d’avoir l’expérience du coucher du soleil. Cet aspect est le facteur phénoménal, qualitatif,
conscient de mon état perceptif occurrent.
Les deux aspects peuvent être détachés : dans une perception subliminale mon état perceptif reste représentationnel,
mais je n’ai pas l’expérience phénoménale associée. De l’autre côté, il est plus controversé que je puisse avoir un état
phénoménal sans représenter de propriété associée. Le débat sur les représentations et la conscience concerne donc la
question de savoir si la conscience (c’est-à-dire l’expérience phénoménale) peut être réduite à la représentation
mentale. Il existe deux camps opposés : selon certains philosophes, et notamment Michael Tye (Tye, 1995b) et David
Rosenthal (Rosenthal, 1993), l’état conscient (subjectif, phénoménal) peut être réduit à l’aspect représentationnel ;
selon d’autres philosophes, et notamment Ned Block (Block, 1990) et David Chalmers (Chalmers, 1996), l’aspect
conscient n’est pas réductible à l’aspect représentationnel.
Les théories représentationnelles de la conscience peuvent être classées le long de deux axes. Le premier axe est la
force de la réduction : des positions basées sur une réduction relativement faible (comme la survenance des propriétés
phénoménales sur les propriétés représentées) aux positions basées sur une réduction forte (comme l’identité entre
propriétés phénoménales et représentationnelles). Le deuxième axe est le niveau de la représentation qui rend un état
conscient : on a d’un côté les théories représentationnelles de premier ordre, où les contenus représentationnels
auxquelles la conscience est réduite sont ceux de l’état conscient même (Tye, 1995b), et de l’autre côté, les théories
représentationnelles de deuxième ordre (Rosenthal, 1993), où l’état représentationnel qui rend un autre état conscient
est une pensée de deuxième ordre, ou une perception interne qui porte sur l’état d’ordre inférieur.
Sans doute l’argument le plus connu contre la position représentationaliste est l’argument du spectre inversé, dont
nombre de variations ont été proposées. Une variation est celle de Block (1990), qui nous demande d’imaginer une
planète (« la Terre inversée »), qui ressemble exactement à la terre, sauf que certaines couleurs sont inversées sur le
spectre par rapport aux nôtres (par exemple si un terrien a l’expérience du bleu en regardant une myrtille, un terrien
inversé a l’expérience du jaune en regardant une myrtille). Cependant, les comportements et les termes utilisés sur
Terre inversée sont les mêmes que sur la Terre : le terrien inversé voit une myrtille et dit qu’elle est bleue, même si son
expérience est celle d’une myrtille jaune. Selon Block, un terrien transporté sur Terre inversée, et doté de lentilles qui
renversent les couleurs, après un certain temps, adaptera ses représentations mentales au nouvel environnement
(c’est-à-dire ses attitudes propositionnelles et les contenus de ses états mentaux seront les mêmes que ceux des
terriens inversés), mais son expérience phénoménale restera la même. Le but de l’expérience de pensée est de montrer
qu’il existe des cas possibles, où l’expérience phénoménale et les représentations correspondantes ne sont pas alignées,
et donc que nous pouvons avoir une expérience phénoménale sans un contenu représentationnel associé.
Pour terminer cette sous-section un autre débat concernant la relation entre représentations mentales et consciences
est le débat sur l’« intentionnalité phénoménale », une position philosophique selon laquelle la phénoménalité est
l’origine de toute intentionnalité, et non pas l’inverse (Mendelovici & Bourget, 2014; Loar, 2003). Plus précisément,
cette approche essaie d’expliquer l’intentionnalité des états mentaux au niveau personnel par leur aspect phénoménal,
par opposition aux théories téléosémantiques présentées dans la sous-section 4.a, qui essaient d’expliquer
l’intentionnalité par des relations informationnelles et historiques. Par exemple, en voyant une myrtille bleue le fait que
mon état perceptif soit à propos de la myrtille bleue est dû à (voire constitué par) mon expérience de la bleuité de la
myrtille. L’approche de l’intentionnalité phénoménale existe en plusieurs variantes, et fait face à un certain nombre de
critiques, notamment concernant l’intentionnalité des états cognitifs (comme les croyances et les désirs) qui ne sont pas
censés avoir d’aspect phénoménal, sauf si on défend, en plus, la thèse de la « phénoménologie cognitive » (Chudnoff,
2015; Kriegel, 2015), et l’énigme des états intentionnels non-conscients, répandus dans les explications psychologiques.
Bibliographie
Adams, Fred, & Aizawa, Ken. (2010). Defending the bounds of cognition. In Richard Menary (Ed.), The Extended Mind
(pp. 67--80): MIT Press.
Anscombe, G. E. M. (1957). Intention: Harvard University Press.
Aydede, Murat. (2009). Is feeling pain the perception of something? The Journal of Philosophy, 106(10), 531-567.
Bechtel, William, & Abrahamsen, Adele. (1991). Connectionism and the mind: An introduction to parallel processing in
networks: Basil Blackwell.
Bennett, Jonathan. (1971). Locke, Berkeley, Hume; Central Themes: Oxford University Press UK.
Bennett, Maxwell R, Dennett, Daniel, Hacker, Peter, & Searle, John. (2007). Neuroscience and philosophy: Brain, mind,
and language: Columbia University Press.
Bennett, Maxwell R, & Hacker, Peter Michael Stephan. (2003). Philosophical foundations of neuroscience (Vol. 79):
Blackwell Oxford.
Berkeley, George. (1734/1998). A Treatise Concerning the Principles of Human Knowledge (Jonathan Dancy Ed.):
Oxford University Press.
Block, Ned. (1990). Inverted earth. Philosophical perspectives, 4, 53-79.
Block, Ned. (2018). If perception is probabilistic, why does it not seem probabilistic? Philosophical Transactions of the
Royal Society B: Biological Sciences, 373(1755), 20170341.
Brentano, Franz. (1874). Psychologie vom empirischen Standpunkt. Leipzig: Duncker & Humblot. Tr. Fr. Brentano Franz.
(2008). Psychologie du point de vue empirique. Vrin.
Burge, Tyler (1979). Individualism and the Mental. Midwest Studies in Philosophy, 4(1), 73-121.
Burge, Tyler. (1992). Philosophy of language and mind: 1950-1990. The Philosophical Review, 101(1), 3-51.
Burge, Tyler. (2010). Origins of objectivity: Oxford University Press.
Camp, Elisabeth. (2007). Thinking with maps. Philosophical Perspectives, 21, 145-182.
Carruthers, Peter. (1998). Conscious thinking: Language or elimination? Mind and Language, 13(4), 457-476.
Chalmers, David J. (1996). The conscious mind: In search of a fundamental theory: Oxford University Press. Tr. Fr.
Chalmers, David J. (2010). L’Esprit conscient : À la recherche d’une théorie fondamentale. Les éditions d’Ithaque.
Chalmers, David J. (2003). The nature of narrow content. Philosophical Issues, 13, 46-66.
Chemero, Anthony (2009). Radical Embodied Cognitive Science. Bradford.
Chisholm, Roderick M. (1957). Perceiving: A Philosophical Study: Cornell University Press.
Chomsky, Noam. (1957/2002). Syntactic structures: Walter de Gruyter. Tr. Fr. Chomsky, Noam. (1969). Structures
syntaxiques. Seuil.
Chomsky, Noam. (1995). Language and nature. Mind, 104(413), 1-61.
Chudnoff, Elijah. (2015). Phenomenal Contrast Arguments for Cognitive Phenomenology. Philosophy and
Phenomenological Research, 90(2), 82-104.
Churchland, Patricia Smith. (1989). Neurophilosophy: Toward a unified science of the mind-brain: MIT press. Tr. Fr.
Churchland, Patricia Smith (1999). Neurophilosophie. L’esprit-cerveau. PUF.
Churchland, Paul M. (1992). A neurocomputational perspective: The nature of mind and the structure of science: MIT
press.
Clark, Andy. (1998). Being there: Putting brain, body, and world together again: MIT press.
Clark, Andy. (2015). Surfing uncertainty: Prediction, action, and the embodied mind: Oxford University Press.
Clark, Andy, & Chalmers, David. (1998). The extended mind. Analysis, 58(1), 7-19.
Crane, Tim. (2009). Is perception a propositional attitude? The Philosophical Quarterly, 59(236), 452-469.
Crane, Tim. (2015). The mechanical mind: A philosophical introduction to minds, machines and mental representation:
Routledge.
Cummins, Robert. (1989). Meaning and mental representation: MIT Press
Cummins, Robert. (2000). "How does it work" versus "what are the laws?": Two conceptions of psychological
explanation. In F. Keil & Robert A. Wilson (Eds.), Explanation and cognition (pp. 117-145): MIT Press.
Davies, Martin. (2015). Knowledge–Explicit, implicit and tacit: Philosophical aspects. In J. D. Wright (Ed.), International
encyclopedia of the social & behavioral sciences (pp. 74-90). Oxford: Elsevier Ltd.
Dennett, Daniel. (1969/2010). Personal and sub-personal levels of explanation: pain. In Content and consciousness (pp.
101-108): Routledge.
Dennett, Daniel. (1977). Critical Notice of Jerry Fodor, The Language of Thought (New York, 1975). Mind, 86, 265-280.
Dennett, Daniel. (1987). The Intentional Stance: MIT Press. Tr. Fr. Dennett Daniel (1990). La stratégie de l'interprète,
Paris, Gallimard.
Dennett, Daniel. (1988). Evolution, error and intentionality. In The Intentional Stance (pp. 287-322): MIT Press.
Dennett, Daniel, & Kinsbourne, Marcel. (1992). Time and the observer: The where and when of consciousness in the
brain. Behavioral and Brain sciences, 15(2), 183-201.
Dennett, Daniel. (1994). The myth of original intentionality. In Eric Dietrich (Ed.), Thinking Computers and Virtual
Persons (pp. 91-107). Academic Press.
Descartes, René. (1644/2009). Principes de la philosophie: première partie: sélection d'articles des parties 2, 3, 4,
lettre-préface: Vrin.
Dretske, Fred. (1981). Knowledge and the Flow of Information (Vol. 92): MIT Press.
Dretske, Fred (1986). Misrepresentation. In R. Bogdan (ed.), Belief: Form, Content, and Function. Oxford University
Press. pp. 17--36.
Dretske, Fred. (1991). Explaining behavior: Reasons in a world of causes: MIT press.
Dretske, Fred. (2002). A Recipe for Thought. In David J. Chalmers (Ed.), Philosophy of Mind: Classical and
Contemporary Readings: Oup Usa.
Dreyfus, Hubert L. (2002). Intelligence without representation–Merleau-Ponty's critique of mental representation The
relevance of phenomenology to scientific explanation. Phenomenology and the cognitive sciences, 1(4), 367-383.
Egan, Frances. (2014). How to think about mental content. Philosophical Studies, 170(1), 115-135.
Figdor, Carrie. (2018). Pieces of mind: The proper domain of psychological predicates: Oxford University Press.
Fodor, Jerry. (1975). The Language of Thought (Vol. 87): Harvard University Press.
Fodor, Jerry. (1981). The mind-body problem. Scientific American, 244, 114-125.
Fodor, Jerry. (1987). Psychosemantics: The problem of meaning in the philosophy of mind (Vol. 2): MIT press.
Fodor, Jerry. (1990). A theory of content and other essays: The MIT press.
Fodor, Jerry. (2007). The revenge of the given. In Brian P. McLaughlin & Jonathan D. Cohen (Eds.), Contemporary
Debates in Philosophy of Mind (pp. 105-116): Blackwell.
Fodor, Jerry, & Pylyshyn, Zenon W. (1988). Connectionism and cognitive architecture: A critical analysis. Cognition,
28(1-2), 3-71.
Frege, Gottlob (1892). Über sinn und bedeutung. Zeitschrift für Philosophie und philosophische Kritik, 100, 25-50. Tr.
Fr. Frege, Gottlob. Sens et dénotation. Écrits logiques et philosophiques,1971, p. 102-126.
Friston, Karl. (2010). The free-energy principle: a unified brain theory? Nature reviews neuroscience, 11(2), 127-138.
Gallistel, Charles R. (2007). Dead reckoning, cognitive maps, animal navigation and the representation of space: An
introduction. In Margaret E. Jefferies & Wai-Kiang Yeap (Eds.), Robotics and cognitive approaches to spatial mapping
(pp. 137-143): Springer.
Gibson, James J. (1979/2014). The theory of affordances. In The Ecological Approach to Visual Perception (pp. 119-
136): Psychology Press.
Gładziejewski, Paweł. (2016). Predictive coding and representationalism. Synthese, 193(2).
Gładziejewski, Paweł, & Miłkowski, Marcin. (2017). Structural representations: causally relevant and different from
detectors. Biology and Philosophy, 32(3), 337-355.
Goldman, Alvin & de Vignemont, Frédérique (2009). Is social cognition embodied? Trends in Cognitive Sciences 13
(4):154-159.
Goodman, Nelson. (1951). The Structure of Appearance (Vol. 3): Harvard University Press.
Goodman, Nelson. (1976). Languages of Art. Indianapolis: Hackett. Tr. Fr. Goodman, Nelson (2011). Langages de l’art.
Pluriel.
Gould, James L. (1990). Honey bee cognition. Cognition, 37(1-2), 83-103.
Grice, H Paul. (1957). Meaning. The Philosophical Review, 377-388.
Harman, Gilbert. (1973). Thought: Princeton University Press.
Harman, Gilbert. (1975). Language, thought, and communication. Minnesota Studies in the Philosophy of Science, 7,
270-298.
Haugeland, John. (1985). Artificial Intelligence: The Very Idea (Vol. 38): MIT Press.
Haugeland, John. (1998a). Having thought: Harvard University Press.
Haugeland, John. (1998b). Representational genera. In Having thought: Essays in the metaphysics of mind (pp. 171-
206). Cambridge: Harvard University Press.
Hobbes, Thomas. (1651/2008). Leviathan (J. C. A. Gaskin Ed.): Oxford University Press.
Hohwy, Jakob. (2013). The predictive mind: Oxford University Press.
Horgan, Terence. (1997). Connectionism and the philosophical foundations of cognitive science. Metaphilosophy, 28(1‐
2), 1-30.
Huemer, Michael (2001). Skepticism and the Veil of Perception. Rowman & Littlefield.
Hume, David. (1738/2000). A Treatise of Human Nature: Being an Attempt to Introduce the Experimental Method of
Reasoning Into Moral Subjects (David Fate Norton & Mary J. Norton Eds.): Oxford University Press.
Hurley, Susan L. (1998). Consciousness in Action. Harvard University Press.
Hutto, Daniel D. & Myin, Erik (2013). Radicalizing Enactivism: Basic Minds Without Content. Cambridge, MA: MIT
Press.
Jacob, Pierre. (2004). L'intentionnalité: Problèmes de philosophie de l'esprit: Odile Jacob.
Kiefer, Alex, & Hohwy, Jakob. (2018). Content and misrepresentation in hierarchical generative models. Synthese,
195(6), 2387-2415.
Kim Jaegwon (1996), Mind in a Physical World: An Essay on the Mind-Brody Problem and Mental Causation, Tr. fr. Kim
Jaegwon (2006). L'esprit dans un monde physique – Essai sur le problème corps-esprit et la causalité mentale, Ithaque
Kiverstein, Julian & Rietveld, Erik (forthcoming). Scaling-up skilled intentionality to linguistic thought. Synthese:1-20.
Kosslyn, Stephen M, Thompson, William L, & Ganis, Giorgio. (2006). The case for mental imagery: Oxford University
Press.
Kriegel, Uriah. (2015). The Varieties of Consciousness: Oxford University Press.
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.
Lewis, David. (1980). Mad pain and Martian pain. In Ned Block (Ed.), Readings in the Philosophy of Psychology (Vol. 1,
pp. 216-222).
Loar, Brian. (1981). Mind and Meaning: Cambridge University Press.
Loar, Brian. (2003). Phenomenal intentionality as the basis of mental content. In Martin Hahn & B. Ramberg (Eds.),
Reflections and Replies: Essays on the Philosophy of Tyler Burge (pp. 229--258): MIT Press.
Locke, John. (1690/1979). An essay concerning human understanding (Peter H Nidditch Ed.): Oxford University Press.
Marcus, Gary (2001). The Algebraic Mind. MIT Press.
Marcus, Gary. (2018). Deep learning: A critical appraisal. arXiv preprint arXiv:1801.00631.
Marr, David. (1982). Vision: The philosophy and the approach: Freeman.
Matthen, Mohan (2014). Debunking enactivism: a critical notice of Hutto and Myin’s Radicalizing Enactivism. Canadian
Journal of Philosophy 44 (1):118-128.
McCulloch, Warren S, & Pfeiffer, John. (1949). Of digital computers called brains. The Scientific Monthly, 69(6), 368-
376.
McCulloch, Warren S, & Pitts, Walter. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of
mathematical biophysics, 5(4), 115-133.
McDowell, John. (1985). Functionalism and anomalous monism. In Brian P. McLaughlin & Ernest LePore (Eds.), Actions
and Events: Perspectives on the Philosophy of Donald Davidson: Blackwell.
Mendelovici, Angela & Bourget, David (2014). Naturalizing intentionality: Tracking theories versus phenomenal
intentionality theories. Philosophy Compass, 9(5), 325-337.
Miłkowski, Marcin (2015a). The Hard Problem Of Content: Solved (Long Ago). Studies in Logic, Grammar and
Rhetoric 41 (1):73-88.
Miłkowski, Marcin (2015b). Satisfaction conditions in anticipatory mechanisms. Biology and Philosophy 30 (5):709-728.
Miller, George A. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing
information. Psychological review, 63(2), 81-97.
Miller, George A. (2003). The cognitive revolution: a historical perspective. Trends in cognitive sciences, 7(3), 141-144.
Millikan, Ruth G. (1989). Biosemantics. Journal of Philosophy, 86, 281-297.
Moran, Dermot (2013). Intentionality: Some Lessons from the History of the Problem from Brentano to the
Present. International Journal of Philosophical Studies 21 (3):317-358.
Morgan, Alex (2014). Representations gone mental. Synthese 191 (2):213-244.
Morgan, Alex & Piccinini, Gualtiero (2018). Towards a Cognitive Neuroscience of Intentionality. Minds and Machines 28
(1):119-139.
Nagel, Thomas. (1974). What is it like to be a bat? The Philosophical Review, 83(4), 435-450. Tr. Fr. Nagel, Thomas
(1983). « Quel effet cela fait-il d’être une chauve-souris ? » dans Questions mortelles, PUF.
Neander, Karen. (2017). A Mark of the Mental: A Defence of Informational Teleosemantics: MIT Press.
Newen, Albert ; De Bruin, Leon & Gallagher, Shaun (2018). The Oxford Handbook of 4E Cognition. Oxford: Oxford
University Press.
O'Brien, Gerard, & Opie, Jon. (2004). Notes toward a structuralist theory of mental representation. In Hugh Clapin,
Phillip Staines, & Peter Slezak (Eds.), Representation in mind (pp. 1-20): Elsevier.
Pacherie, Elisabeth (1993). Naturaliser l'intentionnalité: essai de philosophie de la psychologie. FeniXX.
Panaccio, Claude. (2017). Mental language: from Plato to William of Ockham: Fordham Univ Press.
Papineau, David. (1984). Representation and explanation. Philosophy of Science, 51(4), 550-572.
Pautz, Adam (forthcoming). Representationalism about Consciousness. In Uriah Kriegel (ed.), Oxford Handbook of the
Philosophy of Consciousness. Oxford University Press.
Petzold, Charles. (2008). The annotated Turing: a guided tour through Alan Turing's historic paper on computability and
the Turing machine: Wiley Publishing.
Piccinini, Gualtiero. (2008). Computation without representation. Philosophical Studies, 137(2), 205-241.
Prior, Arthur N. (1971). Objects of Thought. Clarendon Press.
Port, Robert F, & Van Gelder, Timothy. (1995). Mind as motion: Explorations in the dynamics of cognition: MIT press.
Putnam, Hilary (1975). The meaning of ‘meaning’. Philosophical papers, 2. Tr. Fr. Putnam, Hilary (1997). Les significations
ne sont tout simplement pas dans la tête. in Pascal Ludwig (éd.), Le langage, Flammarion, p. 124-134)
Ramsey, William M. (2007). Representation reconsidered: Cambridge University Press.
Recanati, François (2008). Philosophie du langage (et de l’esprit). Folio Essais.
Rorty, Richard. (1979/2009). Philosophy and the Mirror of Nature: Princeton University Press. Tr. Fr. Rorty, Richard
(2017). La philosophie et le miroir de la nature. Ed. du Seuil.
Rosenblatt, Frank. (1958). The perceptron: a probabilistic model for information storage and organization in the brain.
Psychological review, 65(6), 386-408.
Rosenthal, David M. (1993). Thinking that one thinks. In Martin Davies & Glyn W. Humphreys (Eds.), Consciousness:
Psychological and Philosophical Essays: Blackwell.
Rupert, Robert D. (1999). The best test theory of extension: First principle(s). Mind and Language, 14(3), 321–355.
Rupert, Robert D. (2011). Embodiment, Consciousness, and the Massively Representational Mind. Philosophical
Topics 39 (1):99-120.
Russell, Bertrand. (1918/2009). The philosophy of logical atomism: Routledge.
Ryder, Dan. (2004). SINBaD neurosemantics: A theory of mental representation. Mind and Language, 19(2), 211-240.
Ryle, Gilbert. (1949). The Concept of Mind: Hutchinson & Co. Tr. Fr. Ryle, Gilbert (2005). La notion d’esprit. Petite
bibliothèque Payot.
Searle, John R. (1979). What is an intentional state? Mind, 88(349), 74-92.
Searle, John R. (1983). Intentionality: An essay in the philosophy of mind: Cambridge University Press. Tr. Fr. Searle,
John R. (1985). L’intentionalité. Essai de philosophie des états mentaux. Les Editions de Minuit.
Searle, John R. (1992). The rediscovery of the mind: MIT press. Tr. Fr. Searle, John R. (1995). La rédecouverte de l’esprit.
NRF Essais Gallimard.
Segal, Gabriel MA. (2000). A slim book about narrow content: MIT Press.
Shea, Nicholas. (2018). Representation in cognitive science: Oxford University Press.
Smortchkova, Joulia, & Murez, Michael. (2020). Representational Kinds. In Joulia Smortchkova, Krzysztof Dolega, &
Tobias Schlicht (Eds.), What are Mental Representations? : Oxford University Press. [Link]
Smortchkova, Joulia (2019). Review of Pieces of Mind: The Proper Domain of Psychological Predicates by Carrie Figdor.
British Journal for the Philosophy of Science.
Speaks, Jeff. (2005). Is there a problem about nonconceptual content? The philosophical review, 114(3), 359-398.
Speaks, Jeff. (2010). Theories of meaning. In Stanford Encyclopedia of Philosophy.
Sprevak, Mark. (2013). Fictionalism about neural representations. The Monist, 96(4), 539-560.
Stampe, Dennis W. (1977). Toward a causal theory of linguistic representation. Midwest studies in philosophy, 2(1), 42-
63.
Sterelny, Kim. (1990). The representational theory of mind: An introduction: Basil Blackwell.
Stich, Stephen, & Ravenscroft, Ian. (1994). What is folk psychology? Cognition, 50(1-3), 447-468.
Thomson, E., & Piccinini, G. (2018). Neural Representations Observed. Minds and Machines, 28(1), 191-235.
Tolman, Edward C. (1948). Cognitive maps in rats and men. Psychological review, 55(4), 189.
Tye, Michael. (1995a). A representational theory of pains and their phenomenal character. Philosophical perspectives,
9, 223-239.
Tye, Michael. (1995b). Ten problems of consciousness: A representational theory of the phenomenal mind: MIT Press.
Tye, Michael. (2000). The imagery debate: MIT Press.
Varela, Francisco ; Thompson, Evan & Rosch, Eleanor (1991). The Embodied Mind: Cognitive Science and Human
Experience. MIT Press. Tr. Fr. Varela, Francisco, Evan Thompson, et Eléanor Rosch (1999). L’inscription corporelle de
l’esprit : Sciences cognitives et expérience humaine. Paris: Seuil.
Von Eckardt, Barbara. (1995). What is cognitive science? : MIT press.
Wittgenstein, Ludwig. (1953/1986). Philosophical investigations (G. E. M. Anscombe, Trans.): Basil Blackwell. Tr. Fr.
Wittgenstein, Ludwig (2005). Recherches philosophiques. Gallimard.
Joulia Smortchkova
University of Oxford
[Link]@[Link]
Contact