Hasard
Hasard
net/publication/251179342
Hasard et contingence
CITATIONS READS
0 1,250
1 author:
Franck Jedrzejewski
Atomic Energy and Alternative Energies Commission
106 PUBLICATIONS 221 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
All content following this page was uploaded by Franck Jedrzejewski on 14 December 2017.
FRANCK JEDRZEJEWSKI
cause efficiente et celle d’une cause finale... Le problème reste insoluble en effet,
tant qu’on tient l’idée de hasard pour une pure idée, sans mélange d’affection. Mais
en réalité le hasard ne fait qu’objectiver l’état d’âme de celui qui se serait attendu
à l’une des deux espèces d’ordre, et qui rencontre l’autre”1 . Le hasard s’est aussi
introduit dans toutes les formes artistiques du XXe siècle. En littérature, le sur-
réalisme a développé l’écriture automatique et la notion de hasard objectif comme
synthèse poétique et expression de la vie psychique et de l’inconscient, autour des
nouvelles hypothèses psychanalytiques de Sigmund Freud. Dans le domaine de la
peinture et des arts plastiques, l’abstraction lyrique (J. Pollock, W. De Kooning)
donne au geste créateur une nouvelle dimension spatiale. Spoerri écrit une Topogra-
phie anecdotée du hasard. Marcel Duchamp compose un Erratum musical (1913)
à partir d’une procédure totalement aléatoire. En musique, le Klavierstück XI de
K. Stockhausen et l’article de Pierre Boulez “Alea” sont les premiers recours à des
procédés de composition aléatoire, qui seront développés par la suite dans la no-
tion de parcours et de mobile musical par Henri Pousseur et André Boucourechliev
(Archipels). John Cage radicalisera l’indétermination et Iannis Xenakis utilisera
des procédés markoviens dans ses compositions de “musique stochastique”. Ces
quelques exemples montrent l’introduction des procédés aléatoires dans le champ
contemporain qui ne se réduit pas seulement à la non-figuration.
2. Hasard et causalité
Epicure pense que la déviation des atomes est aléatoire et, dans le texte de Lu-
crèce, la notion de clinamen est centrale dans la réflexion sur le hasard dans les lois
de la nature. Pour les stoïciens, “toutes les choses arrivent selon le destin”2 . Le
destin est la cause éternelle qui impose toute évolution du monde. Le destin régit
l’enchaînement des causes. Si tout événement a une cause et si je puis accéder à
la connaissance pleine et entière de cette cause, je peux espérer expliquer tous les
effets de cette cause, à partir de ma seule connaissance et prétendre à l’inexistence
du hasard. En revanche, si un événement n’a pas de cause ou si je ne peux pas
accéder au savoir de cette cause, alors je ne peux pas donner d’explication causale
du phénomène initiateur. Cette impossibilité ouvre la voie à des interprétations
diverses, mauvais génie, être suprême, mais ne permet pas de résoudre la question
de l’existence du hasard. Il y a toutefois une implication de l’analyse de la causalité
dans l’explication des phénomènes aléatoires. S’il n’existe pas d’événement isolé,
l’existence d’un événement est lié à ses conditions d’apparition. L’événement est
ainsi pris dans la chaîne causale qui justifie son apparition. C’est le principe de
raison suffisante, énoncé par Leibniz, tout événement a une cause. Le problème de
l’indépendance et la spontanéité, facilement concevable pour des faits isolés, se pose
alors différemment. Si la cause produit l’effet, elle ne l’explique pas. L’effet justifie
la série des causes. Pour expliquer l’effet, on montre que l’effet n’est qu’une autre
forme de la cause. L’effet préexiste dans la cause, c’est pourquoi l’effet produit ne
peut surpasser la cause. Selon Cournot, le hasard naît de la rencontre de deux séries
de causes indépendantes. “Les événements amenés par la combinaison ou la rencon-
tre de phénomènes qui appartiennent à des séries indépendantes, dans l’ordre de la
causalité, sont ce qu’on nomme des événements fortuits ou des résultats du hasard.
Le hasard peut aussi être produit par des séries non indépendantes qui concourrent
1
Henri Bergson, L’Evolution créatrice, p 254-255.
2 Diogène Laërce, Vie des philosophes, VII, 149.
HASARD ET CONTINGENCE 3
3. Hasard et déterminisme
Tout événement a-t-il une cause ? Cette question est-elle indécidable ? Il n’est
peut-être pas nécessaire de répondre à cette question pour montrer que les lois de la
1 A.A. Cournot, Exposition de la théorie des chances et des probabilités, p 53.
2 A.A. Cournot, Essai sur les fondements de nos connaissances, p. 33.
3 Aristote, Physique, B197 a32.
4 Spinoza, Pensées métaphysiques, p. 347.
4 FRANCK JEDRZEJEW SKI
4. Hasard et ordre
Quelles relations entretiennent ordre et hasard, ordre et désordre ? Des expéri-
ences contemporaines ont montrées que le désordre peut naître de manière imprévis-
ible au sein de structures ordonnées : on parle alors de hasard déterministe ou de
chaos. Dans les systèmes dynamiques, des systèmes non-linéaires engendrent des
structures qui, bien que parfaitement déterministes, laissent supposer par leurs de-
grés de complexité, qu’elles ont été générées aléatoirement. Des coupes transversales
montrent des cycles limites où s’enroulent les solutions du système différentiable,
des bassins d’attraction, où des attracteurs délimitent le comportement des trajec-
toires du régime instationnaire. Des systèmes hamiltoniens dissipatifs modélisent
des mouvements turbulents qui présentent des évolutions chaotiques : instabilité
de Besnard, réaction de Belouzov-Zhabotinsky, etc... Une simple relation de récur-
rence conduit à des phénomènes inhabituels : la relation de Feigenbaum montre
une caractéristique d’évolution du doublement de sa périodicité, appelée cascade
sous-harmonique. Dans le système de Lorenz, des phases régulières alternent avec
des divergences plus marquées, c’est l’intermittence, un phénomène qui a aussi une
interprétation probabiliste. Lorsque les attracteurs se conservent sous l’action d’une
petite perturbation trajectorielle, on parle de stabilité structurelle. La stabilité des
systèmes hamiltoniens, étudiée par Kolmogorov, Arnold, Moser (théorème KAM),
montre que lorsqu’on perturbe le hamiltonien, la variété des trajectoires, — dif-
féormorphes à des tores — se déforme à mesure que la perturbation croît, jusqu’à
destruction de ces tores. Les sections de Poincaré montrent un entrelacement com-
pliqué entre mouvement régulier et perturbé, dans des zones qui sont interprétées
comme des régions de haute “stochasticité”. Comme de tels phénomènes ont lieu
au voisinage de points hyperboliques, on peut aussi se poser la question de savoir
si l’alternance ordre-désordre n’a lieu qu’à proximité d’une singularité. Au voisi-
nage de certaines singularités, le hasard imposerait un caractère indéterministe, qui
par fluctuations amplifierait le phénomène turbulent ou perturbateur. Les transi-
tions de phases, passage d’un état à un autre, – de solide à gazeux, de liquide
à superfluide, d’une configuration paramagnétique à un ordre ferromagnétique –
sont aussi des évolutions d’un ordre vers un autre. D’où l’idée qu’il existe dans la
nature une pluralité d’ordres et que la transition d’un ordre vers un autre peut se
révéler être une propriété statistique d’un état microscopique sous-jacent. Cette
hiérarchie des ordres naturels est contestée. Dans la perspective où l’ordre ultime
serait celui qui organise la matière selon la géométrie, l’ordre statistique tendrait
à disparaître. L’irréversibilité des phénomènes accrédite l’idée d’une interpréta-
tion probabiliste de certains phénomènes naturels. Les lois de la mécanique sont
invariantes par renversement du temps (t → −t). Or, chacun sait que s’il casse
un verre, le verre ne pourra se reformer spontanément. En réalité, l’interprétation
probabiliste affirme que le verre pourra se reconstituer, mais en un temps quasiment
infini. C’est aussi l’interprétation de la détente de Joule : si des particules de gaz
sont enfermées dans la partie droite d’une enceinte, et que celles-là soient spon-
tanément libérées, elles occuperont la totalité de l’espace disponible. La probabilité
pour qu’elles se retrouvent dans la partie droite de l’enceinte en un instant donné
6 FRANCK JEDRZEJEW SKI
5. Hasard et probabilités
Le concept de probabilité repose sur deux interprétations fondamentales : l’une
en fréquences (interprétation statistique), l’autre en degré de croyance (interpréta-
tion épistémique), selon que le probable est interprété de re, selon les choses (aspect
statistique) ou de dicto, selon les propositions, (degré de crédibilité). L’interprétation
épistémique des probabilités se fonde sur le raisonnement inductif (“Tous les cor-
beaux observés sont noirs, donc tous les corbeaux sont noirs”) qui engage la crédi-
bilité. Selon Leibniz, “la probabilité est le degré de possibilité"5 . “L’espérance est
la probabilité d’acquérir. La crainte est la probabilité de perdre". “Le probable est
ce qui est absolument plus intelligible, ou ce qui revient au même, ce qui est le
plus possible, dit Leibniz. Il en résulte que la probabilité ne demande pas seulement
la facilité de coexister avec les autres choses présentes. C’est pourquoi on n’a pu
rien définir sur la probabilité de manière générale, car il est clair que la probabilité
résulte d’une collection de circonstances"6 . Selon Kant, la probabilité est une “ap-
proximation de la certitude". Pour Granger7 , le probable est la mesure du possible.
Condorcet distingue “facilité” et “motif de croire”, Cournot “chance” et “prob-
abilité”, Russell “probabilité” et “crédibilité” et Carnap distingue deux types de
5 G.W. Leibniz, L’estime des apparences, p. 161.
6 G.W. Leibniz, Elementa juris naturalis, p. 472.
7 G.G. Granger, Le probable, le possible et le virtuel, p. 130.
HASARD ET CONTINGENCE 7
théorie de la probabilité n’a affaire avec l’état d’attente que dans la mesure, où, dis-
ons, la logique a affaire avec la pensée. La probabilité a plutôt à voir avec la forme
et avec un type de l’attente. Il s’agit de l’attente que notre expérience ultérieure
correspondra à une loi à laquelle jusqu’alors l’expérience a correspondu.”7
6. Modélisations du hasard
Hasard et aléatoire recouvre la même notion et ont d’ailleurs la même étymologie.
Hasard dérive d’un mot arabe alzhar qui signifie dé, comme le latin alea judere,
signifie jouer aux dés. On sait que les premiers problèmes probabilistes ont été
des problèmes de jeu de hasard. Jérôme Cardan (1501-1576) dans le Liber de ludo
alea, qu’il publie à Lyon en 1663, donne des recettes de jeux et des précautions à
prendre pour éviter les tricheries. Fra Luca Paccioli (1445-1514), dans la Summa
de arithmetica étudie le problème des partis et Galileo Galilei (1564-1642), dans les
Considérations sur le jeu de dés, publié en 1718, cherche les solutions au problème
du Grand Duc de Toscane et montre qu’avec trois dés, on obtient plus souvent le
chiffre 10 que le chiffre 9, car il y a 27 manières d’obtenir 10, contre 25 d’obtenir un
total de 9 points - on obtiendrait 216 si les dés sont indistinguables et 56 si les dés
sont distinguables. Dans le problème des partis étudié par Paccioli, deux joueurs
s’affrontent dans une partie de pile ou face. Le joueur gagant est celui qui totalise N
points de plus que l’autre. Mais, si un joueur s’arrête et s’il a encore besoin de gagner
n coups et si son adversaire a besoin de gagner m coups avant la fin de la partie,
la question est de savoir comment répartir la mise équitablement entre les joueurs.
Ce problème, qui a été suggéré à Pascal (1623-1662) par son ami le chevalier de
Méré (1607-1684), inaugure les prémisses du calcul des probabilités qui naît de la
correspondance de Pascal et de Pierre Fermat (1601-1665). L’argument du pari de
Pascal est une application des concepts probabilististes naissants : dans un jeu à
deux issues (Dieu existe ou Dieu n’existe pas), même si la probabilité de gagner
(Dieu existe) est extrêmement faible, comme le gain associé est infini, l’homme doit
nécessairement parier car son espérance de gain (i.e. l’espérance mathématique) est
infinie. Dans le De ratiociniis in ludeo aleae, (Des méthodes de raisonnement dans le
jeu de hasard), publié en 1657, Christian Huygens (1629-1695) réunit les problèmes
posés par Fermat et Pascal, introduit la notion d’espérance (expectatio) et donne des
applications probabilistes à des problèmes d’assurance dans une collaboation avec
Jan de Witt (1625-1672). Le français Pierre Raymond de Montmort (1678-1719)
rédige un Essai d’analyse sur les jeux de hasard (1708). Publié huit ans après
sa mort par son neveu Nicolas, l’ouvrage de Jacques Bernoulli (1654-1705), Ars
conjectandi, commente le De ludo de Huyghens, pose des problèmes supplémentaires
et donne la première démonstration de la “loi (faible) des grands nombres” : si une
suite de variables aléatoires indépendantes, X1 , ..., Xn prend avec probabilité p la
valeur 1 et avec probabilité (1 − p) la valeur 0, alors Jacques Bernoulli montre, avec
le vocabulaire de son époque, que si Sn ¯désigne¯ la somme des n variables aléatoires
Sn = X1 + ...Xn , alors la probabilité P(¯ Sn ¯
n − p > ε) tend vers 0 quand n tend vers
l’infini. Dans la Doctrine of chances (1718), les Annuities upon lives (1725) et les
Miscellanea Analytica (1730), Abraham De Moivre (1667-1754) précise la vitesse
de convergence de la somme Sn et donne une démonstration du théorème de limite
Quelques années plus tard, Friedrich Gauss (1777-1855) démontre que la loi normale
est limite de la loi de probabilité de la somme d’erreurs aléatoires indépendantes
de faible amplitude (Theoria combinationis observationum erroribus minimus ob-
noxiae, Théorie de la combinaison d’erreurs de faible amplitude, 1821). Dans sa
Théorie analytique des probabilités (1812), puis dans son Essai philosophiques sur
les probabilités (1812), Pierre Simon de Laplace (1749-1827) donne la formule de
Stirling, introduit la transformée de Laplace et démontre le théorème de Bernoulli.
Il développe la méthode du maximum de vraissemblance, d’après des résultats de
Daniel Bernoulli, et résout le problème de l’aiguille de Buffon, qu’il généralise à deux
ensembles de lignes perpendiculaires distantes de a et b. Il donne alors la probabilité
p qu’une aiguille de longueur l (l < a et l < b) croise, en tombant aléatoirement sur
le quadrillage, une des lignes p = [2l(a + b) − l2 ]/(πab). Thomas Bayes (1702-1761),
dans son ouvrage posthume, An essay toward solving a problem in the doctrine
of chances, (1763) introduit la notion de probabilité a priori, c’est-à-dire la prob-
abilité en l’absence d’observation, et la probabilité a posteriori, c’est-à-dire après
l’observation d’un échantillon de la loi. Siméon-Denis Poisson (1781-1840) donne
une nouvelle version de la loi des grands nombres :”Les choses de toute nature sont
soumises à une loi universelle, qu’on peut appeler la loi des grands nombres... Cette
loi énonce que les ratios numériques dérivés de l’observation d’une très grande quan-
tité d’événements similaires restent presque constants, pourvu que ces événéments
soient gouvernés partiellement par des facteurs constants, et partiellement par des
facteurs variables dont les variations sont irrégulières et ne causent pas de change-
ment systématique dans un sens quelconque... De ces exemples de toutes natures il
résulte que la loi universelle des grands nombers est déjà pour nous un fait général
et incontestable résultant d’expériences qui ne se démentent jamais”.8 Au XIXe
siècle, Cournot publie une Exposition de la théorie des chances, dont on retien-
dra plus les implications philosophiques que les résultats mathématiques, Bravais
(1811-1863) étudie les lois de Gauss à deux dimensions et Irénée-Jules Bienaymé
(1796-1878) donne la célèbre inégalité de Bienaymé-Tchebychev, qui permettra à
Pafnouti Tchebychev (1821-1894) de donner une nouvelle démonstration de la loi
des grands nombres. Andreï Andreievitch Markov (1856-1922) développe la théorie
des chaînes et des processus de Markov. Dans le domaine statistique, Francis Gal-
ton (1882-1911) ouvre en 1901, le premier laboratoire de Biométrie de l’Université
de Londres. Karl Pearson (1817-1936), Neyman, Wald, Student, Fischer et d’autres
développent les premières applications statistiques. La notion d’entropie, introduite
par Clausius, la distribution de Maxwell (1831-1879), le traitement stochastique de
la physique des gaz, les travaux de Boltzmann (1844-1906) et de Gibbs (1839-1903)
fondent la physique statistique moderne.
7. L’axiomatisation de Kolmogorov
Andreï Nikolaïevitch Kolmogorov, né en 1903, donne dans son mémoire Théorie
générale de la mesure et théorie des probabilités (1929), la première construction
axiomatique des probabilités. Ses idées seront reprises dans son ouvrage Grundbe-
griffe der Wahrscheinlichkeitsrechnung (Fondements de la théorie des probabilités)
publié en 1933. Indépendamment, Lomnicki et Steinhaus publient “Les probabilités
dénombrables et leur rapport à la théorie de la mesure”(1923). Au début du siè-
cle, tous les concepts probabilistes fondamentaux dérivent des concepts de théorie
de la mesure. A la notion de σ-algèbre correspond la notion de tribu des événe-
ments, à l’espace mesurable correspond l’espace probabilisable, à la mesure positive
bornée correspond la mesure de probabilité, etc...Nikodym précise les conditions
dans lesquelles une probabilité admet une densité et donne une construction de
l’espérance conditionnelle. La convergence des martingales est étudiée par Doob
à partir de 1940 (Stochastic process, Willey, 1952). Prokhorov et Skorohod étudi-
ent la convergence des mesures de probabilité. Paul Lévy (1886-1971) introduit la
notion de fonction caractéristique, étudie les lois stables et indéfiniment divisibles.
De Finetti développe la notion d’échangeabilité de variables aléatoires. Alexandre
Khintchine (1894-1959) introduit les problèmes de grandes déviations. La notion
de processus stochastique se précise dans les années 50. Les marches aléatoires sont
étudiées par Anderson, Spitzer et William Feller. Dynkin développe la théorie des
processus markoviens. Kolmogorov démontre que la probabilité de transition d’un
processus markovien obéit à une équation différentielle parabolique. Vers 1905, Ein-
stein étudie le mouvement brownien, décrit pour la première fois par le botaniste
Robert Brown en 1828. Norbert Wiener (1894-1964) construit un modèle math-
ématique du mouvement brownien (1923). Paley et Zygmund démontre que les
trajectoires du mouvement brownien sont non différentiables en tous points (1933).
Lindberg et Feller affaiblissent les hypothèses du théorème de limite centrale. La
vitesse de convergence de la somme Sn = X1 + ...Xn d’une suite de variables aléa-
toires indépendantes et identiquement distribuées
p se précise à travers les lois du
logarithme itéré. La vitesse est de l’ordre de (log log n)/n . Ce résultat a été dé-
montré en 1923 par Khintchine pour une distribution de Bernoulli, et généralisé
par Hartman et Wintner en 1942. En 1964, Strassen donne de la loi du loga-
rithme itéré une démonstration orginale, faisant intervenir les processus de Wiener.
Glivenko et Cantelli renouvellent la loi des grands nombres (1938). En 1912, Serge
Bernstein donne une démonstration probabiliste du théorème de Weierstrass sur
l’approximation uniforme des fonctions continues par des polynômes. Kakutani
utilise les probabilités pour étudier le problème de Dirichlet. Les liens entre prob-
abilités et analyse se précisent au cours du XXe siècle. Les fonctions harmoniques
et la théorie du potentiel sont étudiés à partir du mouvement brownien. La théorie
ergodique se structure autour du théorème de Birkkoff (1931). Ya. Sinaï étudie
l’ergodicité des billards. Emile Borel, P. Erdös, G.H. Hardy, M. Kac, S. Ramanu-
jan, et P. Turan développent les aspects arithmétiques. L’intégrale stochastique est
introduite par Itô en 1944 (l’intégrale de Stratonovitch date de 1966). La construc-
tion de l’intégrale stochastique s’effectue d’abord par rapport aux martingales de
carré intégrable, puis par rapport aux martingales locales, et enfin, par rapport
aux semimartingales. Les équations différentielles stochastiques naissent dans le
sillage de l’intégrale stochastique. En physique, elles sont connues sous le nom
d’équation de Fokker-Planck, équation aux dérivées partielles associée à une équa-
tion d’Itô. Les diffusions, comme le processus d’Ornstein-Uhlenbeck, ont contribué
à l’étude des équations différentielles stochastiques. Le calcul stochastique s’est
enrichi de structures géométriques (calcul sur des variétés, formes différentielles
HASARD ET CONTINGENCE 11
References
[1] Benenson, F.C., Probability, Objectivity and Evidence, Londres, Routledge & Kegan Paul,
1984.
[2] Borel, E., Le Hasard, Paris, PUF, 1948.
[3] Boudot, M., Logique inductive et probabilité, Paris, A. Colin, 1972.
[4] Bouveresse, J., Le pays des possibles, Paris, Minuit, 1988.
[5] Bunge, M., ”Possibility and Probability” in Harper and Hoocker (ed.), Foundations of Prob-
ability Theory, Statistical Inference and Statistical Theories of Science, Dordrecht, Reidel,
vol. 3, 1976
[6] vThe Two Concepts of Probability, Londres, 1951.
[7] Carnap, R. Meaning and Necessity, The University of Chicago Press, 2nd éd., 1956.
[8] Carnap, R. Les fondements philosophiques de la physique, trad. J.-M. Luccioni et A. Soulez,
Paris, A. Colin, 1973.
[9] Cournot, A. A., Essai sur les fondements de nos connaissances et sur les caractères de la
critique philosophique, Paris, 1851, réed. in Oeuvres complètes, Vrin, 1984.
[10] Cournot, A. A., Exposition de la théorie des chances et des probabilités, Paris, 1843, réed in
Oeuvres complètes, Vrin, 1984.
[11] De Finetti, B., ”La prévision : ses lois logiques, ses sciences subjectives”, Annales de l’Institut
Henri Poincaré, 1937, 7.
[12] Ekeland, I., Le calcul, l’imprévu, les figures du temps de Képler à Thom, Paris, Seuil, 1984.
[13] Espagnat [d’], B., A la recherche du réel, Paris, Gauthier-Villard, 1979.
[14] Granger, Gilles-Gaston, Le probable, le possible et le virtuel, Paris, Odile Jacob, 1995.
[15] Heinzmann, G., Entre intuition et analyse, Poincaré et le problème de la prédicativité, Paris,
Albert Blanchard, 1985.
[16] Hume, D., Enquête sur l’entendement humain, Paris, Aubier-Montaigne, 1947.
[17] Laplace [de], P.S., Essai philosophique sur les fondements des probabilités, Paris, réed. 1921.
[18] Largeault, J., Hasards, probabilités, inductions, Toulouse, Presses Universitaires, 1979.
[19] Largeault, J., Systèmes de la Nature, Paris, Vrin, 1985.
[20] Leibniz, G.W., L’estime des apparences, 21 manuscrits de Leibniz sur les probabilités, la
théorie des jeux, l’espérance de vie. Texte établi, traduit et annoté par Marc Parmentier,
Paris, Vrin, 1995.
[21] Loève, M. ”Calcul des probabilités” in J. Dieudonné, Abrégé d’histoire des mathématiques,
1700-1900, vol. 2, Hermann, Paris, 1978.
[22] Poincaré, H., Science et méthode, Paris, Flammarion, 1914.
[23] Popper, K., Logique de la découverte scientifique, Paris, Payot, 1935.
[24] Popper, K., Conjectures et réfutations : la croissance du savoir scientifique, Paris, Payot,
1985.
[25] Popper, K. Un univers de propensions, Paris, Editions de l’Eclat, 1990.
[26] Prigogine, I., Stengers, I., La nouvelle alliance, Paris, Gallimard, 1979.
[27] Maistrov, L.E., Probability Theory, A Historical Sketch, 1974.
[28] Martin, T., Probabilités et critique philosophique selon Cournot, Vrin, 1996.
[29] Monod, J., Le Hasard et la Nécessité, Paris, 1970.
[30] Ruelle, D., Hasard et chaos, Paris, Seuil, 1991.
[31] Serres, M., Hermès IV, Paris, 1977.
[32] Suppes, P., La logique du probable, Paris, Flammarion, 1981.
[33] Thorouin, D., Le Hasard et les règles. Le Modèle du jeu dans la pensée de Pascal, Paris, Vrin.
[34] Todhunter, I., A History of Mathematical Probability, Chelsea, New York.
[35] Vuillemin, J., Nécessité et contingence, L’aporie de Diodore et les systèmes philosophiques,
Paris, Minuit, 1984.
[36] Wittgenstein, L. Tractatus logico-philosophicus, trad. de P. Klossowski, Paris, Gallimard,
1961.
[37] Wittgenstein, L. Remarques philosophiques, trad. de J. Fauve, Paris, Gallimard, 1975.