0% ont trouvé ce document utile (0 vote)
101 vues14 pages

Hasard

Ce document discute de la notion de hasard, en examinant différentes perspectives philosophiques et scientifiques. Il explore comment le hasard a été défini et conceptualisé, et comment il s'est introduit dans divers domaines artistiques au 20e siècle.

Transféré par

Noa DELHOMMOIS
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
101 vues14 pages

Hasard

Ce document discute de la notion de hasard, en examinant différentes perspectives philosophiques et scientifiques. Il explore comment le hasard a été défini et conceptualisé, et comment il s'est introduit dans divers domaines artistiques au 20e siècle.

Transféré par

Noa DELHOMMOIS
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/251179342

Hasard et contingence

Article · January 2009


DOI: 10.1007/978-2-287-99308-4_1

CITATIONS READS

0 1,250

1 author:

Franck Jedrzejewski
Atomic Energy and Alternative Energies Commission
106 PUBLICATIONS   221 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Philosophie postmoderne - French theory View project

Poetics - Postmodern Rhetoric View project

All content following this page was uploaded by Franck Jedrzejewski on 14 December 2017.

The user has requested enhancement of the downloaded file.


HASARD ET CONTINGENCE

FRANCK JEDRZEJEWSKI

La notion d’aléatoire, de probabilité et de hasard mélange des modèles mathé-


matiques, physiques et philosophiques. Pour d’Alembert, “il n’y a point de hasard
à propremement parler, mais il y a son équivalent : l’ignorance où nous sommes des
vraies causes des événements”. Le sens commun affirme très souvent que le hasard
n’existe pas, qu’il n’est qu’un effet de notre ignorance et que notre méconnaissance
des systèmes nous interdit toute prédicition. Mais il affirme aussi que le hasard est
soumis à des lois (e.g. la “loi des séries”) et qu’il a parfois un caractère purement
aléatoire. Selon les croyances, il est aussi plus ou moins impliqué dans les notions de
destin, de providence, de prescience ou de prédestination. La question de savoir si
l’aléatoire a une réalité dans la nature partage les physiciens. On connaît d’ailleurs
la célèbre phrase d’Einstein : “Le bon dieu ne joue certainement pas aux dés pour
déterminer comment les atomes doivent se déplacer” et celle de Mallarmé : “Un
coup de dés jamais n’abolira le hasard”.

1. Qu’est-ce que le hasard ?


Le hasard est-il l’illustration de notre ignorance ou a-t-il une réalité objective ?
Le hasard est-il dans les choses ou dans nos jugements sur les choses ? Le hasard
est-il objectif ou subjectif ? L’ensemble de ces questions invitent à définir le hasard.
Il a au moins trois acceptions différentes. D’un point de vue épistémique, le hasard
est ce qui est spontané et indéterminé (dans des conditions identiques, un système
évoluera tantôt dans un sens, tantôt dans un autre), du point de vue de la prévis-
ibilité, le hasard est ce qui est imprévu, inattendu et imprévisible (le hasard est
l’expression de mon ignorance, un effet non prévu, une action non voulue), enfin, du
point de vue téléologique, le hasard est l’étonnement qu’exprime un enchaînement
causal (une disproportion de l’effet par rapport à la cause, une suite d’événements
qui s’écartent de la fréquence habituelle) et devient une affaire de régularité à long
terme (lois du hasard, lois des grands nombres, etc.). “Le hasard est ce qui n’a pas
de cause morale proportionnée à l’effet” dit Renan dans l’Avenir de la Science. Et
selon Bergson, le hasard est “un mécanisme qui prend l’apparence d’une intention”.
“Que le jeu tout mécanique des causes qui arrêtent la roulette sur un numéro me
fasse gagner, et par conséquent opère comme eût fait un bon génie soucieux de mes
intérêts, que la force toute mécanique du vent arrache du toit une tuile et me la lance
sur la tête, c’est-à-dire agisse comme eût fait un mauvais génie conspirant contre
ma personne, dans les deux cas je trouve un mécanisme là où j’aurais cherché, là où
j’aurais dû rencontrer, semble-t-il, une intention : c’est ce que j’exprime en parlant
de hasard. – Et d’un monde anarchique, où les phénomènes se succéderaient au
gré de leur caprice, je dirai encore que c’est le règne du hasard, entendant par là
que je trouve devant moi des volontés ou plutôt des décrets, quand c’est du mé-
canisme que j’attendais. Ainsi s’explique le singulier ballottement quand il tente
de définir le hasard... Il oscille, incapable de se fixer, entre l’idée d’une absence de
1
2 FRANCK JEDRZEJEW SKI

cause efficiente et celle d’une cause finale... Le problème reste insoluble en effet,
tant qu’on tient l’idée de hasard pour une pure idée, sans mélange d’affection. Mais
en réalité le hasard ne fait qu’objectiver l’état d’âme de celui qui se serait attendu
à l’une des deux espèces d’ordre, et qui rencontre l’autre”1 . Le hasard s’est aussi
introduit dans toutes les formes artistiques du XXe siècle. En littérature, le sur-
réalisme a développé l’écriture automatique et la notion de hasard objectif comme
synthèse poétique et expression de la vie psychique et de l’inconscient, autour des
nouvelles hypothèses psychanalytiques de Sigmund Freud. Dans le domaine de la
peinture et des arts plastiques, l’abstraction lyrique (J. Pollock, W. De Kooning)
donne au geste créateur une nouvelle dimension spatiale. Spoerri écrit une Topogra-
phie anecdotée du hasard. Marcel Duchamp compose un Erratum musical (1913)
à partir d’une procédure totalement aléatoire. En musique, le Klavierstück XI de
K. Stockhausen et l’article de Pierre Boulez “Alea” sont les premiers recours à des
procédés de composition aléatoire, qui seront développés par la suite dans la no-
tion de parcours et de mobile musical par Henri Pousseur et André Boucourechliev
(Archipels). John Cage radicalisera l’indétermination et Iannis Xenakis utilisera
des procédés markoviens dans ses compositions de “musique stochastique”. Ces
quelques exemples montrent l’introduction des procédés aléatoires dans le champ
contemporain qui ne se réduit pas seulement à la non-figuration.

2. Hasard et causalité
Epicure pense que la déviation des atomes est aléatoire et, dans le texte de Lu-
crèce, la notion de clinamen est centrale dans la réflexion sur le hasard dans les lois
de la nature. Pour les stoïciens, “toutes les choses arrivent selon le destin”2 . Le
destin est la cause éternelle qui impose toute évolution du monde. Le destin régit
l’enchaînement des causes. Si tout événement a une cause et si je puis accéder à
la connaissance pleine et entière de cette cause, je peux espérer expliquer tous les
effets de cette cause, à partir de ma seule connaissance et prétendre à l’inexistence
du hasard. En revanche, si un événement n’a pas de cause ou si je ne peux pas
accéder au savoir de cette cause, alors je ne peux pas donner d’explication causale
du phénomène initiateur. Cette impossibilité ouvre la voie à des interprétations
diverses, mauvais génie, être suprême, mais ne permet pas de résoudre la question
de l’existence du hasard. Il y a toutefois une implication de l’analyse de la causalité
dans l’explication des phénomènes aléatoires. S’il n’existe pas d’événement isolé,
l’existence d’un événement est lié à ses conditions d’apparition. L’événement est
ainsi pris dans la chaîne causale qui justifie son apparition. C’est le principe de
raison suffisante, énoncé par Leibniz, tout événement a une cause. Le problème de
l’indépendance et la spontanéité, facilement concevable pour des faits isolés, se pose
alors différemment. Si la cause produit l’effet, elle ne l’explique pas. L’effet justifie
la série des causes. Pour expliquer l’effet, on montre que l’effet n’est qu’une autre
forme de la cause. L’effet préexiste dans la cause, c’est pourquoi l’effet produit ne
peut surpasser la cause. Selon Cournot, le hasard naît de la rencontre de deux séries
de causes indépendantes. “Les événements amenés par la combinaison ou la rencon-
tre de phénomènes qui appartiennent à des séries indépendantes, dans l’ordre de la
causalité, sont ce qu’on nomme des événements fortuits ou des résultats du hasard.
Le hasard peut aussi être produit par des séries non indépendantes qui concourrent
1
Henri Bergson, L’Evolution créatrice, p 254-255.
2 Diogène Laërce, Vie des philosophes, VII, 149.
HASARD ET CONTINGENCE 3

à la production d’événements fortuits. Aucun phénomène ou événement n’est pro-


duit sans cause : c’est là le principe souverain et régulateur de la raison humaine,
dans l’investigation des faits réels. Souvent la cause d’un phénomène nous échappe,
ou nous prenons pour cause ce qui ne l’est pas : mais, ni l’impuissance où nous nous
trouvons d’appliquer le principe de causalité, ni les méprises dans lesquelles il nous
arrive de tomber en l’appliquant ne peuvent nous ébranler dans notre adhésion à ce
principe conçu comme une règle absolue et nécessaire. Nous remontons d’un effet à
sa cause immédiate ; cette cause à son tour est conçue comme effet, et ainsi de suite
; sans que l’entendement conçoive rien qui limite cette loi de régression dans l’ordre
des phénomènes. L’effet actuel devient ou peut devenir à son tour cause d’un effet
subséquent, et ainsi à l’infini. Cette chaîne infinie de causes et d’effets liés dans
l’ordre du temps, chaîne dont le phénomène actuel forme un anneau, constitue une
série linéaire. Une infinité de séries pareilles peuvent coexister dans le temps.”1
La hasard cournotien suppose “l’existence de séries causales linéaires mutuellement
indépendantes; de telles séries, lorsqu’elles se croisent, produisent des événements
qui dépendent ainsi de plusieurs séries distinctes de causes génératrices"2 . Selon
Cournot et contrairement à Hume et Laplace, le hasard n’est ni absence de cause,
ni effet de notre ignorance. Aristote distingue quatre causes : la cause matérielle,
la cause formelle, la cause efficiente et la cause finale et développe la théorie du
hasard dans sa Physique (B 195b31 ss.). “La fortune et le hasard sont des causes
par accidents, pour des choses susceptibles de ne se produire ni absolument ni le
plus souvent, et en outre susceptibles d’être produites en vue d’une fin"3 . Les choses
arrivent par hasard ou par fortune au sens où leur cause est accidentelle. Hasard et
fortune sont eux-mêmes des causes indéterminées. Aristote prend comme exemple
un créancier qui se rend à l’agora pour participer aux discussions publiques et qui
rencontre son débiteur. Le Stagirite montre la rupture qui se produit dans l’ordre
des causes efficientes et finales : “le hasard est une rencontre accidentelle qui ressem-
ble à une rencontre intentionnelle”. Pour Spinoza, “la possibilité et la contingence
ne sont pas des affections des choses", mais “des défauts de notre entendement"4 .
Pour Poincaré, le hasard naît d’une disproportition entre la cause et l’effet. Il donne
l’exemple d’un cône parfaitement équilibré qui ne peut pas reposer sur sa pointe, car
malgré les lois de la gravitation qui lui assure un équilibre parfait (mais instable), ce
cône est soumis aux moindres agitations de l’air qui contrarient son équilibre. C’est
ce que David Ruelle appelle la dépendance sensitive aux conditions initiales. Une
infime variation des conditions de départ provoque la ramification des champs du
possible. L’instant présent a le choix entre de multiples prolongements. Le hasard
s’exprime par des processus aléatoires imprévisibles qui peuvent donner naissance
à des événements différents dans des conditions identiques. Si l’événement A s’est
produit par hasard, il pourra évoluer en B ou en C, dans les mêmes conditions,
dans la mesure où les événements B et C sont indépendants de A.

3. Hasard et déterminisme
Tout événement a-t-il une cause ? Cette question est-elle indécidable ? Il n’est
peut-être pas nécessaire de répondre à cette question pour montrer que les lois de la
1 A.A. Cournot, Exposition de la théorie des chances et des probabilités, p 53.
2 A.A. Cournot, Essai sur les fondements de nos connaissances, p. 33.
3 Aristote, Physique, B197 a32.
4 Spinoza, Pensées métaphysiques, p. 347.
4 FRANCK JEDRZEJEW SKI

nature ne sont pas toujours du type causal, et justifier l’interprétation indétermin-


iste. Hasard et déterminisme ne sont pas contradictoires, en ce sens que l’existence
du hasard n’exclut pas la possibilité d’un monde entièrement déterministe. C’est-
à-dire un monde dans lequel si un système est connu à un instant donné, il est
possible à un observateur quelconque de connaître l’état de ce système à un instant
ultérieur avec autant de précision qu’il souhaite. Etant entendu, qu’il existe une
chaîne causale qui peut être approchée par des méthodes analytiques qui permettent
la prédiction, et que les fluctuations aléatoires qui peuvent apparaître — éventuelle-
ment à un niveau différent du niveau du système étudié — n’affectent pas le calcul.
Certains auteurs distinguent selon les notions de hasard. Si le hasard est dans les
choses (la désintégration radioactive est véritablement un phénomène aléatoire de
la nature qui ne dépend pas de la connaissance suprême que je pourrais avoir du
monde), alors hasard et déterminisme sont incompatibles. Par contre, si le hasard
est dans nos jugements sur les choses, le déterminisme n’est pas exclusif du hasard.
Pour Laplace, “nous devons envisager l’état présent de l’univers comme l’effet de
son état antérieur et comme la cause de celui qui va suivre. Une intelligence qui,
pour un instant donné, connaîtrait toutes les forces dont la nature est animée et
la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste
pour soumettre ces données à l’analyse, embrasserait dans la même formule, les
mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien
ne serait incertain pour elle, et l’avenir comme le passé, serait présent à ses yeux.”4
Dans une telle conception, la nature est parfaitement intelligible. Mais, ce déter-
minisme annihile le temps, car si l’imprévu et l’inattendu n’existent plus, l’avenir
n’a plus de sens. Passé et futur se confondent en un présent indifférencié. L’effet
implose sur sa cause, aucun événement n’apparaît, la vie n’existe plus. Meyerson
a montré qu’en postulant l’intelligibilité de la nature, toute explication scientifique
serait impossible. Si la nature était entièrement intelligible, elle n’existerait pas.
Le déterminisme repose à la fois sur un ordre objectif naturel, la causalité, car il
suppose que ce qui se produit est l’effet de causes déterminées, et sur un ordre
subjectif, la prédictibilité, qui suppose la prévision exacte des effets produits à par-
tir de conditions données. Les premières découvertes de la mécanique quantique
ont provoqué la crise du déterminisme. L’idée que le hasard est indispensable à
la description du monde physique n’a pas été facilement accepté par la commu-
nauté scientifique. Comment accepter une théorie scientifique qui ne donne que
des assertions probables et non certaines, des résultats “presque sûrs” au lieu de
vérités entières ? Pour Louis de Broglie et d’autres physiciens, la science est in-
concevable sans déterminisme absolu. Il pense que le hasard n’est pas nécessaire
à la description du monde physique, qu’il faut revenir à une théorie déterministe.
D. Bohm et d’autres, ont suggéré que le monde quantique était doté d’une struc-
ture déterministe sous-jacente : c’est la théorie des variables cachées. Au contraire,
pour l’Ecole de Copenhague (Bohr, Heisenberg, et al.), la science est adaptée à la
description du monde physique. L’indéterminisme se fonde sur une interprétation
aléatoire des phénomènes physiques. La probabilité de présence d’une particule,
qui admet pour densité le carré du module de la fonction d’onde, est l’articulation
essentielle entre le monde quantique et le monde de l’observateur. Les lois du niveau
macroscopique sont des moyennes statistiques des fluctuations qui apparaissent au
niveau microscopique. La stabilité qui se manifeste à l’état macroscopique est un
4 Laplace, Essai philosophique sur les probabilités, 1814.
HASARD ET CONTINGENCE 5

effet statistique des fluctuations qui règnent au niveau microscopique. La constante


de Planck partage les mondes. Les relations d’indétermination d’Heisenberg reflè-
tent l’inaccessibilité du domaine quantique dans une approche déterministe.

4. Hasard et ordre
Quelles relations entretiennent ordre et hasard, ordre et désordre ? Des expéri-
ences contemporaines ont montrées que le désordre peut naître de manière imprévis-
ible au sein de structures ordonnées : on parle alors de hasard déterministe ou de
chaos. Dans les systèmes dynamiques, des systèmes non-linéaires engendrent des
structures qui, bien que parfaitement déterministes, laissent supposer par leurs de-
grés de complexité, qu’elles ont été générées aléatoirement. Des coupes transversales
montrent des cycles limites où s’enroulent les solutions du système différentiable,
des bassins d’attraction, où des attracteurs délimitent le comportement des trajec-
toires du régime instationnaire. Des systèmes hamiltoniens dissipatifs modélisent
des mouvements turbulents qui présentent des évolutions chaotiques : instabilité
de Besnard, réaction de Belouzov-Zhabotinsky, etc... Une simple relation de récur-
rence conduit à des phénomènes inhabituels : la relation de Feigenbaum montre
une caractéristique d’évolution du doublement de sa périodicité, appelée cascade
sous-harmonique. Dans le système de Lorenz, des phases régulières alternent avec
des divergences plus marquées, c’est l’intermittence, un phénomène qui a aussi une
interprétation probabiliste. Lorsque les attracteurs se conservent sous l’action d’une
petite perturbation trajectorielle, on parle de stabilité structurelle. La stabilité des
systèmes hamiltoniens, étudiée par Kolmogorov, Arnold, Moser (théorème KAM),
montre que lorsqu’on perturbe le hamiltonien, la variété des trajectoires, — dif-
féormorphes à des tores — se déforme à mesure que la perturbation croît, jusqu’à
destruction de ces tores. Les sections de Poincaré montrent un entrelacement com-
pliqué entre mouvement régulier et perturbé, dans des zones qui sont interprétées
comme des régions de haute “stochasticité”. Comme de tels phénomènes ont lieu
au voisinage de points hyperboliques, on peut aussi se poser la question de savoir
si l’alternance ordre-désordre n’a lieu qu’à proximité d’une singularité. Au voisi-
nage de certaines singularités, le hasard imposerait un caractère indéterministe, qui
par fluctuations amplifierait le phénomène turbulent ou perturbateur. Les transi-
tions de phases, passage d’un état à un autre, – de solide à gazeux, de liquide
à superfluide, d’une configuration paramagnétique à un ordre ferromagnétique –
sont aussi des évolutions d’un ordre vers un autre. D’où l’idée qu’il existe dans la
nature une pluralité d’ordres et que la transition d’un ordre vers un autre peut se
révéler être une propriété statistique d’un état microscopique sous-jacent. Cette
hiérarchie des ordres naturels est contestée. Dans la perspective où l’ordre ultime
serait celui qui organise la matière selon la géométrie, l’ordre statistique tendrait
à disparaître. L’irréversibilité des phénomènes accrédite l’idée d’une interpréta-
tion probabiliste de certains phénomènes naturels. Les lois de la mécanique sont
invariantes par renversement du temps (t → −t). Or, chacun sait que s’il casse
un verre, le verre ne pourra se reformer spontanément. En réalité, l’interprétation
probabiliste affirme que le verre pourra se reconstituer, mais en un temps quasiment
infini. C’est aussi l’interprétation de la détente de Joule : si des particules de gaz
sont enfermées dans la partie droite d’une enceinte, et que celles-là soient spon-
tanément libérées, elles occuperont la totalité de l’espace disponible. La probabilité
pour qu’elles se retrouvent dans la partie droite de l’enceinte en un instant donné
6 FRANCK JEDRZEJEW SKI

paraît hautement improbable. En mécanique statistique, le nombre de configura-


tions microscopiques d’un système décrit la densité de probabilité de ce système
dans l’espace des phases. Le désordre est caractérisé par le manque d’information
ou l’incertitude de réalisation d’un état donné. Une configuration est moins proba-
ble (i.e. moins désordonnée) si elle a moins de chance de se réaliser spontanément.
L’entropie, en tant qu’espérance de l’incertitude, mesure le degré de désordre. C’est
une mesure du manque d’information. Dans la détente de Joule, l’augmentation
d’entropie est liée au fait que cette détente ne peut pas se produire spontanément
en sens inverse. L’état d’entropie maximale est l’état le plus désordonné et le plus
probable, c’est l’état où toutes les complexions sont équiprobables. Le deuxième
principe de la thermodynamique énonce que pour un système isolé, engagé dans un
processus irréversible, l’entropie ne peut que croître. La maximalité de l’entropie
détermine les conditions d’équilibre stable (mesures de Gibbs). Un système stable
reste au voisinage de son maximum d’entropie. Hors d’équilibre, le théorème H de
Boltzmann, montre que les systèmes évoluent vers leurs états les plus probables.
Enfin, le hasard peut masquer des propriétés physiques importantes, qui se révè-
lent par la brisure de symétrie. Dans les transitions de phases de certains solides,
au dessus du point de Curie, l’alignement des spins est aléatoire : il n’y a pas de
magnétisation. Lorsque la température décroît, la phase paramagnétique devient
essentielle : elle produit une direction privilégiée dans laquelle s’orientent les spins.
En développant aux basses températures, la matière n’a plus toutes les symétries
du hamiltonien d’origine, on dit que la symétrie est brisée : le magnétisme apparaît.
La matière s’organise en assimilant le désordre et ses productions aléatoires. La mé-
canique se constitue avec une aléatoire qui la complète. Certains y voit un nouveau
paradgime, une nouvelle dynamique. Selon Cournot, le hasard appartient à l’ordre
des choses, et non à l’ordre logique qui renvoit à “la construction des propositions,
aux formes et à l’ordre du langage".

5. Hasard et probabilités
Le concept de probabilité repose sur deux interprétations fondamentales : l’une
en fréquences (interprétation statistique), l’autre en degré de croyance (interpréta-
tion épistémique), selon que le probable est interprété de re, selon les choses (aspect
statistique) ou de dicto, selon les propositions, (degré de crédibilité). L’interprétation
épistémique des probabilités se fonde sur le raisonnement inductif (“Tous les cor-
beaux observés sont noirs, donc tous les corbeaux sont noirs”) qui engage la crédi-
bilité. Selon Leibniz, “la probabilité est le degré de possibilité"5 . “L’espérance est
la probabilité d’acquérir. La crainte est la probabilité de perdre". “Le probable est
ce qui est absolument plus intelligible, ou ce qui revient au même, ce qui est le
plus possible, dit Leibniz. Il en résulte que la probabilité ne demande pas seulement
la facilité de coexister avec les autres choses présentes. C’est pourquoi on n’a pu
rien définir sur la probabilité de manière générale, car il est clair que la probabilité
résulte d’une collection de circonstances"6 . Selon Kant, la probabilité est une “ap-
proximation de la certitude". Pour Granger7 , le probable est la mesure du possible.
Condorcet distingue “facilité” et “motif de croire”, Cournot “chance” et “prob-
abilité”, Russell “probabilité” et “crédibilité” et Carnap distingue deux types de
5 G.W. Leibniz, L’estime des apparences, p. 161.
6 G.W. Leibniz, Elementa juris naturalis, p. 472.
7 G.G. Granger, Le probable, le possible et le virtuel, p. 130.
HASARD ET CONTINGENCE 7

probabilités : la probabilité1 ou probabilité inductive et la probabilité2 ou probabil-


ité statistique. Dans ces deux grandes catégories d’interprétation de la probabilité,
on distingue quatre classes répertoriant les théories probabilistes. 1- Les théories
subjectives, bayésiennes ou personnalistes (B. de Finetti, F. P. Ramsey, J. L. Sav-
age). La probabilité d’un événement est son degré de croyance. Elle mesure le degré
de vraisemblance d’un événement. Elle n’a aucune référence obligée à la logique.
Elle conduit à la mesure des risques. 2- Les théories logiques (R. Carnap, Nagel).
La probabilité de l’hypothèse H connaissant l’évidence E est le degré auquel E
implique ou supporte H. 3- Les théories fréquentistes ou objectivistes (Von Mises,
Reichenbach). La probabilité est la fréquence relative de réalisation d’un événe-
ment lorsque l’expérience est indéfiniment répétée. Le hasard est caractérisé par
une régularité issue d’un grand nombre de fluctuations. Ces théories se fondent sur
les théorèmes limites et les lois des grands nombres. 4- Les théories popperiennes.
Popper8 appelle propension une conception objective des probabilités. La proba-
bilité d’un événement E en présence d’un dispositif M , est la propension de M à
produire E. Dans cette classification, les assignations de probabilités décrivent ce
qu’est le monde (interprétation statistique) ou ce que nous croyons que le monde est
(interprétation épistémique). Dans la théorie de Cournot, l’interprétation subjec-
tive s’oppose à l’interprétation objective. La théorie des chances et des probabilités
s’applique à deux domaines : “à des questions de possibilité qui ont une existence
objective”, et “à des questions de probabilité qui sont en effet relatives, en partie à
nos connaissances, en partie à notre ignorance”5 . Cournot reprend ici la définition
de Laplace, qui montre qu’une définition objective de la probabilité est impossible.
“Le terme de probabilité implique dans ses acceptions ordinaires un sens subjectif.”
Hume dans son Enquête sur l’entendement humain, donne à l’induction une crédi-
bilité qui exclut le doute : “M. Locke divise tous les arguments en démonstratifs et
en probables. Si nous admettons cette manière de voir, nous devons dire qu’il est
seulement probable que tous les hommes doivent mourir ou que le soleil se lèvera
demain. Mais, pour mieux accorder notre langage avec l’usage courant, nous de-
vons diviser les arguments en démonstrations, preuves et probabilités. Par preuves,
nous entendons des arguments tirés de l’expérience, tels qu’ils ne laissent aucune
place au doute ou à l’opposition.”6 Wittgenstein, dans le Tractatus, développe aussi
l’aspect logique des probabilités. “Si p résulte de q, la proposition “q” donne à la
proposition “p” la probabilité 1. La certitude est un cas limite de la probabilité.”
(5.152) “Une proposition n’est en soi ni probable ni improbable. Un événement
intervient ou n’intervient pas. Il n’y a pas de moyen terme.” (5.153) “L’unité de
la proposition de probabilité est que : les circonstances – que je ne connais pas
davantage autrement – donnent à un événement déterminé tel ou tel degré de
probabilité.”(5.155) “Ainsi la probabilité est une généralisation. Elle implique la
description générale d’une forme de proposition. Seul le manque de certitude nous
fait recourir à la probabilité.– Lorsque nous ne connaissons pas entièrement un fait,
nous savons bien quelque chose quant à sa forme. (Une proposition peut sans doute
être une image incomplète d’un certain état de choses mais elle est toujours une
image complète.) La proposition de probabilité est pour ainsi dire une extraction
d’autres propositions.”(5.156). Dans les Remarques philosophiques, il précise : “La

8 K. Popper, Un univers de propensions, 1990.


5 A. Cournot, Op.Cit. p 53
6 D. Hume, Enquête sur l’entendement humain, section VI.
8 FRANCK JEDRZEJEW SKI

théorie de la probabilité n’a affaire avec l’état d’attente que dans la mesure, où, dis-
ons, la logique a affaire avec la pensée. La probabilité a plutôt à voir avec la forme
et avec un type de l’attente. Il s’agit de l’attente que notre expérience ultérieure
correspondra à une loi à laquelle jusqu’alors l’expérience a correspondu.”7

6. Modélisations du hasard
Hasard et aléatoire recouvre la même notion et ont d’ailleurs la même étymologie.
Hasard dérive d’un mot arabe alzhar qui signifie dé, comme le latin alea judere,
signifie jouer aux dés. On sait que les premiers problèmes probabilistes ont été
des problèmes de jeu de hasard. Jérôme Cardan (1501-1576) dans le Liber de ludo
alea, qu’il publie à Lyon en 1663, donne des recettes de jeux et des précautions à
prendre pour éviter les tricheries. Fra Luca Paccioli (1445-1514), dans la Summa
de arithmetica étudie le problème des partis et Galileo Galilei (1564-1642), dans les
Considérations sur le jeu de dés, publié en 1718, cherche les solutions au problème
du Grand Duc de Toscane et montre qu’avec trois dés, on obtient plus souvent le
chiffre 10 que le chiffre 9, car il y a 27 manières d’obtenir 10, contre 25 d’obtenir un
total de 9 points - on obtiendrait 216 si les dés sont indistinguables et 56 si les dés
sont distinguables. Dans le problème des partis étudié par Paccioli, deux joueurs
s’affrontent dans une partie de pile ou face. Le joueur gagant est celui qui totalise N
points de plus que l’autre. Mais, si un joueur s’arrête et s’il a encore besoin de gagner
n coups et si son adversaire a besoin de gagner m coups avant la fin de la partie,
la question est de savoir comment répartir la mise équitablement entre les joueurs.
Ce problème, qui a été suggéré à Pascal (1623-1662) par son ami le chevalier de
Méré (1607-1684), inaugure les prémisses du calcul des probabilités qui naît de la
correspondance de Pascal et de Pierre Fermat (1601-1665). L’argument du pari de
Pascal est une application des concepts probabilististes naissants : dans un jeu à
deux issues (Dieu existe ou Dieu n’existe pas), même si la probabilité de gagner
(Dieu existe) est extrêmement faible, comme le gain associé est infini, l’homme doit
nécessairement parier car son espérance de gain (i.e. l’espérance mathématique) est
infinie. Dans le De ratiociniis in ludeo aleae, (Des méthodes de raisonnement dans le
jeu de hasard), publié en 1657, Christian Huygens (1629-1695) réunit les problèmes
posés par Fermat et Pascal, introduit la notion d’espérance (expectatio) et donne des
applications probabilistes à des problèmes d’assurance dans une collaboation avec
Jan de Witt (1625-1672). Le français Pierre Raymond de Montmort (1678-1719)
rédige un Essai d’analyse sur les jeux de hasard (1708). Publié huit ans après
sa mort par son neveu Nicolas, l’ouvrage de Jacques Bernoulli (1654-1705), Ars
conjectandi, commente le De ludo de Huyghens, pose des problèmes supplémentaires
et donne la première démonstration de la “loi (faible) des grands nombres” : si une
suite de variables aléatoires indépendantes, X1 , ..., Xn prend avec probabilité p la
valeur 1 et avec probabilité (1 − p) la valeur 0, alors Jacques Bernoulli montre, avec
le vocabulaire de son époque, que si Sn ¯désigne¯ la somme des n variables aléatoires
Sn = X1 + ...Xn , alors la probabilité P(¯ Sn ¯
n − p > ε) tend vers 0 quand n tend vers
l’infini. Dans la Doctrine of chances (1718), les Annuities upon lives (1725) et les
Miscellanea Analytica (1730), Abraham De Moivre (1667-1754) précise la vitesse
de convergence de la somme Sn et donne une démonstration du théorème de limite

7 L. Wittgenstein, Remarques philosophiques, p 280.


HASARD ET CONTINGENCE 9

centrale (nom donné par Pólya)


Z b
Sn − np 1 2
lim P(a < √ < b) = √ e−x /2
dx
npq 2π a

Quelques années plus tard, Friedrich Gauss (1777-1855) démontre que la loi normale
est limite de la loi de probabilité de la somme d’erreurs aléatoires indépendantes
de faible amplitude (Theoria combinationis observationum erroribus minimus ob-
noxiae, Théorie de la combinaison d’erreurs de faible amplitude, 1821). Dans sa
Théorie analytique des probabilités (1812), puis dans son Essai philosophiques sur
les probabilités (1812), Pierre Simon de Laplace (1749-1827) donne la formule de
Stirling, introduit la transformée de Laplace et démontre le théorème de Bernoulli.
Il développe la méthode du maximum de vraissemblance, d’après des résultats de
Daniel Bernoulli, et résout le problème de l’aiguille de Buffon, qu’il généralise à deux
ensembles de lignes perpendiculaires distantes de a et b. Il donne alors la probabilité
p qu’une aiguille de longueur l (l < a et l < b) croise, en tombant aléatoirement sur
le quadrillage, une des lignes p = [2l(a + b) − l2 ]/(πab). Thomas Bayes (1702-1761),
dans son ouvrage posthume, An essay toward solving a problem in the doctrine
of chances, (1763) introduit la notion de probabilité a priori, c’est-à-dire la prob-
abilité en l’absence d’observation, et la probabilité a posteriori, c’est-à-dire après
l’observation d’un échantillon de la loi. Siméon-Denis Poisson (1781-1840) donne
une nouvelle version de la loi des grands nombres :”Les choses de toute nature sont
soumises à une loi universelle, qu’on peut appeler la loi des grands nombres... Cette
loi énonce que les ratios numériques dérivés de l’observation d’une très grande quan-
tité d’événements similaires restent presque constants, pourvu que ces événéments
soient gouvernés partiellement par des facteurs constants, et partiellement par des
facteurs variables dont les variations sont irrégulières et ne causent pas de change-
ment systématique dans un sens quelconque... De ces exemples de toutes natures il
résulte que la loi universelle des grands nombers est déjà pour nous un fait général
et incontestable résultant d’expériences qui ne se démentent jamais”.8 Au XIXe
siècle, Cournot publie une Exposition de la théorie des chances, dont on retien-
dra plus les implications philosophiques que les résultats mathématiques, Bravais
(1811-1863) étudie les lois de Gauss à deux dimensions et Irénée-Jules Bienaymé
(1796-1878) donne la célèbre inégalité de Bienaymé-Tchebychev, qui permettra à
Pafnouti Tchebychev (1821-1894) de donner une nouvelle démonstration de la loi
des grands nombres. Andreï Andreievitch Markov (1856-1922) développe la théorie
des chaînes et des processus de Markov. Dans le domaine statistique, Francis Gal-
ton (1882-1911) ouvre en 1901, le premier laboratoire de Biométrie de l’Université
de Londres. Karl Pearson (1817-1936), Neyman, Wald, Student, Fischer et d’autres
développent les premières applications statistiques. La notion d’entropie, introduite
par Clausius, la distribution de Maxwell (1831-1879), le traitement stochastique de
la physique des gaz, les travaux de Boltzmann (1844-1906) et de Gibbs (1839-1903)
fondent la physique statistique moderne.

7. L’axiomatisation de Kolmogorov
Andreï Nikolaïevitch Kolmogorov, né en 1903, donne dans son mémoire Théorie
générale de la mesure et théorie des probabilités (1929), la première construction

8 S.D. Poisson, Recherches sur la probabilité des jugements, 1837.


10 FRANCK JEDRZEJEW SKI

axiomatique des probabilités. Ses idées seront reprises dans son ouvrage Grundbe-
griffe der Wahrscheinlichkeitsrechnung (Fondements de la théorie des probabilités)
publié en 1933. Indépendamment, Lomnicki et Steinhaus publient “Les probabilités
dénombrables et leur rapport à la théorie de la mesure”(1923). Au début du siè-
cle, tous les concepts probabilistes fondamentaux dérivent des concepts de théorie
de la mesure. A la notion de σ-algèbre correspond la notion de tribu des événe-
ments, à l’espace mesurable correspond l’espace probabilisable, à la mesure positive
bornée correspond la mesure de probabilité, etc...Nikodym précise les conditions
dans lesquelles une probabilité admet une densité et donne une construction de
l’espérance conditionnelle. La convergence des martingales est étudiée par Doob
à partir de 1940 (Stochastic process, Willey, 1952). Prokhorov et Skorohod étudi-
ent la convergence des mesures de probabilité. Paul Lévy (1886-1971) introduit la
notion de fonction caractéristique, étudie les lois stables et indéfiniment divisibles.
De Finetti développe la notion d’échangeabilité de variables aléatoires. Alexandre
Khintchine (1894-1959) introduit les problèmes de grandes déviations. La notion
de processus stochastique se précise dans les années 50. Les marches aléatoires sont
étudiées par Anderson, Spitzer et William Feller. Dynkin développe la théorie des
processus markoviens. Kolmogorov démontre que la probabilité de transition d’un
processus markovien obéit à une équation différentielle parabolique. Vers 1905, Ein-
stein étudie le mouvement brownien, décrit pour la première fois par le botaniste
Robert Brown en 1828. Norbert Wiener (1894-1964) construit un modèle math-
ématique du mouvement brownien (1923). Paley et Zygmund démontre que les
trajectoires du mouvement brownien sont non différentiables en tous points (1933).
Lindberg et Feller affaiblissent les hypothèses du théorème de limite centrale. La
vitesse de convergence de la somme Sn = X1 + ...Xn d’une suite de variables aléa-
toires indépendantes et identiquement distribuées
p se précise à travers les lois du
logarithme itéré. La vitesse est de l’ordre de (log log n)/n . Ce résultat a été dé-
montré en 1923 par Khintchine pour une distribution de Bernoulli, et généralisé
par Hartman et Wintner en 1942. En 1964, Strassen donne de la loi du loga-
rithme itéré une démonstration orginale, faisant intervenir les processus de Wiener.
Glivenko et Cantelli renouvellent la loi des grands nombres (1938). En 1912, Serge
Bernstein donne une démonstration probabiliste du théorème de Weierstrass sur
l’approximation uniforme des fonctions continues par des polynômes. Kakutani
utilise les probabilités pour étudier le problème de Dirichlet. Les liens entre prob-
abilités et analyse se précisent au cours du XXe siècle. Les fonctions harmoniques
et la théorie du potentiel sont étudiés à partir du mouvement brownien. La théorie
ergodique se structure autour du théorème de Birkkoff (1931). Ya. Sinaï étudie
l’ergodicité des billards. Emile Borel, P. Erdös, G.H. Hardy, M. Kac, S. Ramanu-
jan, et P. Turan développent les aspects arithmétiques. L’intégrale stochastique est
introduite par Itô en 1944 (l’intégrale de Stratonovitch date de 1966). La construc-
tion de l’intégrale stochastique s’effectue d’abord par rapport aux martingales de
carré intégrable, puis par rapport aux martingales locales, et enfin, par rapport
aux semimartingales. Les équations différentielles stochastiques naissent dans le
sillage de l’intégrale stochastique. En physique, elles sont connues sous le nom
d’équation de Fokker-Planck, équation aux dérivées partielles associée à une équa-
tion d’Itô. Les diffusions, comme le processus d’Ornstein-Uhlenbeck, ont contribué
à l’étude des équations différentielles stochastiques. Le calcul stochastique s’est
enrichi de structures géométriques (calcul sur des variétés, formes différentielles
HASARD ET CONTINGENCE 11

stochastiques). Récemment, les probabilités se sont rapprochées de l’analyse math-


ématique (Calcul de Malliavin). Les méthodes particulaires ont permis d’étudier
les équations aux dérivées partielles par des modèles probabilistes. Parmi les ap-
plications de physique mathématique, la théorie des probabilités quantiques qui est
une généralisation de la théorie des probabilités au cas où les variables aléatoires ne
communtent pas, s’est développé dans les années 70, sous l’influence des recherches
sur les fondements de la mécanique quantique (algèbres de von Neumann). Un
espace algébrique de probabilité est un couple (A, Φ) où A est une *-algèbre et Φ
un état de A. On dit que (A,Φ) est classique si A est une algèbre commutative et
quantique si A est non commutative. Si A est l’ensemble des opérateurs bornés
d’un espace de Hilbert , tous les états s’écrivent
Φ(a) = tr(ρa)
où ρ est un opérateur positif de trace 1, appelé opérateur densité. Le groupe
des automorphismes de A, détermine les propriétés probabilistes, en particulier
l’existence d’espérances conditionnelles. Speicher, Schürmann et al. ont montré qu’il
n’y a que trois notions d’indépendance stochastique dans le cadre non-commutatif
: la cas tensoriel (Hudson), le booléen (W. von Waldenfels) et la cas libre (D.
Voiculescu). Dans le cas libre, Voiculescu a montré que les résultats diffèrent du
cas commutatif, en particulier dans le théorème de la limite centrale, la convergence
a lieu non plus vers la loi gaussienne, mais vers la loi semi-circulaire. L’ensemble des
résultats non-commutatifs ont été utilisés pour étudier les matrices aléatoires, c’est-
à-dire des matrices dont les éléments sont des variables aléatoires indépendantes et
de même loi. Le problème est de déterminer la loi de probabilité de la distribution
empirique des valeurs propres.

8. Contingence et mondes possibles


Un événement est contingent s’il peut se produire ou ne pas se produire. La
contingence met en évidence, plus que le hasard, l’implication des actes de liberté
et s’oppose à la nécessité. Aristote, dans le De interpretatione, définit ainsi les
événements contingents : “Mais s’il était toujours vrai de dire qu’une chose est
ou sera, il n’est pas possible qu’elle ne soit pas ou qu’elle ne sera pas; or ce qui
ne peut pas ne pas se produire est dans l’impossibilité de ne pas arriver, et ce
qui est dans l’impossibilité de ne pas arriver arrive nécessairement. Il en résulte
ainsi que tous les futurs se produisent nécessairement. Par suite, rien n’arrive d’une
manière indéterminée ou par l’effet du hasard, car là où il y a hasard, il n’y a pas
nécessité”.9 Ce passage renvoie à l’aphorisme : “Tout ce qui existe est le fruit du
hasard et de la nécessité”, attribué à tort à Démocrite. On cite plus volontiers la
phrase de Leucippe “Rien dans la nature ne vient par soi-même, mais tout est le
fruit d’une loi et de la nécessité”. Dans le deuxième livre de la Physique, Aris-
tote classe les événements contingents : “Tout être, disons-nous, ou bien existe
toujours et nécessairement, ou bien est ce qui arrive le plus souvent, ou bien n’est
ni ce qui arrive le plus souvent ni ce qui est toujours et nécessairement, mais est
ce qui arrive n’importe comment? Que, par exemple, il puisse faire froid pendant
la canicule, c’est ce qui arrive ni toujours, ni nécessairement, ni le plus souvent,
c’est ce qui peut arriver seulement quelquefois. L’accident est donc ce qui arrive,

9 Aristote, De interpretatione, 18b, 10-15.


12 FRANCK JEDRZEJEW SKI

mais ni toujours et nécessairement, ni le plus souvent.” 9 Selon que l’accidentel est


introduit par l’homme, par Dieu ou par la nature, on distingue quatre conceptions.
1- La nature est soumise à des lois déterministes. L’accidentel n’existe pas. Les
modèles probabilistes décrivant l’état actuel sont condamnés à disparaître. C’est
le déterminisme physique, épistémique ou laplacien. 2- L’accidentel est introduit
par l’homme et n’existe pas fondamentalement dans la nature. La nature est déter-
ministe, mais une partie de la connaissance n’est pas accessible. L’ordre statistique
compense la description exacte du monde physique. 3 - L’accidentel existe fonda-
mentalement dans la nature. Les phénomènes aléatoires justifient l’état du monde :
apparition de la vie à partir d’une soupe prébiotique, élimination de l’anti-matière.
L’incertitude de nos connaissances résulte des interactions entre l’expérience et
l’objet. Les descriptions physiques sont probabilistes. Les relations d’Heisenberg
structurent l’espace des phases. Pour B. d’Espagnat, la physique est une science
à objectivité faible, décrivant un réel essentiellement voilé. 4- L’accidentel n’a pas
d’existence en soi, il est la main du démiurge. Ou bien, on nie la liberté humaine,
et l’idée de contingence n’est qu’une illusion, ou bien, l’homme affirme sa liberté et
l’idée de contingence s’articule entre la toute puissance de Dieu et le libre arbitre
de l’homme. Dans sa théorie des mondes possibles, Karl Popper a développé une
épistémologie qui s’oppose à l’épistémologie traditionnelle et qui se construit contre
les néo-positivistes du Cercle de Vienne. Il refuse leur conception empirique in-
ductive et pense que les théories scientifiques ne peuvent se contenter d’induction.
Pour être efficace, un système scientifique doit être testable. La testabilité, sug-
géré par les propos d’Einstein, définit l’attitude scientifique qui ne cherche pas
seulement des vérifications, mais doit mettre en place les tests qui permettent de
réfuter (réfutation ou falsifiabilité) ou corroborer (corroboration) des énoncés. Pop-
per élabore trois mondes. Le monde-1 est celui de la réalité physique. Le monde-2
est le monde intérieur des états mentaux, de la croyance et de la subjectivité. Le
monde-3 est le monde des théories, du langage, des valeurs et de l’histoire. Peut-
on, à la manière de Popper, répondre à ces questions : Dans quel monde se situe
la probabilité ? Des énoncés de probabilités sont-ils accessibles à la réfutation ?
Aujourd’hui, l’utilisation des techniques probabilistes pour résoudre des questions
relevant du domaine déterministe, nous incite à penser que la question du probable
s’est considérablement déplacé, que les probabilités sont passées insensiblement de
la modélisation du hasard à un conception utilitariste de l’étude de phénomènes
déterministes renouant ainsi avec leur définition mathématique première de mesure
positive de masse unitaire, qui justifie pleinement la thèse selon laquelle la proba-
bilité est la mesure du possible.

References
[1] Benenson, F.C., Probability, Objectivity and Evidence, Londres, Routledge & Kegan Paul,
1984.
[2] Borel, E., Le Hasard, Paris, PUF, 1948.
[3] Boudot, M., Logique inductive et probabilité, Paris, A. Colin, 1972.
[4] Bouveresse, J., Le pays des possibles, Paris, Minuit, 1988.
[5] Bunge, M., ”Possibility and Probability” in Harper and Hoocker (ed.), Foundations of Prob-
ability Theory, Statistical Inference and Statistical Theories of Science, Dordrecht, Reidel,
vol. 3, 1976
[6] vThe Two Concepts of Probability, Londres, 1951.

9 Aristote, Physica II, 6, 197b, 18-21.


HASARD ET CONTINGENCE 13

[7] Carnap, R. Meaning and Necessity, The University of Chicago Press, 2nd éd., 1956.
[8] Carnap, R. Les fondements philosophiques de la physique, trad. J.-M. Luccioni et A. Soulez,
Paris, A. Colin, 1973.
[9] Cournot, A. A., Essai sur les fondements de nos connaissances et sur les caractères de la
critique philosophique, Paris, 1851, réed. in Oeuvres complètes, Vrin, 1984.
[10] Cournot, A. A., Exposition de la théorie des chances et des probabilités, Paris, 1843, réed in
Oeuvres complètes, Vrin, 1984.
[11] De Finetti, B., ”La prévision : ses lois logiques, ses sciences subjectives”, Annales de l’Institut
Henri Poincaré, 1937, 7.
[12] Ekeland, I., Le calcul, l’imprévu, les figures du temps de Képler à Thom, Paris, Seuil, 1984.
[13] Espagnat [d’], B., A la recherche du réel, Paris, Gauthier-Villard, 1979.
[14] Granger, Gilles-Gaston, Le probable, le possible et le virtuel, Paris, Odile Jacob, 1995.
[15] Heinzmann, G., Entre intuition et analyse, Poincaré et le problème de la prédicativité, Paris,
Albert Blanchard, 1985.
[16] Hume, D., Enquête sur l’entendement humain, Paris, Aubier-Montaigne, 1947.
[17] Laplace [de], P.S., Essai philosophique sur les fondements des probabilités, Paris, réed. 1921.
[18] Largeault, J., Hasards, probabilités, inductions, Toulouse, Presses Universitaires, 1979.
[19] Largeault, J., Systèmes de la Nature, Paris, Vrin, 1985.
[20] Leibniz, G.W., L’estime des apparences, 21 manuscrits de Leibniz sur les probabilités, la
théorie des jeux, l’espérance de vie. Texte établi, traduit et annoté par Marc Parmentier,
Paris, Vrin, 1995.
[21] Loève, M. ”Calcul des probabilités” in J. Dieudonné, Abrégé d’histoire des mathématiques,
1700-1900, vol. 2, Hermann, Paris, 1978.
[22] Poincaré, H., Science et méthode, Paris, Flammarion, 1914.
[23] Popper, K., Logique de la découverte scientifique, Paris, Payot, 1935.
[24] Popper, K., Conjectures et réfutations : la croissance du savoir scientifique, Paris, Payot,
1985.
[25] Popper, K. Un univers de propensions, Paris, Editions de l’Eclat, 1990.
[26] Prigogine, I., Stengers, I., La nouvelle alliance, Paris, Gallimard, 1979.
[27] Maistrov, L.E., Probability Theory, A Historical Sketch, 1974.
[28] Martin, T., Probabilités et critique philosophique selon Cournot, Vrin, 1996.
[29] Monod, J., Le Hasard et la Nécessité, Paris, 1970.
[30] Ruelle, D., Hasard et chaos, Paris, Seuil, 1991.
[31] Serres, M., Hermès IV, Paris, 1977.
[32] Suppes, P., La logique du probable, Paris, Flammarion, 1981.
[33] Thorouin, D., Le Hasard et les règles. Le Modèle du jeu dans la pensée de Pascal, Paris, Vrin.
[34] Todhunter, I., A History of Mathematical Probability, Chelsea, New York.
[35] Vuillemin, J., Nécessité et contingence, L’aporie de Diodore et les systèmes philosophiques,
Paris, Minuit, 1984.
[36] Wittgenstein, L. Tractatus logico-philosophicus, trad. de P. Klossowski, Paris, Gallimard,
1961.
[37] Wittgenstein, L. Remarques philosophiques, trad. de J. Fauve, Paris, Gallimard, 1975.

View publication stats

Vous aimerez peut-être aussi