Sur la science
qui surprend, éclaire et dérange
Sur la science
qui surprend, éclaire et dérange
Jean-René Roy
Nous remercions le Conseil des arts du Canada de son soutien. L’an dernier, le Conseil a investi
153 millions de dollars pour mettre de l’art dans la vie des Canadiennes et des Canadiens de
tout le pays.
We acknowledge the support of the Canada Council for the Arts, which last year invested
$153 million to bring the arts to Canadians throughout the country.
Les Presses de l’Université Laval reçoivent chaque année du Conseil des Arts du Canada et de
la Société de développement des entreprises culturelles du Québec une aide financière pour
l’ensemble de leur programme de publication.
Maquette de couverture : Laurie Patry
Mise en pages : Danielle Motard
isbn : 978-2-7637-3996-0
Isbn pdf : 9782763739977
© Les Presses de l’Université Laval
Tous droits réservés.
Imprimé au Canada
Dépôt légal 2e trimestre 2018
Les Presses de l’Université Laval
www.pulaval.com
Toute reproduction ou diffusion en tout ou en partie de ce livre par quelque moyen que ce soit est interdite sans l’autorisation
écrite des Presses de l’Université Laval.
À la mémoire de Fernand Seguin
(1922-1988)
Table des matières
Avant-propos XI
Introduction
Lettre à Qohéleth 1
Partie I
La science pour comprendre le monde
1 La science qui bouge 19
Le changement qui dérange 20
Barbara McClintock, la science silencieuse 23
La tectonique des plaques, mobilistes contre fixistes 26
La transmutation des éléments, le rêve de Prométhée 36
L’ADN, une histoire plus ancienne qu’on le croit 47
Les ondes gravitationnelles, le casse-tête d’Einstein 52
2 La science qui surprend 63
L’intrigante sensitive, les gènes du rythme circadien 66
Le poids de l’air, vacuistes contre plénistes 73
L’expansion de l’univers, le cauchemar d’Einstein 80
3 La science qui éclaire 89
Le tableau périodique de Dmitri Mendeleïev 91
Les lois d’échelle dans la nature et la société humaine 102
La sélection naturelle comme mécanisme d’évolution des espèces 113
X Sur la science qui surprend, éclaire et dérange
4 La science qui dérange 125
Le buisson des humains archaïques 127
La génomique et le génie génétique 134
Les xéno-transplantations 140
Tout est nucléaire 143
Le réchauffement planétaire anthropique 149
Partie II
Les usages de la science
5 Croyances et savoirs
Savoirs, opinions et croyances 167
Intuitions et illusions 176
Aléas et contingence 183
Où sont les archanges ? 185
L’illusion des « cruches à remplir » ou le défi de l’éducation 188
6 Instrumentalisation de la science :
techno-utopies et techno-catastrophes 191
Terrassement thermonucléaire et propulsion nucléaire 192
L’intelligence assistée 199
Les capitalistes sur Mars 206
Diabolisation de la science 211
7 La science qui aide 219
Du photon au laser 221
L’édition génétique et les cochons CRISPRisés 227
La recherche en industrie 235
Risque et précaution 237
Conclusion 245
Bibliographie – ouvrages choisis 249
Index 253
Avant-propos
La science est une puissante manifestation et une expression vivante de
la curiosité humaine. Elle est une démarche qui vise à comprendre et à
expliquer le monde, incluant les humains. La plupart des gens aiment
la science et désirent en entendre parler ou lire sur le sujet. Néanmoins
les mêmes personnes ont souvent l’impression qu’elle est compliquée
et difficile, voire rébarbative et dangereuse. Si, chez certains, la science
suscite curiosité et enthousiasme, chez d’autres elle provoque la crainte,
l’incrédulité ou le simple déni. La science bouleverse, parfois profondé-
ment et viscéralement. Les savoirs scientifiques à la fois réconfortent et
dérangent parce qu’ils abordent des questions existentielles : qui sommes-
nous ? Où sommes-nous ? D’où venons-nous ? Où allons-nous ?
Les programmes d’enseignement insistent surtout sur le corpus établi
des connaissances scientifiques. Ils projettent ainsi une vision myope
et dogmatique du savoir scientifique. La science englobe et dépasse ce
corpus. Comme un diamant, la science présente plusieurs facettes. Elle
est intrinsèquement dynamique ; elle bouge constamment. Dès qu’une
certitude a été établie, elle vogue dans l’incertain vers l’inconnu pour
l’éclairer et le comprendre.
S’ancrant ainsi dans les savoirs établis, le ou la scientifique œuvre dans
un flou exploratoire où un méthodique pas à pas permet d’avancer. Cette
démarche est source de confusion, d’incertitudes, voire d’erreurs, donc
de retours en arrière. Il faut du temps et beaucoup de patience. Cette
méthode d’exploration et de vérification est stricte et bien éprouvée.
XII Sur la science qui surprend, éclaire et dérange
On règle une question et l’on passe à autre chose. Ainsi la science ne
détient pas la vérité absolue, mais représente un outil extraordinaire-
ment puissant, et probablement le meilleur, pour comprendre le monde.
Elle incarne aussi l’admirable aventure de femmes et d’hommes qui ont
chamboulé l’ordre établi, aboli les dogmes et créé une magnifique et
immense symphonie des connaissances.
La science explique le monde ; ce faisant, elle donne des outils pour le
modifier. La synergie entre connaissance scientifique et applications est
très ancienne. On retrouve des retombées des savoirs scientifiques dans
tous les domaines de l’activité humaine. Le laser est un extraordinaire
exemple d’ingéniosité humaine par son omniprésence dans presque
tous les domaines d’activité de nos sociétés. L’arrivée de CRISPR-Cas,
ce puissant outil d’édition du génome, est un exemple spectaculaire du
dynamisme de la science que nous offrent les microbiologistes en ce
début de nouveau millénaire. Avec CRISPR-Cas, une révolution est en
train de se passer autour de nous. Les retombées de ce véritable typhon
biotechnologique requièrent l’interaction entre scientifiques, éthiciens,
philosophes et sociologues. En tant que citoyens d’une société jouis-
sant d’institutions démocratiques fortes, nous avons le devoir de nous
informer et de comprendre les enjeux pour être capables de jouer notre
rôle d’arbitre sage et bienveillant.
Il importe en effet de savoir et de comprendre plutôt que de croire
et d’ignorer. Qu’est-ce qui distingue un savoir, une opinion et une
croyance ? L’ignorance est-elle absence de connaissances ? Pourquoi les
croyances persistent-elles avec autant de vigueur face aux avancées de la
science ? C’est à ces questions et bien d’autres que je réponds dans ce livre.
Différents auteurs ont jeté un regard perspicace sur la nature de la science
et le travail des chercheurs scientifiques. Leurs propos ont dirigé ma
réflexion. Yves Gingras, sociologue et historien des sciences, le physicien
Carlo Rovelli, les philosophes des sciences Mario Bunge et Alan Chal-
mers demeurent d’incontournables maîtres à penser1.
1. Les traductions des textes originaux en anglais et en espagnol sont mon entière
responsabilité.
Avant-propos XIII
Le radiochimiste Jean-Claude Roy m’a éclairé sur l’origine du tableau
périodique et sur son rôle dans la formation et le travail des chimistes. Les
journalistes scientifiques Yanick Villedieu et Valérie Borde m’ont alerté
des enjeux complexes de la communication scientifique. Louis Guay,
sociologue, et Guy Dumas, linguiste, m’ont rappelé que les recherches en
sciences humaines partagent la dynamique des sciences exactes. Valérie
Levée et François Grégoire m’ont aimablement enrôlé dans la formidable
émission scientifique radiophonique Futur simple de CKRL, à Québec.
Leur compagnie, jointe par le biologiste Cyrille Barrette et l’éthicienne
Édith Deleury, a donné lieu à des échanges animés et éclairants qui ont
inspiré une partie de ce livre.
Mes collègues de l’Observatoire Gemini, de la National Science Founda-
tion et du Space Telescope Science Institute m’ont aidé à voir la science
comme une grande entreprise humaine qui nécessite des chercheurs et
les dépasse, embrassant des pans complets de nos sociétés. Je remercie
Matt Mountain, Doug Simons, Mark Coles, Phil Puxley, Jamie Allen,
Florence Rabanal, William Miller et Alessandra Aloisi. D’avoir côtoyé
la méga-science, ceux et celles qui la font, m’a éclairé et inspiré. Plu-
sieurs des questionnements que j’aborde dans ce livre ont surgi de ces
interactions.
Yanick Villedieu, Hélène Allard, Cyrille Barrette, Valérie Levée, Louis
Guay et Laurent Drissen ont fait une lecture de l’entièreté du manuscrit.
Sylvain Moineau, Marie-Hélène Pedneau, Chantal Srivastava, Martin
Olivier et Tigran Galstian ont passé en revue des parties du manus-
crit. Leurs commentaires judicieux ont été d’une aide précieuse, ayant
permis de renforcer la rigueur et la cohérence du texte. Aux Presses de
l’Université Laval, Denis Dion et son équipe ont fait le travail attentif et
admirable que les vrais éditeurs savent faire.
Hélène Allard, ma compagne de décennies, m’a inspiré par son insatiable
curiosité et sa passion de connaître.
Introduction
Lettre à Qohéleth1
Cher Qohéleth, Vieux Sage,
C’est avec un certain retard que je vous écris, et je m’en excuse. J’ai lu
et relu plusieurs fois votre Ecclésiaste, ses « précieuses paroles et dis-
cours de vérité ». J’ai chaque fois éprouvé un plaisir face à la clarté et à la
beauté du texte. En même temps, j’ai senti un certain malaise vis-à-vis
de votre dureté d’analyse, proche d’un cynisme philosophique. Durant
ces quelques millénaires, plusieurs milliers de générations d’humains
se sont succédé et l’eau d’innombrables fleuves a coulé vers les mers.
Pourtant comme vous l’avez si bien prédit, sous bien des aspects, « le
monde ne change pas ». Vous serez probablement plus ou moins étonné
que, 2500 ans plus tard, votre propos demeure d’une profonde et déran-
geante actualité.
Vous serez encore plus surpris d’apprendre que votre Ecclésiaste fait
maintenant partie d’un collectif qu’on appelle l’Ancien Testament. Cet
ensemble hétéroclite de textes fort intéressants nous donne un regard
sur le Levant de votre époque grâce aux auteurs éclectiques de votre
monde disparu. L’historien et assyriologue français Jean Bottéro (1914-
2007) a qualifié justement l’ensemble de ces textes de « classique » de la
1. Nom de l’auteur présumé du texte de l’Ecclésiaste.
2 Sur la science qui surprend, éclaire et dérange
littérature universelle2. Pour le lecteur moderne, si plusieurs textes de
l’Ancien Testament sont violents et scabreux, bien des passages sont très
beaux. Le vôtre en particulier, quoiqu’énigmatique, détonne par son
langage direct. Le messianisme y est complètement absent, pas de récits
de massacres ou de batailles vengeresses, ni de fornication et de sodomie,
et les discours de fin du monde n’y ont pas leur place. Toutefois, d’aucuns
s’interrogent sur l’inclusion de votre Ecclésiaste dans le collectif, où vous
apparaissez comme le mouton noir. Celui ou celle qui y a inséré votre
essai a réussi un sacré coup.
Un des autres textes de l’Ancien Testament les plus cités de nos jours
est celui de la Genèse qui décrit l’origine de l’univers, qu’on appelle la
cosmogonie. Comme vous le savez bien, vous qui semblez avoir vécu
au iiie siècle avant notre ère, il y a deux récits cosmogoniques, celui du
Yahviste, le plus ancien rédigé vers les ixe-viiie siècles avant notre ère, et
le Document sacerdotal, ou l’Élohiste, plus récent et datant d’après la
première moitié du vie siècle. En effet, cher Qohéleth, ces récits israé-
lites sont inspirés de textes plus anciens provenant de vos collègues de
Mésopotamie et d’Égypte. Le premier exposé est le plus élémentaire et
je trouve qu’il est le plus beau. J’aime bien la proposition qu’au début
des temps le chaos préexistait et que l’acte de création fut d’y mettre de
l’ordre et d’allumer les lumières.
Le second texte, l’Élohiste avec les six jours de création, est clairement
l’œuvre d’experts en communication. L’écriture poétique est bien struc-
turée et devait bien se prêter à la déclamation ou au chant. Ce texte de
la genèse du monde en six jours est tellement simple et bien écrit que,
même aujourd’hui, des millions d’humains le considèrent comme une
description vraie des débuts de l’univers, de l’homme et de la femme, et
de tout l’environnement naturel. Certains de nos congénères y adhèrent
même fanatiquement et sont prêts au massacre pour le défendre.
Revenons à votre noble texte de l’Ecclésiaste.
2. Jean Bottéro, Naissance de Dieu. La Bible et l’historien, Gallimard, 1992, p. 10-11.
Jean Bottéro fut un remarquable historien et assyriologue français. Esprit libre,
il fut considéré un temps comme « un danger pour les jeunes ». On ne s’ennuie
pas à lire son extraordinaire analyse de la Bible et de ses textes aux origines
complexes et multiples. Sa magnifique traduction de L’Ecclésiaste est éloquente.
Introduction 3
Plusieurs penseurs et auteurs qui vous ont suivi au cours des siècles ont
adopté votre perspective sur le monde. Dans cette lettre, j’en mention-
nerai quelques-uns pour appuyer mon propos. Mais pour comprendre
où ils se situent dans le temps après vous, je dois d’abord vous mettre au
courant du calendrier qu’on utilise maintenant. Vous vous demandez
certainement ce que je raconte avec « avant notre ère » et « de notre ère »
ou annus domini (AD). Plusieurs calendriers se sont remplacés et succédé
selon les civilisations. À votre époque, vous employiez fort probablement
un calendrier solaire de source mésopotamienne. Aujourd’hui nous uti-
lisons communément le calendrier solaire grégorien implanté en Europe
en octobre 1582. Ce calendrier, une modification d’un calendrier romain
plus ancien, porte le nom d’un chef religieux européen, le pape Grégoire
XIII (1502-1585 de notre ère).
Dans le calendrier grégorien, les années se comptent à partir de la date
supposée de la nativité du prophète Jésus de Nazareth, qui vécut environ
250 ans après vous. Jésus fut un prêcheur itinérant charismatique, un fai-
seur de miracles et un chef religieux redoutable. Ses discours et ses actes
dérangeaient à peu près tout le monde. On le qualifia de révolutionnaire
et on le crucifia en compagnie de deux bandits après un jugement expé-
ditif. Il avait 33 ans et ignorait que ses idées allaient changer le monde
pour le mieux et le pire. C’est le moine romain Dionysius Exiguus (470-
544) qui aurait établi la date de naissance de ce Jésus dans un calcul fort
controversé. De toute manière, c’est notre point de départ calendaire
d’autant plus confondant qu’il n’y a pas d’année zéro, illustrant l’énorme
défi qu’a posé la compréhension du concept de zéro et son adoption.
Avant l’an 1, on compte à rebours, de sorte que, pour nous, vous auriez
vécu au iiie siècle av. J.-C.
Dans cette lettre, cher Qohéleth, je désire rappeler seulement quelques
passages choisis de votre beau texte. Je suis sûr que vous accepterez ces
commentaires d’un scientifique, profondément d’accord avec l’essentiel
de votre propos. Beaucoup de penseurs de toutes les époques ont suivi
votre trace et vous ont cité. Certains, comme le philosophe Érasme de
Rotterdam (1466-1536), dans l’Éloge de la folie, ont même calqué votre
façon d’observer le monde et votre style d’écriture. Je m’attacherai à
rappeler et à citer quelques-uns de ces penseurs. Malgré votre réticence
feinte envers les écrits, je crois que vous auriez aimé les lire.
4 Sur la science qui surprend, éclaire et dérange
I.2 Vanité des vanités, tout est vanité !
Cet énoncé percutant de votre Écclésiaste, maintenant adage courant,
est le plus connu et utilisé de tous les temps. On le prononce encore
aujourd’hui au début de ce xxie siècle, même si l’on s’attarde peu à le
comprendre, oubliant l’entièreté de votre admirable texte. Vous ciblez
votre assertion dans le contexte bien terrestre des activités, prouesses et
déboires des humains. Comme scientifique et astronome, je l’apprécie
pour son rappel à l’humilité que nous devons avoir face à nous-mêmes
et à l’immense nature d’où nous émergeons, étant donné la place infime
que nous occupons dans l’univers.
En effet, comme l’a démontré votre collègue grec et contemporain, l’émi-
nent astronome Aristarque de Samos (c. 310-c. 230 av. J.-C), notre espèce
habite la Terre, une planète toute petite en révolution autour du Soleil,
source quasi intarissable d’énergie, de lumière et de chaleur. Notre Soleil
est cependant lui-même un astre modeste parmi des millions d’autres
que sont les étoiles, que nous admirons rêveusement la nuit. Comme on
le verra plus loin, Aristarque le défendait déjà âprement : les étoiles sont
d’autres soleils, tellement éloignés de nous qu’elles nous apparaissent
des millions de millions de fois plus faibles que le Soleil. Plus tard, Titus
Lucretius Carus ou Lucrèce, né en 98 et décédé en 55 av. J.-C., un brillant
poète et philosophe latin, proposa même que le Soleil, la Terre et la Lune
n’étaient pas uniques et devaient exister en exemplaires innombrables
dans l’univers. Si les philosophes naturalistes grecs de votre époque ont
excellé dans le domaine de la géométrie et de l’astronomie, vos proches
sémites de tout le Moyen-Orient se révélèrent de fins arithméticiens,
inventeurs de poids et mesures et bons calculateurs des cycles astrono-
miques, incluant les éclipses de la Lune.
Dans son ouvrage De la nature de choses, ce même Lucrèce s’inspirait
de la pensée et des principes de son prédécesseur Épicure (341-270 av.
J.-C), un des premiers atomistes qui décrivit la matière comme composée
d’atomes insécables et de vide. Reprenant l’atomisme pour décrire le
monde et les phénomènes naturels, Lucrèce introduisit deux concepts
révolutionnaires que vous auriez grandement appréciés. Ce sont ceux de
hasard et de contingence dans les comportements humains et l’évolution
de la nature. Oui, hasard car les phénomènes naturels sont aléatoires ;
Introduction 5
contingence, parce qu’il aurait pu en être tout autrement. Lucrèce porte
un regard sur le monde qui reprend le vôtre avec une analyse que je
caractériserais de plus scientifique ; mais vous vous rejoignez dans les
idées, en particulier sur la vanité de l’humain.
Deux mille ans plus tard, nous savons que les spéculations audacieuses
et outrageantes de Lucrèce sur les mondes extraterrestres s’avèrent en
partie valides, et que la réalité cosmique est encore plus surprenante. Les
astronomes modernes travaillant avec acharnement depuis environ trois
siècles ont montré que le Soleil et les étoiles appartiennent à un immense
système d’étoiles, la Voie lactée. Dans votre ciel de Palestine, vous obser-
viez sa partie principale comme une magnifique bande laiteuse traver-
sant le ciel. Je vous imagine ému par sa splendeur. Aujourd’hui on la sait
être la collection de l’ensemble de millions d’étoiles trop faibles pour être
vues individuellement par l’œil humain. Elle n’est que la tête de l’iceberg
d’un colossal système.
Plus éblouissante avec ses 200 milliards et plus d’étoiles, la Voie lactée
n’est qu’une galaxie parmi les centaines de milliards d’autres, toutes
des îlots épars dans un univers aux dimensions inimaginables. Chaque
autre galaxie est un gigantesque tourbillon d’étoiles, de gaz et de pous-
sières interstellaires. À l’instar de vos contemporains astronomes qui
scrutaient la Lune et les planètes, nous commençons à peine depuis un
siècle à déchiffrer le monde des galaxies. La Terre et les autres planètes
ne sont que des poussières. Nous, humains, n’occupons qu’un grain de
sable dans cette immensité d’astres. En effet, les préoccupations et les
trémolos des humains ne sont que vanités, et notre anthropocentrisme
viscéral plutôt vain.
Mais même si nous sommes le fruit d’une succession aléatoire d’évè-
nements cosmiques, nous pouvons afficher un certain orgueil d’avoir
curieusement émergé du hasard d’un long processus d’évolution par
sélection, comme si les évènements et les phénomènes s’enchaînaient
pour toujours tomber sur le numéro de loterie gagnant. Mais vous êtes
logicien rigoureux et savez que cette manière de voir les choses est une
illusion : vanité, car il y eut plusieurs échecs, culs-de-sac et voies sans
issue dans cette longue évolution. Et ce fut un très long cheminement
qui a requis près de quatre milliards d’années. Comme vous nous le
6 Sur la science qui surprend, éclaire et dérange
dites, Vieux Sage, tout n’est que contingence ; il aurait pu en être tout
autrement. L’aboutissement de ce processus d’évolution de la vie sur terre
a mené à un résultat qui semble d’ailleurs incertain pour sa durabilité.
Encore une fois, vanité.
I.5 Le soleil se lève, le soleil se couche : après quoi, il se hâte vers l’horizon
pour s’y lever encore.
Je comprends bien que par cet aphorisme vous insistez sur la permanence
et la récurrence des phénomènes, et aussi sur le fait que les humains
répètent les mêmes exploits et les mêmes bêtises, imaginant chaque fois
que tout cela est nouveau. Au-delà de votre remarque, vous décrivez en
même temps un phénomène astronomique compris à votre époque : la
Terre tourne.
Le philosophe grec Anaximandre de Milet (c. 610-c. 546) est considéré
de nos jours comme le premier penseur à avoir décrit l’organisation
du monde avec une approche scientifique, c’est-à-dire sans faire appel
aux dieux. Contrairement à ses prédécesseurs et ses contemporains,
qui décrivaient le monde constitué de la Terre en bas comme un plan-
cher et le ciel en haut comme un plafond, Anaximandre proposa que
la Terre, un disque épais, était libre dans l’espace, sans support, avec le
ciel tout autour (chapitre 5). Vous le savez bien, cher Qohéleth, que le
Grec Parménide d’Élée (fin du vie siècle-milieu du ve siècle avant notre
ère) proposa la sphéricité de la Terre et que, plus tard, son compatriote
astronome Ératosthène (vers 276 av. J.-C.-vers 194 av. J.-C.) effectua la
mesure spectaculaire et assez exacte du diamètre de notre monde. Oui,
comme un petit nombre de vos contemporains le prônaient, la Terre
tourne sur elle-même d’ouest en est à la manière une toupie, donnant
l’apparence que le Soleil, la Lune et les étoiles se lèvent du côté de l’Orient
pour se coucher à l’ouest. Croiriez-vous que, 2300 ans plus tard, plus de
30 % des gens de chez nous croient encore que la Terre ne bouge pas,
mais que ce sont le Soleil, les planètes (ces intrigants vagabonds du ciel)
qui tournent autour de nous. Vous avez bien raison, les choses changent
peu, et les idées obtuses encore moins.
I.6 Le vent part vers le sud, puis revient vers le nord et va se retournant
sans cesse : mais, après, il reprend ses sautes.
Introduction 7
Sénèque ou Lucius Annaeus Seneca (vers 4 av. J.-C.-65 AD) fut un phi-
losophe stoïcien et homme d’État romain, conseiller sous Caligula et
précepteur de Néron, deux des empereurs les plus cruels et irrationnels
de l’Empire romain. Et ils ne furent pas les seuls dirigeants fous dans
l’histoire de notre monde. Dans la 57e lettre à son ami Lucilius, Sénèque
a repris vos mots. « Après la pluie, le beau temps. La mer d’huile, ensuite
la tempête. Les vents qui soufflent dans un sens, et puis dans l’autre. Le
jour qui vient après la nuit. Une partie du ciel se dresse, l’autre s’enfonce.
L’éternité repose sur l’équilibre des contraires3. » Tous ces phénomènes
ne sont pas les humeurs de divinités ; la foudre et le tonnerre ne sont pas
les colères de Zeus, mais la collision de grands tourbillons d’air. Comme
quoi, cher Qohéleth, vous avez lancé une thématique qui a bien subsisté
dans le temps.
I.7 Tous les fleuves vont à la mer : mais la mer n’en est point remplie ;
pourtant les fleuves ne continuent pas moins d’y couler sans arrêt.
Le vent et les eaux sont des phénomènes complexes et étroitement reliés.
Comme vous et Sénèque l’avez bien souligné, le vent dans son intensité
et sa direction varie sans cesse ; ses maints aléas se répètent indéfini-
ment, malgré des fluctuations continuelles. N’ayez crainte, je perçois
la métaphore où vous décrivez les comportements humains qui font du
surplace à travers les âges.
Vous êtes fin observateur et analyste. Vous avez probablement observé
les cours du Jourdain, ou du Tigre et de l’Euphrate qui prennent leurs
sources en Asie mineure. D’ailleurs le nom sumérien original du Tigre
était Idigna, qui signifie eau courante. En effet, avec tous les fleuves et
rivières qui coulent sans arrêt, pourquoi le niveau des océans ne monte-
t-il pas ? Notre ami Lucrèce l’a bien décrit : « Dans la mer, dans les fleuves,
dans les sources, des ondes toujours nouvelles ne cessent d’affluer et
se répandent sans fin… Mais une perte constante les garde d’un excès
d’abondance. D’une part, leur masse diminue, balayée par le souffle des
vents, dissoute du haut du ciel par les rayons du soleil ; d’autre part, elles
s’écoulent souterraines à travers le sol qui les divise : elles s’y filtrent, s’y
3. Sénèque, Apprendre à vivre, tome II, Lettres à Lucilius (choisies et traduites par
Alain Golomb), Arléa, 1992, p. 142.
8 Sur la science qui surprend, éclaire et dérange
dépouillent de leur sel, puis elles se replient sur elles-mêmes et remontent
vers les sources où elles se rassemblent pour couler ensuite à la surface de
la terre en douces eaux, partout où la terre creusée les invite à courir4. »
Comme vous le remarquez, cher Qohéleth, les mers ne sont pas plus
remplies, car un cycle constant d’évaporation produit la perte constante
décrite par Lucrèce, tout cela dans un équilibre bien établi entre les
précipitations, le stockage en eaux souterraines, l’écoulement versus
l’évaporation. Remarquez que, récemment, l’humain a probablement
rompu en partie cet équilibre en provoquant la fonte des énormes glaciers
du Groenland (une immense île continentale dans l’Atlantique Nord) et
ceux couvrant les hauts massifs de montagnes.
Mais il y a une chose qui change subtilement dans cette apparente
immuabilité : la salinité des eaux océaniques est en constante augmenta-
tion. Ces fleuves que vous aimez bien charrient avec eux bien des choses,
dont l’usure des pierres et leurs sels. Ceux-ci s’accumulent lentement
dans les mers qui en sont enrichies, au point que nous ne pouvons pas
boire l’eau des océans. Étonnamment, le physicien irlandais John Joly
(1857-1933) proposa de calculer l’âge de la Terre en utilisant la teneur en
sodium des océans et en estimant le temps requis pour établir la teneur
en sel actuelle à partir d’une eau originelle sans sel. Contrairement à
la pensée en cours à votre époque, qui affirmait que notre globe était
éternel, nous avons bien établi que la Terre a un âge fini, une véritable
révolution de pensée. Le grand Aristote, probablement un de vos proches
contemporains, n’aurait pas aimé.
Nos preuves, maintenant bien fermes, sont fondées sur les désintégra-
tions radioactives d’éléments naturels instables, grâce à une technique
de grande efficacité qu’on appelle la datation radiométrique. La Terre
et la Lune se seraient formées, juste après le Soleil, il y a 4,54 milliards
d’années. Même ce n’est qu’au xxe siècle que l’on réussit à déterminer cet
âge avec précision. Pour revenir à votre point sur le niveau constant des
océans, notre physicien Joly estima le taux avec lequel les océans auraient
accumulé la teneur présente de sodium en utilisant les différents pro-
cessus d’érosion et d’évaporation que vous connaissez bien. Son objectif
4. Lucrèce, De la nature, Garnier-Flammarion, 1964, p. 163-164.
Introduction 9
était d’en dériver un âge approximatif pour la Terre. Son estimation de
80 à 100 millions d’années fut vite considérée comme inexacte, mais son
travail contribua à renforcer d’autres méthodes de détermination d’âge.
Si l’idée d’une Terre éternelle était généralement acceptée dans votre
temps, vous serez estomaqués d’apprendre qu’une fraction importante
des gens d’aujourd’hui croient qu’elle fut créée de toute pièce, deus ex
machina, il y a 6000 ans. Dans certains pays, c’est même plus de la moitié
des gens qui en sont convaincus, fondant leurs croyances sur différents
textes poétiques de la Bible, où l’on retrouve aussi votre œuvre. N’en
soyez pas offusqué, Vieux Sage !
Dans vos commentaires sur la nature, je vous sens un tenant du prin-
cipe d’uniformitarisme : les choses qu’on voit et observe sont le résultat
d’infimes changements cumulés au fil des temps, une élégante théorie
proposée par les géologues écossais James Hutton (1726-1797) et Charles
Lyell (1797-1875) sur la lenteur des phénomènes géologiques. La Terre, du
moins la croûte terrestre, est sujette à un processus de lente et constante
transformation. Vous auriez probablement fort aimé converser avec ces
sages.
II.14 « Le Sage a ses yeux à leur place. Mais l’insensé marche en l’obs-
curité. »
II.22 De fait, que reste-t-il à l’homme après tout le tracas et tout le
mouvement que son cœur se donne ici-bas ?
II.23 Tous ses jours ne sont que souffrance ; son travail est rempli de
chagrin ; la nuit, même, son cœur ne prend point de repos : et tout cela
pour rien !
V.15 Voilà bien le mal redoutable : que l’on doive partir comme on était
venu. Et quel profit rencontre-t-on, après s’être épuisé pour du vent,
V.16 après avoir passé toute sa vie dans l’ombre et dans le deuil, et le
chagrin extrême, et la souffrance, et l’amertume ?
Le sage et l’insensé : notre vieil ami Sénèque a écrit : « Sans la pratique de
la philosophie, l’âme est malade, et le corps lui-même, aussi vigoureux
10 Sur la science qui surprend, éclaire et dérange
soit-il, jouit de la santé des fous et des frénétiques5. » J’imagine qu’autant
de votre temps que de nos jours cette réflexion suscitait peu d’intérêt.
Comme bien des modes qui passent, nous avons récemment connu un
attrait accru pour la réflexion philosophique avec un sursaut de publi-
cation de livres de philosophie et même des cafés philosophiques.
Bède le Vénérable (vers 672 ou 673-735), moine anglo-saxon, fut un
éminent linguiste et historien du Moyen Âge. On le connaît pour sa
célèbre Histoire ecclésiastique du peuple anglais et pour des travaux d’as-
tronomie, en particulier son calendrier et ses calculs des marées pour
les ports côtiers du nord de l’Angleterre. Les tables de marées calculées
par Bède permettaient aux marins et aux pêcheurs locaux de prédire
l’intervalle entre le passage de la Lune au méridien et l’arrivée des hautes
marées. Bède fut un penseur original qui semble avoir tenu sur la vie
humaine un regard tolérant. On s’interroge sur son statut monacal, en
particulier sur son état marital ; car Bède remarquait avoir des difficultés
à prier lorsqu’il s’adonnait au « devoir conjugal dû à son épouse ».
Rejoignant votre propos, Bède a écrit une allégorie éclairante à propos
du caractère éphémère de la vie humaine. La vie, écrit-il, passe aussi
rapidement que l’oiseau qui entre dans une salle pour en ressortir à
jamais. « Lorsque comparée aux périodes de temps inconnues de nous,
Ô Roi, la vie présente des hommes sur terre est comme le vol d’un simple
moineau à travers la salle, où en hiver, vous êtes assis avec vos capitaines
et ministres. Entrant par une porte et sortant par l’autre, lorsque l’oiseau
est à l’intérieur à l’abri de la tempête hivernale, mais ce bref intervalle
de temps dans le calme est terminé à l’instant, quand il retourne dans
l’hiver d’où il est venu. La vie de l’homme est semblable, et de ce qui
suivra, ou de qu’il y avait avant, nous sommes totalement ignorants6. »
C’est un rappel invitant à garder les yeux à leur place et éviter les égare-
ments de l’insensé.
5. Sénèque, Apprendre à vivre, tome II, Lettres à Lucilius (choisies et traduites par
Alain Golomb), Arléa, 1992, Lettre XV, p. 27.
6. Bède le Vénérable, Ecclesiastical History of the English People, CreateSpace,
Independent Publishing Platform et Barnes and Noble, 2012.
Introduction 11
Mais tout cela et tout le tracas sont-ils pour rien, comme vous le
demandez brutalement ? La vie des humains a-t-elle un sens ? Beaucoup
prétendent avoir des réponses à ces questions ; la fonction des religions
est de donner la réponse, souvent simpliste et exclusive à ces questions. Je
pense que la science et la philosophie aident à donner un sens, peut-être
celui qu’on veut bien donner. Mais, en effet, tout cela est peut-être pour
rien, étant tous cantonnés dans notre microcosme perdu dans l’univers
gigantesque. Nous pourrions être balayés en un instant par un astéroïde
ou une comète qui croiserait l’orbite de la Terre au moment néfaste,
comme cela se produit en moyenne tous les 100 millions d’années. Nous
pouvons néanmoins nous réjouir d’être un curieux aboutissement des
prouesses aveugles de l’ADN qui ont mené à un être vivant doté non
seulement de compétence, mais aussi de compréhension, faisant de nous
un être assez unique – et dangereux – dans notre petite portion de la
Voie lactée. Pouvons-nous être le sage que vous envisagez avec les yeux
bien à leur place ? Ce n’est pas clair.
III.18 J’en ai conclu à part moi, touchant les hommes : « C’est que Dieu
veut les tenir loin et montrer qu’au fond ils sont pareils aux bêtes ! »
III.19 De fait, la destinée des hommes et celle des bêtes sont identiques :
comme celles-ci meurent, ceux-là meurent aussi ; ils n’ont tous qu’un
souffle-de-vie ; et les hommes n’ont aucune supériorité sur les bêtes,
mais tous ne sont que vanité.
Ces quelques phrases où vous considérez l’humain pareil aux bêtes,
Vieux Sage, sont comme un éclair et un coup de tonnerre dans un ciel
bleu. Le géant de la physiologie moderne Ivan Petrovitch Pavlov (1849-
1936), Prix Nobel de physiologie ou médecine de 1904, est connu pour
son programme d’expérimentation sur le système digestif des chiens et
leur conditionnement par les différents stimulus auxquels ils les soumet-
taient et par l’environnement de ses laboratoires7. Pavlov aimait dire que
ses chiens expérimentaux, qu’il aimait beaucoup, avaient des tempéra-
ments et des comportements semblables à ceux des humains, et que ceux
des humains étaient semblables à ceux de ses chiens. Votre remarque,
7. Daniel P. Todes, Ivan Pavlov, A Russian Life in Science, Oxford University Press,
2014.
12 Sur la science qui surprend, éclaire et dérange
cher Qohéleth, que les hommes et les bêtes sont égaux est vivifiante.
Aujourd’hui nous savons que nous sommes tous, humains, animaux
et plantes, fort similaires et issus des mêmes souches de vie ancienne.
En effet, la génétique moderne a démontré que ce que vous nommez
« qu’un souffle-de-vie » est proche de ce que nous appelons l’acide désoxy-
ribonucléique, ou ADN (chapitre 1). Cette extraordinaire macromolécule
est à la base de toutes les cellules, renfermant l’information génétique
de tout être vivant. Chacun de nous est fait de trois milliards de paires
de ce ruban de vie, le tout rassemblant environ 204 milliards d’atomes
individuels, oui les atomes, ces constituants indivisibles de la matière
imaginés par vos collègues de la Grèce.
La parenté, c’est-à-dire la similitude, entre les différents organismes
vivants est extraordinaire et troublante. Elle révèle des ancêtres com-
muns. Notre génome est loin d’être unique. Nous avons plusieurs des
gènes identiques à des gènes du riz ou du rhinocéros. Avec notre plus
proche cousin, le chimpanzé, nous partageons 96 % des mêmes gènes,
90 % de ceux de notre chatte et, plus étonnant, 60 % de ceux de la banane
que nous mangeons avec plaisir. Nous partageons avec tous ces orga-
nismes aussi petits que la mouche à fruit les gènes qui ordonnent le
rythme circadien (chapitre 2). Mais est-ce que tout cela n’est que vanité ?
Je ne le crois pas, car les prouesses et les inventions de cette machine
moléculaire qu’est l’ADN sont remarquables. Mais oui, il est vain de se
croire au-dessus des animaux et d’imaginer une suprématie qu’on ne
mérite d’ailleurs pas. Vous l’avez si bien dit, Vieux Sage, nous sommes
pareils aux bêtes. « Pareils aux bêtes », mais aussi différents d’elles : nous
faisons des choses qu’elles ne feront et ne sauront jamais faire : composer
des symphonies, écrire des livres…
VII.27 Voici ce que j’ai trouvé, tandis que pas à pas je poursuivais l’in-
telligence,
VII.28 que mon cœur a sans cesse cherchée sans l’atteindre : un homme
sur mille, je l’ai trouvé, mais une femme parmi la totalité de ces créa-
tures, je ne l’ai jamais rencontrée !
D’abord, à propos de la femme recherchée, votre commentaire contredit
celui plus loin dans votre texte où vous insistez sur l’importance de
Introduction 13
recherche des vrais plaisirs qui mène à une certaine plénitude ; la pré-
sence de la femme y apparaît importante (voir plus bas votre texte
IX.9). L’intelligence chez un homme sur mille et encore plus rare chez
la femme ? Vous êtes sévère. J’y reviens un peu plus loin.
VIII.17 J’ai embrassé du regard tout ce que Dieu fait, et j’ai dû recon-
naître que l’homme ne peut pas comprendre le plan de ce qui se déroule
sous le soleil. Il a beau faire effort pour chercher, il n’arrive pas à trouver,
et quand même le sage prétendrait savoir, il ne peut pas comprendre.
Ici, je ne suis pas du tout d’accord. Je défends que l’humain peut com-
prendre « le plan de ce qui se déroule sous le soleil ». Pour ce faire, les
mathématiques, la science et aussi la philosophie sont nos meilleurs
outils. Ce sont d’ailleurs vos contemporains qui habitaient l’Asie
mineure, l’Attique et l’Ionie de la Grèce antique qui mirent en branle le
mode de pensée et la méthode pour chercher, trouver et expliquer. Ce
fut la naissance de la science comme on la connaît aujourd’hui. Oui, le
sage peut prétendre savoir, sans faire appel aux dieux et en harmonie
avec le monde qui nous entoure. Dans plusieurs cas, ces savoirs aident
même à intervenir sur la nature et l’humain, pour le mieux ou pour le
pire (chapitre 7).
Il y a certes des choses impossibles à expliquer. Par exemple, pourquoi
y a-t-il quelque chose plutôt que rien ?8 Pourquoi le monde est-il comme
il est ? Ces questions ne sont pas nécessairement inappropriées, car elles
interrogent sur le monde et l’existence à un niveau différent. Mais les
spéculations vagues et les discussions stériles peuvent nous éloigner
d’une véritable compréhension.
IX.7 Allons ! Mange ton pain dans l’allégresse, et bois ton vin d’un cœur
plaisant, si Dieu a béni ton travail ;
IX.8 mets tout le temps des habits de fête ; n’épargne pas les parfums
pour ta tête ;
8. Leszek Kolakowski, Why is There Something Rather than Nothing ?, 23 Questions
from Great Philosophers, Basic Books, 2007.
14 Sur la science qui surprend, éclaire et dérange
IX.9 jouis de la vie avec la femme que tu aimes, tous les jours de vanité
que l’on t’accorde ici-bas ; c’est là ta part dans l’existence et dans tout
le tracas que tu te donnes sous le soleil !
Démocrite (c. 460-c. 370 av. J.-C.) et Épicure (342 ou 34-270 av. J.-C.),
philosophes grecs qui vous précédèrent, furent parmi les premiers à
décrire l’univers comme fait d’atomes et de vide. Leurs préoccupations
allaient au-delà des atomes. Ils promurent l’art d’être heureux. Épicure,
en particulier, cherchait à atteindre un mode de vie simple et détaché
dans une vie tranquille et heureuse, absente de souffrance et de peur. Il
vous rejoint dans cette recherche de l’allégresse et du bon vin, et de la vie
avec la femme qu’on aime tous les jours de vanité que l’on nous accorde.
Sénèque fut la voix de la sagesse contrant les dogmatismes. Comme vous,
il visait l’acceptation du destin et le contrôle de soi.
Michel de Montaigne (1533-92), philosophe de la Renaissance qui œuvra
aussi au sein du Parlement de Bordeaux, fut un grand écrivain que vous
avez certainement inspiré. Pour Montaigne, le bonheur du sage est
d’aimer et de goûter pleinement la vie : « C’est une perfection absolue
et pour ainsi dire divine que de savoir jouir loyalement de son être9. »
Lisant son œuvre principale, Les Essais, on reconnaît des éléments de
votre philosophie et votre regard perspicace, quelque peu cynique et
moqueur à propos de l’humain et de ses prétentions. Un de ses essais
les plus longs est justement Sur la vanité.
IX.12 Personne ne connaît son heure, mais, comme les poissons au filet
et les oiseaux au piège, ils sont attrapés eux aussi au temps mauvais
qui tombe sur eux tout à coup…
De nos jours, la moyenne des gens atteignent un âge relativement avancé
si l’on compare à votre époque. Toutefois, plusieurs d’entre nous sont
attrapés prématurément, donnant parfois l’impression que peu meurent
simplement de vieillesse, c’est-à-dire d’usure ou de faille de leurs corps
usés. Pour Montaigne, « il semble que La Fortune quelquefois guette à
point nommé le dernier jour de notre vie pour montrer qu’elle a le pou-
voir de renverser en un moment ce qu’elle avait bâti durant de longues
9. Michel de Montaigne, Les Essais, III, 13, Quarto Gallimard, 2009, p. xxx.
Introduction 15
années10 ». Curieusement, bien des gens désireraient mourir centenaires,
mais peu acceptent la vieillesse et sa condition. Et c’est encore Montaigne
qui se moque : « Le jeune doit faire ses préparatifs, le vieux en jouir,
disent les sages. Et le plus grand défaut qu’ils remarquent dans notre
nature, c’est que nos désirs rajeunissent sans cesse11. » D’ailleurs, nous
cherchons toujours les voies pour mieux traiter les personnes âgées et
nous occuper d’elles.
XII.13 Voici donc la fin de mon discours : tout étant bien compris, crains
Dieu et garde ses préceptes. Cela, tout homme peut le faire !
Certains ont prétendu que le roi Salomon (970-931 av. J.-C.) avait écrit
votre texte sous le nom de plume Qohéleth. Mais d’aucuns ont montré
que ce roi fut plutôt vain et vire-capot, et que sa réputation est surfaite.
Dans le verset 1 du Livre des rois 11 :3, il est dit que Salomon « eut sept
cents princesses pour femmes et trois cents concubines ; et ses femmes
détournèrent son cœur ». Cela ne semble pas avoir été votre style de vie.
Aujourd’hui les experts s’entendent que vous avez utilisé une fiction
littéraire courante pour mieux transmettre votre jugement sur la vie et
l’univers. D’ailleurs, votre propre plume est bien rappelée au cours du
texte par les discrets « disait le Qohéleth12 ». On a aussi établi que votre
texte est près de 700 ans plus récent que le règne de Salomon, ce qui clôt
le débat sur l’authenticité de votre œuvre, Vieux Sage. Vous êtes bien
l’auteur de ces remarquables pensées.
Laissez-moi, cher Qohéleth, partager une inquiétude. Les gens qui
comme vous ont tenu des discours clairs et simples, mais offensant
les âmes sensibles, ont souvent subi ostracisme et rejet de leurs pairs.
Notre célèbre ancêtre, le philosophe grec Socrate (vers 470-399 av. J.-C.),
fut ainsi forcé au suicide. Sénèque connut un sort semblable, acculé au
suicide par son maître infâme. Plus récemment, Baruch Espinoza ou
Spinoza (1632-1677), un des plus grands philosophes de l’histoire et
opposant déterminé aux théologiens monothéistes et créationnistes, fut
excommunié et expulsé d’Amsterdam par les notables juifs peu de temps
10. Michel de Montaigne, op. cit., p. 97.
11. Michel de Montaigne, op. cit., p. 851.
12. Jean Bottéro, op. cit., p. 299.
16 Sur la science qui surprend, éclaire et dérange
après qu’on eut tenté de le poignarder13. On ignore votre sort, mais je
souhaite que vous n’ayez pas connu une fin cruelle.
Entendons-nous, Vieux Sage, et faisons l’éloge de la curiosité. Dans
le magnifique film Le septième sceau du réalisateur suédois Ingmar
Bergman (1918-2007), le chevalier Antonius Block, de retour des croi-
sades, fait un pacte avec la Mort qu’il a rencontrée sur une plage déserte
de la Suède médiévale. Les deux personnages ont un accord pour retarder
l’échéance de cette mort et permettre à Antonius d’obtenir des réponses
à des questions qu’il se pose depuis toujours. Le chevalier philosophe
bombarde la Mort, personnage diabolique et parfois sympathique, de
questions métaphysiques. La Mort viendra chercher Antonius seulement
quand ce dernier perdra la partie de jeu d’échecs qui se déroule majes-
tueusement tout le long du film. À un moment donné, la Mort demande
brusquement à Antonius
— Ne cesseras-tu jamais de poser des questions ?
Et Block de répondre :
— Non, jamais je n’arrêterai.
Le scientifique est comme Antonius, il n’arrêtera jamais de poser des
questions. Sur le monde, sur la nature, sur la vie, sur l’homme. Il n’arrê-
tera jamais de poser des questions parce qu’il est habité par une insatiable
soif de comprendre et de savoir. Par une inextinguible curiosité.
Avec mes humbles salutations de sagesse, votre collègue du xxie siècle
continue d’explorer « le plan qui se déroule sous le soleil ».
13. Robert Misrahi, Spinoza, une philosophie de la joie, Éditions Médicis-Entrelacs,
2005, p. 17.
Partie I
LA SCIENCE POUR
COMPRENDRE LE MONDE
1
La science qui bouge
L’histoire des sciences est souvent une caricature
de ses reconstructions rationnelles,
les reconstructions rationnelles sont souvent
des caricatures de l’histoire réelle.
Imre Lakatos1
Qu’est-ce que la science ? L’objectif des scientifiques est de comprendre
comment fonctionne le monde2. Le physicien théoricien Carlo Rovelli
la décrit admirablement : « La science naît de ce que nous ne savons pas
(qu’y a-t-il derrière la colline ?) et de la mise en doute de tout ce que nous
croyons savoir, mais qui ne résiste pas à l’épreuve des faits, ou à une
analyse critique intelligente3. » La science s’élève à partir de ce qu’on ne
connaît pas encore et bouleverse parfois ce qu’on pense déjà connaître.
La science modifie continuellement notre vision du monde et de notre
place dans l’univers. Et l’application des savoirs scientifiques, qui modifie
nos façons de vivre et d’interagir avec notre environnement, a des réper-
cussions énormes.
1. Imre Lakatos, Histoire et méthodologie des sciences. Programmes de recherche et
reconstruction rationnelle, Presses universitaires de France, 1994, p. 241.
2. Alain Rey (direction), Dictionnaire historique de la langue française, Diction-
naires Le Robert, 1992, p. 1895-1896.
3. Carlo Rovelli, Anaximandre ou la naissance de la science, Dunod, 2015, p. 111.
20 Sur la science qui surprend, éclaire et dérange
Le changement qui dérange
Cela dépend du contexte social et historique, mais l’humain est pro-
fondément résistant au changement. Cette résistance fait probablement
partie de notre nature, un acquis de l’évolution et un facteur de stabilité
dans notre propre fonctionnement et celui de nos sociétés. On intègre
le changement lent, celui qu’on perçoit à peine, mais nous n’aimons pas
que les choses bougent trop rapidement. Quand un bouleversement se
produit, on parle de catastrophe ou de révolution, selon que l’on réfère à
un évènement naturel ou à une transformation sociale ou politique. Cette
dernière peut se faire en coupant des têtes, en allumant les brasiers de
spectaculaires autodafés, le tout menant à de profondes transformations
sociétales. Pourtant, même dans ces crises, les idées établies et les com-
portements acquis sont rarement affectés. Par exemple, une catastrophe
arrive ; on parle de besoin de changer l’aménagement urbain ; une année
plus tard, on revient aux anciennes habitudes. Sur le plan des idées, cette
résistance est tout aussi présente. Tout le monde apprend à la petite école
que la Terre tourne sur elle-même et qu’elle est en révolution autour du
Soleil. Pourtant le tiers des gens croient toujours que c’est le Soleil qui
tourne autour de la Terre, car on voit bien le Soleil et les étoiles se lever
et se coucher quotidiennement.
Notre conservatisme inné colore l’ambivalence de plusieurs vis-à-vis de
la science. Car bien des concepts et des découvertes scientifiques cham-
bardent l’ordre établi. On a peine à les avaler, surtout lorsqu’ils semblent
remettre en question une autorité religieuse, déstabiliser un ordre poli-
tique ou déboulonner la centralité de l’humain dans l’univers. Citons en
exemples l’opposition farouche de l’Église de Rome à l’héliocentrisme
au xviie siècle et les débats incessants sur la théorie de l’évolution par
sélection naturelle depuis la publication de L’origine des espèces par le
biologiste anglais Charles Darwin (1809-1882)4. Ces deux épisodes bien
connus démontrent que nous n’aimons pas que les conceptions établies
changent, même si elles réfèrent à des visions du monde qui n’ont que
peu d’influence sur la vie quotidienne. Ces deux cas montrent aussi que
les pouvoirs en place aiment garder le contrôle des âmes et des cerveaux.
4. Yves Gingras, L’impossible dialogue : sciences et religions, Boréal, 2016.
La science qui bouge 21
On y voit d’ailleurs que le conservatisme peut s’exprimer différemment
selon qu’on appartienne à l’Église catholique ou au protestantisme d’une
secte puritaine.
Dans ce livre, je décrirai plusieurs exemples tirés de l’histoire des sciences
où l’intuition, qu’elle soit innée ou acquise, est mise en déroute par les
révélations de la science. La philosophie qui nous habite plus ou moins
consciemment et qui oriente nos conceptions du monde transforme cette
déstabilisation en prise de position. Ainsi « mobilistes », qui favorisent
le changement, et « fixistes », qui endossent la stabilité fondamentale
des choses, s’affrontent de manière récurrente dans l’histoire du monde
et celle des sciences. Tant le public que les scientifiques eux-mêmes se
voient entraînés dans ces vagues et se positionnent dans des camps qui
peuvent paraître opposés, au moins pour un temps.
La science jouit d’un grand respect. Si l’on regarde de plus près, qu’est-ce
qu’on aime et révère ? Ce sont d’abord les corpus bien établis des faits et
des concepts, ceux des livres d’enseignement, des dictionnaires et des
encyclopédies : ce sont les savoirs structurés acquis il y a des décennies,
voire des siècles, difficiles à remettre en question. L’autre volet du respect
des savoirs scientifiques est ce que j’appelle la dimension sportive de la
science : des chercheurs annoncent avec fanfare la découverte d’une nou-
velle exoplanète ou d’un nouveau gène avec ses promesses mirobolantes.
Dans une entrevue radiophonique à l’émission Les années-lumière, à la
radio de Radio-Canada, le sociologue des sciences Yves Gingras a décrit
cette dimension comme le « jovialisme scientifique ». Dans un premier
temps, on nous présente une liste de concepts et de faits bien établis :
nous avons affaire à une science statique. Dans l’autre, c’est comme si les
chercheurs étaient des magiciens qui ouvrent les tiroirs et en tirent des
surprises, comme le lapin sorti du chapeau, pour nous épater.
Ce que je vais montrer dans ce chapitre, c’est que ces visions de la science
sont très partielles, parfois fausses, surtout celle du magicien. Elles ne
correspondent pas du tout aux activités des chercheurs ni au développe-
ment des idées scientifiques. La démarche scientifique est complexe ; elle
est souvent longue et difficile, semée d’embûches. Elle est beaucoup plus
prosaïque que le laissent croire les communiqués de presse et les man-
chettes de grands médias. Un projet de recherche part d’une intuition
22 Sur la science qui surprend, éclaire et dérange
qui jaillit durant un concert ou une insomnie, ou lors de discussions avec
collègues et étudiants, ou encore à la suite d’une conférence particulière-
ment éclairante. La démarche qui s’ensuit est marquée de tâtonnements,
de maints petits pas de côté et vers l’avant dans un peu de confusion et
d’incertitude. Au départ, on n’a nulle idée de l’endroit où l’on va aboutir
en fin de course. Pour décrire ces parcours, j’aime l’analogie de l’as-
cension d’une montagne inconnue dont le sommet est plongé dans le
brouillard, mais dont le camp de base est bien établi.
Dans l’ascension d’une montagne inconnue, le camp de base est le corpus
des connaissances acquises ; l’ascension souvent dans le brouillard est
l’activité de recherche, et la conquête du sommet est la découverte. Le
chemin est marqué d’incertitudes et de contradictions qui suscitent des
débats et désarçonnent un observateur délicat. Face à toute démarche de
recherche, les collègues peuvent être sceptiques – ce qui est sain, d’au-
tant plus que l’ordre établi est remis en question et que la nouvelle idée
ou les premiers résultats paraissent à première vue farfelus (chapitre 2).
Convergence et accord viennent souvent après une longue odyssée où
maints préjugés, qui furent utiles en leur temps, sont à abattre. Cette
facette de la recherche scientifique a un envers. Bien des critiques uti-
lisent cette avancée en tâtonnement et en bouleversement pour affirmer
que la science est un mode incertain de connaissance et qu’on doit s’en
méfier. C’est un enjeu de taille sur lequel je reviendrai en deuxième partie
du livre (chapitres 5 à 7).
J’aborde ci-dessous cinq exemples historiques qui illustrent la nature et
la réalité d’une science intrinsèquement dynamique. Le premier exemple
est celui d’une cytogénéticienne qui travailla sur une hypothèse révolu-
tionnaire, mais qui se retrouva dans l’ombre durant une bonne partie
de sa carrière. Les quatre autres exemples traitent aussi de découvertes
relativement récentes qui ont impliqué soit plusieurs individus, soit de
grandes équipes. Ces exemples, et il y en aurait bien d’autres, illustrent
une science qui bouge – qui tâtonne, mais qui pousse les frontières avec
l’inconnu.
La science qui bouge 23
Barbara McClintock, la science silencieuse
Les gènes sont les unités héréditaires de base, le support de l’information
génétique ; ils entrent dans la composition des chromosomes, d’où le nom
génome. La cytogénétique est une discipline de la génétique qui étudie
les liens entre les chromosomes, constitués des gènes, et le fonctionne-
ment des cellules. Barbara McClintock (1902-1992) fut une cytogénéti-
cienne américaine discrète qui consacra sa vie à l’étude des gènes du maïs
(figure 1.1). Elle obtint le prix Nobel de physiologie ou médecine en 1983
pour sa démonstration que les séquences d’ADN peuvent changer de
position dans le génome, créant ou renversant des mutations. Née à Hart-
ford au Connecticut, elle fit ses études en agriculture et en botanique,
obtenant un doctorat à l’Université Cornell aux États-Unis en 1927.
FIGURE 1.1 La cytogénéticienne américaine Barbara McClintock.
Photo : Smithsonian Institution/Science Service ; Restored by Adam Cuerden.
24 Sur la science qui surprend, éclaire et dérange
Comme jeune femme entrant dans ce champ de recherche, elle fut une
pionnière. Barbara McClintock le raconte : la plupart des étudiants
étaient intéressés à une carrière en agriculture, et le seul cours de géné-
tique alors offert avait peu de preneurs. Elle s’y plongea. Sa passion pour
le maïs semble avoir démarré avec sa découverte d’un plant de maïs
présentant trois jeux complets de chromosomes, un triploïde, au lieu de
deux jeux normalement présents (diploïde). Elle avoue avoir été fascinée
par les chromosomes puisqu’ils étaient alors considérés comme porteurs
des « facteurs héréditaires » (on ignorait alors le rôle de l’ADN). McClin-
tock croisa des plants diploïde et triploïde, produisant des rejetons avec
surplus de chromosomes, c’est-à-dire des plants trisomiques. Ces descen-
dants lui permirent d’établir différentes lignées de maïs et d’en explorer
les origines. Elle travailla la majeure partie de sa vie au Département de
génétique du Carnegie Institution of Washington, à Cold Spring Harbor
dans l’État de New York.
Explorant les chromosomes à partir des années 1920, McClintock s’at-
tacha alors à déterminer comment ils évoluaient durant la reproduction
du maïs et comment se conservait l’information génétique. La voie qu’elle
emprunta ne fut pas facile. Bien avant les techniques de séquençage d’au-
jourd’hui, elle créa une carte génétique du maïs, ayant mis au point une
technique de microscopie appropriée pour ce travail. Dans les années
1940 et 1950, elle démontra que les gènes avaient la capacité d’activer ou
de réduire au silence l’information génétique d’une génération de plants
à la suivante. Elle reçut alors plusieurs prix prestigieux et fut nommée
à la National Academy of Sciences des États-Unis en 1944. Puis, elle fit
face à un mur d’incompréhension ; son chemin de croix commença.
Pourquoi ? Bien avant la découverte que l’ADN était la molécule porteuse
de l’information génétique, elle proposait que le génome d’un organisme
n’était pas une entité fixe dans le temps ; il était sujet à l’altération et au
changement. Ce concept d’instabilité, véritable transmutation, déran-
geait beaucoup et suscita le scepticisme des collègues. Son concept était
révolutionnaire. Au point qu’en 1953 elle cessa de publier et de donner
des conférences. Elle continua néanmoins son programme de travail avec
détermination, poursuivant sa recherche par l’étude de la cytogénétique
et de l’ethnobotanique des différentes lignées de maïs d’Amérique du
Sud.
La science qui bouge 25
Lentement, le rôle d’éléments transposables, ou transposons, capables
de changer de position de manière autonome dans un génome, fut tenu
pour valable, ce que prônait McClintock. Ces éléments transposables
jouent un rôle fondamental dans les génomes des organismes complexes.
Ce sont des séquences d’ADN qui sont le carburant de la sélection natu-
relle, moteur de l’évolution des êtres vivants et de la biodiversité. Son
idée de transposons (jumping genes) fut acceptée et sa contribution fon-
damentale reconnue. Le prix Nobel lui fut attribué en 1983 pour cette
découverte clef qui avait tant dérangé sa communauté de chercheurs.
En 1973, Barbara McClintock écrivait à un collègue : « Durant toutes
ces années, j’ai constaté qu’il était difficile sinon impossible de faire
comprendre à une autre personne la nature de mes suppositions tacites
quand, à travers des expériences particulières, j’en devenais consciente.
Cela fut péniblement évident lors de mes tentatives durant les années
1950 de convaincre les généticiens que l’action des gènes devait être et
était contrôlée naturellement. Il m’est maintenant également difficile de
reconnaître la fixité des suppositions qu’eurent plusieurs personnes sur
la nature des éléments contrôleurs du maïs et de leur mode de fonction-
nement. Il faut attendre le bon moment pour déclencher un changement
conceptuel5. » Comme pour bien de ses prédécesseurs avec des idées qui
bousculent, il fallait que les astres soient correctement alignés pour que
l’idée révolutionnaire soit acceptée. Barbara McClintock fut couverte de
récompenses à partir des années 1970.
La leçon : rappelons que Barbara McClintock travaillait sur l’hérédité
avant qu’on mette en évidence le rôle clef de l’ADN, et avant l’éclosion
de cette nouvelle science que devint la génétique au milieu du xxe siècle.
Les recherches de Barbara McClintock étaient avant-gardistes et ses
résultats furent considérés comme trop radicaux par ses collègues. Les
transposons n’avaient aucun sens pour eux et le travail de McClintock
fut ignoré pendant des décennies. Ce fut long et pénible pour la cher-
cheuse. Avec la révélation de la structure de l’ADN et la confirmation
de son rôle dans l’hérédité dans les années 1960, d’autres chercheurs
5. Barbara McClintock, Letter from Barbara McClintock to Maize Geneticist Oliver
Nelson, 1973 (traduction par l’auteur).
26 Sur la science qui surprend, éclaire et dérange
purent vérifier sa méthode et confirmer la validité de l’entièreté de son
programme de recherche.
La tectonique des plaques, mobilistes
contre fixistes
L’expression « avoir les pieds bien à terre » signifie le plus souvent la
solidité et la stabilité. Pourtant, la Terre comme planète bouge. Elle
tourne sur elle-même, comme l’a proposé initialement le philosophe
grec Philolaus (vers 470-385 av. J.-C.), à environ 1600 km/h à l’équateur
terrestre6. La Terre orbite autour du Soleil à 110 000 km/h et le système
solaire file autour du centre de la Voie lactée à 828 000 km/h. Notre globe
terrestre lui-même est loin d’être inerte ; il est en perpétuelle mutation.
Les continents et les océans, qu’on nous a enseignés depuis la petite
enfance comme étant les symboles de la solidité et de la permanence,
se brisent et se reforment continuellement. Ils se déplacent comme de
grands radeaux à la surface de la Terre, en même temps que les océans
s’ouvrent et se referment. La réalisation et la mise en évidence de ces
mouvements, qu’on appelle aujourd’hui tectonique des plaques, illustrent
de plein fouet la résistance à laquelle les nouveaux concepts scientifiques
font souvent face. Avec la tectonique, le concept était révolutionnaire.
Son histoire évoque éloquemment un combat entre les « fixistes » et les
« mobilistes » sur la stabilité de la croûte terrestre et la permanence des
continents7. Pourtant l’idée elle-même de la dérive était très ancienne.
Résumons d’abord quelques observations. On sait aujourd’hui que les
continents flottent parce qu’ils sont constitués de roches moins denses
que les laves solidifiées des fonds océaniques et que le magma plastique
du manteau8. Convoyés lentement par les grandes cellules de convec-
tion de magma de l’intérieur de la Terre, les continents et les océans
6. Philolaus, philosophe pythagoricien, aurait été un des premiers à proposer que
la Terre n’était pas le centre de l’univers.
7. Martin J. S. Rudwick, Earth’s Deep History, How It Was Discovered and Why It
Matters, University of Chicago Press, 2014, p. 317-323.
8. La densité moyenne des roches de la croûte terrestre est de 2,7 g/cm3, celle des
fonds marins 2,9 g/cm3 et celle du manteau 3,3 g/cm3.
La science qui bouge 27
se fracturent et se reforment sur une échelle de temps de l’ordre de 100
millions d’années. La majeure partie des basaltes qui constituent le plan-
cher des océans est donc relativement jeune et se recrée sans cesse par
l’extrusion de nouvelles roches au travers des dorsales mid-océaniques.
Ces dorsales sont de véritables cordillères sous-marines qui courent sur
des milliers de kilomètres au fond des océans. Leurs plus hauts som-
mets en émergent de manière éparse : dans l’Atlantique Nord, ce sont
les Açores et l’Islande.
On attribue au cartographe flamand Abraham Ortelius (1527-1598) l’idée
première d’un processus de fracture des continents, suivie de leur dérive
vers les positions actuelles, un concept qu’il présenta dans son ouvrage
Thesaurus Geographicus de 1596 (figure 1.2). À mesure que la qualité
des cartes géographiques progressa, d’autres observateurs remarquèrent
que les continents de chaque côté de l’Atlantique paraissaient s’imbriquer
l’un dans l’autre, en particulier la côte orientale du Brésil et la côte occi-
dentale de l’Afrique (figure 1.3). L’idée d’emboîtement revint à nouveau
lorsqu’elle fut proposée par le savant anglais Francis Bacon (1561-1626) en
1620. Elle fut reprise par le naturaliste et explorateur allemand Alexandre
von Humboldt (1769-1859) en 1801, et par le géographe français Antonio
Snider-Pelligrini (1802-1885) en 1858. Mais aucun de ces chercheurs ne
pouvait aller au-delà de simples arguments qualitatifs, souvent purement
spéculatifs, s’inspirant du découpage des bordures océaniques9. Il est à
la fois étonnant et remarquable que la démonstration irréfutable de la
tectonique des plaques et son acceptation générale eurent lieu dans les
années 1960, c’est-à-dire il y a moins de soixante ans, après des décennies
de spéculation et de débats. Voyons les détails de cette histoire.
En 1872, le célèbre géologue écossais Charles Lyell écrivait : « Les conti-
nents, bien qu’ils aient été permanents pendant des périodes géologiques
entières, se déplacent complètement au cours des âges10. » L’opposition
9. Une proposition saugrenue pour expliquer l’emboîtement des marges continen-
tales fut que la Terre est en expansion lente et continuelle. C’est une idée qu’on
peut réfuter sur la base que le moment d’inertie de la Terre n’a pas changé depuis
620 millions d’années, alors que les continents et les océans ont subi de complètes
transformations.
10. Charles Lyell, Principles of Geology, John Murray, 1872, p. 258.
28 Sur la science qui surprend, éclaire et dérange
FIGURE 1.2 Portrait du géographe flamand Abraham Ortelius par Peter Paul Rubens
(1633). Musée Plantin-Moretus.
fut vive, en particulier de la part du géologue américain James Dwight
Dana (1813-1895). C’était le début d’un affrontement entre « fixistes »
La science qui bouge 29
FIGURE 1.3 Reconstruction du supercontinent Amérique-Groenland-Europe-Afrique.
Source : Jacques Kornprobst, selon Bullard, E., Everett, J.E. and Smith, A.G., The fit of the
continents around the Atlantic. Philosophical Transactions of the Royal Society, A, 1965,
vol. 258, no 1088, p. 41-51.
30 Sur la science qui surprend, éclaire et dérange
américains et « mobilistes » britanniques et européens11. Dana défendait
âprement la théorie de la permanence : les continents ont pris leur forme
et position dans les temps primordiaux de la Terre et rien n’a bougé
depuis lors.
Ce fut le géophysicien et météorologiste polaire allemand Alfred Wegener
(1880-1930) qui relança l’idée hérétique en 1912. Son mérite est d’avoir
reproposé la dérive à l’aide d’une théorie plus complète que l’avaient
énoncé ses prédécesseurs ; Wegener les citait d’ailleurs abondamment.
Comme preuve, il montra que les roches sédimentaires de l’Afrique du
Sud, de l’Australie, de l’Antarctique et de l’Amérique du Sud abritaient
des fossiles des mêmes espèces de reptiles et plantes anciennes, et mon-
traient le même âge tel qu’il était inscrit dans leurs strates géologiques
identiques de part et d’autre des océans. De plus, il identifia d’anciens
dépôts glaciaires à l’équateur, dont l’origine exigeait une explication
extraordinaire. Pour Wegener, c’était clair : les positions des continents
n’étaient pas immuables. Il asseyait la viabilité physique de son argument
sur la proposition qu’avait mise de l’avant l’ingénieur et mathématicien
irlandais John Perry (1850-1920) en 1895 : l’intérieur de la Terre était
fluide et le mouvement de grandes cellules faisait bouger les continents.
Wegener proposa que les continents actuels étaient le résultat de la frag-
mentation d’un ancien continent, la Pangée, dont ils se fissurèrent pour
glisser vers leurs positions présentes. L’idée frappa un mur d’opposition
farouche. On n’aimait pas le concept et son promoteur paraissait trop
hétérodoxe. Premier handicap de Wegener : il n’était pas géologue et il
était clair que son argumentation manquait de rigueur.
Objection immédiate des « fixistes » : ces similitudes des espèces de
part et d’autre des océans pouvaient s’expliquer par des barres de terre
aujourd’hui disparues. L’exemple contemporain le plus visible étant
l’isthme de Panama qui relie l’Amérique centrale à l’Amérique du Sud.
Les espèces pouvaient migrer ainsi sur de grandes distances. Wegener
fut aussi incapable d’élaborer un mécanisme crédible pour actionner
les dérives et les collisions de ces immenses masses, d’autant plus qu’il
11. Noami Oreskes, The Rejection of Continental Drift, Theory and Method in Ame-
rican Earth Science, Oxford University Press, 1999.
La science qui bouge 31
estimait la vitesse de leur déplacement à 250 cm par an (elle est mainte-
nant mesurée à près de 2,5 cm par an, soit cent fois plus faible). Wegener
périt tragiquement avec son compagnon, le jeune Inuit Rasmus Vil-
lusen, lors d’une expédition au Groenland en novembre 1930. Il aurait
pu connaître son heure de gloire s’il avait vécu jusqu’à 85 ans.
La proposition de Wegener fut donc rejetée et l’idée connut un assez long
crépuscule. Le géologue britannique Arthur Holmes (1890-1965), connu
pour sa détermination de l’âge de la terre par datation radiométrique,
devint le nouveau champion de la théorie de la dérive12. En 1931, il pro-
posa que le manteau terrestre était plastique, c’est-à-dire déformable à
grande échelle ; le manteau terrestre est constitué de grandes cellules qui
bougent et dissipent la chaleur générée par les éléments radioactifs du
centre13. Ces cellules montent vers la surface en dissipant leur énergie.
Il en publia une théorie complète en 1944. Mais jusqu’aux années 1950
l’hypothèse fut tout simplement ignorée, voire ridiculisée, tant par les
physiciens que par les géologues, surtout américains. Comment faire
bouger d’aussi colossales quantités de roche à peine malléable ?
Les géophysiciens qui chevauchaient les deux disciplines de la géo-
logie et de la physique entrèrent alors en action. Utilisant les données
de multiples stations séismiques, l’Américain Jack Oliver (1923-2011)
établit un lien entre les zones de grande séismicité, les grandes mon-
tagnes comme la cordillère des Andes et les montagnes Rocheuses, et les
transitions des bordures continentales avec les océans. Dans ces zones,
qu’on appelle maintenant zones de subduction, le plancher océanique en
mouvement s’enfonce sous le continent dont il soulève la bordure. Ces
mouvements génèrent de grandes zones de stress, qui en relâchement
produisent des tremblements de terre. À plus long terme, d’immenses
chaînes de montagnes ou cordillères s’élèvent (figure 1.4). Oliver poussait
fort, mais, comme pour Barbara McClintock, les astres s’alignaient pour
12. La datation radiométrique est une méthode de chronologie absolue qui utilise les
demi-vies de certains éléments radioactifs, c’est-à-dire le temps qu’il faut pour
que la moitié des atomes d’un radioélément se transforment en un autre élément
chimique. Le carbone 14 a une demi-vie de 5734+/-40 ans. Il se désintègre dans
l’isotope stable d’azote 14 avec l’émission d’un électron et d’un antineutrino.
13. La radioactivité avait été découverte en 1895 et était bien comprise en 1931
(chapitre 2).
32 Sur la science qui surprend, éclaire et dérange
une acceptation de l’idée révolutionnaire. Les arguments devenaient
convaincants et l’écoute se fit plus attentive et ouverte.
FIGURE 1.4 Mappemonde montrant les épicentres de plus de 358 000 tremblements
de terre ayant eu lieu entre 1963 et 1998. Les épicentres de tremblement de terre
(les points noirs) sont concentrés aux dorsales mid-océaniques et dans les zones
de subduction en bordure des continents. Source : NASA.
Et ce fut la révolution tectonique des années 1960. L’étude du magné-
tisme des roches anciennes fournit une clef précieuse aux mobilistes. Les
minéraux comme la magnétite sont de petits aimants ; ils gèlent sur place
lorsque les laves se solidifient. Lors de leur formation, certains minéraux
des roches volcaniques et sédimentaires enregistrent donc l’orienta-
tion du champ géomagnétique local. Par exemple, pour des roches à
l’équateur, on enregistre un angle d’inclinaison parallèle à la surface de
la Terre ; aux pôles, l’angle est vertical, avec une variation progressive
d’angle entre les deux latitudes. Cet angle est conservé dans les roches
tant qu’elles ne fusionnent pas à nouveau. L’angle mesuré aujourd’hui
entre le champ rémanent des roches et la verticale donne une bonne
indication de la latitude à laquelle cette roche s’est formée.
Le géophysicien britannique Stanley K. Runcorn (1922-1995) et son col-
lègue canadien Edward A. Irving (1927-2014) montrèrent que les laves
émergeant des dorsales mid-océaniques se solidifiaient et gardaient en
mémoire la direction et la force du champ géomagnétique de l’époque
de leur formation. Ces roches étaient entraînées latéralement vers les
continents adjacents par le mouvement de tapis roulant du plancher océa-
nique. Ce mouvement de glissement à partir des dorsales vers les bordures
La science qui bouge 33
océaniques est régulier dans le temps. Runcorn et Irving mesurèrent l’âge
des roches et confirmèrent que plus les roches étaient éloignées de la
dorsale, plus elles étaient vieilles. Ils notèrent aussi des renversements
complets de la direction du champ magnétique terrestre. L’âge des roches
permettait de dater aussi les bascules du champ géomagnétique et la
vitesse de déplacement du fond marin. Ce travail gigantesque mena à
une des preuves les plus convaincantes que les fonds océaniques étaient
dynamiques et que les continents se déplaçaient. Mais ce ne fut pas un
passage aisé pour le jeune Irving. En 1954, il vit sa thèse de doctorat
sur le paléomagnétisme et la tectonique refusée. Ses examinateurs, qui
n’étaient pas familiers avec le domaine, ne purent reconnaître le mérite
de son travail. Irving décrocha néanmoins un poste en Australie et, plus
tard, il joignit la Commission géologique du Canada.
Plusieurs géophysiciens se mirent à la tâche d’établir comment les conti-
nents se déplaçaient, et les océans se créaient pour ensuite disparaître.
Comment fonctionne cette gigantesque machine naturelle ? L’énergie
thermique générée par les éléments radioactifs de l’intérieur est la source
principale de chaleur qui maintient le cœur de la Terre liquide et garde
le manteau plastique14. La simple conduction thermique est insuffisante
pour transférer l’énergie ; la convection se met alors en place comme
lorsque vous faites bouillir de l’eau, les bouillons se mettent en mouve-
ment lorsque la température de l’eau devient élevée. À l’intérieur de la
Terre, les bouillons correspondent aux grandes cellules qui se déplacent
à faible vitesse. Mais ces masses déplacées sont gigantesques, et leurs
mouvements ne sont significatifs que sur plusieurs millions d’années.
Tout cela est d’une force inimaginable. Non seulement les montagnes
s’élèvent, mais les continents se meuvent. Lorsqu’ils entrent en collision,
ils génèrent volcans et tremblements de terre ; un bel exemple est la colli-
sion entre le continent indien et la plaque eurasienne formant les Hima-
layas ; un autre est celui de la plaque de Nazca de l’est du Pacifique qui
entre sous la côte occidentale de l’Amérique du Sud. Les jeunes plaques
peuvent se déplacer à des vitesses de 4 à 10 cm par an ; ce n’est pas rapide,
mais cela fait 10 000 km en 100 millions d’années ! On a recensé près
14. Le noyau de la Terre a une température estimée à 5070 °K.
34 Sur la science qui surprend, éclaire et dérange
de 20 océans anciens, aujourd’hui disparus, les plus connus étant les
paléo-océans Téthys et Iapetus. Je rappelle que c’est la chaleur générée
par les désintégrations des radioéléments de l’intérieur de la Terre qui
active ce grand manège ; la radioactivité naturelle en est en quelque sorte
le carburant. La production et l’émergence de cette chaleur sont mani-
festes aux « points chauds » où le magma perce le fond marin, comme
à Hawaii. L’archipel hawaiien est composé de 132 îles, atolls, coraux et
monts sous-marins qui s’étendent sur 2 500 km pour constituer la chaîne
sous-marine Empereur. Le point chaud est fixe à l’intérieur de la Terre et
la plaque bouge. Chaque île semble plus vieille au fur et à mesure qu’on
se déplace vers le nord-ouest du Pacifique. Cette séquence permet de cal-
culer le mouvement de la plaque océanique Pacifique vers le nord-ouest.
Plus récemment, les mesures bathymétriques effectuées par plusieurs
navires océanographiques ont cartographié avec plus de précision les
profondeurs océaniques et les marges des plateaux continentaux repré-
sentant l’extension des continents sous les mers. Les nouvelles cartes
marines montrent que les bordures des continents actuels ainsi définies
s’emboîtent encore plus précisément les unes les autres que le laissent
paraître les zones émergées (figure 1.3).
Complétons l’analyse de cet épisode de découverte. L’absence de propo-
sition d’un mécanisme pour actionner les continents et les fonds océa-
niques ne pouvait pas être la raison déterminante de refus de l’idée.
Lorsque les épisodes de glaciations séculaires de l’histoire de la Terre
furent mis en évidence au xixe siècle, le phénomène fut bien accepté. Ce
fut avant que les processus physiques, tel le forçage par les paramètres
astronomiques, furent démontrés de façon convaincante par le mathé-
maticien astronome serbe Milutin Milankovic (1879-1958). Wegener
avait un second handicap : il était Allemand. En raison de la Première
Guerre mondiale, sa nationalité le rendait suspicieux auprès de bien des
chercheurs du camp des alliés. Au cours de ces débats houleux, le géo-
physicien canadien John Tuzo Wilson (1908-1993) fut un incontestable
chef de file des mobilistes qui réhabilitèrent Wegener et Holmes. Cette
La science qui bouge 35
idée de dérive qui paraissait farfelue dans la première moitié du xxe siècle,
maintenant pleinement acceptée, a mis du temps à faire son chemin15.
L’historienne des sciences Noami Oreskes le résume bien : « Les scien-
tifiques américains des sciences de la Terre rejetèrent la théorie de la
dérive des continents non pas parce qu’il n’y avait pas d’indices pour
l’appuyer (il y en avait beaucoup), non pas parce que les scientifiques
qui appuyaient la théorie étaient des excentriques (ils ne l’étaient pas),
mais parce que la théorie, telle qu’elle était largement interprétée, violait
profondément les croyances méthodologiques et les formes établies de la
pratique scientifique16. » Aujourd’hui, le concept de tectonique est étendu
aux autres corps du système solaire. On a maintenant des preuves de tec-
tonique active sur plusieurs lunes des planètes géantes du système solaire
et sur Pluton, où nous avons affaire à des glaces plutôt qu’à des roches.
J’ajoute une anecdote. Alors que j’étais étudiant à la maîtrise en astro-
nomie à l’Université Western Ontario, j’obtins une bourse de l’OTAN
pour participer à un symposium sur le magnétisme de la Terre et des
planètes du système solaire organisé par Stanley Runcorn qui, comme on
l’a vu, était une des grandes autorités en paléomagnétisme17. Ce sympo-
sium se tenait à l’Université de Newcastle, en Grande-Bretagne, en avril
1970. J’eus l’extraordinaire privilège de rencontrer sir Harold Jeffreys
(1891-1989) et d’échanger avec lui. Immense savant britannique, il fut
le chef de file et un des plus farouches opposants à la tectonique des
plaques. Jeffreys, le fixiste par excellence, s’opposait à l’hypothèse parce
qu’il ne voyait pas de mécanisme physique capable de faire bouger les
continents et de nourrir les fonds océaniques. La présence de Jeffreys à
ce symposium était remarquable. Ce fut comme si Galilée avait invité
Ptolémée à une grande conférence sur l’héliocentrisme. Runcorn nous
montrait qu’en science il faut respecter les idées opposées et s’assurer
que leurs promoteurs fassent partie de tous les débats. C’est ce que Run-
corn avait démontré en invitant Jeffreys à échanger avec les jeunes cher-
15. Pour une belle synthèse, voir Robert Fensome et collab., Quatre milliards d’années
d’histoire. Le patrimoine géologique du Canada, MultiMondes, 2014, p. 24-37.
16. Noami Oreskes, The Rejection of Continental Drift, Theory and Method in Ame-
rican Earth Science, Oxford University Press, 1999, p. 6.
17. Jean-René Roy, Les carnets d’un astrophysicien, MultiMondes, 2013, p. 118-121.
36 Sur la science qui surprend, éclaire et dérange
cheurs comme moi. Jeffreys avait alors 79 ans. Ce qui paraît aujourd’hui
étonnant, c’est que tout ce grand débat qui mena à la tectonique des
plaques ait été si récent. Ce débat fut long et complexe, mais il se dénoua
rapidement dans les années 1960, apportant une avalanche de surprises.
Voyons maintenant l’histoire de cette radioactivité, moteur des mouve-
ments internes de la Terre.
La transmutation des éléments,
le rêve de Prométhée
De multiples légendes sont associées à Prométhée, le demi-dieu de la
mythologie grecque. En plus d’avoir apporté le feu, source de lumière et
de chaleur, Prométhée aurait enseigné aux humains l’art de la métallurgie
et, plus fondamentalement, celui de la connaissance. L’usage du feu et
la fabrication des outils remontent à l’aube des temps. Les humains ont
mis au point les outils pour transformer la matière par la métallurgie et
par la chimie. Au cours du siècle dernier, nous avons rejoint les niveaux
les plus fondamentaux de la matière et du vivant : ceux de réussir à pro-
voquer la transmutation des noyaux atomiques et la mutation des gènes.
Je m’attache ici d’abord à la transmutation des éléments ; je reviendrai à
celle des gènes plus loin dans mon propos.
L’étude du déroulement d’une recherche, qu’elle soit longue ou brève,
permet d’illustrer le caractère dynamique de la science. Comme avec
la tectonique des plaques, l’exemple qui suit traite de changement, cette
fois-ci celui qui se produit au cœur des atomes, dans leur noyau. À l’op-
posé de l’adoption de la tectonique qui brasse les continents, l’acceptation
du concept de transmutation se déroula sur une période relativement
courte. Les découvertes clefs se sont échelonnées sur quelques décen-
nies, plutôt que les siècles qu’il a fallu pour la tectonique des plaques et
les millénaires pour l’héliocentrisme. Je fais évidemment exception des
essais et des travaux infructueux des anciens alchimistes. Leur objectif
était de produire des métaux précieux, par exemple l’or, à partir de maté-
riaux plus ordinaires et de moindre valeur. On recherchait aussi l’élixir
de la vie qui guérirait toutes les maladies. Les plus anciens alchimistes
remontent à l’Antiquité. Ils furent systématiquement ridiculisés au cours
La science qui bouge 37
des âges. Mais leur rêve fou fut réalisé en partie dans la première moitié
du xxe siècle.
D’abord, revoyons quelques éléments de connaissance de base. La nature
atomique de la matière fut proposée par les philosophes présocratiques
Leucippe (ve siècle av. J.-C.) et Démocrite (vers 460–370 av. J.-C.) et leurs
disciples il y a près de 2400 ans. La matière, disaient-ils, est constituée
d’unités indivisibles, les atomes, dont les assemblages forment tout ce que
l’on voit. Sans être démontrée, l’idée persévéra, mais demeura toujours
spéculative. Le chimiste anglais John Dalton (1766-1844) fut le premier
atomiste moderne ; il renforça la validité du concept de l’atome pour
expliquer divers processus chimiques18.
La découverte accidentelle à la fin du xixe siècle de la désintégration
spontanée de certains éléments fut un évènement marquant. Les atomes
que le chimiste russe Dmitri Mendeleïev (1834-1907) avait assemblés et
ordonnés dans son célèbre tableau ne sont ni immobiles ni permanents
(chapitre 3). Ils peuvent se démolir spontanément et se métamorphoser
en un élément différent. Cette transformation se produit naturellement.
Toutefois l’humain, par son ingéniosité, peut provoquer ces désintégra-
tions et déclencher des transmutations en bombardant les divers éléments
soit avec des neutrons, soit avec d’autres atomes ou ions19. Examinons
cela plus en détail.
Tout commença avec le physicien français Henri Becquerel (1852-1908).
Le physicien allemand Wilhelm Roentgen (1845-1923) venait tout juste
de découvrir le rayonnement X en 1895. Becquerel étudiait la fluores-
cence de certaines substances pour voir si ce phénomène lumineux avait
un lien quelconque avec les rayons X. Est-ce que la fluorescence pou-
vait être stimulée par la lumière du Soleil ?, se demandait Becquerel. Il
employait alors un cristal d’uranium pour ses expériences, utilisant la
lumière du soleil et la photographie. Parce que le ciel parisien avait été
particulièrement nuageux, il avait laissé un cristal d’uranium dans un
18. Dalton proposa sa théorie atomique pour expliquer comment la matière est faite
d’atomes de masses différentes qui se combinent selon des proportions simples
et bien déterminées.
19. Un ion est un atome qui a perdu un ou plusieurs de ses électrons et qui acquiert
ainsi une charge électrique positive. L’atome normal est électriquement neutre.
38 Sur la science qui surprend, éclaire et dérange
tiroir – l’ayant déposé sur une plaque photographique soigneusement
enveloppée, attendant que les journées ensoleillées reviennent. Au bout
de quelques jours, impatient, il développa l’émulsion photographique :
le cristal y avait laissé une image claire et nette, et non pas une ombre
floue que la fluorescence aurait produite. Nous étions au début de 1896.
Becquerel venait de découvrir par pur hasard que les sels d’uranium
émettaient un rayonnement encore plus mystérieux.
En 1897, Becquerel démontra que « ces rayonnements » émis par les sels
d’uranium avaient une charge électrique. Les « rayons » de Becquerel
étaient donc de nature différente des rayons X qui, eux, n’avaient aucune
charge électrique. Cette découverte surprise des rayons de Becquerel
suscita la curiosité de la jeune physicienne et chimiste française d’origine
polonaise Marie Sklodowska Curie (1867-1934). Avec son mari Pierre
Curie (1859-1906), elle se mit à explorer d’autres matériaux qui manifes-
taient cette étrange propriété : ils l’appelèrent « radioactivité ». Les Curie
découvrirent ainsi les nouveaux radioéléments polonium et radium en
1898 (figure 1.5). Puis, avec d’autres chercheurs, ils allongèrent la liste
en ajoutant l’actinium et le thorium. L’enthousiasme et l’intérêt pour le
nouveau « rayonnement » se propagèrent comme une traînée de poudre
dans les laboratoires d’Europe et d’Amérique.
Étudiant ces nouveaux éléments radioactifs, le physicien néozélandais
Ernest Rutherford (1871-1937) distingua deux sortes de « radioactivité »,
les rayons « alpha » peu pénétrants – on pouvait les bloquer avec une
feuille de papier – et les rayons « bêta » qui s’avéraient cent fois plus péné-
trants, pouvant traverser une mince feuille de métal20. On les nomma
en utilisant les premières lettres de l’alphabet grec parce qu’on n’avait
aucune idée à quoi on avait affaire. Déjà on insistait sur le fait que ces
« rayons » étaient différents des rayons X, nommés ainsi pour marquer
leur étrange nature ; ce nom est d’ailleurs resté. Continuant d’explorer les
radioéléments, les Curie mirent en évidence le rayonnement « gamma »
qui semblait cette fois-ci de même nature que les rayons X (l’action
20. Ernest Rutherford fut professeur en physique expérimentale à l’Université McGill
de Montréal de 1898 à 1907. C’est là qu’il publia, avec le jeune radiochimiste
anglais Frederick Soddy, The cause and nature of radioactivity en 1902. Il obtint
le prix Nobel de chimie en 1908. Soddy reçut le prix Nobel de chimie en 1921.
La science qui bouge 39
FIGURE 1.5 Pierre et Marie Curie dans leur laboratoire à Paris en 1896.
Source : AIP Emilio Segrè Visual Archives, Physics Today Collection.
40 Sur la science qui surprend, éclaire et dérange
d’un aimant ne les faisait pas dévier). Parmi les « rayons » émis par les
radioéléments, les « gamma » étaient les plus pénétrants. Il fallait une
bonne épaisseur de plomb ou de béton pour les stopper. Rapidement,
d’autres chercheurs montrèrent que les bêtas correspondaient à des par-
ticules de charges électriques négatives, soit des électrons, et les alphas,
à des charges positives. Puis, en 1908, un important déblocage eut lieu :
Rutherford montrait que les alphas étaient des noyaux d’hélium.
Cette succession de découvertes spectaculaires amorça la mise en lumière
de la structure et des propriétés internes de l’atome. Les physiciens fran-
çais Paul Langevin (1872-1946) et Jean Perrin (1870-1942) imaginèrent
alors que l’atome avait une constitution double : au centre, le noyau positif
identifié par Rutherford, et autour une sorte de coquille faite d’un nuage
d’électrons négatifs, ces derniers étant responsables de l’interaction avec
l’environnement extérieur. Misant sur la structure des couches élec-
troniques proposée par le physicien danois Niels Bohr (1885-1962) en
1913, chimistes et physiciens établirent que la configuration du nuage
électronique déterminait les propriétés apparentes et mesurables des
différents éléments, comme la dureté du fer et la noirceur du charbon,
ainsi que leurs propriétés chimiques.
Toujours extrêmement actif et imaginatif, Rutherford poursuivit son
exploration du noyau de l’atome. Avec son collègue radiochimiste anglais
Frederick Soddy (1877-1956), il démontra que la radioactivité signifiait
la désintégration des atomes par l’expulsion de particules chargées de
leur noyau. C’était comme si les « radioéléments » s’autodémolissaient
spontanément avec le temps. On pouvait caractériser le taux de désin-
tégration d’un radioélément par sa demi-vie, c’est-à-dire le temps qu’il
fallait pour que la moitié des atomes radioactifs d’une espèce donnée
se transforment en une autre espèce, stable ou elle aussi radioactive.
Pour les atomes naturels, ces temps de désintégration sont très longs ;
on pouvait néanmoins les dériver en mesurant l’intensité radioactive de
chaque radioélément. En 1910-1911, Rutherford mena ses expériences
historiques qui l’amenèrent à proposer un modèle atomique révolution-
naire. Il confirma et clarifia le concept de Langevin et Perrin : l’atome
était constitué d’un tout petit noyau concentrant l’essentiel de la masse et
toute la charge positive de l’atome ; il était entouré d’un nuage d’électrons
de charge égale, mais de masse comparativement infime.
La science qui bouge 41
Entre temps, près de 30 éléments radioactifs furent rapidement identifiés
par des chercheurs français, britanniques, allemands et américains En
1911, Soddy remarqua que l’émission d’alphas faisait chuter l’élément
de deux cases dans le tableau périodique, le radioélément original ayant
perdu deux charges positives, soit deux protons. À l’inverse, l’émission
bêta poussait un élément radioactif vers une case plus élevée, comme
si le noyau faisait l’acquisition d’un proton21. Soddy introduisit alors le
terme « isotope » pour caractériser un élément chimiquement identique,
mais de poids atomique différent, comme l’isotope carbone 14 qui a six
protons et huit neutrons, comparativement au carbone 12 (normal) avec
six protons et neutrons.
En 1932, l’Anglais James Chadwick (1891-1974) découvrit le neutron,
une particule élémentaire électriquement neutre et, avec le proton, un
constituant du noyau. Cette découverte éclaira soudainement des pans
complets de la physique de l’atome et de la chimie et expliquait l’en-
semble des isotopes. La même année, une équipe britannique travaillant
sous la direction de John Cockcroft (1897-1967) et un groupe américain
avec Ernest Orlando Lawrence (1901-1958) et Milton Stanley Livingston
(1905-1986) furent les premiers à scinder les noyaux atomiques légers avec
des protons qu’ils avaient accélérés à l’aide d’une nouvelle machine, un
accélérateur de particules. Les laboratoires français, qui allaient mettre
en évidence un phénomène spectaculaire, étaient loin d’être hors jeu.
En effet, 1934 se révéla une année fantastique pour les physiciens français
Frédéric Joliot (1900-1958) et Irène Joliot-Curie (1897-1956) (figure 1.6).
Le couple réussit à fabriquer le premier élément artificiel, en bombardant
une cible d’aluminium avec les alphas, des noyaux d’hélium ayant été
émis par une source de radium. Il en résulta un nouvel élément bien
identifié, un isotope radioactif du phosphore naturel. « Les noyaux
d’aluminium avalaient les particules alpha, devenant ainsi des noyaux
plus lourds. Additionnant les poids d’une particule alpha et d’un atome
d’aluminium, puis soustrayant le poids du neutron expulsé, le résultat
indiquait que le nouvel élément devait être une sorte de phosphore qui
21. On sait aujourd’hui qu’une forme de rayonnement bêta est causée par un neutron
du noyau qui se transforme en proton en émettant un électron et un antineutrino.
42 Sur la science qui surprend, éclaire et dérange
n’existait pas dans la nature22. » Cette expérience constitua un pas de
géant dans notre compréhension du noyau et dans notre capacité de le
manipuler. « Irène et Fred viennent de découvrir la radioactivité arti-
ficielle. Ils peuvent même affirmer qu’ils ont trouvé l’homologue de
la pierre philosophale : l’art de changer à volonté un métal en un autre
métal23. » Le rêve impossible des alchimistes se réalisait d’une manière
étonnamment simple, du moins en apparence. Joliot et Joliot-Curie
obtinrent le prix Nobel de chimie en 1935. Les deux chercheurs français
venaient de faire passer l’humanité dans un nouveau monde.
Toutes les expériences menées par Becquerel et les chercheurs qui sui-
virent exigeaient un matériel simple, à part le radium, un composé dif-
ficile et long à obtenir. Ce furent la détermination, la persévérance et
l’intuition des chercheurs qui rendirent ce programme de recherche
extraordinairement fécond. Le cadre théorique demeurait minimal,
mais chaque étape franchie se soldait par une meilleure compréhension
de la matière au niveau atomique et de l’étrange instabilité des noyaux
atomiques. La découverte de la radioactivité naturelle de l’uranium et
du thorium avait permis l’identification de sept autres radioéléments,
dont deux, le radium et le polonium, furent utilisés pour réaliser d’autres
expériences. Utilisant ces sources, les physiciens et les chimistes avaient
en main des sources portatives de neutrons qui ouvrirent la voie à la
découverte de la fission nucléaire.
Car, entre temps, bien d’autres étaient à l’œuvre. Travaillant à l’Univer-
sité Sapienza de Rome au milieu des années 1930, les physiciens italiens
Enrico Fermi (1901-1954), Franco Rasetti (1901-2001) et Emilio Segrè
(1905-1989) entreprirent de bombarder de neutrons tous les éléments sur
lesquels ils pouvaient mettre la main. Comme « artillerie », ils utilisaient
des éléments radioactifs sources de neutrons, en particulier ceux qui
sont émis par une source radon-béryllium. Ils découvrirent de façon
inattendue et contre-intuitive que les neutrons lents, c’est-à-dire les neu-
trons ayant le moins d’énergie, étaient les plus efficaces à induire des
transmutations. Ayant bombardé de l’uranium avec des neutrons, les
22. Spencer R. Weart, Scientists in Power, Harvard University Press, 1979, p. 45.
23. Noëlle Loriot, Irène Joliot-Curie, Presses de la Renaissance, 1991, p. 145.
La science qui bouge 43
FIGURE 1.6 Frédéric Joliot et Irène Joliot-Curie dans leur laboratoire au Collège
de France. Source : Courtesy of Emilio Segrè Visual Archives.
44 Sur la science qui surprend, éclaire et dérange
chercheurs crurent même un temps qu’ils avaient fabriqué des éléments
transuraniens, c’est-à-dire des éléments plus lourds que l’uranium, et qui
n’existaient pas dans la nature, en particulier un mystérieux élément 93.
Ils s’étaient trompés sur la nature de leurs nouveaux produits. Le vrai
premier élément 93 transuranien, baptisé le neptunium, ne fut produit
qu’en 1940. Fermi obtint le prix Nobel de physique en 1938 pour son
travail avec les neutrons lents ; il avait 37 ans. En fait, son équipe avait
scindé le noyau, mais passa à côté du phénomène totalement inattendu
qu’allait révéler une équipe allemande.
En Allemagne, le duo formé par Otto Hahn (1879-1968) et Fritz Strass-
mann (1902-1980), utilisant un montage tout simple avec une source de
neutrons naturels frappant de l’uranium, découvrit la fission nucléaire.
Leurs compatriotes et collègues Lise Meitner (1878-1968) et Otto Frisch
(1904-1979), tous deux réfugiés en Suède quelques mois auparavant,
reçurent une lettre de Hahn le 19 décembre 1938 (figure 1.7). Cette lettre
décrivait la preuve chimique qu’un des produits du bombardement de
l’uranium était du baryum, un élément de numéro atomique 51, de poids
beaucoup plus faible que la cible. Ils en déduisirent correctement que le
noyau de l’atome lourd d’uranium s’était scindé en deux noyaux de masse
moyenne. Phénomène encore plus crucial, chaque fission produisait aussi
deux à trois neutrons et générait une quantité spectaculaire d’énergie,
environ un million de fois plus grande que celle qui était libérée par une
réaction chimique normale.
La découverte de la fission du noyau fut une surprise totale24. Nulle
théorie d’alors ne prédisait un tel phénomène. Utilisant l’analogie avec
la goutte d’eau mise de l’avant par Bohr, Frisch décrivit comme suit le
surprenant processus : « Peut-être qu’une goutte peut se diviser en deux
gouttes plus petites d’une manière graduelle, tout d’abord en s’étirant,
puis en se pinçant, et finalement en se déchirant plutôt qu’en se cassant
en deux ? … Ainsi le noyau d’uranium pourrait ressembler à une goutte
tremblotante et instable, prête à se scinder à la moindre perturbation,
24. La chimiste allemande Ida Noddack (1896-1978) avait proposé dès 1934 qu’un
gros noyau pourrait « se briser en plusieurs gros fragments ».
La science qui bouge 45
FIGURE 1.7 Lise Meitner et Otto Hahn dans leur laboratoire du Kaiser-Wilhelm
Institute à Dalem, Berlin, en 1913. Source : Archiv der Max-Planck-Gesellschaft, Berlin-
Dahlem. Courtesy AIP Emilio Segrè Visual Archives.
46 Sur la science qui surprend, éclaire et dérange
comme sous l’impact d’un seul neutron25. » Cette interprétation et des-
cription de la fission nucléaire parurent dans un très bel article signé
par Lise Meitner et Otto Frisch d’à peine deux pages, « Disintegration
of uranium by neutrons : a new type of nuclear reaction (Désintégration
de l’uranium par des neutrons : un nouveau type de réaction nucléaire) »,
dans la revue Nature le 16 janvier 1939. En parallèle, Hahn et Strassmann
publièrent les résultats de leur analyse chimique des produits de fission
de l’uranium dans la revue allemande Naturwissenschaften (janvier
1939)26. Deux points clefs ressortaient : i) le dégagement d’une quantité
énorme d’énergie liée au processus de fission, et ii) la production de deux
ou trois neutrons libres à chaque fission.
À la fin des années 1930, le fascisme connut une montée fulgurante en
Italie. Laura, épouse de Fermi, était juive. Le couple subissait l’ostra-
cisme et perçut le danger grandissant pour leur famille. Après la remise
du Nobel de physique à Fermi en décembre 1938, qui leur permit de
faire un bref séjour en Suède, Enrico et Laura ne retournèrent pas en
Italie. Ils immigrèrent aux États-Unis au tout début de 1939. Fermi se
retrouva alors à l’Université Columbia à New York, où il se remit à l’in-
vestigation de la stabilité des noyaux des atomes. Surnommé « le pape »,
Fermi comprit rapidement ce qui se passait dans le noyau d’uranium
qu’avait scindé l’équipe allemande. Des deux ou trois neutrons émis
avec chaque fission, il imagina la possibilité de réactions en chaîne à plus
grande échelle où chacun de ces neutrons pouvait briser un autre noyau
d’atome d’uranium pour produire encore deux ou trois neutrons, et
ainsi de suite – et cela en libérant des quantités phénoménales d’énergie.
Avec cette découverte fantastique aux conséquences inimaginables (les
bombes atomiques lancées par les Américains sur les villes japonaises
de Hiroshima et Nagasaki les 6 et 9 août 1945), les recherches sur la
radioactivité, les transmutations et la fission du noyau allaient sortir des
25. Lise Meitner et O. R. Frisch, « Disintegration of Uranium by Neutrons : a New
Type of Nuclear Reaction », Nature, vol. 143, p. 239.
26. O. Hahn et F. Strassmann, « Über den Nachweis und das Verhalten der bei der
Bestrahlung des Urans mittels Neutronen entstehenden Erdalkalimetalle » (À
propos de la détection et des caractéristiques des terres alkalines métalliques
formée par irradiation de l’uranium par des neutrons), Naturwissenschaften,
1939, vol. 27, p. 11.
La science qui bouge 47
laboratoires universitaires et devenir une entreprise d’État. La découverte
de la transmutation naturelle et artificielle des éléments est un exemple
fulgurant d’une science qui bouge. Je reviendrai sur ces importants
développements au chapitre 4.
L’ADN, une histoire plus ancienne qu’on le croit
ADN est maintenant un acronyme commun de la biologie moléculaire,
et même une expression du langage populaire. L’acide désoxyribonu-
cléique est une molécule géante extraordinaire. Elle porte les instructions
génétiques de la formation, du développement, du fonctionnement et de
la reproduction de tous les organismes vivants, incluant les virus. Les
gènes sont faits de séquences codantes d’ADN qui font partie de chro-
mosomes, eux-mêmes des constituants de la cellule. La découverte de la
structure de l’ADN en 1953 a révolutionné la biologie moléculaire et a
marqué profondément les esprits de plusieurs dans le grand public. Les
biologistes moléculaires américain James Watson et britannique Francis
Crick (1916-2004) sont considérés comme des vedettes de la science du
xxe siècle pour leur spectaculaire mise en évidence et description de la
structure en double hélice de la molécule géante.
Imaginez une longue échelle en spirale : les montants sont formés de
groupes alternants de sucres et de phosphates, et les barreaux, de quatre
bases azotées qui se mettent en paires selon une règle stricte (figure 1.9).
En compagnie du physicien néozélandais britannique Maurice Wilkins
(1916-2004), Crick et Watson reçurent le prix Nobel de physiologie ou
médecine en 1962. Malheureusement, cette avancée spectaculaire a laissé
dans l’ombre la longue histoire de la molécule, donnant l’impression que
l’ADN résulte d’une découverte relativement récente. Ce n’est pas le cas.
L’ADN fut en fait découvert en 1869 par le médecin et biologiste suisse
Friedrich Miescher (1844-1895) qui l’isola du pus de pansements chirur-
gicaux jetés aux rebuts. Dans les années qui suivirent, d’autres chercheurs
identifièrent les quatre nucléobases primaires qui entrent dans la com-
position de l’ADN : ce sont l’adénine (A), la cytosine (C), la guanine (G)
et la thymine (T), c’est-à-dire les paires de ces dernières qui forment
les barreaux de l’échelle et le désoxyribose (figure 1.9), structure qu’on
48 Sur la science qui surprend, éclaire et dérange
ignorait alors. En 1919, le biochimiste américain Phoebus Levene (1869-
1940) suggéra que l’ADN était formé d’une bande de nucléotides reliée
par ces quatre bases azotées (ou nucléobases) et un groupe de phosphate.
En 1937, utilisant l’imagerie rayons X par diffraction, le physicien et
biologiste moléculaire anglais William Astbury (1898-1961) mit en évi-
dence une régularité dans la structure de l’ADN, sans pouvoir la définir.
L’imagerie par diffraction de rayons X restait encore difficile à interpréter
étant donné la structure complexe de la macromolécule.
Ce fut le biologiste russe Nikolai Koltsov (1872-1940) qui proposa en
1927 l’idée avant-gardiste que l’hérédité était encodée dans une longue
chaîne d’acides aminés. Il proposa même que la chaîne serait formée
d’une molécule héréditaire géante ayant « deux bandes, miroirs l’une
de l’autre, qui se copieraient d’une manière semi-conservative utilisant
chaque bande comme gabarit27 ». Ce biologiste visionnaire, qui faillit
être fusillé par les bolchéviques en 1920, est considéré comme le père de
la génétique moderne.
L’étude de l’épidémiologie et de la pathologie de la pneumonie permit
d’importantes avancées. D’abord le bactériologiste britannique Frederick
Griffith (1879-1941) montra en 1929 que la bactérie Streptococcus pneu-
moniae, responsable de la pneumonie, peut se transformer d’une souche
à une autre par un « facteur transformatif ». Le médecin et biologiste
moléculaire américain d’origine canadienne Oswald T. Avery Jr. (1877-
1955) jugea que les travaux de Griffith manquaient de rigueur. Préoccupé
à guérir les malades atteints de tuberculose, Avery s’activait dans divers
essais cliniques à l’Hôpital de l’Université Rockfeller aux États-Unis
(figure 1.8). Pour comprendre le streptocoque, Avery mit en place un
programme de recherche qui mena à des progrès substantiels. Jusque-là,
on pensait que les protéines portaient et transmettaient l’information
génétique. Avec Colin MacLeod et Maclyn McCarthy, ses collègues du
Rockfeller Institute, il mit au point une expérience remarquable où ils
démontrèrent de façon irréfutable que l’ADN était la substance produi-
sant la transformation bactérienne du pneumocoque : l’ADN était le
27. Nikolai Koltsov, « The physical-chemical basis of morphology », Advances in
Experimental Biology, 1928, série B, 7.
La science qui bouge 49
FIGURE 1.8 Le médecin chercheur Oswald Avery en vacances à l’île Deer,
au Maine dans les années 1940. Courtesy of the Tennessee State Library and Archives.
Oswald T. Avery Papers.
« facteur transformatif ». On était en 1943. Avery et ses collègues pro-
posèrent qu’au niveau bactérien l’ADN agissait comme les gènes ou les
virus pour les organismes plus complexes.
Le transfert de l’information génétique de type pneumocoque à un autre
était dû à un microorganisme. Avery et son équipe avaient identifié la
50 Sur la science qui surprend, éclaire et dérange
molécule responsable des changements héréditaires dans ce microorga-
nisme. Cette étape cruciale signala le passage de la bactériologie médicale
à la bactériologie moléculaire28. Mais les choses bougèrent lentement,
car il fallut attendre que les résultats du groupe du Rockfeller soient
confirmés en 1952. D’aucuns ont regretté qu’Avery fût un des scienti-
fiques les plus méritoires à ne pas avoir reçu de Nobel, malgré la soumis-
sion répétée de sa candidature durant trois décennies. Ses admirateurs
peuvent se consoler, un cratère lunaire a été nommé en son honneur.
En 1951, les biologistes moléculaires britannique Francis Crick et amé-
ricain James Watson entreprirent de déchiffrer la structure de l’ADN
qu’on savait maintenant responsable de l’hérédité, à la suite des travaux
d’Avery et de ses collègues. Crick et Watson travaillaient avec fougue,
car ils sentaient la concurrence du grand chimiste américain Linus Pau-
ling (1901-1994), qui proposait une structure à trois brins pour l’ADN.
Travaillant à partir d’images par diffraction de rayons X obtenues par
la chimiste et cristallographe anglaise Rosalind Franklin (1920-1958) et
Raymond Gosling (1926-2015), en mai 1952 Crick et Watson dérivèrent
le modèle de la double hélice. Ils publièrent leurs résultats dans la revue
Nature en 1953, un court texte qui tenait pratiquement sur une seule
page29. L’article innovateur était accompagné, dans le même numéro de
la revue, de quatre autres articles appuyant le résultat de Crick et Watson,
dont un article par Franklin et Gosling, et un autre par Maurice Wilkins
et deux collègues.
Depuis lors, la biologie moléculaire est sortie du domaine de la recherche
purement académique et a donné lieu à une avalanche d’applications :
ADN recombinant, séquençage des génomes, mutations génétiques
contrôlées, éditions de gènes, génie génétique, clonage et lutte contre les
maladies. Comme l’a écrit le microbiologiste et agronome français Louis-
Marie Houbedine, « l’espèce humaine a désormais acquis l’essentiel des
connaissances et des moyens techniques qui lui permettent de maîtriser
les organismes vivants. C’est tout à la fois une chance extraordinaire et
28. Macfarlane Burnet, Changing patterns : An atypical autobiography, Sun Books,
1968, 81, p. 59.
29. James D. Watson et Francis Crick, « Molecular structure of nucleic acids ; a
structure for doxyribose nucleic acid », Nature, 171, p. 737.
La science qui bouge 51
une menace30 ». Et rappelons-nous : tout est parti d’un chercheur suisse
du xixe siècle qui prenait intérêt aux chiffons souillés. C’était il y a près
de 150 ans. Ce fut en effet une longue odyssée.
FIGURE 1.9 Structure hélicoïdale de l’ADN découverte par Francis Crick et James
Watson en 1953. Source : Wikipedia Creative Commons/Messer Woland.
Le modèle de structure hélicoïdale de l’ADN est devenu une des plus
belles et plus puissantes représentations en imagerie scientifique. C’est
l’image de la structure fondamentale du matériel vivant et un archétype
de l’image de la découverte scientifique. L’histoire est presque rocambo-
lesque, car les deux jeunes chercheurs qu’étaient alors Crick et Watson
paniquèrent un moment. Crick a décrit ses doutes récurrents, où il pensa
sérieusement à retirer leur article de la revue Nature, imaginant que
30. Louis-Marie Houbedine, Le génie génétique. De l’animal à l’homme ?, Flamma-
rion et Dominos, 1996, p. 113.
52 Sur la science qui surprend, éclaire et dérange
lui et Watson avaient tout de travers et que, dans leur hâte, ils avaient
esquivé des points importants. La structure en double hélice de l’ADN
ne fut finalement confirmée qu’au début des années 1980. « Il fallut plus
de vingt-cinq ans pour que notre modèle de l’ADN passe d’une hypo-
thèse simplement plausible à un modèle très plausible et, de là, à être
virtuellement certainement correct31. » Ces mots bien pesés de Francis
Crick disent tout du cheminement d’une idée révolutionnaire en science ;
l’acceptation n’est pas automatique ni instantanée. Même les auteurs
trébuchent avec la nouveauté, ce qu’on verra avec mon prochain exemple.
Les ondes gravitationnelles, le casse-tête
d’Einstein
L’idée d’ondes reliées à la gravitation était dans l’air dès le début du
xxe siècle. Le mathématicien français Henri Poincaré (1854-1912) avait
déjà suggéré en 1905 la possibilité d’ondes gravitationnelles générées
par des masses en accélération, sur le modèle des charges électriques
accélérées produisant des ondes électromagnétiques.
La recherche et la détection des ondes gravitationnelles connurent un
cheminement cahoteux, nullement atypique. Albert Einstein (1879-1955)
publia la théorie de la relativité générale en 1916. La même année, il
proposa l’existence d’ondes gravitationnelles se propageant à la vitesse
de la lumière. Mais il fit une erreur. Dans la version initiale, ces ondes
ne dissiperaient ni ne transporteraient l’énergie gravitationnelle des
masses en mouvement accéléré. Einstein se corrigea en 1918, attribuant
son égarement « à une regrettable erreur de calcul32 ». Suivirent plus
tard des doutes émis par Einstein lui-même, puis une longue période de
silence de la part des physiciens et, enfin, un étonnant regain d’intérêt
dans la deuxième moitié du xxe siècle. La première détection d’ondes
gravitationnelles eut lieu le 15 septembre 2015, soit près de 100 ans après
31. Francis Crick, What Mad Pursuit. A Personal View of Scientific Discovery, Basic
Books, p. 73-74.
32. Cité dans Hanoch Gutfreund et Jürgen Renn, The Road to Relativity, The History
and Meaning of Einsteing « The Foundation of General Relativity », Princeton
University Press, 2015, p. 135.
La science qui bouge 53
l’hypothèse surprenante d’Einstein. Les efforts pour observer les ondes
gravitationnelles suivirent un parcours semé d’embûches et les fausses
alertes furent nombreuses. Voyons les détails de cette histoire pleine de
rebondissements.
On peut imaginer les ondes gravitationnelles comme un phénomène
analogue au rayonnement électromagnétique émis par des charges élec-
triques en mouvement. Pour l’onde gravitationnelle, le passage de l’onde
est perçu localement comme une contraction et dilatation orthogonale
de l’espace avec une période de quelques millisecondes. Avec le passage
de l’onde gravitationnelle, c’est l’espace qui se contracte et s’étire d’une
manière pulsée. Imaginez l’espace-temps comme une membrane où vous
déplacez une masse ; comme pour un objet se déplaçant à la surface de
l’eau, un train d’ondes est généré33. Comme le bouchon ballottant sur
l’eau s’élève et descend avec la vague qui passe, les objets dans l’espace
perturbé par l’onde gravitationnelle ne bougent pas par eux-mêmes.
Notez que cette analogie est bidimensionnelle et que les ondes se pro-
pagent en trois dimensions.
Einstein savait que les étoiles étaient souvent en paires. Il calcula les pro-
priétés des ondes gravitationnelles produites par un tel système binaire
avec chaque étoile ayant une masse équivalente à celle du Soleil. Son
calcul montra que l’intensité des ondes produites par un tel système
binaire serait infime. L’espace est malléable, mais sa rigidité est colos-
sale, nécessitant l’action de très grandes masses en accélération extrême.
Einstein affirma alors qu’il serait à tout jamais impossible de détecter
des ondes gravitationnelles. De plus, il continua à avoir des doutes sur
la validité de son hypothèse d’ondes, car sa prédiction paraissait curieu-
sement reposer sur la géométrie qu’il adoptait. Les ondes gravitation-
nelles semblaient dépendre du système de coordonnées qu’il employait,
un non-sens physique. Le grand astrophysicien anglais Arthur Stanley
Eddington (1882-1944), un partisan inconditionnel d’Einstein, avait
dirigé une expédition pour observer l’éclipse totale du Soleil du 29 mai
1919 et mesuré avec succès l’effet de courbure de l’espace par la masse
33. L’analogie est limitée, car la surface de l’eau est bidimensionnelle alors que les
ondes gravitationnelles se propagent dans l’espace tridimensionnel. Voyez l’ar-
ticle sur Wikipédia à propos des ondes gravitationnelles.
54 Sur la science qui surprend, éclaire et dérange
du Soleil. En 1922, Eddington, un partisan de la relativité générale, se
moqua néanmoins de l’idée d’Einstein en écrivant que « les ondes gra-
vitationnelles se propageaient à la vitesse de la pensée. »
Einstein s’interrogea plus à fond sur la validité de ses calculs. Ce fut
sans trop de surprise qu’en 1936 Einstein et le physicien américain israé-
lien Nathan Rosen (1909-1995) montrèrent alors que les ondes gravi-
tationnelles ne pouvaient pas exister, car elles menaient, disaient-ils, à
une singularité mathématiquement inacceptable dans les équations. Le
manuscrit « Do gravitationnal waves exist ? » avait été soumis à la grande
revue Physical Review. À la demande de l’éditeur, le texte d’Einstein et
Rosen fut révisé anonymement par le physicien mathématicien Howard
P. Robertson (1903-1961). Ce dernier rapporta que le problème soulevé
par Einstein et Rosen était artificiel et que le système de coordonnées
n’était pas fondamental à l’existence d’ondes. D’abord furieux qu’on ait
envoyé l’article à un arbitre sans son autorisation, Einstein refusa de
changer quoi que ce soit. Mais, entre temps, son collègue co-auteur Rosen
avait été en contact avec Robertson. Rosen réussit à calmer Einstein, qui
se ravisa. Einstein et Rosen corrigèrent leur article. L’article fut soumis
à nouveau avec la conclusion opposée : les ondes gravitationnelles sont
possibles. En revanche, la nouvelle version fut publiée dans une autre
revue, le Journal of the Franklin Institute. Einstein n’avait pas digéré
l’arbitrage de l’éditeur de Physical Review.
Deux ans plus tard, en 1938, dans un article paru dans Annals of Mathe-
matics basé sur de nouveaux calculs effectués avec le physicien polonais
et canadien Leopold Infeld (1898-1968) et le mathématicien physicien
britannique Banesh Hoffmann (1906-1986), Einstein trouva encore une
fois qu’une masse ne peut pas émettre d’ondes gravitationnelles, rame-
nant la bonne vieille supposition que ces ondes ne pouvaient pas exister.
De toute évidence, l’existence d’ondes gravitationnelles semblait agacer
le père de la relativité.
Ce furent les physiciens théoriques britannique Felix Pirani (1928-2015)
et américain Richard Feynman (1918-1988) qui, en 1956 et 1957, éclai-
rèrent le dédale des mathématiques et remirent de l’ordre dans les sys-
tèmes de coordonnées plutôt inextricables de la relativité générale. Leur
conclusion : les ondes gravitationnelles étaient correctement prédites par
La science qui bouge 55
la relativité générale. Einstein était décédé plus tôt en 1955 ; il était pro-
bablement demeuré dans le doute jusqu’à la fin de ses jours. Tout comme
on nomme parfois ondes hertziennes les ondes électromagnétiques du
domaine radio, en l’honneur du jeune physicien allemand Heinrich
Hertz (1857-1994), on pourrait appeler les ondes gravitationnelles, ondes
einsteiniennes.
Assurés de la solidité des fondements théoriques, d’audacieux physiciens
se mirent alors à l’œuvre pour les détecter. Dans les années 1960, le
physicien américain Joseph Weber (1919-2000) conçut et construisit les
premiers détecteurs d’ondes gravitationnelles (figure 1.10). Les « barres
Weber », comme on appela le montage, étaient constituées de multiples
cylindres d’aluminium de deux mètres de longueur et d’un mètre de
diamètre, équipés d’antennes et de piézoélectriques. Les cylindres avaient
une fréquence de vibration de 1660 hertz et devaient entrer en résonance
sous l’impact d’ondes gravitationnelles. Weber avait le défi d’enregistrer
et de mesurer un changement dans la longueur des cylindres d’environ
10-18 cm, soit le 1/100 000 du diamètre du proton. En 1969, Weber affirma
avoir détecté des ondes gravitationnelles et, l’année suivante, il disait
FIGURE 1.10 Le physicien Joseph Weber travaillant à son détecteur d’ondes
gravitationnelles. Source : Special Collections and University Archives, University of
Maryland Libraries.
56 Sur la science qui surprend, éclaire et dérange
observer des signaux provenant du centre de la Voie lactée de manière
régulière. Les doutes de la communauté scientifique furent immédiats,
d’abord au sujet de la fréquence surprenante des évènements suppo-
sément enregistrés par Weber. À ce rythme, notre galaxie dissiperait
toute son énergie gravitationnelle sur une courte période de temps. Puis
d’autres groupes se mirent de la partie et furent incapables de reproduire
les observations de Weber. À la fin des années 1970, le consensus était
que les observations de Weber étaient erronées, résultat de multiples
sources de bruit mal comprises. En dépit de l’incrédulité de ses pairs et
d’un financement coupé, Weber travailla sur ses détecteurs jusqu’à son
décès en 2000.
L’effet du passage d’une onde gravitationnelle tel qu’il était prédit était
tellement infime que cela décourageait les plus audacieux. La flamme
pour la détection des ondes gravitationnelles fut ravivée par leur obser-
vation indirecte. Les pulsars, dont l’existence avait été révélée par hasard
en 1967, sont des étoiles à neutrons en rotation rapide ; elles sont les
vestiges d’étoiles massives ayant explosé en supernova et laissé un noyau
central atrophié hyperdense de la taille de la Terre. En 1974, les astro-
nomes américains Russell Hulse et Joseph Taylor découvraient le premier
pulsar binaire PSR B1913+16, c’est-à-dire deux pulsars en orbite l’un
autour de l’autre. Le signal radio du pulsar principal avait une période
ultra-précise de 59.02999792988 millisecondes, c’est-à-dire qu’il tourne
sur lui-même 17 tours par seconde. Poursuivant l’observation du pulsar
sur plusieurs jours, Hulse et Taylor remarquèrent un changement régu-
lier dans la fréquence reçue de l’émission radio du pulsar, comme si ce
dernier s’éloignait de nous pour ensuite s’approcher de nous avec une
période de 7,75 heures. Hulse et Taylor conclurent correctement que le
pulsar appartenait à un système binaire. Le compagnon se révéla être
aussi un pulsar, mais ce dernier était silencieux dans le domaine radio.
Encore plus crucial, les astronomes mirent en évidence que les orbites
de deux pulsars se contractaient lentement et régulièrement. Ils attri-
buèrent ce changement à la perte d’énergie gravitationnelle due à l’émis-
sion d’ondes gravitationnelles ; Hulse et Taylor mesurèrent ce taux à
La science qui bouge 57
7,35 × 1024 watts34. Ils obtinrent le prix Nobel de physique de 1993 pour
leur découverte et l’interprétation qu’ils en firent en termes d’ondes
gravitationnelles. Ce fut alors l’envol d’un effort colossal pour observer
directement les ondes gravitationnelles.
Même si certains chercheurs continuèrent d’explorer le système de Weber,
l’approche proposant d’utiliser un grand interféromètre pour détecter les
ondes gravitationnelles fut mise de l’avant et devint la technique préférée.
Plusieurs physiciens avaient exploré le concept. Les Américains Robert
Forward et Rainer Weiss construisirent les prototypes d’interféromètre
dans les années 1970. Dans une décision audacieuse de 1992, la National
Science Foundation (NSF), le grand organisme de financement de la
recherche aux États-Unis, approuva la construction des deux grands
observatoires d’ondes gravitationnelles par interférométrie laser, l’un à
Livingston en Louisiane et l’autre à Hanford dans l’État de Washington :
c’est aujourd’hui le Laser Interferometer Gravitational-Wave Observatory
ou LIGO35. Les deux interféromètres furent construits avec chacun deux
bras de 4 km formant un L gigantesque abritant des miroirs suspendus,
comme s’ils étaient suspendus dans l’espace sans contrainte (figure 1.11).
Ces miroirs reflètent de multiples fois la lumière laser prisonnière dans
chaque bras de l’interféromètre et font interférer une partie de cette
lumière. Toute variation, si infime soit-elle, de la longueur de chaque
bras modifie le patron d’interférence lumineuse et signale le passage
d’une perturbation.
Pour saisir le fonctionnement, imaginez chaque bras des interféromètres
LIGO comme une cavité remplie de lumière infrarouge où chaque photon
fait en moyenne 250 allers et retours, pour être ensuite recombiné avec
la lumière de la cavité orthogonale. En l’absence d’onde gravitation-
nelle, c’est en quelque sorte « silence radio » ou signal neutre. Lors de
son passage, l’onde gravitationnelle étire l’espace dans une dimension
34. Cette luminosité gravitationnelle représente 1,9 % de la luminosité électroma-
gnétique du Soleil.
35. Durant les années 1980, la National Science Foundation avait financé des proto-
types d’interféromètre laser pour ondes gravitationnelles construits au Massa-
chusetts Institute of Technology (MIT) et au California Institute of Technology
(Caltech).
58 Sur la science qui surprend, éclaire et dérange
et le comprime dans la direction orthogonale. Les deux faisceaux de
lumière interfèrent pour produire un battement comme une cloche qui
résonne lorsqu’on la frappe. Parce que la puissance de lumière stockée
dans chaque tube atteint 100 kW, il est possible de mesurer une distorsion
de l’espace avec une précision extraordinaire. Le système LIGO permet
de détecter un changement dans la séparation des miroirs de moins du
dix millième du diamètre du proton ; c’est l’équivalent de mesurer la
distance à l’étoile la plus proche avec une précision égale à l’épaisseur
d’un cheveu.
FIGURE 1.11 Vue aérienne du bâtiment abritant l’interféromètre LIGO du site de
Livingston, en Louisiane. Source : LIGO/Caltech and MIT.
Les premières années de fonctionnement de LIGO, de 2002 à 2010, ne
donnèrent aucun résultat. Grâce à de nouveaux investissements de la
NSF et à un rehaussement considérable de composantes clefs de l’inter-
féromètre effectué entre 2010 et 2015, l’Advanced LIGO détectait enfin
un signal très clair et très fort le 14 septembre 2015. C’était 100 ans
après la publication de la proposition d’Einstein où il faisait sa première
La science qui bouge 59
hypothèse d’ondes gravitationnelles. Le sursaut d’ondes gravitation-
nelles, nommé GV150914, provenait de la fusion de deux trous noirs à
1,3 milliard d’années-lumière ; ces trous noirs avaient des masses de 36
et 29 masses solaires qui résultèrent, après coalescence, en un trou noir
de 62 masses solaires. L’évènement avait duré 0,2 seconde. On ne peut
pas encore observer les trous noirs de manière directe. La détection des
ondes gravitationnelles par LIGO et la modélisation du signal émis par
la coalescence de tels objets représentent une des preuves les plus fermes
de leur existence. L’évènement fut une surprise pour les astronomes et
les physiciens qui s’attendaient plutôt à observer la fusion d’étoiles à neu-
trons suspectées être beaucoup plus nombreuses dans l’univers. D’autres
observations de fusion de trous noirs ont suivi (figure 1.12).
FIGURE 1.12 Signaux de l’onde gravitationnelle enregistrée le 14 août 2017 par
les deux observatoires LIGO et VIRGO. Les trois graphiques du haut montrent le rapport
signal sur bruit pour chacun des sites, les trois du milieu la montée en fréquence associée
aux deux trous noirs orbitant de plus en plus rapidement l’un autour de l’autre.
Les graphiques du bas montrent la modulation de l’onde gravitationnelle détectée.
Source : LIGO and VIRGO Science Collaborations.
60 Sur la science qui surprend, éclaire et dérange
Le cinquième évènement d’ondes gravitationnelles fut enregistré le
17 août 2017. Il fut marqué deux secondes plus tard par un flash de rayons
gamma enregistré dans le ciel par l’observatoire spatial de rayons gamma
Fermi. Dans les heures qui suivirent, quelques dizaines d’observatoires
observèrent au même endroit un flash lumineux qui dura durant plu-
sieurs jours. Contrairement aux évènements précédents, on avait réussi
à localiser la source dans la direction de la constellation de l’Hydre. Elle
coïncidait avec la galaxie NGC 4993, située à environ 130 millions d’an-
nées-lumière. Une mobilisation sans précédent d’observatoires terrestres
et spatiaux fut orchestrée pour observer le point lumineux évanescent,
en faisant le phénomène astronomique le plus intensément observé de
tous les temps. Le 16 octobre 2017, un numéro spécial de la revue The
Astrophysical Journal Letters présentait 24 articles de recherche signés par
environ 4 500 chercheurs provenant de centaines d’institutions réparties
sur toute la planète.
L’investissement dans LIGO représente une somme avoisinant un mil-
liard de dollars cumulée sur toutes les années du projet36. LIGO est l’ins-
tallation de recherche la plus grande et la plus ambitieuse financée par la
National Science Foundation de toute son histoire. Plusieurs s’entendent
pour dire qu’un projet aussi audacieux et risqué que LIGO ne serait pas
approuvé ni financé aux États-Unis dans le contexte politique actuel. Les
nouvelles initiatives sont maintenant prises ailleurs dans le monde. Au
début de 2018, en plus de LIGO aux États-Unis, il y a VIRGO en Italie,
GEO600 en Allemagne et KAGRA au Japon. Tous ces pays ont adopté
le principe d’un grand interféromètre en forme de L, des analogues de
LIGO. L’Inde a un projet sur la table qui sera une copie d’un LIGO. À une
échelle beaucoup plus ambitieuse, l’Agence spatiale européenne (ESA)
étudie le concept d’un grand interféromètre dans l’espace, LISA, qui
serait un système triangulaire de trois stations avec des miroirs séparés
par des millions de kilomètres, opérant sur le même principe que LIGO.
36. Le Laser Interferometer Gravitational Wave Observatory (LIGO) a aussi bénéficié
énormément de l’apport en équipement et de personnel du Science and Tech-
nology Facilities Council de Grande-Bretagne, de la Max-Planck–Gesellschaft
d’Allemagne et de l’Australian Research Council d’Australie. Il faut aussi recon-
naître le rôle essentiel d’un extraordinaire personnel de soutien technique et
administratif sans qui les grands laboratoires ne pourraient pas fonctionner.
La science qui bouge 61
En contraste avec les efforts précédents comme celui qui avait été mené
individuellement par Joseph Weber, LIGO repose sur une concertation de
plus de mille chercheurs répartis à travers toute la planète. Les physiciens
américains Rainer Weiss, Kip Thorne et Barry Barish ont reçu le prix
Nobel de physique 2017 pour leurs contributions à la détection des ondes
gravitationnelles et pour la mise en œuvre de l’observatoire LIGO, une
réalisation extraordinaire du génie humain. Les trois lauréats se recon-
naissent comme les représentants d’une immense équipe collaborative.
Ces dernières années, j’ai eu le privilège de participer aux évaluations
annuelles de LIGO, de visiter les deux grands interféromètres et de passer
plusieurs jours avec les chercheurs et tout le personnel de l’observatoire.
Ces derniers affichent leur passion de découvrir et de relever d’immenses
défis techniques pour réaliser la mesure d’un signal cosmique d’une
infime intensité. Les technologies mises en œuvre sont stupéfiantes par
leur complexité et éblouissantes par leur efficacité. Des scientifiques
et des ingénieurs d’une extraordinaire variété de disciplines, assistés
d’équipes de techniciens et d’administrateurs hors pair, ont contribué à
LIGO et à son succès.
Les exemples de ce chapitre démontrent que la science progresse d’une
façon souvent imprévisible et qu’elle est en mouvement continuel. On a
vu que, lorsqu’un concept ou une découverte implique un changement
dans l’objet étudié, par exemple les transposons, ou jumping genes, de
Barbara McCLintock ou la tectonique des plaques, il y a résistance dans
les communautés mêmes des chercheurs. Un conflit peut se dessiner
entre deux camps, par exemple les mobilistes contre les fixistes, ou leurs
équivalents. Souvent, une nouvelle proposition suscite des doutes même
dans l’esprit de ses concepteurs, d’autant plus qu’elle revêt un caractère
révolutionnaire. On l’a vu avec Einstein qui eut toujours des doutes sur la
réalité des ondes gravitationnelles, et avec Crick et Watson qui faillirent
retirer leur article de Nature sur la structure en double hélice de l’ADN.
Vous ayant éclairé sur l’aspect dynamique de la démarche et des pro-
grammes de recherche, je propose de considérer un autre aspect, en
partie en lien avec les thèmes de ce chapitre, celui de la science qui sur-
prend.
2
La science qui surprend
Ce qui va maintenant arriver peut se comparer
au déchaînement d’un torrent furieux et,
pendant un temps, toute continuité
va disparaître, et la physique va devenir
un tourbillon bouillonnant d’idées étranges
où seuls les esprits les plus pénétrants pourront
distinguer l’or des scories.
Banesh Hoffmann1
Qu’est-ce que je veux dire par savoirs qui surprennent ? Laissez-moi
d’abord donner un exemple qui, selon moi, ne fut pas une surprise : la
découverte des exoplanètes à partir des années 1990. Des penseurs de
tous les temps avaient fait l’hypothèse de leur existence. Le philosophe
matérialiste grec Démocrite (460-370 av. J.-C.) écrivait dans une lettre
à son collègue historien Hérodote (vers 425-480 av. J.-C.) : « Ce n’est pas
seulement le nombre des atomes, c’est celui des mondes qui est infini
dans l’univers. Il y a un nombre infini de mondes semblables au nôtre
et un nombre infini de mondes différents. » Son disciple intellectuel,
le poète naturaliste romain Lucrèce (99-55 av. J.-C.), en discuta de la
façon la plus naturelle qui soit, puis le philosophe et moine dominicain
italien Giordani Bruno (1548-1600) en fit la promotion dans sa théologie
1. Banesh Hoffmann et Michel Paty, L’étrange histoire des quanta, Éditions du
Seuil, 1979, p. 77.
64 Sur la science qui surprend, éclaire et dérange
iconoclaste ; ce fut une des raisons pour lesquelles il fut condamné pour
hérésie et périt sur le bûcher du Campo de Fiori à Rome en 1600. En 1686,
l’écrivain scientifique français Bernard Fontenelle (1657-1757) publiait
ses Entretiens sur la pluralité des mondes.
Fin des simples spéculations dans les années 1960 lorsque des astronomes
se mirent à la tâche de détecter des planètes autour d’étoiles proches. Ils
relevèrent l’énorme défi de pousser la sensibilité des techniques spec-
troscopiques et photométriques ; il s’agissait de faire ressortir un signal
très faible, analogue à trouver l’aiguille dans la botte de foin, qui pouvait
trahir la présence de compagnons de faible masse autour des étoiles. Il
y eut bien des fausses alertes avant d’avoir un signal sûr pouvant être
confirmé indépendamment. Depuis les années 1990, les exoplanètes, et
elles sont nombreuses, sont souvent détectées de manière indirecte et, à
partir de 2008, par imagerie directe à l’aide de l’optique adaptative. Ces
découvertes toutes récentes ont confirmé des spéculations millénaires.
Je ne crois donc pas qu’il y eut surprise de la part des astronomes.
Les surprises sont des connaissances acquises ou des découvertes, ayant
un caractère inattendu, ou effectuées en très peu de temps, et qui ont
des répercussions qui transforment la discipline. Les découvertes de
la radioactivité et de la fission nucléaire présentées au chapitre précé-
dent étaient de cette nature. Dans ce chapitre, je présente trois autres
exemples : la découverte des gènes du cycle circadien, la réalisation que
l’air a un poids et la découverte de l’expansion de l’univers. Ce furent
des surprises, même si par la suite ces phénomènes nous semblent avoir
toujours été dans l’ordre des choses. Les découvertes surprenantes sont
les torrents qui déclenchent, selon le mot cité en tête de chapitre de
Banesh Hoffmann, le « tourbillon bouillonnant d’idées étranges ». Elles
engendrent une richesse de nouveaux axes de recherche.
De par sa nature de sonder tout l’univers, l’astronomie est riche de décou-
vertes soudaines et inattendues. On n’accède qu’à une infime partie de
l’univers ; les surprises sont fréquentes, surtout lorsque de nouvelles
techniques d’observation deviennent disponibles et étendent le domaine
observable. Chaque fois qu’une nouvelle fenêtre du spectre électroma-
gnétique (ondes radio, infrarouge, rayons X et gamma) est devenue
accessible, elle a dévoilé de nouveaux paysages et révélé des phénomènes
La science qui surprend 65
totalement inattendus. Quelques exemples récents : les quasars (source
d’ondes radio et de rayons X provenant de trous noirs au centre des
galaxies) en 1963, les pulsars (source d’ondes radio émises par une étoile
à neutron en rotation rapide) en 1967, et les sursauts de rayons gamma
(bouffée de rayonnement émise lors de l’explosion d’une supernova)
aussi en 1967.
Les découvertes qui surprennent ne sont pas l’apanage des sciences
exactes. L’archéologie nous livre souvent des surprises. Ce fut le cas
avec la découverte de la Pierre de Rosette, une magnifique stèle affichant,
gravé dans la pierre de granodiorite, un décret du pharaon Ptolémée V
datant de 196 av. J.-C. Inscrit en grec ancien, en démotique et en hiéro-
glyphe, le décret trilingue permit à l’égyptologue français Jean-François
Champollion (1790-1832) de déchiffrer l’ancienne écriture égyptienne.
Autre exemple, tiré de la linguistique : une grammaire universelle innée
et l’apprentissage de la langue par les enfants. Le linguiste américain
Noam Chomsky proposa dans les années 1960 que les humains naissent
avec une connaissance innée de la grammaire qui favorise l’acquisi-
tion des éléments de base pour toutes les langues. D’après Chomsky,
tout enfant naîtrait avec la capacité innée à apprendre toute langue,
dans un laps de temps à peu près semblable, peu importe la structure
de la langue. C’est ce que l’on observe chez les enfants en bas âge. Nous
apprenons très tôt à reconnaître ce que sont les mots et les non-mots2.
Enseignement et apprentissage sont importants, mais ils ne pourront
pas être accélérés au-delà de six nouveaux mots par jour. Des données
basées sur des mesures de l’activité cérébrale par fluctuations de champ
magnétique (magnétoencéphalographie) appuient l’hypothèse surpre-
nante de Chomsky3.
Ce fut le physicien et historien américain Thomas Kuhn (1922-1996)
qui cristallisa le concept de « révolution scientifique », pour décrire les
avancées surprises qui ont un effet transformateur sur le champ de
2. Il est remarquable de voir les enfants fabriquer des non-mots et jouer avec ceux-ci.
3. N. Ding et collab., « Cortical tracking of hierarchical linguistic structures in
connected speech », Nature Neuroscience, 2015.
66 Sur la science qui surprend, éclaire et dérange
recherche4. Son œuvre mettait l’accent sur les moments charnières où
les concepts scientifiques paraissent changer de façon draconienne : les
chercheurs passeraient d’un paradigme à un autre en véritables convertis,
par exemple du géocentrisme à l’héliocentrisme au xviie siècle ou du
fixisme des continents au mobilisme de la tectonique des plaques au
xxe siècle (chapitre 1). Comme plusieurs auteurs l’ont montré – et Kuhn
en était pleinement conscient –, cette description reste partielle, mais
elle jette un éclairage utile sur l’évolution des sciences5.
Examinons maintenant trois exemples : les gènes du rythme circadien,
le poids de l’air et l’expansion de l’univers, des découvertes clairement
inattendues à l’époque où elles ont eu lieu.
L’intrigante sensitive, les gènes
du rythme circadien
Le rythme circadien (du latin circa, environ ; diem, jour) décrit le rythme
biologique d’environ 24 heures ; il varie entre 20 et 28 heures selon les
organismes. Ce rythme a été observé et décrit depuis l’Antiquité. Les
textes de médecine traditionnelle chinoise en tenaient compte dans les
soins par acupuncture. Le rythme est présent chez presque tous les ani-
maux et toutes les plantes. Sa présence chez les organismes unicellu-
laires et les archées d’aujourd’hui indiquent que ce cycle existe dans les
organismes vivants depuis très longtemps. Chez l’humain, on observe
ce cycle avec le passage veille-sommeil-veille, le changement au cours
de la journée de 24 heures de la température du corps, de la pression
artérielle, de la production d’urine et même de la pousse des cheveux.
En plus du circadien, il y a d’autres rythmes biologiques, comme le
rythme circamensuel d’environ un mois (par exemple le cycle des
menstruations) ou le rythme saisonnier (par exemple les migrations
4. Thomas Kuhn, La structure des révolutions scientifiques, Flammarion, 1983.
Ce classique a été traduit en plusieurs langues et s’est vendu à plus d’un million
d’exemplaires.
5. Pour un survol des principales approches de la philosophie des sciences au
xxe siècle, voir Jean-René Roy, op. cit.
La science qui surprend 67
d’oiseaux ou l’hibernation). L’élucidation du mécanisme du circadien
est toute récente. Le prix Nobel de physiologie ou médecine de 2017 fut
attribué aux microbiologistes américains Jeffrey Hall, Michael Rosbash
et Michael Young « pour leurs découvertes des mécanismes moléculaires
contrôlant le rythme circadien ». Leurs travaux, qui mirent en évidence
un trio de protéines extraordinaires ainsi que leurs rôles spécifiques,
datent des années 1980 et 1990. L’histoire qui précéda cette découverte
est fascinante.
Tout commença au début du xviiie siècle avec une observation fort
simple par le géophysicien et astronome français Jean-Jacques d’Ortous
de Mairan (1678-1771), intéressé aux effets de la lumière. De Mairan
étudiait la sensitive (mimosa pudica), une plante rampante provenant
de l’Amérique du Sud qu’on retrouve maintenant partout sur la planète.
Remarquant que les feuilles s’ouvraient durant le jour et se repliaient vers
la tige au crépuscule, il plaça quelques plants à la noirceur. À sa surprise,
les feuilles affichèrent le même comportement qu’à la lumière. Il lança
l’idée que ce qui animait la plante pourrait être endogène, c’est-à-dire
quelque chose à l’intérieur de la plante. En 1729, il écrivait un modeste
commentaire d’une page sur ce comportement de la sensitive : « M. de
Mairan a observé qu’il n’est point nécessaire pour ce phénomène qu’elle
soit au Soleil ou au grand air, il est seulement un peu moins marqué
lorsqu’on la tient toujours enfermée dans un lieu obscur, elle s’épanouit
encore très sensiblement pendant le jour, et se replie ou se referme régu-
lièrement le soir pour toute la nuit… La sensitive sent donc le Soleil sans
le voir en aucune manière6. »
À part des travaux sur la lumière solaire et sur son interaction avec
l’atmosphère terrestre, de Mairan reste peu reconnu pour ses travaux
d’astronomie. On le considère toutefois comme l’ancêtre de la chro-
nobiologie. Dans sa note à l’Académie, de Mairan avertissait déjà que
la compréhension de ce qui déterminait ce comportement des feuilles
de la sensitive allait prendre du temps. Plus tard, d’autres chercheurs y
portèrent attention. En effet, il fallut du temps. Ce n’est qu’à la fin du
6. J.-J. d’Ortous de Mairan, « Observation botanique », Histoire de l’Académie royale
des sciences avec les mémoires de mathématiques et de physique tirés des registres
de cette Académie, 1729, p. 35.
68 Sur la science qui surprend, éclaire et dérange
xixe et au début du xxe siècle qu’il y eut un regain d’intérêt, soit 200 ans
après les travaux de de Mairan. Pour expliquer le phénomène qu’on avait
alors observé chez d’autres plantes et organismes, on fit appel soit à un
mystérieux facteur X, soit à la mémoire que garderait l’organisme de son
comportement sous la lumière, et même à un effet géophysique : une force
inconnue générée de l’intérieur de la Terre déclencherait et maintiendrait
le cycle mystérieux. Tout cela n’était évidemment que spéculation.
Celui qu’on considère comme le père de la discipline moderne de la
chronobiologie est le biologiste anglo-américain Colin Pittendrigh (1918-
1996) (figure 2.1). Dans un programme de recherche exemplaire par sa
rigueur et ses détails, Pittendrigh explora et décrivit le rythme circadien
de la drosophile, la mouche à fruits qui infeste nos cuisines par temps
chaud estival. Il développa les premiers concepts scientifiques d’un méca-
nisme en étendant ses recherches aux petits rongeurs. Le débat se faisait
alors entre ceux qui attribuaient le rythme à un mécanisme interne, et les
autres qui en voyaient la source dans l’environnement où évoluait l’orga-
nisme. Tous les indices mis de l’avant par Pittendrigh favorisaient l’action
d’un mécanisme interne. Mais quel était-il ? La
FIGURE 2.1 Le
compréhension du rythme circadien occupa
biologiste Colin Pittendrigh
considéré comme le père l’essentiel de la longue carrière de Pittendrigh.
de la chronobiologie Au milieu des années 1960, il s’engagea aussi
(photographe inconnu). dans le programme de la NASA d’exploration
de la planète Mars, en particulier la recherche
de la vie sur la planète rouge et les méthodes
d’anticontamination pour éviter de l’infecter
avec les organismes terrestres. Toujours selon
le mot de Banesh Hoffmann du début du cha-
pitre, Pittendrigh fut un des brillants esprits
qui sut distinguer l’or des scories.
Quels sont les rouages qui actionnent et régulent l’horloge moléculaire
interne des êtres vivants ? Comment sont générées et maintenues les
oscillations circadiennes ? Grâce aux avancées des années 1970, les outils
de la biologie moléculaire aidèrent à identifier un premier gène respon-
sable de cette mystérieuse horloge en 1984. On le nomma le gène period.
Nos amis du Nobel de 2017, Hall, Rosbash et Young, coordonnèrent
leurs efforts et découvrirent les mécanismes moléculaires sous-jacents
La science qui surprend 69
aux rythmes circadiens. Encore une fois, la drosophile, par sa courte
longévité de 40 à 50 jours et sa régénération rapide, fut l’organisme de
choix pour cette étude.
Rappelez-vous d’abord que la cellule est entourée d’une membrane enve-
loppant le cytoplasme, substance aqueuse qui occupe une partie impor-
tante de la cellule. Le matériel génétique responsable de la formation
des protéines se retrouve en grande partie dans le noyau des cellules
eucaryotes, celles qui ont un noyau (figure 2.2). Les chercheurs décou-
vrirent que la protéine PER, encodée par le gène period, s’accumulait
dans le cytoplasme de la cellule pour atteindre un pic durant la nuit et
être dégradée durant le jour. Cette oscillation moléculaire d’une période
de 24 heures restait en phase avec le rythme circadien. Le gène period se
trouve dans l’ADN du noyau. Lorsqu’il est exprimé, le gène est transcrit
en ARN messager par l’ARN polymérase et migre dans le cytoplasme
où il sert de gabarit pour la production de la protéine PER (figure 2.7)7.
PER s’accumule dans le cytoplasme avec un certain délai.
FIGURE 2.2 Schéma montrant le gène period, son transcript ARNm (mRNA) et la
production de protéines PER et TIM dans le cytoplasme. En se joignant, PER et TIM
peuvent entrer dans le noyau et bloquer la transcription de period. Source : Fondation
Nobel.
7. Notez bien que, dans ce qui suit, le gène s’écrit en lettres italiques minuscules
(par exemple : period, timeless, doubletime) et la protéine en lettres majuscules
(PER, TIM, DBT).
70 Sur la science qui surprend, éclaire et dérange
Le nouveau défi fut de comprendre le mécanisme qui gardait les quan-
tités de protéines PER en phase avec le rythme circadien. En 1994, les
chercheurs du Nobel 2017 proposèrent que PER bloquait l’activité du
gène period ; il agissait comme facteur inhibiteur de sa propre trans-
cription dans le noyau. Mais comment PER retournait-il dans le noyau ?
La protéine Timeless (TIM) entrait dans la danse. TIM est codée par le
gène tim et transcrit en ARNm tim ; c’est l’ARNm tim qui est traduit en
protéine TIM dans le cytoplasme. C’est là qu’elle se lie à PER. Ainsi liés,
PER et TIM migrent du cytoplasme au noyau et bloquent l’expression de
leurs gènes ainsi que leurs transcriptions. C’est la boucle de rétroaction
négative ; elle ne s’opère pas seulement par la transcription mais par
toute la cascade moléculaire. Cette série d’évènements moléculaires a
lieu sur une période de 24 heures. Qu’est-ce qui maintient la rythmicité
de ces oscillations ? D’autres protéines, dans le cytoplasme et le noyau,
par exemple la protéine doubletime (DBT), découverte en 1998, intera-
gissent avec PER et TIM en contrôlant leurs rythmes d’accumulation et
de dégradation. Ces oscillations des quantités de PER et TIM permettent
de garder le temps, de conserver un cycle de 24 heures et de rester syn-
chrone avec les cycles jour/nuit de l’environnement.
Tout comme nous ajustons nos horloges de temps à autre, la présence de
la lumière n’est requise que périodiquement. C’est le déclencheur externe,
le stimulus qui met en marche la cascade moléculaire. En résumé, les
gènes-horloges ou per produisent des protéines PER aux 24 heures. Ils
produisent aussi d’autres protéines qui inhibent leurs propres expres-
sions, et d’autres qui maintiennent la vie oscillatoire des organismes. Le
principe est présent bien au-delà de la simple mouche à fruits ; il est actif
dans les cellules d’autres espèces, Homo sapiens inclus.
Nous prenons conscience du rythme circadien lorsqu’en voyageant en
avion nous parcourons plusieurs fuseaux horaires en quelques heures
ou lorsque nous décalons nos activités diurnes vers la nuit. Le décalage
horaire est difficile pour l’organisme et l’ajustement prend un certain
temps (jusqu’à deux semaines), le délai nécessaire à la machinerie cir-
cadienne pour se resynchroniser avec un nouveau rythme de lumière.
L’exposition nocturne à la lumière artificielle, comme dans le travail de
nuit, est perturbatrice, surtout si l’éclairage est intense. Comme astro-
nome, je tenais mordicus à avoir des éclairages fortement tamisés dans
La science qui surprend 71
les salles de contrôle des observatoires où je travaillais la nuit. Cela est
critique pour les astronautes de la Station spatiale internationale qui y
effectuent des séjours de six mois. Le vaisseau fait le tour de la Terre
chaque heure et demie, avec environ 16 levers et couchers de Soleil par
24 heures. L’environnement des vaisseaux spatiaux est ajusté pour repro-
duire la longueur et le tempo du cycle lumière-noirceur de la journée à
la surface de la Terre.
On observe aussi de curieux comportements chez les animaux et les
plantes des régions polaires où le cycle lumière-noirceur varie de façon
importante avec les saisons. Certains manifestent leurs cycles circadiens
seulement à certains moments de l’année, quand il y a effectivement
couchers et levers du Soleil. Par exemple, les rennes du nord de la Scan-
dinavie montrent le rythme circadien en automne, en hiver et au prin-
temps, mais ne l’ont pas en été lorsque la lumière est continue.
FIGURE 2.3 Schéma montrant l’expression du rythme circadien et du rythme
biologique chez l’humain. Source : Creative Commons/YassineMrabet.
Quelles furent les surprises ? 1 : Le rythme circadien est un mécanisme
endogène. 2 : Le rythme circadien est universellement présent tant chez
les organismes simples que chez les organismes complexes. 3 : Alors
72 Sur la science qui surprend, éclaire et dérange
qu’on connaissait le phénomène d’horloge biologique, ce sont les déve-
loppements récents de la biologie moléculaire qui permirent la com-
préhension du rythme circadien dans les années 1980 et 1990. 4 : Un
trio de trois protéines, PER, TIM et DBT, opère en boucle rétroactive
pour leur production, leur régulation et leur fréquence oscillatoire. 5 : La
compréhension du rythme circadien a maintes retombées pratiques dans
la vie de tous les jours. Par exemple, la chronopharmacologie étudie les
relations entre la prise des médicaments et le rythme circadien, ce qui
permet d’adapter les thérapies de façon appropriée.
On ignore l’origine exacte du rythme circadien dans l’évolution de la vie.
Il semble dater de la montée brutale du taux d’oxygène dans l’atmosphère
terrestre, la Grande Oxydation qui eut lieu il y a environ 2,4 milliards
d’années. C’est donc une vieille horloge, mais d’un rôle et d’une fiabi-
lité extraordinaires. Comme le disait éloquemment Pittendrigh, « les
organismes vivants ont de petits ordinateurs internes avec leurs propres
algorithmes et un oscillateur de référence très bien réglé8 ».
Le poids de l’air, vacuistes contre plénistes
Il y a quelques années, le maire d’une importante municipalité du Québec
déclarait qu’on ne pouvait parler de gigatonnes d’émissions de gaz à effet
de serre parce que « l’air, ça ne pèse rien ! » Vous serez étonné de constater
que ce préjugé reste bien ancré dans l’esprit de plusieurs, un peu comme
celui que c’est le Soleil qui tourne autour de la Terre9. Assez curieusement,
la mesure du poids de l’air au milieu du xviie siècle mena à une petite
révolution ainsi qu’à l’abolition du préjugé millénaire anti-vide10. En
effet, l’existence et la nature du vide ont suscité des débats depuis tous
les temps. Pour Lucrèce et Démocrite, l’existence du vide était nécessaire
pour permettre le déplacement des atomes et l’action aléatoire qui les
fait dévier, s’entrechoquer et se souder pour construire les choses et les
8. Colin Pittendrigh, Conférence donnée à l’Université de la Virginie, 20 janvier
1992.
9. À l’inverse, certains pensent que l’apesanteur est causée par l’absence d’air.
10. Le lecteur lira un excellent résumé de la suite dans Du scribe au savant, Y. Gin-
gras, C. Limoges et P. Keating, Boréal, 1998, p. 270-276.
La science qui surprend 73
êtres qu’on voit autour de nous. Mais pour Aristote (384-322 av. J.-C.),
le vide était impossible : toute rareté susceptible de créer un vide devait
être immédiatement comblée. Dans le vide, présumait-il, un corps en
mouvement n’aurait aucun obstacle et se déplacerait instantanément. Ce
jugement fondé sur une prémisse incorrecte fit autorité jusqu’à Galilée
(1564-1642).
À partir de l’invention de la pompe à piston au iiie siècle av. J.-C., dont
un exemple familier est la pompe à bras de mon enfance, et la mise en
œuvre de bien d’autres machines hydrauliques au Moyen Âge, on avait
noté de curieux comportements. Un casse-tête pratique était qu’on ne
pouvait pas aspirer l’eau d’une profondeur plus grande que 9 mètres. Le
physicien et mathématicien italien Evangelista Torricelli (1608-1647),
qui conseillait les fontainiers de Florence, montra qu’une pompe créant
un vide parfait élèverait l’eau à 10,33 m, mais pas plus. Par les expé-
riences avec ses célèbres tubes inversés, l’habile Torricelli avait mis en
évidence l’action du poids de l’air, c’est-à-dire de la pression atmosphé-
rique (figure 2.4). Torricelli venait d’inventer ainsi le baromètre dans sa
forme la plus simple. La pression atmosphérique est tout simplement le
poids de la colonne d’air au-dessus de nos têtes ; c’est elle qui pousse l’eau
et la fait monter si l’on crée un vide pour qu’elle s’y déplace.
Le jeune Torricelli continua d’expérimenter et montra que tous les
liquides étaient sujets à une limite hydraulique. En particulier, le mer-
cure, qui est 13,56 fois plus dense que l’eau, ne peut s’élever qu’à environ
74 cm, soit le quatorzième de la hauteur de la colonne d’eau. L’intrigue
était que le tube de Torricelli rempli de mercure, puis reversé dans une
soucoupe, montrait toujours le haut du tube complètement dégagé
(figure 2.4). Qu’y avait-il là ? Torricelli parlait de vide, un concept honni
des aristotéliciens. Mais quelle était la nature de ce vide ? D’autres expé-
riences révélèrent que le son ne s’y propageait pas, et que la lumière n’y
rencontrait aucune obstruction. Les bougies qu’on y introduisait s’étei-
gnaient et les insectes y mouraient.
Il existait un réseau serré de chercheurs d’Europe continentale et d’An-
gleterre qui communiquaient fréquemment par écrit ou par visite. Les
nouvelles étonnantes, comme celles résultant des expériences de Tor-
ricelli, faisaient leur chemin rapidement. Le mathématicien français
74 Sur la science qui surprend, éclaire et dérange
Marin Mersenne (1588-1648), membre de l’ordre des Minimes d’ermites
mendiants, était un érudit remarquable avec des connaissances dans
tous les domaines. Il écrivait et voyageait beaucoup, jouant un rôle d’in-
termédiaire fort efficace, d’autant plus qu’il privilégiait l’expérience, la
jugeant préalable aux théories. Mersenne aurait inspiré le jeune Blaise
Pascal (1623-1662). Soutenu par son père Étienne Pascal, Blaise refit à
23 ans les expériences de Torricelli. Il étendit son expérimentation pour
confirmer l’effet de l’altitude par des mesures effectuées avec son beau-
frère Florin Périer au Puy-de-Dôme, le beau volcan endormi d’Auvergne
de 1465 m. En effet, la hauteur de la colonne de mercure soutenue dans
un tube de mercure diminuait avec l’altitude, un résultat que Pascal
publia en 1647 dans Nouvelles
expériences touchant le vide.
FIGURE 2.4 Le baromètre de mercure
de Torricelli – un simple tube de verre rempli
Pascal, scientifique rigou-
de mercure et renversé dans une soucoupe. reux et vacuiste convaincu,
Le vide AC se superpose à la colonne de affirmait sans hésitation
mercure de 74 cm de hauteur. qu’il y avait un vide véritable,
Source : Wikipedia Commons. absence complète de matière,
dans la partie supérieure du
tube renversé de Torricelli.
La proposition du vide des
physiciens représentait une
attaque frontale des postu-
lats aristotéliciens et carté-
siens. Tout cela mit le feu aux
poudres entre « vacuistes » et
« plénistes ».
Descartes (1596-1650) pro-
posa qu’une matière non per-
ceptible occupait le haut du
tube ; il ne pouvait pas y avoir
de vide. Pléniste, Descartes
reçut l’appui toutefois modéré
d’une grande autorité, celle du
philosophe anglais Thomas
Hobbes (1588-1679). Ce
La science qui surprend 75
dernier engagea plus tard une vive joute d’idées avec l’expérimentateur
physicien Robert Boyle (1627-1691), ce dernier ayant été inspiré par les
idées et les expériences d’Otto von Guericke, que je décrirai plus bas.
Avec d’autres, Hobbes soulevait avec justification que la perception,
signifiant l’expérimentation, avait ses limites. Dans leurs objections,
les plénistes en appelaient à la complexité des montages expérimen-
taux, par exemple le problème des fuites ou d’étanchéité des pompes
utilisées (figure 2.5). Ils critiquaient la fiabilité relative des expériences
et la difficulté des différents expérimentateurs à produire les mêmes
résultats. Pour les expérimentateurs œuvrant en terrain nouveau, ces
difficultés ne représentaient pas des objections fondamentales. Les his-
toriens des sciences britanniques Stevin Shapin et Simon Schaffer ont fait
une analyse détaillée du célèbre et long débat entre le physicien Boyle et
le philosophe Hobbes, montrant que cet épisode fut fondamental dans
le développement moderne de la science expérimentale11.
Si quelqu’un joua un rôle déterminant pour mettre le vide en vedette
et faire avancer le concept, ce fut le flamboyant inventeur et homme
politique allemand Otto von Guericke (1602-1686). En 1654, il inventait
une nouvelle pompe à air qu’il perfectionna en introduisant le clapet
anti-retour. S’inspirant des travaux de Torricelli, il fit des expériences
spectaculaires qui poussèrent dans l’ombre les spéculations philoso-
phiques des plénistes. Von Guericke était aussi habile à jouer pour la
galerie. Dès 1654, il procéda d’abord à des tests où des humains tentaient,
sans succès, de tirer des pistons de pompage de chambres à vide. Sa pre-
mière grande démonstration eut lieu le 8 mai de la même année devant
l’empereur Ferdinand III et les notables de Regensbourg (Ratisbonne)
en Bavière. En 1656, il répéta l’expérience à Magdebourg, sa ville natale
dont il était le maire. Il rattacha deux hémisphères de cuivre de 40 cm de
diamètre l’un contre l’autre, puis purgea l’air de l’intérieur de la cavité
sphérique. Un attelage de huit chevaux fut attaché de part et d’autre des
hémisphères, et ne put les séparer (figure 2.6). Ayant fait rentrer l’air, les
hémisphères se séparèrent tout doucement. Von Guericke répéta l’expé-
rience avec 24 chevaux à Berlin. Plus fondamentalement, il démontra
11. Steven Shapin et Simon Schaffer, Leviathan and the Air Pump, Hobbes, Boyle,
and Experimental Life, Princeton University Press, 2011.
76 Sur la science qui surprend, éclaire et dérange
FIGURE 2.5 Sketch de la pompe à air de Robert Boyle avec ses différentes pièces
et composantes présenté dans New Experiments Physico-Mechanical : Touching the Spring
of Air and their Effects (1660). Source : Edinburgh University Library.
La science qui surprend 77
que les hémisphères n’étaient pas attirés par le vide, mais pressés par la
« pression des fluides environnants ». Pour des hémisphères de 20 cm
de diamètre, il calcula qu’il fallait une force de deux tonnes pour les
séparer. Même le jésuite allemand Kaspar Schott, adversaire des « nou-
velles sciences », s’étonna des expériences de von Guericke : « Je n’hésite
pas à déclarer que dans ce domaine je n’ai jamais vu quelque chose de
plus extraordinaire. Et je pense que depuis la création du monde on n’a
jamais rien vu de tel sous le soleil12. » Pour une surprise, von Guericke
en avait créé toute une.
Allant au fond des choses, von Guericke expliqua la nature de l’air comme
un fluide. Avec les spectaculaires coups de semonce de von Guericke,
les plénistes recherchaient des contre-arguments. Répondant en 1656 au
docteur Deusing qui affirmait que le poids de l’atmosphère, s’il était réel,
écraserait inéluctablement tous les êtres vivants, von Guericke répliqua :
« Dr Deusing doit garder à l’esprit que l’air ne pèse pas uniquement sur
notre tête, mais s’écoule tout autour de notre corps. Tout comme il exerce
une pression sur notre chef, il presse sur la plante des pieds par en des-
sous et simultanément sur toutes les parties du corps et dans toutes les
directions. » De plus, nous sommes avec tous les organismes vivants
comme des éponges, l’air nous infiltre de partout.
L’illustre astronome hollandais et physicien Christian Huygens (1629-
1695) s’employa à répéter le travail et les expériences de von Guericke
et de Robert Boyle. Son intérêt était d’observer l’effet de la pression
atmosphérique sur la propagation de la lumière et de comprendre les
propriétés de l’air raréfié. Ce faisant, Huygens perfectionna la machine
pneumatique de Boyle. Il eut initialement besoin de l’aide de ce dernier,
qui galamment se rendit à Paris où travaillait alors Huygens. Les résultats
obtenus différaient légèrement de ceux de Boyle, mais les deux cher-
cheurs expliquèrent les divergences par les différences de montage et de
protocole. Pour les observateurs extérieurs qui non seulement avaient le
vide en horreur, mais refusaient d’accepter l’incertitude inhérente à tout
travail expérimental, c’était de mauvais augure pour les promoteurs du
vide et du poids de l’air. « En somme, à l’époque comme aujourd’hui, il
12. Gaspar Schott, Mechanica hydraulica-pneumatica, Würtzburg, 1657.
78 Sur la science qui surprend, éclaire et dérange
FIGURE 2.6 Gravure illustrant la célèbre expérience de la chambre à vide de Magdebourg par von
Guericke illustrée dans Experimenta nova (1672). Gravure de Caspar Schott.
n’était pas facile d’en arriver à un accord sur la nature des effets observés
– et dans certains cas sur l’existence même de ces effets. Ce n’est qu’à
moyen terme qu’une conception finit par s’imposer. Boyle comprit que
les disputes sur la question de la nature du vide étaient surtout verbales et
il prit soin de rappeler que sa machine prédisait un “vide expérimental”
et qu’il s’abstenait d’émettre une opinion sur l’essence même de cet
espace “vide”13. » Torricelli et Pascal avaient été plus fermes dans leur
conclusion : le vide est un espace où toute matière est absente.
13. Yves Gingras, Camille Limoges et Peter Keating, op. cit., p. 276.
La science qui surprend 79
Entre l’expérience initiale de Torricelli du tube de mercure renversé
et les spectaculaires démonstrations d’Otto von Guericke, il s’écoula
peu de temps. Qu’est-ce qui rend surprenante la découverte du vide
et du poids de l’air ? 1 : En moins d’une décennie, le concept bimillé-
naire aristotélicien de l’« horreur du vide » fut totalement déboulonné.
2 : Simultanément, on découvrit le poids de l’air et l’on expliqua la raison
des limites intrinsèques des pompes hydrauliques. 3 : Torricelli avait
inventé le baromètre en proposant le concept de pression barométrique.
4 : Otto von Guericke mit en évidence l’efficacité du vide et de la pression
atmosphérique au moyen de démonstrations publiques spectaculaires.
5 : Puis suivit la loi Boyle-Mariotte : à température constante, le produit
pression × volume est aussi constant. Conséquence pratique à tout cela :
la démonstration de l’existence du vide physique se fit en parallèle avec
la mise en évidence du poids de l’air et de la pression atmosphérique
qui fluctue non seulement avec l’altitude, mais aussi dans le temps. Von
Guericke utilisa le baromètre pour prédire l’arrivée d’une tempête des
heures à l’avance, une première météorologique.
On sait aujourd’hui que le vide absolu n’existe pas. Les vides les plus
poussés qu’on produit en laboratoire atteignent 100 nanopascals, soit
un milliardième de la pression atmosphérique normale au niveau de
la mer ; cela représente tout de même la présence de 100 000 molécules
par centimètre cube14. Même dans l’espace sidéral entre les galaxies, on
trouve toujours quelques atomes ou ions pour chaque mètre cube de
volume. Les idées plénistes perdurèrent jusqu’au xxe siècle avec l’hypo-
thétique éther luminifère, mis au rancart par les expériences de Morley–
Michelson entre 1881 et 1887. Avec la relativité restreinte, Einstein mit
le dernier clou au cercueil des plénistes en 1905. C’est au xxe siècle, avec
la physique quantique, que les physiciens ont appris à mieux définir le
vide ; ils lui attribuent même une énergie, l’énergie du vide produite par
des particules virtuelles (des paires électron-positron) qui dans un bref
instant apparaissent et s’annihilent. Les philosophes, ne demeurant pas
14. La pression atmosphérique moyenne au niveau de la mer est d’environ 101,3 kilo-
pascals, soit 1013 millibars.
80 Sur la science qui surprend, éclaire et dérange
en reste, abordent la question plus poussée de ce qu’est le néant, et encore
plus osée de ce que « rien » est15. Ce n’est plus le terrain de la physique.
L’expansion de l’univers, le cauchemar d’Einstein
Dans la remarquable décennie allant de 1915 à 1925, les astronomes
démontrèrent que les « nébuleuses spirales » n’étaient pas des objets
appartenant à la Voie lactée, mais des mondes analogues à notre propre
système d’étoiles. On ignora longtemps de quoi elles étaient consti-
tuées, et l’on savait encore moins comment établir leurs distances. Ces
problèmes furent résolus au début du xxe siècle : leur apparence diffuse
trahissait tout simplement les énormes distances auxquelles elles se
trouvent. À partir de 1917, les astronomes américains Heber Curtis (1872-
1942) et George Ritchey (1864-1945) reconnurent l’existence dans des
« nébuleuses » familières d’un type d’étoiles explosives connues dans la
Voie lactée comme novae. De très faible brillance, ces étoiles devenaient
tout d’un coup et pendant quelques semaines extrêmement brillantes.
Les comparant avec des objets similaires de notre Voie lactée, on utilisa
ces novae comme étalon de mesure de distance. Curtis et Ritchey confir-
mèrent les très grandes distances des « nébuleuses spirales » observées
hors du plan défini par la bande lumineuse de la Voie lactée ; on mesura
ces distances en millions, voire en dizaines de millions d’années-lumière.
Après des siècles de débats et de spéculations interminables, ces décou-
vertes nous ouvraient au monde des galaxies16. En 1924, l’astronome
américain Edwin Hubble résolvait de façon définitive le casse-tête de
détermination des distances avec un étalon de distance encore plus précis
que les novae. Il utilisa un autre type d’étoile variable, les céphéides, de
véritables horloges qui obéissent à une relation précise entre l’amplitude
de la variation lumineuse de l’étoile et la période de cette variation17.
15. Dans certains collèges du Québec des années 1960, on enseignait en philosophie
thomiste que le vide n’existait pas. Et dans le cours de physique qui suivait, on
enseignait le poids de l’air et la nature du vide selon Blaise Pascal.
16. Jean-René Roy, Unveiling Galaxies, The Role of Images in Astronomical Discovery,
Cambridge University Press, 2018.
17. La partie externe de ce type d’étoile se contracte et se dilate périodiquement,
accompagné par un changement de température, le tout se traduisant en une
La science qui surprend 81
Le mérite de Hubble fut d’avoir reconnu et identifié les céphéides dans
des objets beaucoup plus lointains (entre autres la grande nébuleuse
d’Andromède) et de les avoir utilisées pour une détermination précise
de leurs distances.
Avec la mise en place du monde des galaxies et l’établissement d’une
méthode fiable pour mesurer leurs distances colossales, les astronomes
découvrirent un phénomène fantastique : l’univers est en expansion.
Voici l’histoire de cette découverte surprise.
Sans le savoir et sans le vouloir, Albert Einstein fut l’éclaireur qui ouvrit
la voie vers cette découverte stupéfiante. Comme je l’ai décrit au cha-
pitre 1, Einstein avait proposé dans ses travaux de 1915-1916 une nouvelle
théorie de la gravitation qui constitue son plus grand héritage intellec-
tuel. Postulant l’invariance des lois de la physique (elles sont les mêmes
où que l’on soit dans l’univers et quel que soit le moment), Einstein établit
que l’espace et le temps ne sont pas absolus. Cette simple assertion a des
conséquences phénoménales. Il unifia l’espace, le temps et la gravita-
tion pour décrire un monde à géométrie déformable à quatre dimen-
sions, un monde avec des creux et des plissements causés par les grandes
concentrations de masses que sont les étoiles, les galaxies et les amas de
galaxies. Le degré de courbure de l’espace dépend de la quantité et de la
concentration de la masse. Le temps n’est pas un flot continu d’instants
inaltérables. Il calcula que le ralentissement des horloges dépendait de la
force d’accélération ou de la gravité. La masse détermine l’écoulement du
temps : les horloges battent moins vite à la surface de la Terre que dans
l’espace où la force de gravité est plus faible ou absente.
La courbure de l’espace par les masses fut démontrée lors de l’éclipse
de 1919 ; on photographia le champ d’étoiles derrière le Soleil caché par
la Lune lors de l’expédition menée par Arthur Eddington mentionnée
au chapitre précédent. En effet, les positions des étoiles vues autour du
Soleil étaient décalées radialement vers l’extérieur d’un angle de l’ordre
de 1,5 seconde d’arc, exactement comme le prédisait Einstein. Le ralen-
tissement des horloges fut démontré par plusieurs expériences dans les
variation régulière de la luminosité de l’étoile. L’étoile polaire est une variable
de type céphéide.
82 Sur la science qui surprend, éclaire et dérange
années 1950 ; il est essentiel d’en tenir compte pour assurer le bon fonc-
tionnement du système mondial de positionnement (GPS).
Mais le nouvel espace-temps einsteinien dissimulait un secret plus spec-
taculaire : l’espace-temps de la relativité générale est dynamique, une
conséquence gênante de la théorie, voire carrément répugnante d’un
point de vue philosophique. Einstein refusa d’abord net et sec.
À la surprise et au désarroi du père de la relativité générale, les équations
décrivant le nouvel univers menaient à la conclusion que l’espace-temps
qu’il avait créé ne pouvait pas être en équilibre, c’est-à-dire demeurer
stationnaire. Comme un crayon posé sur sa pointe tombe inéluctable-
ment d’un côté ou de l’autre, l’univers einsteinien devait se dilater ou se
contracter. Cherchant une solution statique à tout prix, Einstein intro-
duisit dans les équations un terme mathématique, Λ ou lambda, qui
verrouillait contre tout mouvement ; c’était un truc mathématique. Pour
Einstein, l’univers devait demeurer dans un état fixe, où le moment pré-
sent se situait entre un passé éternel et un futur sans fin. Son mythique
lambda assurait un univers confortablement statique, comme celui de
Newton. Toutefois, deux « jeunes loups » travaillant indépendamment
et ignorant les travaux de l’un et de l’autre développèrent à partir des
mêmes équations de la relativité générale une tout autre perspective ; elle
mena à un résultat sans précédent.
Le jeune physicien et mathématicien russe Alexandre Friedmann
(1888-1925) fut un brillant étudiant de la nouvelle théorie. Il accepta
la solution statique, mais il explora aussi les solutions dynamiques des
équations qu’Einstein avait tout simplement ignorées. Friedmann publia
ses résultats en allemand en 1922 et 1924. Il ne fit pas de lien entre les
solutions qu’il avait mises de l’avant et les nouvelles observations astro-
nomiques ; probablement les ignorait-il. L’astronome américain Vesto
Slipher (1875-1969) avait en effet montré en 1917 qu’une majorité de
galaxies paraissaient s’éloigner de la Voie lactée à très grande vitesse.
Friedmann, travaillant relativement isolé du reste du monde, se concen-
trait sur les « maths ». Il spécula que « le rayon de courbure du monde
[…] augmente constamment en fonction du temps ; et des solutions
avec le rayon de courbure changeant de manière cyclique dans le temps
sont aussi viables : l’Univers se contracte jusqu’en un point, puis part à
La science qui surprend 83
nouveau et accroît par la suite son rayon à partir de ce point jusqu’à un
certain rayon plus grand. À nouveau, diminue son rayon de courbure,
se transformant encore en un point, etc. » Pour visualiser son point de
vue quelque peu iconoclaste, Friedmann rappela au lecteur la mythologie
hindoue des univers cycliques et de « la création du monde à partir de
rien18 ». Malheureusement, Friedmann disparut trop tôt, emporté par la
fièvre typhoïde, alors qu’il n’avait que 37 ans. Mais sa vision plutôt fan-
tastique d’un univers en ballottement ne demeura pas longtemps ignorée.
En même temps que Friedmann, un jeune cosmologiste belge menait sa
propre analyse de la relativité générale. Rapidement Georges Lemaître
(1894-1966) eut quelque chose à dire sur la structure et l’origine de l’uni-
vers19. Engagé comme adjudant pendant les quatre ans du tragique conflit
de la Première Guerre mondiale, Lemaître retourna aux études en 1919.
Il s’intéressa tout de suite à « la physique d’Einstein ». Tout juste ordonné
prêtre, il entra à l’Université de Cambridge en Angleterre en 1923, où
il suivit les cours et travailla avec le grand astrophysicien britannique
Arthur Eddington (1882-1944), qualifié alors d’une des dix personnes
au monde qui pouvaient vraiment comprendre la relativité générale. Il
passa l’année suivante au Harvard College Observatory (Cambridge,
États-Unis), puis s’inscrivit dans la même ville au doctorat au Massachu-
setts Institute of Technology, travaillant sur plusieurs sujets. En 1926, il
soutint sa thèse avec succès.
Mathématicien hors pair manifestant un sens physique pénétrant,
Lemaître plongea dans la relativité générale. Comme Friedmann, il
retrouva et démontra les solutions d’univers soit en expansion, soit en
contraction. En 1927, il publia un des articles les plus révolutionnaires de
toute la science du xxe siècle, intitulé « Un univers homogène de masse
constante et de rayon croissant rendant compte de la vitesse radiale des
18. Cité dans E. A. Tropp, V. Ya. Frenkel et A. D. Chernin, Alexander A. Friedmann :
The Man Who Made the Universe Expand, Cambridge University Press, 1993,
p. 157.
19. Dominique Lambert, Un atome d’univers. La vie et l’œuvre de Georges Lemaître,
Éditions Lessius, 2011.
84 Sur la science qui surprend, éclaire et dérange
nébuleuses extra-galactiques20 ». La seconde partie du titre qui relie les
solutions mathématiques aux observations, ce que n’avait pas fait Fried-
mann, est absolument critique. Pour Lemaître, les équations donnaient
deux options, contraction ou expansion. Les observations qu’avait en
main Lemaître favorisaient nettement l’expansion.
Lemaître venait de découvrir l’expansion de l’univers (figure 2.7). Pre-
nons une analogie bidimensionnelle, un ballon sur la surface duquel on
colle les pastilles représentant les galaxies. On souffle dans le ballon,
il gonfle : la membrane s’étire. Les pastilles ne bougent pas, mais elles
s’éloignent les unes des autres. Il en est de même pour l’espace en expan-
sion qui éloigne les galaxies les unes des autres, d’où ce mouvement
apparent de fuite qu’on observe de tout point dans l’univers. C’est l’espace
qui s’étire et non pas les objets qui bougent.
L’article de Lemaître était rédigé en français et publié dans une revue
des Presses universitaires de France. Il fut aussi recensé par les listes de
publications en usage à l’époque. Pourtant ce travail de Lemaître fut
totalement ignoré pendant quatre ans, jusqu’à ce que son maître de Cam-
bridge, Eddington, traduise et publie son article de 1927 dans un journal
d’astronomie britannique en 1931. Cette fois-ci, on y porta attention.
On se rendit compte avec stupéfaction que le jeune cosmologiste belge
avait déduit quatre ans plus tôt ce qui fut appelé la « loi de Hubble ». Les
historiens ont clairement établi que Georges Lemaître avait découvert
que l’univers était en expansion avant toute autre personne.
Entretemps à l’Observatoire du mont Wilson en Californie, qui utilisait
les plus puissants télescopes, les astronomes américains Edwin Hubble et
Milton Humason (1891-1972) avaient entrepris un ambitieux programme
de photographie des galaxies et de mesure de leurs vitesses apparentes
par spectroscopie. En 1931, ils publièrent leurs résultats, confirmant
l’expansion de l’univers. Hubble exprima toujours des doutes sur la réa-
lité des vitesses de récession des galaxies. Les historiens suisses Harry
Nussbaumer et Lydia Bieri ont passé en revue les articles et les notes de
20. Georges Lemaître, Annales de la Société scientifique de Bruxelles, 1927, vol. 47A,
p. 51-83.
La science qui surprend 85
FIGURE 2.7 Le physicien américain Robert Millikan et le cosmologiste Georges
Lemaître au California Institute of Technology en janvier 1933.
Source : Archives Georges Lemaître, Université catholique de Louvain.
86 Sur la science qui surprend, éclaire et dérange
travail de Hubble21. Leur conclusion est indéniable : Hubble ne croyait
pas que les vitesses de récession étaient réelles ni qu’elles signifiaient
que l’univers était en expansion. Donc, Hubble, que plusieurs affirment
avoir été le découvreur de l’expansion de l’univers, ne croyait pas en
l’expansion de l’univers !
En résumé, la découverte de l’expansion de l’univers se fit sur une période
relativement courte, de l’article de Lemaître de 1927 jusqu’à 1931, quand
l’immense compilation d’observations par Hubble et Humason confirma
l’extraordinaire intuition de Lemaître. Dominique Lambert, le biographe
de Lemaître, décrit bien la raison de l’indifférence initiale : l’article révo-
lutionnaire de 1927 du jeune cosmologiste belge ne reçut pas l’attention
qu’il eut dû recevoir à l’époque, mais seulement plus tard, parce que la
communauté scientifique n’était pas prête à accepter l’idée d’un univers
en expansion22.
On peut affirmer que cette découverte épique fut une œuvre collective :
Einstein, Friedmann et Lemaître sur le plan théorique ; Slipher, Hubble
et Humason sur le front des observations. Le tout avec des réticences
évidentes de la part de certains joueurs. On raconte que, lors de leurs
premières rencontres, Einstein qui connaissait le travail de Lemaître
lança à ce dernier que ses mathématiques étaient magnifiques, mais que
« sa physique (l’expansion) puait ! » Einstein, alors le scientifique le plus
illustre de la planète, avait 48 ans et Lemaître, qui en avait 33, venait
tout juste de terminer son doctorat. Mais devant l’évidence des obser-
vations, Einstein se rallia à la solution dynamique de Lemaître en 1931,
pour lequel il exprima le plus grand respect. Einstein aurait affirmé que
son introduction de Λ, le terme lambda qui forçait artificiellement une
solution statique à ses équations, fut une bêtise.
Deux autres développements plus récents ont découlé de la découverte
de l’expansion de l’univers. Si l’univers était en expansion dans un passé
lointain, il devait être beaucoup plus petit, plus dense et plus chaud.
21. Harry Nussbaumer et Lydia Bieri, Discovering the Expanding Universe, Cam-
bridge University Press, 2009.
22. Dominique Lambert, Un atome d’univers. La vie et l’œuvre de Georges Lemaître,
Éditions Lessius, 2011.
La science qui surprend 87
Lemaître revint à la charge en 1931 avec une idée iconoclaste. Il proposa
l’idée de « l’atome primitif », posant ainsi les fondements de la théorie du
big bang. Toujours aussi créatif, il fit appel à la toute nouvelle physique
quantique pour appuyer son hypothèse de l’applicabilité de la physique
dans des conditions extrêmes23.
Une autre découverte allait suivre à la fin du xxe siècle. Si l’univers était
en expansion, cette expansion devait être sujette à un ralentissement
subtil dû à la présence de la matière, celle qui est causée par l’attraction
réciproque des masses de toutes les galaxies remplissant l’univers. Deux
équipes d’astronomes entreprirent un grand programme d’observa-
tion de milliers de galaxies pour mesurer ce ralentissement et, de là,
dériver la masse totale de l’univers. Les équipes publièrent les résultats
en 1998. Grande surprise : l’expansion ne ralentissait pas, elle accélérait !
Imaginez, vous lancez une balle en l’air et, au lieu de la voir retomber,
elle s’éloigne de vous en accélérant. Les chefs des équipes d’astronomes
qui firent cette étonnante découverte, les astronomes américains Saul
Perlmutter, Adam Reiss et l’Australien Brian Schmidt, ont obtenu le
prix Nobel de physique de 2011. Comment expliquer l’accélération de
l’expansion : on n’en a aucune idée, même si nombre d’hypothèses sont
proposées. Rassemblés sous le parapluie d’énergie noire, les différents
scénarios d’explication sont réintroduits dans les équations de la relati-
vité générale sous le terme Λ. Einstein doit se retourner dans sa tombe.
La relativité générale cessera-t-elle un jour de nous étonner ? Le chemi-
nement spectaculaire de la théorie de la relativité générale et les atti-
tudes d’Einstein tout au long de sa vie illustrent de façon magnifique
la thématique du chapitre 1, la science bouge sans arrêt. Comme je l’ai
montré dans ce chapitre, certaines découvertes sont tellement surpre-
nantes qu’elles désarçonnent les scientifiques – même, parfois, leurs
concepteurs : parlez-en à Einstein et à Hubble.
23. Georges Lemaître, « The Beginning of the Word from the Point of View of
Quantum Theory », Nature, 1931, vol. 127, p. 706. L’article révolutionnaire de
Lemaître occupait à peine une demi-page et débordait de brillantes idées nou-
velles. L’article partageait la page avec un article intitulé « Insects remains in the
guts of a cobra ».
88 Sur la science qui surprend, éclaire et dérange
Pour clore ce chapitre des surprises scientifiques, je veux rappeler une
surprise associée au génome humain, dont on a complété le séquençage
relativement récemment 24. 1re surprise : notre génome ne compte que
19 000-20 000 gènes, alors qu’on pensait qu’il en comportait entre 30 000
et 40 000, voire 100 000 initialement. 2e surprise : 20 000 gènes, ce n’est
pas énormément plus que la souris. Comment nous humains, êtres si
différents…, n’avons-nous pas plus de gènes que la souris ? Voilà qui
remettait une nouvelle fois l’humain à sa place parmi les êtres vivants.
3e surprise : il y a beaucoup plus de protéines que de gènes. Il y avait aupa-
ravant une sorte de dogme qui disait : 1 gène – 1 protéine – 1 fonction.
Ce dogme est tombé avec le séquençage du génome humain. On s’est
aperçu qu’un gène pouvait être transcrit en plusieurs ARNm différents,
donc codé pour plusieurs protéines. 4e surprise : il y a beaucoup d’ADN
dit « poubelle », parce qu’il ne semble pas codé pour des protéines, mais
on s’est aperçu que cet ADN poubelle ne sert pas à rien, mais comporte
beaucoup de sections régulatrices. Tout cela a mené à revoir la définition
du gène25.
24. Je remercie Valérie Levée de m’avoir proposé ce bel exemple de 20 000 gènes du
génome humain.
25. Mark B. Gerstein, et collab., « What is a gene, post-ENCODE ? History and
updated definition », Genome Research, 2007, vol. 17, p. 669-681.
3
La science qui éclaire
L’important, c’est que, dans les sciences, on peut
toujours corriger, on peut obtenir des vérités
de plus en plus raffinées et précieuses…
La science tend à des approximations
sans cesse meilleures.
Mario Bunge1
Par savoirs qui éclairent, je désire décrire la science qui organise, qui
effectue la mise en ordre d’un ensemble de faits ou met dans une forme
révélatrice des connaissances acquises depuis un temps plus ou moins
long.
On ne pourrait donner meilleur exemple de la systématisation d’en-
sembles de savoirs que celui qui a été accompli par le grand naturaliste
suédois Carl von Linné, ou Linnaeus (1707-1778), qui créa la nomencla-
ture binomiale pour classifier tous les organismes. Deux mots latins,
décrivant d’abord l’espèce puis le genre, permettaient d’organiser de
façon systématique tout le vivant ; par exemple, Homo sapiens pour
nommer les membres de l’espèce humaine moderne, acer saccharum
pour l’érable à sucre, solanum tuberosum pour la pomme de terre, ou
canus lupus familiaris pour le chien (le troisième qualificatif indiquant
1. Laurent –Michel Vacher, Entretiens avec Mario Bunge. Une philosophie pour l’âge
de la science, Liber, 1993, p. 61.
90 Sur la science qui surprend, éclaire et dérange
que c’est une espèce domestiquée). Dans un célèbre ouvrage paru en 1759,
von Linné présenta son système et classifia ainsi environ 6 000 espèces
végétales et 4 400 animales (figure 3.1). Von Linné créa ce système à
partir de ses propres observations et de celles qu’il avait extraites des
rapports des collaborateurs de son vaste réseau de communication, col-
laborateurs qu’il appelait ses apôtres. Von Linné jetait un nouvel éclai-
rage sur la nature en classifiant et en décrivant de manière systématique
l’ensemble des plantes, des insectes et des animaux alors connus.
FIGURE 3.1 Première page du tome I de l’ouvrage Systema Naturae de Carl von
Linné, dixième édition revisée de 1758. Source : Göttinger Digitalsierungszentrum,
Universitätsbibliothek Göttingen.
J’ai eu le privilège et le plaisir de visiter la maison et le jardin de Carl von
Linné dans la petite ville universitaire d’Uppsala, au nord de Stockholm
où Linné fut professeur de la Faculté de médecine. Étonnamment, après
près de trois siècles, on y sent encore la présence attentive de celui qu’on
La science qui éclaire 91
appelait le prince des botanistes. Malgré quelques oppositions, dont celle
du célèbre naturaliste Georges-Louis Leclerc, comte de Buffon (1707-
1788), qui en critiquait le caractère artificiel et la fixité, le système lin-
néen fut adopté universellement et demeure bien en place aujourd’hui.
Lorsque vous allez à votre centre de jardinage choisir vos fleurs, arbres
et arbustes, vous notez presque toujours leurs noms inscrits selon la
nomenclature de von Linné.
Dans ce chapitre, je présente trois exemples de la science qui éclaire et
résume les grandes lignes de leurs développements historiques : ce sont le
tableau périodique des éléments chimiques de Dmitri Mendeleïev, les lois
mathématiques d’échelle qui régissent le vivant, les systèmes de la nature
et la société humaine et, enfin la théorie de l’évolution par la sélection
naturelle proposée par Charles Darwin et Alfred Wallace.
Le tableau périodique de Dmitri Mendeleïev
Le grand physiologiste russe Ivan Pavlov (1849-1936) et le chimiste russe
Dmitri Mendeleïev (1834-1907) furent des géants de la science russe de la
fin du xixe et du début du xxe siècle. Pavlov, renommé pour ses travaux
sur le système digestif des chiens et des animaux en général, est célèbre
pour son puissant concept de réflexe conditionné. Il fut le premier russe
à obtenir le prix Nobel, celui de physiologie ou médecine, en 19042. On
connaît Mendeleïev presque uniquement pour sa classification pério-
dique des éléments chimiques publiée en 1869. Les vies de ces deux per-
sonnages, plus grands que nature et véritables colosses du savoir, jettent
aussi une lumière intéressante sur les milieux académiques et savants de
la Russie impériale et, plus tard, dans le cas de Pavlov, sur la recherche et
l’enseignement supérieur sous les bolchéviques et sous le régime dictato-
rial de Staline (1878-1953). Concentrons-nous sur Mendeleïev, le père de
l’incontournable tableau périodique des éléments (figure 3.2).
2. Daniel Toddes, Ivan Pavlov, A Russian Life in Science, Oxford University Press,
2015.
92 Sur la science qui surprend, éclaire et dérange
FIGURE 3.2 Le chimiste russe Dmitri Mendeleïev. Source : BIU Santé. Service d’histoire
de la santé (Paris) – 2012038/Das Gehirn des Chemikers D. J. Mendelejew, Leipzig,
Wilhelm Engelmann, 1909.
Né en Sibérie et cadet d’une famille de 17 enfants devenue pauvre, il
aurait été difficile d’imaginer que ce jeune Russe allait transformer la
vie académique de la capitale impériale russe et faire passer la chimie
à l’ère moderne. Enseignant diplômé en 1856, Mendeleïev se rendit en
Allemagne travailler avec les grands chimiste et physicien allemands
La science qui éclaire 93
Robert Bunsen (1811-1899) et Gustav Kirchhoff (1824-1887) à Heidelberg.
Il étudia la densité des gaz et il s’initia à la spectroscopie. Cette dernière
technique de la décomposition de la lumière était habilement exploitée
pour identifier les éléments chimiques par les chercheurs de Heidelberg,
avec qui Mendeleïev travailla durant deux années. Suivant son retour à
Saint-Pétersbourg, Mendeleïev termina ses études et obtint son doctorat
en 1865. Il fut nommé professeur de chimie à l’Université de Saint-Pé-
tersbourg en 1867. Peu de temps après, le 6 mars 1869, il présentait à la
Société russe de chimie une communication intitulée La dépendance
entre les propriétés chimiques des masses atomiques des éléments. Il y
énonçait des principes qui sont encore valides et utiles de nos jours.
Mendeleïev fut un savant polyvalent et prolifique avec une carrière
éclectique. En chimiste curieux, il étudia le pétrole (du grec, petra, pour
pierre, et elaion, huile). Il reconnut tôt les extraordinaires propriétés
des diverses formes de cette molécule riche et complexe. Il affirma à
bon escient : « Brûler le pétrole comme combustible équivaut à chauffer
sa cuisinière avec des billets de banque. » Mendeleïev voyait bien que le
riche arsenal moléculaire du pétrole permettait de produire nombre de
polymères synthétiques. Tourner cette richesse en fumée était une bêtise.
L’historien des sciences russe Tchougaïev a bien décrit le savant : « Un
chimiste de génie, un physicien de première classe, chercheur prolixe
dans le domaine de l’hydrodynamique, la météorologie, la géologie,
et certaines branches de la chimie appliquée (explosifs, pétrole, carbu-
rants…). » Il fut un homme de son temps. « Lorsqu’il fallait procéder à
l’inspection des fromages, évaluer les lampadaires à kérosène de la rue,
mesurer et taxer l’alcool – en résumé, pour presque chaque entreprise
chimique de la capitale impériale –, Mendeleïev mettait de l’avant qu’il
était plus qu’utile : il était essentiel3. »
Dans les années 1880, Mendeleïev devint mordu d’aéronautique et
organisa des vols en montgolfière pour explorer la haute atmosphère.
Il monta sur plusieurs de ces vols et élabora ses idées sur le potentiel
militaire de ces appareils. Mendeleïev volait alors à bord de véritables
3. Michael D. Gordin, A Well-Ordered Thing. Dmitrii Mendeleev and the Shadow
of the Periodic Table, Basic Books, 2004, p. 10-11.
94 Sur la science qui surprend, éclaire et dérange
bombes aériennes, car les ballons étaient gonflés à l’hydrogène, un gaz
qui explose violemment au moindre contact avec l’oxygène. Il prenait
grand plaisir à monter dans les montgolfières, les imaginant comme le
meilleur instrument pour découvrir dans l’espace la substance fonda-
mentale qu’il suspectait être à la base de tous les éléments chimiques.
Avec humour, il déclarait : « Avant le vol, je n’avais aucune crainte ; j’avais
tout simplement peur que, lorsque j’atterrirais, les paysans me prennent
pour le diable et me lynchent4. » Alors qu’au tournant du siècle le spiri-
tisme faisait rage en Russie tout comme dans le reste de l’Europe, Men-
deleïev le pourfendit avec une approche combinant les tests aveugles et
une rhétorique digne des meilleurs avocats. Il eut une vie amoureuse
rocambolesque. Politiquement, il fut un conservateur qui eut du mal avec
les changements qui s’opéraient dans la Russie tsariste. En organisant
les éléments chimiques, Mendeleïev doit être reconnu comme un maître
dans l’organisation du savoir, de la science qui éclaire.
Je me souviens de mes premiers cours de chimie et physique, alors que
j’étais jeune collégien. Nous étions dans une salle moderne, un vrai
laboratoire doté d’une batterie de beaux instruments de démonstration.
Notre professeur, aussi passionné que calme et compétent, réussissait
fort bien la grande majorité des expériences exécutées devant nous. Sur
un des murs latéraux, on voyait une grande carte polychrome avec des
alignements colorés de cases dont chacune correspondait à un élément
chimique. Il y avait quelque chose d’à la fois mystérieux et esthétique
dans cette magnifique affiche. C’était le tableau périodique des éléments
chimiques. Maintenant astrophysicien de carrière, je revois et j’examine
toujours ce tableau avec immense intérêt, car je peux maintenant relier
les familles d’éléments aux processus astrophysiques qui leur ont donné
naissance, soit dans le big bang, soit dans les générations d’étoiles qui
suivirent.
Le concepteur de ce tableau et des règles chimiques qui menèrent à
son élaboration fut Dmitri Mendeleïev. Il couronna le travail de plu-
sieurs pionniers. Dans son Traité élémentaire de chimie de 1789, le grand
chimiste français Antoine-Laurent Lavoisier (1743-1794) avait établi
4. Ibid., p. 198
La science qui éclaire 95
les bases en identifiant correctement 53 éléments qu’on ne pouvait pas
décomposer en substances plus élémentaires (figure 3.3). Délogés de
leur niche séculaire furent terre, air, feu et eau, les éléments classiques
des philosophes présocratiques. Dans la foulée des travaux de Lavoisier,
d’autres chimistes de France, d’Angleterre, des États-Unis, d’Allemagne
et de Russie, dont le chimiste allemand Lothar Meyer (1830-1895) et
l’Anglais John Newlands (1837-1898), avaient organisé en séquences les
différents éléments.
Professeur à l’Institut de technologie de Saint-Pétersbourg dès 1864, et de
chimie minérale à l’Université de Saint-Pétersbourg en 1867, Mendeleïev
prenait à cœur l’enseignement de la chimie. En 1868 et au début 1869,
il rédigea Principes de chimie en deux volumes, ouvrage de base pour
son cours de chimie inorganique qu’il publia en avril 1869. Mendeleïev
avait 35 ans. Fin pédagogue, il chercha une classification rationnelle des
éléments qui en faciliterait l’apprentissage. Organisant tous les éléments
chimiques connus à l’époque, il fit une découverte mémorable. Elle
peut nous paraître aujourd’hui tout à fait normale et rationnelle, mais
l’approche intuitive de Mendeleïev associant les poids atomiques des
substances et leurs propriétés chimiques pouvait alors être considérée
arbitraire.
Le tableau créé par Mendeleïev alignait les éléments en cases succes-
sives de rangées superposées réparties initialement sur huit colonnes
(figure 3.4). Les éléments se succédaient par ordre de poids atomique
croissant, mais avec quelques exceptions. De plus, pour respecter les
analogies chimiques et physiques entre groupes d’éléments, Mendeleïev
eut l’intuition de laisser dans son tableau des cases vides ; il prédit qu’elles
seraient remplies plus tard par des éléments alors inconnus. Lorsque ces
inconnus furent mis en évidence par des chimistes européens, Mende-
leïev devint un véritable héros. Après 150 ans d’histoire, le tableau est
maintenant un talisman de la science contemporaine. Creusons encore
un peu plus son histoire.
Comme d’autres chimistes, Mendeleïev avait remarqué un comporte-
ment répétitif des propriétés physiques et chimiques des 63 éléments alors
connus ; il y en avait 10 de plus qu’au temps de Lavoisier. Il aligna hori-
zontalement les éléments par poids atomique croissant ; il recommença
96 Sur la science qui surprend, éclaire et dérange
FIGURE 3.3 Tableau des substances chimiques élémentaires identifiées par Lavoisier.
Source : Traité élémentaire de chimie, 1789.
La science qui éclaire 97
FIGURE 3.4 Fac-similé du tableau périodique que Mendeleïev publia en 1871.
Huit groupes sont présentés et les chiffres correspondent au poids atomique
des éléments. Source : Wikipedia Creative Commons/NikNaks.
en dessous de chaque rangée précédente avec une nouvelle rangée des
éléments aux propriétés chimiques analogues sous les mêmes colonnes,
procédant toujours par poids atomique croissant – d’où l’appellation
« périodique ». Le tableau de forme rectangulaire simple et élégante
affichait d’étonnantes propriétés. Les lignes horizontales périodiques
définissaient des « séries », tandis que les colonnes révélaient une loi
périodique marquant les « groupes » (en allemand gruppen dans la
figure 3.4). On sait aujourd’hui avec la théorie atomique bien en place –
ce qu’ignoraient totalement Mendeleïev et ses contemporains – que les
électrons de valence des éléments d’un même groupe (ou colonne) ont
la même configuration électronique, ce qui leur donne des propriétés
chimiques et physiques similaires. Rappelons que Mendeleïev doutait
fortement de la théorie atomiste alors en vogue et s’y objectait.
Examinons quelques colonnes ou groupes du tableau. La première
colonne (celle de l’hydrogène ou du lithium) est caractéristique : on a
la famille des métaux alcalins (lithium, sodium, potassium, rubidium) ;
la colonne suivante, celle du béryllium, aligne les métaux alcalino-
terreux (magnésium, calcium, strontium et baryum). La dernière colonne
98 Sur la science qui surprend, éclaire et dérange
à droite, le groupe 18 dans le tableau moderne, est celle des gaz nobles
(hélium, néon, argon, krypton, xénon). L’hélium avait été identifié dans
le spectre de la lumière solaire en 1868. Aucun des autres gaz nobles
n’était alors connu de Mendeleïev. Ils furent découverts dans les subs-
tances terrestres par les chimistes britanniques William Ramsay (1852-
1916), lord Rayleigh (1842-1919) et Morris Travers (1872-1961). Ayant leur
couche électronique supérieure remplie, ces derniers sont peu réactifs ;
on les nomma d’ailleurs longtemps gaz inertes. Mendeleïev fut d’abord
rébarbatif à accueillir ces intrus qu’il ne considérait pas comme vrais
éléments et les assigna au groupe 0.
FIGURE 3.5 Structure des orbitales électroniques de l’atome de fer. Le fer a ses
26 électrons sur quatre couches ayant successivement 2, 8, 14 et 2 électrons. Les règles
quantiques déterminent le nombre maximum d’électrons sur chaque couche, nombre qui
croit avec les niveaux supérieurs. Les gaz nobles correspondent aux éléments dont toutes
les orbitales sont pleines. Crédit : Wikipedia Creative Commons.
Dans un article de 1871, Mendeleïev énonça que son tableau périodique,
conçu pour des fins pédagogiques, était aussi un outil capable de prédire.
« C’est l’essence de la loi de la périodicité. Chaque loi de la nature acquiert
néanmoins toute sa signification scientifique lorsqu’il y a moyen d’en
tirer, si on peut ainsi dire, des conséquences pratiques, c’est-à-dire des
conclusions logiques qui expliquent ce qui jusqu’alors était inexplicable,
La science qui éclaire 99
adressent des phénomènes non encore connus, et spécialement lorsqu’elle
ouvre la possibilité de faire des prédictions vérifiables par l’expérience.
L’utilité de la loi devient alors évidente et on a la possibilité de tester sa
validité5. »
Mais rappelons-nous : en 1868-1869, il n’était pas du tout dans l’esprit
de Mendeleïev d’établir une loi fondamentale de la chimie. Sa préoccu-
pation toute première était d’écrire un bon texte de référence pour les
jeunes chimistes de l’Université de Saint-Pétersbourg. Le génie de Men-
deleïev fut d’imposer quelques exceptions en construisant son tableau ;
par exemple, il se fia aux propriétés chimiques des éléments pour inverser
l’ordre qu’auraient imposé les poids atomiques6. Et il eut raison de faire
ces exceptions. Ce n’est qu’une quarantaine d’années plus tard, dans les
années 1911-1913, que s’imposa la classification selon l’ordre croissant
des numéros atomiques, maintenant en usage, à la suite des travaux de
spectroscopie par rayons X des physiciens britanniques Charles Barkla
(1877-1944) et Henry Moseley (1887-1915) et du physicien néerlandais
Antonius van den Broëk (1870-1926). Ce dernier nota que l’ordre d’un
élément dans le tableau correspondait au nombre de charges positives
dans le noyau de l’atome. Fin chimiste, Mendeleïev avait perçu correc-
tement l’ordre fondamental des éléments, sans connaître la structure de
l’atome et de son noyau.
Le système proposé par Mendeleïev fut d’abord ignoré. Mais, comme
nous l’avons mentionné plus haut, il avait laissé des cases vides pour
lesquelles il prédisait l’existence de nouveaux éléments ainsi que leurs
propriétés physicochimiques. Trois de ces éléments furent découverts
relativement rapidement : en 1875, le gallium par le chimiste français
Paul Émile Lecoq (1838-1912) ; en 1879, le scandium par le Suédois Lars
Nilson (1840-1899), et le germanium par l’Allemand Clemens Winkler
5. Cité dans Michael D. Gordin, op. cit., p. 33.
6. Connaissant la structure atomique et nucléaire, on sait aujourd’hui que l’ordre
des éléments est donné par leur numéro atomique (c’est-à-dire le nombre de
protons dans le noyau et d’électrons des couches atomiques) et non pas par le
poids atomique qui implique l’addition des neutrons dans le noyau. Le nombre
de neutrons dans le noyau n’est pas nécessairement égal au nombre de protons
et d’électrons de l’atome. Les éléments qui ont le même nombre de protons, mais
un nombre différent de neutrons dans le noyau, sont des « isotopes ».
100 Sur la science qui surprend, éclaire et dérange
(1838-1904) en 1886. Avec la confirmation de ces nouveaux éléments,
le système périodique mendeleveïen fut adopté sans hésitation et son
concepteur devint une vedette de la science russe. Remarquez l’ironie
d’avoir nommé « gallium » le nouvel élément découvert en France
(ancienne Gaule) par un chimiste du nom de Lecoq, comme quoi les
chimistes ont un bon sens de l’humour.
Le grand maître russe continua à enseigner la chimie. Curieusement,
après avoir terminé son travail sur le tableau périodique en 1871, Men-
deleïev passa à d’autres choses qu’il considérait sinon plus importantes,
mais certainement plus captivantes. Il s’attaqua aux lois d’expansion
des gaz parfaits avec objectif d’identifier l’« éther luminophore », qu’il
imaginait être la source de tous les éléments naturels. Cela l’amena à
monter dans ses montgolfières soufflées à l’hydrogène, comme je l’ai
mentionné plus haut. Car il supposait l’espace sidéral rempli de la subs-
tance primordiale.
Aujourd’hui le tableau périodique est quelque peu différent, avec
18 groupes plutôt que les huit originellement marqués par Mende-
leïev. Il y a eu des ajouts notables : par exemple, les terres rares forment
une séquence importante7. On garda intact l’échafaudage de Mende-
leïev en plaçant tout le groupe des terres rares dans une seule et même
case, celle du lanthane. Les terres rares, ou lanthanides, sont des élé-
ments qui entrent dans la composition de beaucoup de produits semi-
conducteurs. Le groupe est maintenant placé en une rangée horizontale
à la base du tableau. Avec la transmutation artificielle, l’humain a pro-
duit les éléments transuraniens, c’est-à-dire plus lourds que l’uranium ;
une séquence analogue aux lanthanides, celles des actinides, a donc été
ajoutée. Les actinides n’existent pas dans la nature, étant donné leurs
durées de vie très brèves. Quoique de nouvelles formes de présenta-
tions du tableau périodique aient été mises de l’avant, le concept original
de Dmitri Mendeleïev demeure (figure 3.6) 8. Enfin, les éléments sont
7. Contrairement à leur appellation, les terres rares ne sont pas rares. Ces éléments
sont simplement plus difficiles à isoler chimiquement.
8. L’article Tableau périodique des éléments sur Wikipédia français est remarquable-
ment complet : https ://fr.wikipedia.org/wiki/Tableau_périodique_des_éléments.
La science qui éclaire 101
maintenant ordonnés par leur numéro atomique (nombre de protons
dans le noyau et d’électrons dans les orbitales).
FIGURE 3.6 Nouvelle forme du tableau périodique en spirale proposée par Theodor
Benfey. Source : Mardeg at English Wikipedia.
Mendeleïev projeta un éclairage qui illumina toute la chimie du
xixe siècle. Cette discipline prit un envol extraordinaire avec la décou-
verte et l’établissement de la configuration électronique des atomes
dans les premières décennies du xxe siècle. La périodicité trouva une
explication dans la structure fondamentale de l’atome. Le radiochimiste
Jean-Claude Roy le résume bien : « Ce fut le génie de Mendeleïev d’avoir
trouvé par l’observation des propriétés macroscopiques des éléments une
classification qui a été confirmée une cinquantaine d’années plus tard,
102 Sur la science qui surprend, éclaire et dérange
par l’étude des propriétés microscopiques des atomes9. » De bien des
façons, la découverte et mise en place du tableau périodique ne furent
ni fortuites ni surprenantes, mais certainement éclairantes. L’origine du
tableau périodique représente une formidable démonstration d’organi-
sation du savoir et de la mise ensemble d’éléments épars qui révèlent
l’unicité du monde de la chimie inorganique. Le neurologue et naturaliste
britannique Oliver Sacks l’a brillamment résumé : « Le tableau continue
d’orienter la recherche en chimie, de stimuler des prédictions des pro-
priétés de matériaux jamais imaginés avant. Il est une merveilleuse carte
de la géographie entière des éléments10. »
Les lois d’échelle dans la nature et la société
humaine
Lorsqu’on examine la nature, l’être humain et les sociétés avec les outils
numériques, de remarquables tendances apparaissent. La loi dite « de
puissance », qui relie une propriété physique et à une autre, est une rela-
tion mathématique simple et utile. Par exemple, la surface des objets
et des organismes augmente généralement à peu près comme le carré
de leur dimension, tandis que leur volume et leur masse s’accroissent
comme le cube de leur taille. On exprime ce genre de relation par l’équa-
tion y = k xa, où y peut représenter la surface, le volume, la masse ou une
autre propriété de l’objet considéré ; x est la taille de l’objet, et a l’exposant
de la relation mathématique entre y et x. Pour la relation entre dimension
x et surface S, nous avons S = k x 2, c’est-à-dire que la surface varie avec
la taille au carré. Et pour le volume, V = k’ x3 ; le volume varie avec le
cube de la taille. Si une propriété change de façon exactement propor-
tionnelle à l’autre, par exemple, on double un paramètre et la fonction
dépendante double aussi, a = 1. On parle alors de relation linéaire ou, en
termes savants, d’isométrie. Comme nous le verrons, l’exposant a peut
être plus petit ou plus grand que 1. Le facteur k est un ajustement qui
9. Jean-Claude Roy, Les radioéléments et la classification périodique des éléments
chimiques selon Mendeleïev, Université Laval, 2009, p. 18.
10. Oliver Sacks, « Best Invention, Everything in Its Place », The New York Times
Magazine, 1999. Un article passionnant à lire.
La science qui éclaire 103
tient compte de la géométrie de l’objet ou d’autres facteurs inhérents au
système considéré11.
Le point à retenir est que le rapport surface/volume diminue avec la
taille. Par exemple, j’ai un cube dont les côtés font un mètre : le volume
est un mètre cube et la surface est de quatre mètres carrés. Si je calcule
pour un cube dont les côtés font deux mètres, le volume fait huit mètres
cubes et la surface six mètres carrés. Pour un cube de 10 mètres de côté,
le volume est 1000 mètres cubes, et la surface 600 mètres carrés. À l’in-
verse, plus un objet est petit, plus son rapport surface/volume est grand.
Nous verrons que c’est un comportement crucial pour comprendre l’effet
de miniaturisation des branches de réseaux, comme dans le système
sanguin des animaux ou les alvéoles de nos poumons.
Les lois d’échelle s‘appliquent à un très grand nombre de systèmes phy-
siques et biologiques. L’astrophysique en est riche, de même que la bio-
logie qui traite des organismes vivants. Le biologiste anglais D’Arcy
Thompson en explora les nombreuses applications en biologie et dans
les machines construites par les humains12. Étonnamment, même les
macro-systèmes sociaux qui englobent un grand nombre d’humains,
comme les villes, les entreprises et les systèmes économiques y sont
sujets. L’allométrie, nom qu’on donne aussi à ce genre d’analyse, révèle
des informations éclairantes. Elle permet non seulement de décrire objec-
tivement les systèmes, mais aide à circonscrire correctement des besoins
d’infrastructures ou des enjeux sociaux. J’y reviens plus loin.
Au niveau plus fondamental, ces lois d’échelle nous avertissent qu’il
existe des fondements physicochimiques et des contraintes naturelles à la
taille des organismes naturels et de tout système construit par l’humain.
Prisonnier et assigné à résidence surveillée à la suite de sa condamna-
tion par le Saint-Office en 1633, le grand physicien et astronome italien
Galilée (1564-1642) aborda ces limitations dans son dernier ouvrage
de 1638, Discours et démonstrations mathématiques concernant deux
11. Pour un objet sphérique, S = 4π R 2 et V= 4π/3 R 3 ; donc k = 4π et 4π/3 respec-
tivement. La majorité des objets ont des formes plus complexes ; le facteur k en
tient compte.
12. D’Arcy Thompson, On Growth and Form, Cambridge University Press, 1917.
104 Sur la science qui surprend, éclaire et dérange
nouvelles sciences, pour estimer la résistance des matériaux. Galilée
montra que les organismes vivants ont des limites de grosseur et de
taille. Ces limites sont déterminées par la force de la structure nécessaire
pour les soutenir ou leur permettre de bouger tout en les maintenant
intacts dans le champ gravitationnel de la Terre. Il calcula qu’un arbre
ne pouvait pas dépasser une centaine de mètres de hauteur. Le séquoia
(Sequoiadendrum giganteum), dont Galilée ignorait l’existence, est le
plus grand arbre de la planète et atteint 105 m, après des centenaires
d’années de croissance.
Galilée expliqua aussi que le diamètre du tronc d’un arbre doit être
d’autant plus grand que la taille de l’arbre est élevée. Le tronc d’une épi-
nette de Norvège (Picea abies) est proportionnellement beaucoup plus
fin que celui du sapin Douglas (Pseudotsuga mensiezii) de la Colombie-
Britannique. Et le diamètre du tronc de celui-ci proportionnellement
moindre que celui du gigantesque séquoia. Pourquoi ? Parce que le poids
augmente avec le volume de l’arbre, tandis que la résistance mécanique
est proportionnelle au diamètre du tronc au carré. Comme Galilée l’avait
compris et montré, la force augmente moins vite que la masse. D’autres
facteurs entrent en ligne de compte13. Cela explique aussi pourquoi les
pattes de la souris ou du chien sont proportionnellement plus fines que
celles d’un éléphant14. Ce dernier est d’ailleurs tellement lourd qu’il ne
peut ni courir (il peut trotter) ni sauter.
Le plus étonnant est que ces lois d’échelle s’appliquent sur plusieurs
ordres de grandeur, des insectes d’à peine 1 mm (microgrammes en
poids) jusqu’aux dinosaures et cétacés qui atteignent des dizaines de
mètres de taille et des poids allant jusqu’à 100 tonnes pour la baleine
bleue. Cette dernière, bénéficiant de la flottabilité, est le plus gros animal
qui a évolué sur terre. En comparaison, le Brachiosaurus, le plus gros
dinosaure terrestre de tous les temps, ne pesait que 22 tonnes.
13. Revenant à notre petite équation d’allométrie, le diamètre D du tronc des arbres
varie avec leur hauteur H à peu près comme D = k H3/8 (voir G. West, p. 97).
14. La relation entre le diamètre des pattes et la masse de l’animal est décrite par
l’exposant a = 3/8.
La science qui éclaire 105
Aujourd’hui à l’ère des techno-utopies, on tente d’imaginer des êtres
colossaux.
Comme l’a bien démontré le physicien américain Geoffrey West, le
monstre Godzilla du cinéma de science-fiction japonais, en particulier
dans sa nouvelle version, aussi impressionnant soit-il, est physiquement
impossible. Comme l’avait prédit Galilée, le squelette d’un tel être se
briserait et le monstre s’écroulerait sous son propre poids ; s’il tombait
d’une hauteur même modeste, il se fracasserait. En réponse à une jour-
naliste qui voulait des arguments plus précis à propos d’un Godzilla réel,
West fit quelques calculs et démontra que, physiologiquement, cet être
aurait quelques problèmes. D’abord avec une taille de 106 m, son poids
atteindrait 20 000 tonnes (versus les 100 tonnes pour la baleine bleue).
Pour se nourrir et fonctionner, Godzilla devrait ingurgiter 25 tonnes
de nourriture par jour pour fournir les 20 millions de calories quoti-
diennes nécessaires à son métabolisme. Son cœur de 100 tonnes aurait
un diamètre de 15 m (la dimension d’une baleine) et aurait à pomper
2 millions de litres de sang pour s’oxygéner. Il produirait 20 000 litres
d’urine et trois tonnes de matières fécales par jour ! Il ne serait pas un
invité agréable. Et l’auteur laisse à l’imagination du lecteur la vie sexuelle
du monstre15.
Revenons à la réalité de tous les jours et aux vrais organismes. Le récent
ouvrage de Geoffrey West contient une mine d’or de relations d’échelle.
En effet, l’allométrie révèle des choses à la fois surprenantes et éclairantes.
Si l’on examine la durée de vie des mammifères allant d’un bout de
l’échelle des poids et tailles à l’autre, le nombre total de battements de
cœur exécutés durant une vie animale entière est de l’ordre d’un milliard
(à un facteur deux près), que vous soyez une souris, un hamster, un lion,
un humain ou une baleine. Évidemment, la souris (500 battements/min)
a un pouls beaucoup plus rapide que celui de l’humain (60 battements/
min) et de l’éléphant (30 battements/min). Le pouls est donc inversement
proportionnel à la durée de vie, cela on le sait. Mais que la durée vie des
mammifères, comme la taille des arbres, soit marquée par une limite
15. Geoffrey West, Scale. The Universal Laws of Growth, Innovation, Sustainability,
and the Pace of Life in Organisms, Cities, Economies, and Companies, Penguin
Press, 2017, p. 161-162.
106 Sur la science qui surprend, éclaire et dérange
de 1 à 2 milliards comme nombre total de battements de cœur, cela
demande une explication. Une première approche est de considérer qu’un
petit animal doit gérer un métabolisme proportionnellement beaucoup
plus intense que le gros animal. Voyons-en le détail.
Cette observation fait appel à la relation entre le rythme métabolique
(par exemple, le nombre de calories nécessaires pour soutenir le rythme
des battements du cœur, la quantité d’oxygène consommée et la chaleur
générée) et la masse corporelle de l’animal. Si l’on examine l’ensemble
des mammifères, tous les points tombent à peu près sur une même ligne.
Mais il y a une intrigue, le métabolisme n’est pas directement propor-
tionnel à la masse corporelle. Ce n’est pas une relation linéaire, mais
une loi de puissance16. Un organisme qui a un poids deux fois plus élevé
n’a pas un métabolisme deux fois plus élevé : il est seulement environ
1,75 fois plus intense. En termes un peu moins mathématiques, le rythme
métabolique ne double pas, mais augmente de seulement 75 %. Cela
représente donc une économie de 25 % pour chaque doublement de
masse corporelle.
Le biologiste suisse Max Kleiber (1893-1976) a établi cette relation allo-
métrique pour le métabolisme des animaux dans les années 1930. Un
chat dont le poids est 100 fois celui d’une souris a un métabolisme seu-
lement 32 fois plus intense ; même rapport entre ceux de la vache et du
chat. Parce qu’on croyait d’abord que la capture, l’utilisation et la perte de
l’énergie dépendraient de la surface de l’organisme, on pensait que l’ex-
posant allait être 2/3, selon le rapport des exposants pour surface/volume.
Kleiber prouva quelque chose de très différent et de moins évident. Je
reviendrai sur les raisons plus fondamentales plus loin. En comparant
les espèces, on constate qu’il est plus efficace métaboliquement d’être
gros. Mais à l’intérieur d’une même espèce, cet avantage est perdu ; il ne
faut être ni trop maigre ni obèse, car notre système nerveux, musculaire
et squelettique est adapté à un équilibre optimisé pour l’environnement
dans lequel nous avons évolué depuis des millénaires, voire des millions
d’années.
16. Et l’exposant est ¾ ; le rythme métabolique est proportionnel à la masse corpo-
relle à la puissance ¾.
La science qui éclaire 107
FIGURE 3.7 Relation entre la vitesse de croisière d’animaux et de machines humaines
en fonction de leur masse. Source : Creative Commons/Nicoguaro.
Les biologistes ont mis en évidence maintes relations allométriques chez
les organismes vivants17. Si l’augmentation relative d’une propriété quel-
conque est plus rapide par rapport à l’autre terme, on parle d’allométrie
positive ou majorante (ou supra-linéaire) ; l’exposant a est plus grand que
1 ; nous verrons de telles relations plus loin. Si l’augmentation est plus
lente, on parle d’allométrie négative, ou minorante (ou infra-linéaire) ;
l’exposant a est plus petit que 1. La relation entre le métabolisme des
mammifères et leur masse corporelle que nous avons vue au paragraphe
précédent est minorante, car ¾ est moindre que 1. Une autre relation
minorante bien établie est celle entre la taille du cerveau et la masse
17. Thomas A. McMahon et John Tyler Bonner, On Size and Life, W. H. Freeman
and Company, 1983.
108 Sur la science qui surprend, éclaire et dérange
corporelle, une relation qui évolue au cours du développement humain
où l’on assiste à une diminution relative du volume du crâne versus la
taille du corps avec l’âge, soit de l’étape nouveau-né à adulte. Et attention,
si vous mesurez deux mètres de taille, votre cerveau n’est pas nécessaire-
ment plus gros que celui de votre conjointe ou conjoint qui fait 1,70 m.
Soulignons que l’allométrie n’est valable qu’au moyen d’une statistique
rigoureuse impliquant de grands nombres ou beaucoup de données
(figure 3.7).
Clairement, les lois d’échelle (allométrie) et les outils mathématiques qui
les sous-tendent sont éclairants pour comprendre la vie biologique dans
son ensemble, mais aussi la vie économique et sociale. West et ses collè-
gues ont exploré d’autres secteurs d’applicabilité des lois d’échelle. Ils ont
pu établir que le nombre de brevets obtenus dans une ville était relié à la
population de cette ville. La relation est étonnamment serrée : elle obéit
à une loi de puissance avec le nombre de brevets qui est proportionnel
à la population à la puissance 1,15. Avec l’exposant plus grand que 1, la
relation est majorante, soit supra-linéaire. Peut-être plus étonnante, la
vitesse moyenne de marche des piétons dans les villes est aussi majorante.
Dans une grande ville, les piétons tendent à marcher plus rapidement
que dans une ville moyenne ou petite18. Il en est de même pour l’aug-
mentation du nombre de restaurants, des salaires, de la pollution, du
volume de déchets, des crimes et des professionnels travaillant dans les
villes. Ces paramètres croissent plus rapidement qu’une augmentation
simplement linéaire de la population (figure 3.8)19. Cela s’applique à une
panoplie d’activités et d’impacts environnementaux, incluant la vitesse
de propagation des maladies. Avoir et comprendre ces relations devient
un outil important et fondamental pour les administrations publiques.
18. Des villes implémentent des voies réservées aux marcheurs plus rapides.
19. Geoffrey West, op. cit., p. 276-277.
La science qui éclaire 109
FIGURE 3.8 Exemple de relations d’échelle. a) Salaires pondérés en fonction des
populations métropolitaines de villes américaines en 2004 ; l’exposant 1,12 est majorant.
b) Nombre de professionnels dans les villes américaines en 2003 ; l’exposant 1,15 est
aussi majorant. « Majorant » parce que la croissance est plus rapide que linéaire. Copyright
(2007) National Academy of Sciences, U.S.A.20
20. Luis M. A. Bettencourt, et collab., « Growth, innovation, scaling and the pace
of life in cities », Proceedings of the National Academy of Sciences of the United
States of America, 2007, vol. 104, no 17, p. 7301-7306.
110 Sur la science qui surprend, éclaire et dérange
Maintenant, la « cerise sur le gâteau » ! Les analyses allométriques peuvent
être étendues à des systèmes de sociétés, comme les institutions, les entre-
prises et les organismes. Lorsqu’on analyse numériquement un grand
nombre d’entre elles, on constate que leur productivité dépend de leurs
dimensions de façon minorante (infra-linéaire) avec un exposant de 0.9.
Geoffrey West et ses collègues attribuent la diminution d’efficacité des
entreprises au poids administratif qui gonfle ; en effet, leurs bureaucraties
croissent de façon supra-linéaire. Plus spectaculaire est l’analyse de la
durée de vie des entreprises. « La moitié de toutes les compagnies dans
n’importe laquelle des cohortes de compagnies américaines enregis-
trées en bourse disparaissent en moins de 10 ans, à peine quelques-unes
atteignent cinquante ans, et on oublie les cent ans21. » Dans leur ensemble,
les compagnies meurent par faillite, par acquisition ou fusion. Toutes le
font au même taux d’extinction, indépendamment de leur solidité, de ce
qu’elles fabriquent ou de la façon dont elles sont exploitées. La prochaine
fois que vous regarderez les Walmart, Amazon, Google et Facebook
de ce monde, prenez note. Dans le langage de la physique nucléaire, la
demi-vie d’une compagnie en bourse est de 10 ans, un peu moins que
celle de l’élément transuranique californium-250 (13 ans). En revanche,
les villes ont des durées de vie quasi éternelles. Pensez à Athènes, Rome,
Paris, etc. Il est facile de faire disparaître une entreprise, et quasi impos-
sible d’effacer une ville.
Pour compléter cette section, je présente une explication qualitative
des processus responsables de la relation métabolisme versus masse
corporelle. Dans les organismes vivants, plantes, insectes, vertébrés ou
mammifères, on peut identifier des principes d’organisation et de fonc-
tionnement qui expliquent pourquoi ils obéissent aux lois d’échelle. Je
n’en ferai pas la démonstration numérique rigoureuse qui fait appel aux
fractals. Pour le lecteur plus curieux, je recommande la lecture de l’ou-
vrage de Geoffrey West déjà bien cité. J’énonce ici quelques principes
qui aident à comprendre l’idée de base.
L’organisme vivant, par exemple votre corps, dépend d’un ensemble
de réseaux internes qui distribuent l’énergie, les matières nutritives et
21. Geoffrey West, op. cit., p. 33, 379-410.
La science qui éclaire 111
l’information jusqu’aux endroits microscopiques (cellules et mitochon-
dries) de votre corps. Ces réseaux rayonnent dans tout l’organisme et
en irradient les moindres extrémités. West propose trois principes : le
remplissage de l’espace, l’invariance des unités terminales et l’optimi-
sation des processus.
Bien remplir l’espace signifie que les tentacules du réseau doivent péné-
trer partout et alimenter de manière efficace les unités les plus petites.
Ouvrez un atlas d’anatomie et examinez les planches du système de
circulation sanguine ou du système nerveux pour vous convaincre de
la qualité de nos réseaux. Imaginez la complexité géométrique de ces
systèmes en trois dimensions qui foisonnent dans votre corps. Vous avez
ainsi une idée d’un réseau qui remplit l’espace disponible.
Pour comprendre l’invariance des unités terminales, quelques chiffres
s’imposent. Le poumon est une pompe à air extraordinairement com-
plexe. Rappelez-vous que le rapport surface/volume est d’autant plus
grand que l’unité est petite. Nos poumons sont des chambres pouvant
contenir 5 à 6 litres d’air. Les alvéoles, qui sont les unités terminales
du système respiratoire pulmonaire, représentent une surface totale de
260 mètres carrés (soit celle d’un terrain de tennis). Si vous les mettiez
bout à bout, la longueur totale des conduits d’air de nos poumons aurait,
tenez-vous bien, une longueur de 2 500 km, soit la distance de Montréal
à Miami. Si nos artères, nos veines et nos capillaires qui transportent
le sang étaient mis bout à bout, ils feraient 100 000 km, un tiers de la
distance de la Terre à la Lune. Nous avons donc affaire à des réseaux bien
serrés lorsqu’ils sont repliés fonctionnellement dans tout notre corps.
L’espace est bien rempli.
Dans les organismes vertébrés, quelle que soit l’étendue du réseau, les
entrées sont toujours plus grosses, mais les capillaires sont à peu près
tous pareils. Par exemple, l’aorte d’une baleine a un diamètre de 30 cm,
et celle de l’humain 2,5 cm. Les capillaires qui distribuent le sang et
échangent l’oxygène ont un diamètre de 5 microns (soit vingt fois plus
mince qu’un cheveu), le même pour les deux mammifères. On peut faire
l’analogie avec les réseaux d’aqueduc des villes ; plus la ville est grosse,
plus les usines de pompage et les tuyaux de distribution de l’aqueduc sont
énormes au départ et leurs réseaux étendus. Mais pour l’eau qui arrive
112 Sur la science qui surprend, éclaire et dérange
à destination, les résidences des citoyens, les tuyaux et les robinets sont
à peu près tous les mêmes. Dans toutes les infrastructures analogues,
incluant celles qui distribuent l’électricité ou le gaz naturel, l’énergie des
pompes est dépensée pour pousser les fluides dans les plus petits canaux.
Les unités terminales sont étonnamment identiques. Cela représente une
extraordinaire économie organisationnelle pour les résidents d’une ville.
Sans le savoir, nous avons tout simplement copié la nature.
Enfin le principe d’optimisation : il énonce que le processus de sélec-
tion naturelle qui a agi sur des périodes de millions ou de centaines
de millions d’années a optimisé les organismes et les systèmes dont ils
dépendent. Le système de circulation sanguine est au point tant en struc-
ture, dimension et division de ses unités, jusqu’aux plus petites. En consé-
quence, l’énergie requise par le cœur de tout mammifère pour pomper
le sang à travers tout le système circulatoire sanguin est minimisée.
L’organisme peut alors maximiser l’énergie supplémentaire disponible
pour les fonctions de reproduction et pour élever les bébés.
On ne peut terminer cette section sans parler de la maladie et de la
mort. Comme pour tout système mécanique, la machine biologique, si
optimisée soit-elle, est sujette à l’usure. Après un ou deux milliards de
battements de cœur, ça y est. Il y a la mort, qui permet d’ailleurs au vivant
de se renouveler. « Ultimement, nous sommes tous sujets aux forces de
l’usure. La bataille pour lutter contre l’entropie en ayant à fournir plus
d’énergie pour la croissance, l’innovation, la maintenance et la répara-
tion, et qui devient de plus en plus exigeante au fur et à mesure que le
système vieillit, sous-tend toute discussion en profondeur du vieillisse-
ment, de la mortalité, de la résilience, et de la durabilité, que ce soit pour
les organismes, les compagnies ou les sociétés22. »
J’espère vous avoir convaincu que les lois d’échelle permettent un regard
à la fois intéressant et informatif sur le vivant et sur la société humaine.
Avec des banques de données fiables, c’est un sujet exploitable dans de
multiples directions capable de nous éclairer sur la nature, sur nous-
mêmes et sur les sociétés. Un bel exemple de la science qui éclaire en
rassemblant des grands ensembles de données fiables et en les analysant
22. Geoffrey West, op. cit., p. 15.
La science qui éclaire 113
numériquement. Un magnifique domaine de recherche à occuper par
les sociologues !
La sélection naturelle comme mécanisme
d’évolution des espèces
On a énormément écrit à propos de l’évolution par sélection naturelle et
sur ses concepteurs, les biologistes anglais, Charles Darwin (1809-1882)
et Alfred Russel Wallace (1823-1913). C’est à la hâte que Darwin prépara
et publia un condensé de sa pensée dans son célèbre ouvrage L’origine
des espèces de 1859 (figure 3.9). S’étant senti bousculé, il promettait d’en
produire une version plus complète. Au lieu de cela, il rédigea plusieurs
autres ouvrages ; il continua d’appuyer sa théorie avec plus de faits et
élabora sur la portée du concept révolutionnaire de la mutation des
êtres vivants et la formation des espèces. Darwin avait longtemps cogité
son interprétation de l’évolution ; il avait commencé à en jeter les bases
lorsque, jeune adulte, il passa cinq ans à bord du Beagle de 1831 à 1836,
engagé comme géologue d’office23. Peu après son retour en Angleterre,
Darwin conçut en 1838 le principe de sélection naturelle comme méca-
nisme de transformation évolutive. Il prit ensuite le temps de développer
des contre-arguments pour contrer les objections à sa proposition qui,
savait-il, allaient être fort nombreuses. Il fit part de ses idées dans une
lettre au géologue écossais Charles Lyell en 1842 qu’il transcrit dans un
essai en 1844.
Alors qu’il vaquait avec sérénité à la construction la plus solide qui soit de
sa théorie, son jeune collègue Alfred Wallace lui fit parvenir de Bornéo
un essai démontrant qu’il avait développé indépendamment une théorie
semblable. Darwin reçut le surprenant colis contenant le texte de Wallace
le 18 juin 1858. Wallace avait lu les observations de Darwin publiées dans
Journal of Researches en 184524. Les deux biologistes échangeaient leurs
idées depuis quelques années ; d’Indonésie, Wallace envoyait à Darwin
23. Charles Darwin, The Voyage of the Beagle, Henry Colburn, 1839. Ce récit plein
d’observations et de détails du long voyage est aujourd’hui un plaisir à lire.
24. Ce Journal of Researches était une seconde édition de The Voyage of the Beagle.
114 Sur la science qui surprend, éclaire et dérange
FIGURE 3.9 Deux premières pages de la première édition d’On the Origin of Species
par Charles Darwin paru en 1959. Source : John Murray, 1859.
des spécimens d’oiseaux domestiques locaux. À l’incitation de ses amis
et collègues, en particulier Charles Lyell, Darwin réalisa alors plus que
jamais l’urgence de publier. En 1858, la Linnean Society de Londres
proposa à Wallace et Darwin de soumettre chacun un résumé de leurs
pensées ; cette publication commune parut rapidement la même année
(août 1858), soit 15 mois avant la publication d’On the Origin of Species25.
Cet article duo incorporait le texte de Wallace et des extraits de l’essai
de 1844 de Darwin, ainsi qu’une lettre de Darwin au botaniste améri-
cain Asa Gray datant de 1857. Lorsque l’ouvrage de Darwin fut publié
le 22 novembre 1859, les 1250 premiers exemplaires s’envolèrent rapide-
ment26. L’ouvrage synthétisait l’ensemble des observations que Darwin
avait accumulées à partir de ses expéditions. Darwin avait développé sa
vision en se basant sur les notes minutieuses à propos des nombreuses
25. Charles Darwin et Alfred Russel Wallace, « On the Tendency of Species to form
Varieties, and on the Perpetuation of Varieties and Species by Natural Means
of Selection », Journal of the Proceedings of the Linnean Society, 1858.
26. Charles Darwin, On the Origin of Species through Natural Selection, John Murray,
1859.
La science qui éclaire 115
îles et des continents abordés durant le long voyage du Beagle vingt-cinq
ans plus tôt. Sa pensée s’était enrichie des résultats de ses recherches
subséquentes, eux-mêmes renforcés par les échanges épistolaires avec
maints collègues naturalistes.
La théorie mise de l’avant par Darwin (et Wallace) a résolu des centaines
d’énigmes, éclairé toute la discipline et organisé les savoirs jusqu’alors
déconnectés et épars27. Comme ce fut le cas pour les grandes idées et
les thèmes discutés depuis le début de ce livre, l’idée d’évolution et de
transformation du vivant était ancienne. Encore une fois, un bref retour
historique nous éclaire.
Le philosophe et poète naturaliste romain Lucrèce (98-54 av. J.-C.) en
avait parlé. En cela, il suivait ses prédécesseurs grecs, les philosophes
matérialistes Empédocle (c. 490-c. 430 av. J.-C.), Démocrite (460-370 av.
J.-C.) et Épicure (c. 342-270 av. J.-C.). Puis il y eut un long silence de
près de 2 000 ans. S’opposant vivement aux idées fixistes de son époque
et au « catastrophisme » (par exemple le déluge biblique) de son col-
lègue l’anatomiste français Georges Cuvier, le grand naturaliste français
Georges-Louis Leclerc, comte de Buffon (1707-1788), ramena le concept
d’évolution naturelle sur la scène. Empiriste chevronné, Buffon était
convaincu que les choses de la nature n’avaient pas toujours été les mêmes
et qu’une lente évolution des choses était en action. Pour montrer que la
Terre avait un âge fini et qu’elle évoluait en se refroidissant lentement, il
mena des expériences où il fit fondre différents métaux, les mit en boules
et mesura leurs temps de refroidissement. Il tenta aussi de montrer que
les couches de calcaire, comme celle de l’Île-de-France, provenaient
d’un lent processus de sédimentation et de compaction. Se basant sur
ses différentes mesures et observations, Buffon dériva pour la Terre des
âges probables allant de cent mille à trois millions d’années.
Buffon élabora une grande fresque de l’histoire naturelle et conçut l’évo-
lution de la Terre et de la vie à travers sept grandes périodes, l’humain
apparaissant durant la dernière. Il remarqua que les espèces avaient
évolué différemment sur les différents continents. Toutefois, il envisagea
27. Daniel C. Dennett, Darwin’s Dangerous Idea, Evolution and the Meaning of Life,
Touchstone, Simon & Shuster, 1995.
116 Sur la science qui surprend, éclaire et dérange
les changements comme des dégénérescences à partir d’espèces initiales
parfaites. L’idée d’évolution était bien en place dans les esprits les plus
curieux de la fin du xviiie siècle. La table était mise pour le siècle suivant.
Au xixe siècle, des théories évolutives pouvant être débattues et vérifiées
furent mises de l’avant. D’abord le naturaliste français Jean-Baptiste
Lamarck (1744-1829) affirma que l’évolution était fondamentale et néces-
saire à la nature et qu’elle devait être sujette comme les autres phéno-
mènes aux lois naturelles. Pour Lamarck, l’évolution du vivant était un
fait. Il proposa la « transmutation » des espèces (le transformisme) par
l’hérédité des nouveaux caractères acquis pendant que les organismes
étaient vivants. Pour Lamarck, l’évolution résultait en une améliora-
tion et une montée en complexité du vivant. Sa quatrième loi énonçait
que « tout ce qui a été acquis, tracé ou changé dans l’organisation des
individus pendant le cours de leur vie, est conservé par la génération,
et transmis aux nouveaux individus qui proviennent de ceux qui ont
éprouvé ces changements ». Sa contribution : les êtres vivants évoluent,
et ils le font en s’adaptant au milieu changeant. Les concepts de trans-
formisme et adaptation furent mis de l’avant. On considère Lamarck
comme le fondateur de la biologie, la science du vivant.
Cependant, ce furent Darwin et Wallace qui, quelques décennies plus
tard, élaborèrent et structurèrent les mécanismes de transmission des
caractères acquis (figure 3.10, 3.11). Mais à la grande différence de
Lamarck, pour Darwin et Wallace l’évolution se fait par la variabilité
des caractères des êtres vivants, qui est fruit du hasard, et la sélection
naturelle. Il faut cependant se garder d’opposer Lamarck et Darwin, car
il y a une continuité dans les pensées et le cheminement de ces grands
naturalistes qui travaillaient chacun dans leur époque respective. Par
exemple, Darwin put bénéficier et s’inspirer du travail gigantesque et
éclairant du géologue écossais Charles Lyell (1797-1875). Appuyé par ses
nombreuses expéditions, ce dernier démontra que l’évolution géologique
se faisait par de lentes modifications sur des périodes de temps très lon-
gues et que leurs causes étaient toujours actives. Le temps était l’élément
clef dont Darwin avait besoin. Lyell, comme Lamarck, s’opposait aux
catastrophistes, tenants du déluge biblique.
La science qui éclaire 117
FIGURE 3.10 Charles Darwin en 1854 alors qu’il travaillait à la version finale de sa
théorie de l’évolution par sélection naturelle. Source : Henry Maull & John Fox.
118 Sur la science qui surprend, éclaire et dérange
FIGURE 3.11 Portrait du biologiste évolutionniste Alfred Wallace vers 1895. Photo :
London Stereoscopic & Photographic Company.
La science qui éclaire 119
Wallace accepta aisément la priorité de Darwin. Le concept révolution-
naire proposé par Darwin (et indépendamment par Wallace) fut celui
d’un mécanisme crédible et testable, celui de la sélection naturelle. Ce
mécanisme explique la variation des formes, des dimensions et des fonc-
tionnalités des organismes vivants. On sait aujourd’hui que ces varia-
tions résultent des transmutations aléatoires des gènes. Attention, par
aléatoire, je ne veux pas dire que tout est possible, car les changements
obéissent aux processus génétiques qui se plient aux lois de la chimie
et de la physique, entre autres les lois d’échelle présentées à la section
précédente. Darwin et Wallace ignoraient les gènes et les mécanismes
complexes de l’hérédité. Mais on sait aujourd’hui qu’une mutation peut
être déclenchée par une particule de haute énergie arrivant du cosmos,
par la radioactivité de notre environnement ou par un stress environ-
nemental. La machinerie cellulaire fait aussi des erreurs lors des divi-
sions cellulaires ou de la réplication de l’ADN. Nous avons affaire à une
mutation naturelle des gènes, un peu en analogie avec la transmutation
des éléments abordée au chapitre 128. Le taux et l’ampleur des change-
ments qui passeront aux descendants sont gouvernés par les gènes qui
contrôlent le développement et par la sélection sexuelle.
On parle de sélection naturelle par analogie à la sélection artificielle
employée durant des millénaires par les fermiers, éleveurs et jardiniers
pour sélectionner ce qu’ils jugeaient être les meilleures semences, les
meilleures fleurs et les meilleurs individus du monde animal pour la
reproduction. Comme le souligne avec justesse le biologiste québécois
Cyrille Barrette, « Darwin n’a pas inventé la sélection naturelle : il l’a
découverte, comme Watson et Crick ont découvert la forme de la molé-
cule ADN. Tout comme la gravité est une force de la nature, la sélection
naturelle est une force de la nature vivante. La contribution de Darwin
28. L’analogie est limitée car la transmutation nucléaire donne un élément chimique
complètement différent, alors que la mutation d’un gène peut être une modi-
fication importante si elle est héréditaire, mais ne modifie pas l’organisme de
manière fondamentale. Une mutation chez le lapin ne le transforme pas en
cochon.
120 Sur la science qui surprend, éclaire et dérange
est d’avoir découvert ce mécanisme spontané de sélection et d’avoir
formulé une théorie pour la décrire et l’expliquer29 ».
Dans la théorie de Darwin, l’individu qui a la probabilité la plus élevée
de passer le gène nouveau à ses descendants n’est pas nécessairement le
plus fort, l’oiseau le plus rapide ou la fleur la plus belle. L’immense archive
de tous les temps que sont les fossiles montre que c’est souvent un tout
petit organisme qui réussit à occuper une niche évacuée par un compé-
titeur. Pensons à l’explosion du nombre et de la taille des mammifères
qui suivit la grande extinction du Crétacé-Paléogène il y a 66 millions
d’années30. S’il n’y eut jamais des animaux grands, puissants et spec-
taculaires, ce furent les dinosaures qui furent alors rayés totalement
de la planète en une période très courte. Le survivant le plus probable
selon Darwin est l’organisme le plus adapté à survivre et à se reproduire
dans les conditions qui prévalent. Dans ce cas, des espèces s’éteignent
et d’autres prennent la place ; c’est un peu différent de la sélection natu-
relle qui s’opère par la variabilité d’une même espèce. Darwin proposa
aussi un second critère d’évolution. La compétition entre les individus
d’une espèce n’est pas seulement pour la nourriture et l’espace, mais
aussi pour le partenaire d’accouplement, c’est-à-dire qu’il y a sélection
sexuelle. Exemples : le panache ostentatoire de l’orignal, les plumages
flamboyants des perroquets, les grandes nageoires antennes de certains
poissons tropicaux.
L’expression « survie des plus forts » (survival of the fittest) est malheu-
reuse, car elle a donné lieu à une interprétation incorrecte de la pensée
de Darwin et aux dérives inacceptables de l’eugénisme et d’idéologies
politiques suprématistes. Une sorte de néo-lamarckisme fut en vogue
en Union soviétique sous le régime de Staline, qui prit personnelle-
ment part à la campagne d’ostracisme contre la génétique et ses défen-
seurs. Le « Petit Père du peuple » participait à ces activités en éditant les
articles de recherche et les discours de chercheurs, en particulier ceux
29. Cyrille Barrette, Le miroir du monde. Évolution par sélection naturelle et mystère
de la nature humaine, Éditions MultiMondes, 2000, p. 31.
30. L’extinction massive des trois quarts des espèces animales et végétales eut lieu
sur une courte période de temps à la fin du Crétacé il y a 66 millions d’années.
Le Paléogène est la période géologique suivante.
La science qui éclaire 121
de l’agrobiologiste Trofime Lyssenko (1898-1976). Ce dernier s’opposait
farouchement à la génétique mendélienne pour mettre de l’avant des
approches pseudo-scientifiques. Fort de sa stratégie de la terreur pour
contrer toute opposition politique et idéologique, Staline appuya les
campagnes de dénigrement, les accusations et les emprisonnements
des généticiens les plus en vue31. Les bolchéviques pensaient marxiser
les individus par éducation et changement sociétal, changements qui
seraient transmis aux descendants. Je montrerai au prochain chapitre
comment l’évolution par sélection naturelle et la génétique dérangeaient
profondément le régime autoritaire soviétique.
Comme toute autre théorie scientifique fondamentale, l’évolution par
sélection naturelle a connu elle-même une évolution remarquable. Elle a
permis de comprendre bien des choses dans tous les domaines du vivant.
Un humble moine du xixe siècle travaillant bien en marge fit une décou-
verte étrange et éblouissante. Le botaniste autrichien Gregor Mendel
(1822-1884) découvrit les principes de l’hérédité dans les années 1860. Se
fondant sur ses croisements de pois, il proposa que des caractères comme
la couleur et la dimension étaient transmis de génération en génération
par des « particules ». Il présenta ses résultats à la Société d’histoire natu-
relle de Brno (aujourd’hui en République tchèque) à l’hiver 1865 et les
publia dans une revue peu connue en 186632. L’idée révolutionnaire de
Mendel était que ce n’étaient pas les caractères eux-mêmes qui étaient
transmis, mais quelque chose de plus fondamental qu’il appela « fak-
toren » (facteurs). Il avait aussi déduit, en regardant les proportions des
caractères chez les descendants, que les facteurs allaient par paires, qu’il y
avait deux copies d’un même facteur, et surtout qu’ils ne se mélangeaient
pas. Il fallait un sérieux pouvoir d’abstraction pour imaginer cela sans
connaître l’existence des chromosomes, c’est-à-dire le fait qu’ils vont par
paires ainsi que leur relation avec la division cellulaire. L’histoire est que,
si Darwin ignorait tout des travaux de Mendel, ce dernier avait lu On
the Origin of Species qu’il annota, mais Mendel ne fit jamais le lien entre
31. Simon Ings, Stalin and the Scientists, A History of Triumph and Tragedy 1905-
1953, Atlantic Monthly Press, 2016.
32. Gregor Mendel, Versuch über Plflanzenhybriden (Experiments in Plant Hybri-
dization, Verhandlungen des naturforschenden Vereines in Brünn, 1865.
122 Sur la science qui surprend, éclaire et dérange
ses expériences avec les pois et les principes mis de l’avant par Darwin.
Blocage idéologique ou religieux33 ? Mendel, comme bien d’autres, tomba
dans l’oubli jusqu’à la redécouverte de ses lois 35 ans après l’obscure
publication de 1866. Ce fut le botaniste et physiologiste danois Wilhelm
Johannsen (1857-1927) qui qualifia le mystérieux « facteur » de « gène34 ».
C’était l’envol de la biologie évolutive.
On peut distinguer cinq phases dans l’histoire de la théorie de l’évolu-
tion. De l’Antiquité à 1700, on peut parler de préhistoire : l’idée d’évo-
lution du vivant est souvent soulevée, mais traitée comme une simple
spéculation philosophique. De 1700 à 1859, elle fut d’une part le sujet
d’une démarche scientifique sérieuse, par exemple de Buffon et Lamarck ;
d’autre part, elle était vue comme une pseudoscience ou une idéologie
justifiant une certaine idée de progrès pour s’opposer aux autorités reli-
gieuses et à la prétendue vérité littérale des textes bibliques. Charles
Lyell, Charles Darwin et Alfred Wallace firent basculer cette approche
stérile. Ils inventèrent une véritable science de l’histoire de la nature avec
des propositions vérifiables. Clairement, Darwin permit de franchir
l’étape transformative pour éclairer les changements du vivant et ses
mécanismes.
Néanmoins le mécanisme de sélection naturelle proposé par Darwin (et
Wallace) fut d’abord ignoré ou minimisé. Le processus de mutation et le
mécanisme héréditaire demeurant vagues et inconnus, les biologistes qui
suivirent Darwin exploitèrent peu la puissance de la théorie. La troisième
phase est marquée par l’arrivée de la génétique mendélienne au début
du xxe siècle. Encore une fois se projetait l’ombre de l’incompréhension.
Enfin, plusieurs biologistes travaillant dans divers pays combinèrent la
théorie darwinienne et les humbles expériences de Mendel pour déve-
lopper une vraie science du changement évolutif. Après avoir identifié
la macromolécule de l’ADN, Avery et ses collègues montrèrent dans les
années 1940 qu’elle était la porteuse de l’hérédité par les gènes (chapitre
1). Ce fut la quatrième phase. Depuis la seconde moitié du xxe siècle, nous
33. Michael Ruse, « The History of Evolutionary Thought », dans Evolution. The
First Four Billions Years, Michael Ruse et Joseph Travis (ed.), Harvard University
Press, 2009, p. 32.
34. Johannsen proposa les termes génotype et phénotype en 1911.
La science qui éclaire 123
assistons à une cinquième phase : la biologie moléculaire nous emporte
dans une véritable révolution scientifique. Cette révolution bouleverse
complètement nos façons de voir le vivant, nous dotant en même temps
des outils qui permettent d’intervenir dans la modification des gènes. Les
biologistes ont rejoint les physiciens et les chimistes comme de nouveaux
Prométhée, ce demi-dieu de la mythologie grecque qui prit en pitié les
humains vivant dans le froid et l’obscurité. Prométhée leur apporta le feu
et la lumière, ces « savoirs divins » symboles à la fois de la connaissance
et du danger.
L’influence de Sur l’origine des espèces a été colossale et continue de
l’être. Dans un sondage des libraires, éditeurs et bibliothécaires mené par
l’Academic Book Week en Grande-Bretagne, en 2017, l’ouvrage mythique
et transformateur de Darwin fut choisi comme le livre ayant eu l’in-
fluence la plus marquante de tous les temps, pour avoir changé fonda-
mentalement nos façons de penser la nature et l’humain. Le dogme que
l’humain occupait le sommet d’une indestructible pyramide de la nature
s’était effondré. Les dynamiteurs furent Darwin et Wallace. Comme le
philosophe américain Daniel Dennett l’a décrit, « la dangereuse idée de
Charles Darwin » éclairait, mais elle créait aussi tout un malaise. Elle
dérangeait et continue de déranger35.
35. Daniel C. Dennett, Darwin’s Dangerous Idea. Evolution and the Meanings of Life,
Simon and Schuster, 1995.
4
La science qui dérange
Tout être vivant est aussi un fossile.
Il porte en soi, et jusque dans la structure
microscopique de ses protéines, les traces,
sinon les stigmates, de son ascendance.
Jacques Monod1
Il y a toujours dérangement lorsque de nouvelles connaissances sur-
gissent de découvertes ou lorsque des perspectives différentes sont mises
de l’avant par une théorie nouvelle. Toutefois, comme le montrent les
épisodes variés de l’histoire des sciences, plusieurs nouvelles connais-
sances et théories ne suscitèrent pas d’objections fortes. Des découvertes
fondamentales résultèrent en peu de débats, si l’on excepte les échanges
et les objections normales à l’intérieur des disciplines elles-mêmes. Par
exemple, si l’on fait exception des quelques physiciens nazis et idéo
logues marxistes qui en avaient contre le père de la théorie de la relati-
vité, Albert Einstein, cible notoire des antisémites, cette théorie eut peu
d’opposition. Encore plus curieusement, la mise en évidence au début du
xxe siècle de l’immensité du monde des galaxies qui balaya toute velléité
d’anthropocentrisme n’a pas causé de remous. L’expansion de l’univers,
un concept fondamental impliquant le mouvement de l’univers dans
1. Jacques Monod, Le hasard et la nécessité. Essai sur la philosophie naturelle de la
biologie moderne, Éditions du Seuil, 1970, p. 203.
126 Sur la science qui surprend, éclaire et dérange
son entier, n’a nullement dérangé. Ces tranquilles réactions contrastent
avec les émois et le branle-bas générés par le modeste mouvement de la
Terre autour du Soleil, l’héliocentrisme qui perturba l’Église catholique
romaine et le protestantisme pendant des siècles. Faire bouger la Terre
était considéré comme une hérésie il n’y a pas si longtemps2.
Des savoirs qui dérangent, il y en eut de tous les temps. Qu’est-ce je
veux dire par la science qui dérange ? Le débat opposant partisans de
l’héliocentrisme et ceux du géocentrisme aux xvie et xviie siècles en est
une illustration typique. La théorie évolutionniste de Charles Darwin
ébranla encore plus profondément ; elle continue de bousculer. La nou-
velle science de la génétique fut extrêmement dérangeante pour les bol-
chéviques dans la première moitié du xxe siècle. Le marxisme tenait
comme thèse que la condition et le comportement humain étaient déter-
minés par l’environnement et la domination capitaliste. C’était à la base
du programme social et politique d’émancipation du prolétariat que les
marxistes léninistes prônaient et promulguaient3. Les visées marxistes
étaient de reconditionner l’humain. Il leur était inacceptable que l’hu-
main puisse être défini par des gènes qu’ils concevaient immuables et
inaltérables. Les savants de la génétique devenaient de nouveaux héré-
tiques.
Les marxistes s’avérèrent ainsi des ennemis de la génétique et la combat-
tirent avec une efficacité et une ardeur digne des tribunaux de l’Inquisi-
tion. On ne croyait pas aux gènes ; au mieux, on attribuait aux gènes un
rôle limité. Les bolchéviques favorisèrent donc les chercheurs qui parais-
saient démontrer que les comportements humains et animaux étaient
acquis. Les néo-lamarckistes qui prônaient la dominance de l’influence
environnementale étaient entendus et choyés par le régime soviétique.
En agriculture, le maintenant malfamé agrobiologiste Trofime Lyssenko
(1898-1976) fut un ardent disciple et prosélyte d’un lamarckisme tordu4.
2. Yves Gingras, L’impossible dialogue : sciences et religions, Boréal, 2016.
3. Cette dynamique scientifico-politique est bien abordée par Simon Ings, Stalin
and the Scientists. A History of Triumph and Tragedy, 1905-1953, Atlantic Mon-
thly Press, 2016.
4. Jean-René Roy, Les héritiers de Prométhée. L’influence de la science sur l’humain
et son univers, 2e édition, Presses de l’Université Laval, 2017, p. 144-146.
La science qui dérange 127
Soutenu par Staline, Lyssenko exerça son zèle à promouvoir la verna-
lisation, et pourfendit les généticiens comme des ennemis de l’État. La
pseudoscience était au pouvoir. Plusieurs généticiens comme Nikolai
Koltsov et Nikolai Vavilov furent reniés, emprisonnés et menacés d’exé-
cution5. En résumé, la génétique dérangeait le régime marxiste, qui prit
les mesures, parfois draconiennes, pour la contrer et l’enterrer. En fin
de course, ce furent les physiciens et les cybernéticiens, friands de la
nouvelle biologie moléculaire et de ses promesses, qui réhabilitèrent la
génétique à partir des années 1960.
Les savoirs peuvent être dérangeants pour de multiples raisons, tel
l’ordre politique comme je viens de le montrer, mais aussi pour des
motifs religieux, économiques ou psychologiques. Comme le montre
l’exemple de la génétique en Union soviétique, les débats engendrés par
les savoirs dérangeants les plus célèbres ont largement débordé hors des
communautés scientifiques. J’illustre dans ce chapitre cette dynamique
avec d’autres exemples, mettant l’accent sur des aspects de dérangement
moins souvent abordés. J’ai choisi l’origine de l’Homo sapiens, l’édi-
tion des gènes, la xéno-transplantation, le nucléaire et le réchauffement
planétaire d’origine anthropique. Ces exemples montreront tantôt une
science qui dérange (origines de l’humain), tantôt une technologie qui
dérange (le génie génétique) ; nous verrons que ce ne sont pas unique-
ment les retombées de recherche qui dérangent, mais aussi les recherches
elles-mêmes.
Le buisson des humains archaïques
Comment réagissez-vous si l’on vous traite de « néandertalien » ? Dans
le passé, le qualificatif était plutôt dégradant. Les néandertaliens sont
nos proches cousins. Nous, Homo sapiens, les avons côtoyés durant une
longue période s’étendant d’il y a 250 000 ans jusqu’à il y a 28 000 ans.
Dans les dernières décennies, les paléontologues ont mis en évidence
leurs habitudes de vie et une culture qui inclurent les premiers rites
funéraires. À l’aide de la génétique, les chercheurs ont établi qu’encore
5. Peter Pringle, The Murder of Nikolai Vavilov, Simon & Schuster, 2008.
128 Sur la science qui surprend, éclaire et dérange
aujourd’hui les personnes de descendance européenne sont hôtes de 1 %
à 4 % de gènes néandertaliens. D’aucuns se sentent même fiers de cette
parenté ancestrale. Il est remarquable de voir les représentations pictu-
rales, que nous produisons des néandertaliens, les faire paraître avec le
temps de plus en plus « humains » et sympathiques.
En mars 2010, le Musée d’histoire naturelle du Smithsonian Institution
à Washington D. C. inaugurait une grande exposition sur les origines
de l’homme. J’habitais et je travaillais alors en banlieue de la capitale
américaine. Assidu des grands musées washingtoniens, je visitai l’ex-
position. Des répliques fidèles de 75 crânes d’humains archaïques illus-
trant la diversité des lignées d’hominines étaient en montre dans un
nouveau hall du grand musée. Sur le site Internet du musée on parlait
d’évolution, mais nulle part dans les vitrines et les textes je ne vis le
mot « évolution » mentionné. Pourtant le message porté par ces crânes
si différents l’un de l’autre était clair. Mais il semblait difficile d’afficher
le mot clef, « évolution ». Étonnamment, c’était la collection de David H.
Koch, le prestigieux homme d’affaires, ingénieur chimiste et activiste
politique de la frange de droite du Parti républicain des États-Unis, et
copropriétaire, avec son frère Charles, des Koch Industries. L’exposition
avait lieu dans le David-H.-Koch Hall of Human Origins. Koch avait
donné 15 millions de dollars, sur les 27 millions requis, pour la réfection
du nouveau hall du musée.
Le mythe d’un Adam originel et d’une Ève originelle a la vie dure ; c’est
une idée simple et, pour certains, elle est très belle. Cette thématique
a fait l’objet d’un nombre immense de tableaux au cours de l’histoire ;
nos musées en sont remplis. On croit certes en l’évolution, mais on la
veut dirigée. Il y a chez plusieurs le biais bien ancré d’une évolution
téléguidée soit par un automatique « progrès vers l’avant », soit par la
présomption que nous étions prédestinés à apparaître dès l’aube des
temps. La paléoanthropologie, comme le démontrait éloquemment l’ex-
position du Smithsonian, a déboulonné le mythe. L’histoire évolutive de
nos ancêtres hominidés est non seulement fascinante et complexe ; elle
est dérangeante. Évanoui est le concept d’une longue lignée continue à
partir d’un primate élu, transformé en homme singe pour aboutir il y a
environ 60 000 ans à l’Homo sapiens. La recherche du « chaînon man-
quant », rêvée par le biologiste et philosophe anglais Thomas Huxley
La science qui dérange 129
(1825-1895) et son collègue allemand Ernst Haeckel (1834-1919), s’est
révélée des plus complexes et surprenantes.
Grâce au travail de plusieurs paléoanthropologues œuvrant sur le terrain
en Afrique, en Europe, en Asie et en Océanie, il a été établi qu’avec le
chimpanzé nous appartenons aux grands singes africains (figure 4.1)6.
Pour aider l’enseignant, la taxonomiste française Véronique Barriel
résume ainsi la place de l’humain dans la nature : « L’homme est un
eucaryote, un vertébré, un tétrapode, un amniote, un mammifère, un
primate, un hominoïde, un hominidé, un homininé : ces caractères sont
apparus successivement à différentes périodes de l’histoire de la vie7. » Il
est difficile de distinguer les pré-singes et les pré-humains. L’analyse
génétique a montré que la séparation se fit progressivement, avec hybri-
dation entre des espèces proches menant à des échanges de gènes. Les
Hominines (nous et les humains archaïques) et le genre Pan (chim-
panzés et bonobos) ont un ancêtre commun qui remonte à six ou sept
millions d’années. Véronique Barriel le résume bien : « L’homme partage
un ancêtre commun récent avec le chimpanzé et le gorille. Cet ancêtre
commun n’est ni un chimpanzé (ou un gorille) ni un homme8. » Plus
surprenant, nos bagages génétiques sont identiques à 1,14 % de diffé-
rence ! Nous incarnons évidemment des distinctions cruciales, la bipédie
exclusive, le volume du cerveau agrandi, et le langage9.
La bipédie, apparue il y a environ six ou sept millions d’années, est une
caractéristique fondamentale de l’homininé. Un volume de crâne gran-
dissant y est clairement associé avec ce mode de locomotion. Certains
l’attribuent à une alimentation plus riche basée sur les viandes, surtout
cuites. Ce qu’on appelle « encéphalisation » décrit la façon dont notre
6. Pascal Picq, Les origines de l’homme. L’odyssée de l’espèce, Tallandier, 1999.
7. Véronique Barriel, Hominoïdes, Hominidés, Homininés et les autres, https ://
planet-vie.ens.fr/content/hominoides-hominides-hominines (publié 4 janvier
2007, modifié 30 septembre 2016).
8. Véronique Barriel, op. cit.
9. Luca Cavalli-Sforza, Gènes, peuples et langues, Éditions Odile Jacob, 1996.
130 Sur la science qui surprend, éclaire et dérange
genre homininé développa un cerveau plus grand que celui des autres
primates10.
FIGURE 4.1 Phylogénie de la super-famille des hominoïdes. La branche Homo
sous Homonini comprend l’Homo Sapiens, l’Homo Neanderthalensis et les autres proto-
humains montrés à la figure suivante. La sous-branche Pan inclut les chimpanzés et les
bonobos. La lignée Pongo inclut l’orang-outan, et les gibbons font partie des Hylobates.
Source : Wikipedia Commons/En rouge.
Le riche registre fossile cumulé et analysé pendant de longues années
a provoqué un changement de paradigme chez les chercheurs de la fin
du xxe siècle. Depuis les années 1980, maints gisements fossiles ont été
identifiés et explorés, utilisant les meilleurs outils de datation et d’analyse
fournis par la physique et la chimie moderne. D’une représentation en
schéma linéaire d’évolution et de transition, donc de l’idée d’une chaîne
continue, nous sommes passés à un arbre à plusieurs branches, l’arbre
phylogénétique (figure 4.2). Lesdits « chaînons manquants » sont devenus
des nœuds pour des branches de cousins défunts, rendant nos histoires
encore à la fois plus liées et plus obscures.
Les paléoanthropologues ont en main les vestiges de nombre de représen-
tants de ces mystérieux cousins. J’en rencontrai un certain nombre dans
les superbes répliques de crânes des anciens Homo en montre au Smith-
sonian lors de ma visite. Même si ces crânes me semblaient étranges, je
m’imaginais tenir une sorte de conversation avec ces cousins disparus.
Pourquoi ne laissèrent-ils aucun descendant ? Comment et pourquoi
10. Le volume du cerveau humain est en moyenne de 1330 cm3, soit deux fois la
taille de celui d’un chimpanzé ou d’un gorille. Avec une taille moyenne de 1200 à
1900 cm3, les néandertaliens avait un cerveau plus grand que le nôtre.
La science qui dérange 131
l’Homo sapiens émergea-t-il de ce fouillis de branches phylogénétiques ?
Il est dérangeant de penser qu’il aurait pu en être bien autrement. Le
biologiste Cyrille Barrette nous le rappelle : « Nous aurions très bien
pu ne pas exister, notre émergence est due à une suite de contingences
toutes aussi banales les unes que les autres, exactement comme c’est le
cas de toutes les autres espèces. Le fil de l’histoire de la vie s’improvise
au fur et à mesure qu’il se déroule et nous aurions très bien pu ne pas
en faire partie11. »
FIGURE 4.2 Arbre phylogénétique simplifié, ou cladogramme, des hominines
anciens. L’Homo sapiens est relié anatomiquement aux proto-humains par des ancêtres
communs. Par exemple, Homo ergaster – erectus – heidelbergensis – neanderthalensis
ont tous le même ancêtre commun (non identifié) marqué par le nœud de la diagonale
correspondant à H. ergaster. La lignée humaine serait issue d’une forme ancienne
d’Australopithèque. Source : Cladogramme de I. Tattersall et J. Schwartz (2000) adapté
par l’auteur.
Si l’on se resitue dans le temps entre il y a deux millions et 200 000 ans,
il y a tout un mélange de lignées, dont une pré-néandertalienne dont les
origines et les déplacements entre l’Europe et l’Asie demeurent obscurs.
11. Cyrille Barrette, Le miroir du monde. Évolution par sélection naturelle et mystère
de la nature humaine, Éditions MultiMondes, 2000, p. 292.
132 Sur la science qui surprend, éclaire et dérange
Assez curieusement, les poux qui infestent nos chevelures ont permis
aux paléoanthropologues d’assembler des informations cruciales sur
les divergences entre les lignées d’hominidés, sur leur aboutissement
à l’Homo sapiens et l’historique de leur répartition sur les différents
continents. La figure 4.3 en présente un bel aperçu schématique. Pour
mettre un peu d’ordre dans le pêle-mêle de nos ancêtres, les paléoan-
thropologues distinguent deux grandes étapes évolutives :
1. Émergence du genre Homo avec les africains Homo habilis et Homo
rudolfensis il y a environ 2,5 millions d’années et disparition il y a
1,6 million d’années. Puis arrive l’Homo ergaster (= Homo erectus),
un bipède bien formé, qui semble avoir quitté la vie arboricole alors
que ses deux prédécesseurs évoluaient toujours entre l’arbre et le
sol. L’Homo ergaster fabriquait des outils plus sophistiqués. Il se
déplaça rapidement sur le territoire, occupant l’Europe et l’Asie il
y a 1,8 million d’années (figure 4.2).
2. Arrivée de l’homme moderne, suite à l’Homo ergarster dont nous
partageons l’ancêtre commun avec l’Homo heidelbergensis et l’Homo
neanderthalensis, notre cousin néandertalien. D’autres ergasters
arrivant d’Afrique et du Proche-Orient sont à l’origine de l’Homo
sapiens ; le représentant européen le plus connu est l’homme de
Cro-Magnon, nom d’une grotte célèbre de la Dordogne, en France,
où il a été découvert. Toutefois, grâce à des ossements vieux de
310 000 ans trouvés récemment à Djebel Ighour au Maroc, il y a
aussi preuve d’une présence fort ancienne de l’Homo sapiens en
Afrique, une époque étonnamment lointaine pour l’espèce. Les
nouvelles analyses d’indices fossiles montrent la présence de l’Homo
sapiens hors de l’Afrique il y a aussi longtemps que 200 000 ans.
Que retenir de cette reconstitution complexe ? Au lieu d’une descendance
structurée et claire, les registres fossiles de tous les continents révèlent
un arbre de l’évolution des espèces d’hominidés en forme de buisson
très fourni, suggérant plusieurs filiations possibles. Cette multiplicité
de souches est bien établie et le débat entre les paléoanthropologues
porte sur le nombre d’espèces identifiables dans ce labyrinthe de souches
possibles. Évidemment, le mythe du Paradis terrestre et de ses gardiens
rebelles, Adam et Ève, est passé au broyeur de la paléoanthropologie,
La science qui dérange 133
FIGURE 4.3 Les différentes populations d’hominidés en fonction du temps et de
leurs répartitions géographiques. Source : D. L. Reeds, et collab., « Genetic Analysis of Lice
Supports Direct Contact between Modern and Archaic Humans », PLOS Biology, 2 (11),
2004. Source : Creative Commons Attribution (CC BY) license.
assistée de la génétique, de la neurobiologie et de la linguistique. D’au-
cuns sont perturbés par cette pluralité ancestrale explosive, ébranlant
quelque peu le mythe de l’élu humain et du peuple choisi des dieux.
D’autres sont fascinés par cette richesse ancestrale.
134 Sur la science qui surprend, éclaire et dérange
Les avancées paléoanthropologiques et leurs mises en contexte éclairent
sur la place de l’humain dans l’évolution. Elles dérangent aussi. L’excep-
tion et la centralité de l’humain en prennent pour leur rhume. L’Homo
sapiens est l’aboutissement fortuit d’un processus évolutif chaotique avec
de nombreuses lignées parallèles qui ne laissèrent aucun descendant, tout
cela bien illustré par les 75 crânes de proto-humains du Smithsonian.
De nos 20 000 gènes, nous en avons 96 % en commun avec notre cousin
distant, le chimpanzé. L’homme ne descend pas du singe, mais d’autres
singes, et nous sommes phylogénétiquement cousins et cousines. Enfin,
il n’est pas dit que nous, Homo sapiens, survivront plus longtemps que
l’Homo ergaster ou que son descendant l’Homo erectus qui ont duré près
de 1,8 million d’années.
La génomique et le génie génétique
Comme tout le monde vivant, notre corps est une machine complexe
construite de 200 types de tissus différents rassemblant 60 trillions de
cellules. Chaque heure, notre corps produit des milliards de nouvelles
cellules, générant ainsi environ un demi-gramme d’ADN neuf. Si l’on
dépliait et déployait la structure hélicoïdale de tout l’ADN de notre corps,
il formerait une trame longue de 200 millions de kilomètres, soit 50 mil-
lions de kilomètres de plus que la distance Terre-Soleil. Chaque cellule
contient trois milliards de nucléotides. Ces trois milliards de paires de
bases AC et GT (figure 1.9) se regroupent dans la cellule sous la forme
de 23 chromosomes identifiés dans les années 1880 ; les chromosomes
contiennent nos 20 000 gènes. Ces 20 000 gènes définissent l’être humain
comme organisme et le font fonctionner et se reproduire (figure 4.4). La
production, la génération et le fonctionnement de la vie fonctionnent
comme des algorithmes. L’humain est aujourd’hui capable de prendre
un certain contrôle de ces algorithmes et de les modifier. Les succès de
la biologie moléculaire et du génie génétique sont impressionnants, et
soulèvent des questions de fond. Les applications rendues possibles par
le contrôle et l’édition des gènes dérangent les habitudes et l’ordre établi.
De plus, les avancées sont tellement rapides qu’on a peine à les suivre et
à les comprendre, posant un défi additionnel pour les scientifiques eux-
mêmes et encore plus pour les éthiciens mis au défi de suivre les avancées.
La science qui dérange 135
FIGURE 4.4 a) Chez l’humain, 23 chromosomes contiennent les 20 000 gènes. Introns
et exons sont des composantes du gène. Un gène fournit à la machinerie cellulaire les
instructions pour la synthèse des protéines, notamment la séquence des paires de bases
AT et GC du gène qui détermine la séquence en acides aminés de la protéine codée par ce
gène. Dans le gène, ces instructions sont discontinues et se trouvent essentiellement dans
les exons. b) Appariement des molécules adénine (A) et thynine (T) pour la paire de bases
AT ; c) appariement des molécules guanine (G) et cytosine (C) pour la paire de bases GC.
Voir aussi la Figure 1.9. Source : Wikipedia Commons.
136 Sur la science qui surprend, éclaire et dérange
Maîtrisant les outils de la génétique, les biologistes moléculaires et les
ingénieurs chimistes manipulent les gènes des organismes vivants avec
précision. Une des techniques est l’ADN recombinant (ADNr) qui permet
de créer de nouvelles séquences d’ADN à partir de séquences de gènes
existantes provenant de sources diverses. C’est la transgénèse qui permet
d’introduire des gènes dans les organismes. Parce que les molécules
d’ADN ont une structure moléculaire similaire, l’ADN recombinant
correspond à un clonage moléculaire. Quand on produit un ADN recom-
binant, on le transfère dans une bactérie, et la bactérie qui se divise à
l’identique est un clone ; c’est le clonage. Évidemment, on ne transfère
pas individuellement un ADN dans une bactérie. On prend une solution
avec plusieurs milliers de copies de l’ADN et l’on fait la transgénèse de
millions de bactéries à l’aveugle, et on sélectionne celles qui ont bien
reçu l’ADN.
On crée ainsi des organismes transgéniques, appelés organismes généti-
quement modifiés, ou OGM. On les produit en ajoutant ou en enlevant
des gènes à l’aide de techniques fort diverses : i) le bombardement des
cellules avec des particules d’or enrobées d’ADN, ii) l’électroporation par
application d’un champ électrique sur les membranes cellulaires, iii) la
micro-injection dans les tissus à l’aide d’une aiguille fine, ou iv) l’ajout
d’un nouveau gène dans un organisme (l’agrobacterium), cette dernière
technique étant particulièrement efficace avec les plantes. CRISPR-Cas,
une nouvelle technique d’édition des gènes encore plus précise et efficace,
s’est ajoutée à l’arsenal (chapitre 7). Tout cela est relativement récent, mais
faisons un peu d’histoire.
L’idée de l’ADN recombinant (ADNr) fut proposée dans les années 1970
par Peter Lobban, alors étudiant au doctorat à l’Université Stanford,
en Californie. Tôt les scientifiques réalisèrent qu’il pouvait y avoir des
conséquences indésirables et dangereuses à utiliser cette technique.
En 1975, les chercheurs s’entendirent et décrétèrent un moratoire sur
les recherches en ADNr afin de mieux cerner les enjeux, d’établir des
règles et de s’entendre sur les balises gouvernant les pratiques12. Ces
12. Jean-René Roy, Les héritiers de Prométhée. L’influence de la science sur l’humain
et son univers, Presses de l’Université Laval, 2017, p. 163-164.
La science qui dérange 137
règles furent établies et entérinées par les communautés de chercheurs.
Aujourd’hui les molécules d’ADNr et les protéines recombinantes ne sont
plus considérées comme dangereuses, et les mesures de précaution sont
appliquées. Le champ de la transgénèse, en recherche tant fondamentale
qu’appliquée, a littéralement explosé.
Les applications dépassent le cadre de recherche en biologie et en science
médicale, dont l’objectif principal est de cartographier, de séquencer les
gènes et d’en définir les fonctions. Comme vous le savez bien, on utilise la
technologie en agriculture, en science vétérinaire et jusque dans les ani-
maleries où vous pouvez vous procurer des petits poissons fluorescents
GloFish. Le riz doré (Oryza sativa) est une variété recombinante de riz
visant à suppléer à la déficience en vitamine A13. Fortement contestées
sont les cultures de plantes résistantes aux herbicides et aux insectes ;
elles incluent le soja, le maïs, le canola et le coton. Un pourcentage élevé
(70 % à 90 %) des céréales provenant de cultures transgéniques sert à l’ali-
mentation du bétail et de la volaille. On utilise l’ADN recombinant pour
générer des protéines thérapeutiques comme dans des composés clefs
pour certains vaccins. Autre exemple étonnant du domaine médical :
l’insuline synthétique pour l’humain a été le premier médicament pro-
duit par la technique d’ADN recombinant. L’insuline transgénique est
maintenant produite en grandes quantités et aide les personnes atteintes
d’un diabète.
L’utilisation des cultures transgéniques (OGM) a réduit de 37 % l’uti-
lisation de pesticides, accru la productivité de 22 % et les profits de
68 % (probablement en raison du contrôle quasi monopolistique des
semences)14. La diminution d’utilisation d’herbicides et d’insecticides est
certainement avantageuse. Il n’y a pas d’évidence que les produits dérivés
d’OGM posent plus de risques que ceux provenant de moyens agricoles
traditionnels, mais la prudence reste de mise. On connaît les consé-
quences négatives des espèces invasives et l’on ne peut exclure que des
13. Ce riz n’est pas sur le marché car il n’a pas franchi les étapes d’approbation et
fait l’objet de disputes de propriété intellectuelle.
14. Pour des références sur les réductions de l’usage de pesticides et d’herbicides,
voir le site ogm.gouv.qc.ca.
138 Sur la science qui surprend, éclaire et dérange
variétés transgéniques utilisées à grande échelle fassent de même. Bien
des questions environnementales sont complexes et loin d’être résolues.
On continue de mettre en question la sécurité et les répercussions poten-
tielles des OGM sur la biodiversité et les économies locales. Ces cultures
sont utilisées commercialement dans plusieurs pays, mais soulèvent
beaucoup d’opposition et les débats sont malheureusement hautement
politisés. Curieusement, il n’y a pas d’accord international sur la défini-
tion d’un OGM. Par conséquent, les règlements sur l’utilisation des OGM
varient d’un pays à l’autre, allant d’un bannissement total (par exemple
dans plusieurs pays européens) à l’approbation presque complète (aux
États-Unis, au Canada et au Brésil). Il y a des enjeux socioéconomiques
d’importance : les super-monopoles industriels qui produisent et gèrent
l’usage des produits OGM ont des pratiques sociétales douteuses.
Rappelons que ces questions se posent aussi avec les cultures non trans-
géniques, même si le grand public ne le voit pas. Les pesticides sont tout
autant utilisés sur les plantes non-OGM et risquent donc tout autant
de provoquer l’émergence d’insectes résistants. Les plantes non-OGM
sont aussi sélectionnées, par sélection classique, pour avoir une certaine
résistance aux insectes ou à d’autres stress. Elles pourraient entraîner une
pollution génétique en cas de croisement avec des plantes des champs
voisins ou du milieu naturel.
Il demeure que la présence des OGM est grandissante. La nouvelle papaye
d’Hawaii est transgénique ; l’espèce originale fut entièrement détruite
par un virus. La banane est une espèce maintenant en danger. La prin-
cipale variété, la Cavendish, souffre du manque de diversité génétique,
malheureusement causée par une culture monoclonale poussée par le
profit à court terme. Comme pour la papaye hawaiienne, on travaille à
la mise au point d’une banane transgénique qui résisterait au virus de la
maladie de Panama, un champignon qui entre par les racines de la plante.
Des pommes transgéniques sont arrivées sur les étalages des magasins
en 2017. Un nouveau saumon transgénique, dérivé de la variété Salmo
salar ou saumon de l’Atlantique, a été mis au point par des chercheurs
canadiens il y a 25 ans. Il contient un gène de croissance hormonale
provenant du saumon Chinook de l’océan Pacifique et un gène de la
loquette d’Amérique (Zoarces americanus), une anguille dont le sang
La science qui dérange 139
contient des protéines « antigel » lui permettant d’évoluer dans des eaux
glaciales aux abords de 0 °C. La croissance du nouveau saumon est deux
fois plus rapide que celle de l’espèce naturelle. Élevé au Panama, il est
vendu par AquaBounty Technologies de Maynard, au Massachusetts.
Avec les stocks pélagiques en décroissance, l’humanité n’a d’autres choix
que de se tourner vers la pisciculture et des techniques nouvelles. Per-
sonnellement, je mangerai le saumon AquaBounty avec plaisir, mais je
tiens à ce que ce type de poisson soit bien identifié au comptoir de la
poissonnerie et à en connaître l’origine.
Les débats sur les OGM sont vifs, soulevant des émotions qui rendent
les analyses objectives difficiles, voire impossibles. Des inquiétudes
demeurent à propos du sort de ces molécules lorsqu’elles sortent du
laboratoire et sont introduites dans l’environnement et la chaîne alimen-
taire. Il importe d’avoir une information juste et complète et d’informer
les citoyens qui ont souvent raison de s’insurger. Avec la production
et l’utilisation considérable de produits transformés, la présence d’in-
grédients provenant d’OGM est grandissante. Il est pleinement justifié
que les consommateurs soient informés. Minimalement, comme pour
bien d’autres produits, les indications d’origine par un code à barres,
un numéro de téléphone et un site Web doivent devenir des pratiques
exigées. Il est étonnant et inacceptable qu’un pays développé et démo-
cratique comme le Canada s’oppose à la simple indication de l’origine
des produits alimentaires, une position que d’aucuns attribuent au poids
du puissant lobby de l’industrie.
Le thème de la transgénèse et des organismes transgéniques est fasci-
nant par sa complexité. Il dérange puisque les enjeux soulevés rebon-
dissent sur l’humain, sur ce qu’on mange et sur tout l’environnement
de la production alimentaire. De nouvelles manières de créer et de pro-
duire le vivant, de reproduire les animaux et de les consommer sont
des extensions spectaculaires de la génétique moderne. Des organismes
transgéniques, passons à un sujet encore plus désarçonnant, celui des
xéno-transplantations.
140 Sur la science qui surprend, éclaire et dérange
Les xéno-transplantations
J’ai toujours eu une sympathie pour le cochon. Le roman de Marie Dar-
rieussecq, Truismes, me fascine15. Lorsque j’étais enfant, nous avions un
cochon qui consommait avec appétit les rebuts du potager et de la cuisine
durant l’été ; l’animal débité et bien cuisiné se retrouvait sur la table en
début d’hiver. Nous fréquentions quelques fermes proches, visites que
notre mère n’aimait pas, parce que, disait-elle, nous sentions le fumier
à plein nez au retour. J’aimais voir les cochons, truies et cochonnets de
tous les âges et de toutes les tailles se vautrer dans la boue de leurs enclos.
Qu’ils fussent à l’extérieur ou à l’intérieur, les cochons affichaient une
certaine bienséance en faisant toujours leurs besoins dans le même lieu
de l’enclos. Il y avait une boucherie au centre de notre petite ville. Une
fois par semaine, c’était l’abattage. De tous les animaux arrivant au jour
fatal, les cochons étaient ceux qui criaient et hurlaient avec le plus de
force ; leurs protestations stridentes m’effrayaient. Je demandais toujours
à mon père ou mon grand-père pourquoi les cochons pressentaient ce qui
les attendait. Je me souviens d’une caricature des années 1970 illustrant
des extraterrestres atterris sur une ferme et tombant en amour avec les
cochons. Aujourd’hui, nous nous rendons compte que cet animal quelque
peu mal aimé, mais apprécié dans notre assiette, se rapproche de nous de
façon inattendue. Comme souvent avec les animaux, nous les amenons
en scène pour nous aider.
Les xéno-transplantations (du grec xenos, étranger) constituent un
chapitre extraordinaire de la médecine où l’apport du génie génétique
redonne espoir aux patients en attente de greffe d’organes. Aux États-
Unis par exemple, on évalue à 100 000 le nombre de patients en attente
d’un rein. Il est impossible de remplir la commande par les reins d’hu-
mains donneurs, car trop peu sont disponibles. Et lorsqu’ils le sont, les
problèmes de compatibilité et le rejet sont toujours un risque. Il faut
envisager une autre solution : la xéno-transplantation. La xéno-transplan-
tation consiste à transplanter un tissu d’une espèce chez un individu
d’une autre espèce. Ce peut être d’animal à animal, mais aussi d’un
animal à un humain.
15. Marie Darrieussecq, Truismes, P.O.L., 1996.
La science qui dérange 141
Le cochon est un animal domestique extraordinaire : toutes les parties
de son corps sont utilisables. Encore plus, le cochon est un animal de
choix pour la xéno-transplantation vers l’humain. Son avantage vient en
partie du fait que les dimensions de ses organes sont similaires à celles
des organes humains. Le cochon est aussi relativement facile à cloner
et à modifier génétiquement. Et l’animal est prolifique. Le cochon se
reproduit aussi avec un cycle rapide, deux fois par an en général. Enfant,
je m’étonnais du nombre de cochonnets qu’une truie pouvait mettre au
monde ; je me souviens d’avoir compté jusqu’à 21 petits, ce qui posait un
défi pour le fermier traditionnel, qui devait réduire leur nombre. Comme
nous le verrons, l’utilisation de cet animal domestiqué extraordinaire
soulève aussi des enjeux éthiques, d’autant plus que, pour les uns, le
cochon est un animal intelligent et sympathique, et pour d’autres un
animal proscrit.
Malgré les promesses et une intense recherche, nous n’avons pas encore
en main un outil clinique capable de régler les problèmes de greffe ani-
male. Plusieurs programmes de recherche visent à régler ces problèmes
pour rendre la xéno-transplantation d’organes du cochon fiable et sécu-
ritaire. Les trois principaux problèmes biomédicaux sont le rejet immu-
nitaire, l’incompatibilité physiologique et le risque de transmission de
microorganismes porcins capables d’induire des maladies chez l’humain.
En plus du rejet immunitaire, qu’on observe aussi lors de transplantation
de matériel génétique différent, et cela d’une même espèce (humain à
humain par exemple), les chercheurs ont observé un phénomène plus
grave : le rejet hyper aigu, HAR en anglais, une nouvelle forme de rejet
lorsqu’on utilise des cellules ou des organes du cochon. Les anticorps
humains reconnaissent des sucres à la surface des cellules du porc. Ces
anticorps réagissent brutalement et immédiatement, menant à la destruc-
tion de la greffe en quelques minutes16. Pour contrer le rejet hyper aigu,
on a produit des porcs génétiquement modifiés chez qui on a éliminé
l’enzyme qui produit ces sucres (absents chez l’humain).
16. Joachim Denner, « Advances in organ transplants from pigs », Science, 2017,
vol. 357, p. 1238-1239.
142 Sur la science qui surprend, éclaire et dérange
Ce n’est pas tout. Le porc, comme nous, est hôte de plusieurs micro
organismes et virus pouvant être transmis lors de transplantations.
Différentes techniques et stratégies peuvent être utilisées pour bloquer
ces transmissions. C’est plus compliqué lorsque les microorganismes
infectent le génome du cochon ou que les rétrovirus sont endogènes à
l’animal. Ces rétrovirus sont présents dans toutes les cellules et transmis
de génération en génération (ce genre de rétrovirus est présent chez tous
les mammifères). Médicaments et manipulations génétiques font partie
de ces stratégies. Mais la seule méthode capable d’inactiver ces rétrovirus
est l’édition du génome porcin où l’on cible les gènes individuels. Puisque
certains porcs portent plus de 100 copies des rétrovirus, la technique est
difficile. Avec l’arrivée de CRISPR-Cas (voir chapitre 7), une méthode
d’édition des gènes extrêmement efficace a été mise au point par une
équipe internationale dirigée par des chercheurs chinois17. Dans un
projet marquant, ils ont réussi à mettre hors combat tous les rétrovirus
des cellules souches. Ces dernières cellules proprement « éditées » don-
nèrent des embryons porcins libres de ces rétrovirus, embryons qui
furent ensuite transférés chez des truies porteuses. Trente-cinq porce-
lets ont été mis bas par 17 truies. Quinze de ces petits étaient toujours
vivants quatre mois après leur naissance, au moment de la publication
des chercheurs.
J’ai présenté la recherche et le travail d’édition des gènes en détail, parce
que ces développements illustrent bien la recherche clinique en biologie
moléculaire présentant un effet immédiat sur l’humain. On y voit l’uti-
lisation d’outils du génie génétique orientée vers l’amélioration du bien-
être des humains. Cependant, ces nouvelles technologies soulèvent des
enjeux éthiques d’importance à un niveau plus fondamental que celui des
OGM qui entrent dans notre nourriture. Les questions sont nombreuses.
Quand peut-on décider de procéder aux xéno-transplantations de cette
nature ? Qui prend la décision médicale ? Comment informer et engager
les patients et leurs proches ? Que feriez-vous si votre fils adolescent ou
votre fille adulte avait un besoin urgent d’une greffe de rein ? Quelle serait
votre attitude si vous êtes pratiquant juif ou musulman, pour qui le porc
17. Dong Niu et collab., « Inactivation of porcine endogeneous retrovirus in pigs
using CRISPR-Cas9 », Science, 2017, vol. 357, p. 1303-1307.
La science qui dérange 143
est un tabou, ou encore véganiste, qui refuse toute utilisation des ani-
maux ? Les xéno-transplantations réduiraient-elles le trafic d’organes ?
Et le cochon dans tout cela, n’est-il qu’un être vivant à exploiter sans
limites ? Ce sont des questions importantes ; les réponses sont difficiles
et les enjeux dérangent à tous les niveaux de la société.
Tout est nucléaire
Que préférez-vous : l’électricité provenant d’une centrale thermique au
gasoil ou au charbon, ou celle d’une centrale nucléaire ? Achèteriez-vous
une voiture électrique si votre électricité était produite par une centrale
au charbon ? Ces questions m’amènent au sujet dont je veux vous entre-
tenir, celui du nucléaire. « Nucléaire », pour plusieurs, c’est un bien grand
mot avec de multiples facettes mystérieuses. D’abord une observation de
physicien : la matière est fondamentalement atomique et nucléaire de par
sa structure. Pour aborder les impacts des applications de la radioactivité
et de l’énergie nucléaire, paraphrasons le mot du médecin philosophe
suisse Paracelse (1493-1541) : « Tout est poison, rien n’est poison : tout
est dans la dose. »
Radioactivité, énergie nucléaire, armements nucléaires, etc. Oui, des
mots qui pour plusieurs font penser que le monde de Frankeinstein
rôde à nos portes. Le nucléaire dérange et avec raison. Mais tentons
d’aller au-delà des réactions viscérales et quelque peu irrationnelles.
Comme l’écrivait Marie Curie, avoir peur est futile ; comprendre est ce
qui importe. J’ajoute : la crainte est sage, car l’humain est capable d’ef-
frayantes monstruosités. Pourtant la radioactivité est l’essence même
de la nature. Comme l’écrit éloquemment le radiochimiste Jean-Claude
Roy, « nous vivons dans un monde radioactif qui l’a toujours été et qui le
sera toujours. Tout ce qui nous entoure est radioactif, notre propre corps,
l’air que nous respirons, la nourriture que nous consommons, l’eau que
nous utilisons et le sol sur lequel nous marchons18 ». La radioactivité
est partout ; vous êtes radioactif par un radioélément naturel de votre
18. Jean-Claude Roy, La radioactivité. Les éléments et les isotopes radioactifs, 2000,
p. iii.
144 Sur la science qui surprend, éclaire et dérange
corps, le potassium 40, qui est responsable de la majeure partie de votre
radioactivité naturelle. Évidemment, l’humain peut maintenant modifier
ces conditions naturelles en aménageant l’énergie des atomes.
Reprenons le fil des évènements qui ont marqué le développement de
notre compréhension du noyau de l’atome au point où nous l’avons laissé
au chapitre 1. En 1934, avant qu’on comprenne bien la transmutation
d’éléments par bombardement de neutrons, le physicien hongrois Leó
Szilárd (1898-1964) avait déjà imaginé le concept de la réaction en chaîne
pour produire encore plus de neutrons. Szilárd vivait alors à Londres,
d’où il soumit une application pour breveter l’idée le 28 juin 193419. Son
approche était de bombarder le béryllium, l’uranium ou le thorium avec
des neutrons. Chaque réaction produirait alors deux neutrons, ensuite
quatre neutrons, ensuite huit neutrons, ensuite 16 neutrons, et ainsi de
suite. Il ignorait alors le processus de fission du noyau.
À la suite de la découverte de la fission nucléaire par les Allemands
Hahn, Meitner, Frisch et Strassmann en décembre 1938 (chapitre 1),
les évènements déboulèrent. La compréhension de la transmutation
des éléments et de la fission de l’uranium eut des conséquences quasi
immédiates et aux portées redoutables. Lors de la Seconde Guerre mon-
diale, on savait que les Allemands maîtrisaient les connaissances de
la physique et de la chimie des radioéléments et de leurs isotopes. Les
milieux politiques alliés informés par plusieurs scientifiques ayant fui
l’Allemagne nazie imaginèrent les pires scénarios. Surtout qu’on avait
enfin compris qu’Adolf Hitler n’était pas un simple hurluberlu que les
institutions démocratiques allaient aisément mettre hors jeu. Améri-
cains, Anglais, Français et Canadiens prirent les devants pour pallier les
avancées nucléaires de l’ennemi. Dans ce contexte conflictuel drama-
tique, la fission nucléaire était devenue des plus dérangeantes.
Enrico Fermi et ses collègues italiens, maintenant réfugiés aux États-
Unis, furent rapidement mis à contribution pour construire la première
pile atomique sous le stade de l’Université de Chicago. Le but de la pile :
démontrer la réaction en chaîne et la faisabilité de la fission de l’uranium
19. Leó Szilárd, « Improvements in or relating to the Transmutation of Chemical
Elements », Patent Specification 630,726, Application Date : 28 juin 1934.
La science qui dérange 145
sur une grande échelle. Jusqu’ici, la fission nucléaire était une expérience
menée sur des bancs d’essai de laboratoire. Le 2 décembre 1941, après des
étapes délicates d’assemblage des matériaux requis, Fermi et son équipe
confirmèrent la production de fission nucléaire contrôlée. La Pile-1,
qu’ils avaient soigneusement assemblée, était constituée de lingots d’ura-
nium et d’oxyde d’uranium imbriqués avec une rigueur géométrique à
travers des blocs de graphite (figure 4.5). Le graphite est du carbone ;
il agit comme modérateur pour ralentir les neutrons, rendant ces der-
niers plus efficaces à provoquer la fission du noyau de l’uranium et à
générer la réaction en chaîne imaginée par Szilárd huit années plus tôt20.
Dans le langage secret de l’époque, cet évènement extraordinaire aux
conséquences redoutables fut immédiatement annoncé par le physicien
américain Arthur Compton (1892-1962) à son collègue James Conant
(1893-1978), alors président du Comité pour la recherche de la Défense
nationale : « Le navigateur italien vient tout juste de toucher terre dans
le Nouveau Monde21. » On connaît la suite gravissime. Aux États-Unis,
ce succès donna le feu vert au projet Manhattan : la construction d’une
ou plusieurs bombes atomiques. Mais les étapes allant de la Pile-1 à la
bombe qui détruisit Hiroshima et Nagasaki en août 1945 furent com-
plexes et onéreuses22. Durant toute la guerre, les dirigeants américains
et britanniques demeurèrent convaincus que le IIIe Reich nazi était en
avance dans tous les aspects de la recherche sur la fission de l’uranium,
ce qui se révéla, après la fin de la guerre, bien exagéré.
La radioactivité avait soudainement cessé d’être une fantaisie de
science-fiction, et l’intérêt pour le phénomène était sorti des laboratoires
universitaires. Dès les travaux des Curie et dans les développements qui
suivirent, on se rendit compte des dangers de la radioactivité pour la
santé. Les précautions de plus en plus strictes furent mises en place pour
protéger le personnel, et même le matériel de laboratoire. Aujourd’hui,
on en paye encore les dommages, comme au centre de production de
20. Enrico Fermi et Leó Szilárd obtinrent le brevet no 2,708,656 le 17 mai 1955 ; leur
application de brevet pour un réacteur nucléaire datait du 19 décembre 1944.
21. Carlo Salvetti, Enrico Fermi : His Work and Legacy, Springer, 2001, p. 177-203.
22. Le projet Manhattan employa plus de 130 000 personnes et coûta alors près de
deux milliards de dollars (environ 70 milliards de dollars actuels).
146 Sur la science qui surprend, éclaire et dérange
FIGURE 4.5 Première pile atomique ayant produit une réaction en chaîne contrôlée.
Source : Melvin A. Miller of the Argonne National Laboratory.
plutonium à des fins militaires de Hanford dans l’État de Washington,
où plusieurs réacteurs ont fonctionné pendant des années. On y procède
encore à des opérations de nettoyage des édifices et des terrains conta-
minés ; le stockage des déchets nucléaires est toujours un casse-tête. Le
coût total de ces travaux de nettoyage atteint aujourd’hui des dizaines de
milliards de dollars. L’opération devra se poursuivre durant des dizaines
d’années. L’observatoire d’ondes gravitationnelles LIGO de Hanford est
situé sur le Hanford Nuclear Reservation. Du site de l’observatoire, on
voit bien le voisin mystérieux.
Nous sommes depuis l’origine des temps bombardés par des particules
de hautes énergies (rayons cosmiques). Comme je l’ai mentionné, nous
vivons dans un milieu qui est naturellement radioactif. Le vivant s’est
adapté à cette faible dose. La longueur et la complexité de nos séquences
La science qui dérange 147
ADN fournissent beaucoup de redondances, et il faut un rayonnement
radioactif intense pour causer des dommages irréversibles aux cellules.
On sait qu’aux doses élevées les dommages aux cellules sont catastro-
phiques. À part les bombes larguées sur les villes japonaises en 1945,
l’accident de Chernobyl en Ukraine de 1986 et des accidents en ex-Union
soviétique, nous avons peu de données sur les conséquences de doses très
élevées23. Il n’est certainement pas question de mener des expériences de
flux radioactifs élevés sur des humains ou des animaux.
On évalue que la majorité des morts lors des bombardements d’Hi-
roshima et de Nagasaki furent causés par l’onde de choc, le rayonnement
thermique et les incendies, et qu’entre 15 % et 20 % des décès (soit 20 000
du total de 120 000) le furent par la radiation nucléaire des bombes. Mais
ces chiffres demeurent incertains. « Parmi les citoyens et citoyennes
d’Hiroshima et de Nagasaki qui furent exposés à la radiation intense
et survécurent, 3350 sont décédés plus tard de cancer, et environ 350
de ces morts purent être attribuées à l’exposition au rayonnement des
bombes atomiques24. » Malgré ces cas tragiques des bombes lâchées sur
le Japon, nous connaissons mal les niveaux de radiation suffisants ou
nécessaires pouvant causer des dommages irréversibles25. Avec raison,
tous les laboratoires et toutes les entreprises actifs dans les domaines de
l’énergie nucléaire et des radioéléments misent sur la prudence extrême.
Certains programmes de recherche sont en cours pour déterminer s’il y
23. Il y a eu aussi des accidents dans des centrales nucléaires de l’ex-Union soviétique
où des travailleurs ont été exposés à de fortes doses, mais les données ne sont pas
disponibles.
24. Richard L. Garwin et Georges Charpak, Megawatts and Megatons, A Turning
Point in the Nuclear Age ?, Albert A. Knopf, 2001, p. 89.
25. Sur l’accident de la centrale nucléaire de Chernobyl en Ukraine, des chiffres
sans fondement ont été publiés. Les évaluations les plus fiables, fondées sur nos
connaissances d’exposition aux radiations, donnent le nombre de 3000 décès. Le
grand tremblement de terre et le tsunami de Tōhoku (Japon) en mars 2011 ont
causé près de 16 000 morts et 2546 personnes sont toujours portées manquantes.
L’accident nucléaire qui a endommagé de façon spectaculaire les quatre réacteurs
de Fukushima n’a causé aucun décès. Les mesures de contrôle alors prises furent
efficaces et certainement en contraste avec ce qui se passa à Chernobyl. Environ
34 personnes seraient décédées lors de l’accident de la centrale de Fukushima,
soit d’infarctus ou d’autres causes lors de leur évacuation de la zone autour de
la centrale.
148 Sur la science qui surprend, éclaire et dérange
a un seuil critique ou un minimum de radiation causant des dommages,
mais d’aucuns estiment qu’il n’y a pas de seuil critique. La radioactivité,
qu’elle soit naturelle ou artificielle, causera toujours des dommages, et
il faut nous prémunir, surtout si l’on est astronaute dans l’espace ou si
l’on manipule des radioéléments.
En contrepartie, les recherches sur la radioactivité combinées à une
meilleure compréhension et un contrôle des conditions de travail et
d’utilisation des radioéléments ont apporté de multiples bénéfices. On
trouve des applications remarquables dans le domaine médical, par
exemple l’usage de radioéléments dans les traitements par radiothérapie
des cellules cancéreuses. Les traceurs nucléaires tels l’iode, le baryum
et le technétium sont couramment utilisés pour cartographier les voies
qu’ils empruntent dans l’organisme et étudier le métabolisme des organes
du corps humain, de celui des animaux et des plantes. Les quantités de
radioéléments utilisées dans ses applications sont minimes, correspon-
dant à des microgrammes. Depuis 1945, ces précieux radioéléments
proviennent essentiellement d’accélérateurs de particules et de réacteurs
nucléaires. Au-delà du domaine médical, les radioéléments naturels sont
d’une grande utilité. La datation radiométrique est employée à plusieurs
fins en géologie, en climatologie et en archéologie. La datation radio-
métrique ou radiochronologie constitue une des applications les plus
spectaculaires de la physique nucléaire. Les physiciens ne manquent
pas d’imagination. Par exemple, l’identification d’une nouvelle cavité
à l’intérieur de la pyramide de Chéops à l’aide des muons produits par
les rayons cosmiques est une belle démonstration du génie humain
employant des particules ionisantes.
Et si un jour nous trouvons une solution pour la transformation et la
gestion des rebuts radioactifs provenant de la fission, nous pourrons
envisager l’utilisation des réacteurs nucléaires de technologie avancée
pour la production d’énergie électrique. L’utilisation du thorium offre
de nombreux avantages, en plus d’être un élément fissile relativement
abondant. L’énergie nucléaire peut s’intégrer dans un programme de
génération d’énergie dominé par les sources renouvelables. C’est une
source d’énergie qui produit peu de gaz à effet de serre et dont les pro-
tocoles d’exploitation sont extrêmement stricts. On n’y accepte aucun
La science qui dérange 149
risque d’accident, bien à l’opposé de l’industrie fondée sur les sources
d’énergie fossile26.
L’historien américain Spencer Weart rappelle un point important : « Les
lois de la physique limitent la puissance des humains. Beaucoup d’entre
nous auraient voulu que des réacteurs nucléaires peu coûteux et parfaite-
ment sécuritaires puissent être construits, réalisant le rêve de H. G. Wells
d’un réacteur comme moteur de chaque automobile, et plusieurs auraient
voulu qu’il fût impossible de construire des bombes atomiques. De tels
désirs n’ont aucun effet sur la section efficace de capture de neutrons
par l’uranium ou le nombre de neutrons émis27. » Nul autre exemple
que la découverte de la radioactivité et des transmutations nucléaires
n’illustre aussi bien que, dans le dialogue entre la nature et l’humain
décrit par Weart, les scientifiques et les ingénieurs sont les interprètes.
J’ajoute : chaque citoyen peut être un imprésario et doit s’assurer d’être
correctement informé.
Le réchauffement planétaire anthropique
Le meilleur site d’observation astronomique de l’hémisphère nord
est situé au sommet de l’immense volcan Mauna Kea sur la Grande
Île Hawaii de l’archipel du même nom au cœur de l’océan Pacifique
(figure 5.4). Comme astronome, j’y ai vécu et travaillé des années. Je suis
monté des centaines de fois au Mauna Kea pour observer le ciel avec les
grands télescopes, préparer les instruments ou participer à la mainte-
nance de divers équipements d’observatoire. Chaque fois, surtout lors
des descentes de retour au matin, mon regard se portait sur le volcan
jumeau, le Mauna Loa, s’élevant majestueusement 40 km plus au sud.
Il est un des volcans les plus actifs de notre planète, même s’il affiche
26. Dans un relevé de 2012 par James Conca, le taux de mortalité annuel exprimé
en nombre de morts par pétawatt-heure d’énergie produite, soit par million de
milliards de kWh, était de 100 000 décès pour l’industrie du charbon, 42 000 pour
le pétrole et le gaz naturel, 1400 pour l’hydroélectricité et 90 pour le nucléaire.
James Conca, « How Deadly Is Your Kilowatt ? », Forbes, 10 juin 2012 (www.
forbes.com).
27. Spencer R. Weart, Scientists in Power, Harvard University Press, 1979, p. 272.
150 Sur la science qui surprend, éclaire et dérange
généralement une allure paisible. Son flanc nord, strié de coulées de
lave, est l’hôte d’une batterie d’instruments et de capteurs qui mesurent
la composition de l’atmosphère depuis des décennies. En plein cœur de
l’océan Pacifique, l’endroit est loin des influences humaines. Et lors-
qu’elles sont présentes, ces contaminations ont été bien mélangées au
contenu atmosphérique global. C’est de là qu’on mesure la teneur en CO2
de notre atmosphère depuis des décennies (figure 4.6). D’abord, faisons
un rappel d’un peu d’histoire et de chimie-physique de l’atmosphère.
On attribue au physicien et chimiste suédois Svante Arrhenius (1859-
1927) la reconnaissance de l’effet de serre atmosphérique produit par des
composés moléculaires. Mais il avait été précédé par le mathématicien
et physicien français Joseph Fourier (1768-1830) et le physicien irlandais
John Tyndall (1820-1893). Dans les années 1820, Fourier avait calculé que
la Terre éclairée et chauffée par le Soleil devait être plus froide qu’elle
l’était, et que l’atmosphère jouait probablement un rôle isolant. Tyndall
expliqua l’effet isolant par la capacité de l’air d’absorber le rayonnement
infrarouge émis par le sol. Ayant rappelé les travaux de ses prédécesseurs,
Arrhenius décrivit précisément l’effet de serre, ses causes et ses consé-
quences. Dans son article déterminant de 1896, il quantifia correctement
la contribution du CO2, et élabora sur l’impact de la teneur atmosphé-
rique en CO2 dans la variation à long terme du climat28.
L’atmosphère terrestre est constituée de 78 % d’azote moléculaire (N2),
21 % d’oxygène moléculaire (O2), 0,93 % d’argon et 0,04 % de CO2. Cette
petite fraction de CO2 vous étonnera peut-être. Elle peut paraître infime,
mais, même à très faible teneur, le CO2 joue un rôle extrêmement efficace
dans le transfert radiatif dans l’atmosphère ; c’est l’isolant proposé par
Fourier. Voici en quelques mots le mécanisme. Tout gaz a une capa-
cité plus ou moins grande d’absorber et de laisser passer le rayonne-
ment électromagnétique ; cette opacité dépend de la longueur d’onde du
rayonnement. Les gaz à effet de serre sont ainsi caractérisés parce qu’ils
laissent passer la lumière visible reçue du Soleil, mais sont opaques au
rayonnement infrarouge émis par la surface terrestre ; ils bloquent ce
28. Svante Arrhenius, « On the Inf luence of Carbonic Acid in the Air upon the
Temperature of the Ground », Philosophical Magazine and Journal of Science,
Fifth Series, 1896, vol. 42, p. 237-276.
La science qui dérange 151
rayonnement, empêchant que l’énergie thermique de la surface de la
Terre s’échappe aisément dans l’espace sidéral. C’est ce que Tyndall avait
mis en évidence.
La surface terrestre a une température moyenne globale à l’équilibre
d’environ 288 °K, ou 15 °C. À cette température, le rayonnement élec-
tromagnétique de la surface de la Terre est dominé par les rayons infra-
rouges auxquels notre œil n’est pas sensible. Les physiciens caractérisent
la capacité d’une substance de bloquer plus ou moins le rayonnement
par la « profondeur optique » ; plus la profondeur optique est élevée,
moins le rayonnement passe et plus l’énergie demeure emprisonnée.
L’effet est exponentiel : une profondeur optique deux fois plus grande
bloque 7,4 fois plus efficacement. Autre exemple, la profondeur optique
du méthane est trois fois plus grande que celle du CO2. Sa capacité de
blocage, ou son effet de serre, est 20 fois plus grande que celle du CO2.
D’autres gaz, comme ceux qui sont utilisés pour la réfrigération, ont
des capacités de blocage 1000 à 2000 fois plus élevées que celle du CO2.
De production anthropique, ces gaz à effet de serre se concentrent dans
la basse atmosphère. L’effet net de l’effet de serre est de réchauffer les
basses couches de l’atmosphère et de refroidir les hautes couches, avec
des conséquences indésirables sur la chimie stratosphérique.
La vapeur d’eau est le gaz à effet de serre dominant dans l’atmosphère
terrestre. Sa présence est responsable du maintien de la surface ter-
restre à une valeur confortable de +15 °C, au lieu de -20 °C qu’on aurait
à supporter en son absence, comme l’avait calculé Fourier. La teneur
en vapeur d’eau est constante dans le temps. Dès qu’il y a excès de
vapeur d’eau, elle se condense et est recyclée par les précipitations sur
des périodes de quelques heures à quelques jours. La vapeur d’eau est
le seul GES à être sujet à un changement de phase dans les conditions
physiques de notre atmosphère, c’est-à-dire passer de l’état gazeux à
l’état liquide ou solide et inversement. La plupart des autres gaz à effet
de serre ont des durées de vie beaucoup plus longues (plusieurs années)
et n’ont pas de cycle météorologique équivalant à celui de la vapeur
d’eau. Si on les génère par quelque processus que ce soit, ils s’accumulent
dans l’eau des océans et dans l’atmosphère. C’est là le problème, surtout
lorsque cette croissance est rapide.
152 Sur la science qui surprend, éclaire et dérange
FIGURE 4.6 Évolution de la concentration de CO2 en ppm (haut) par différentes
mesures depuis le début de l’ère industrielle jusqu’à aujourd’hui. b) Mesure de la
concentration du CO2 à l’Observatoire de Mauna Loa, Hawaii à partir de 1958. On
distingue bien la variation saisonnière. Source : NOAA/Mauna Loa Observatory.
La grande majorité des études et des simulations numériques l’in-
diquent : l’augmentation du CO2 et des autres GES est surtout de cause
anthropique29. Depuis les premières cultures et activités agricoles il y a
10 000 ans, et jusqu’au xixe siècle, l’agriculture était la source première
des GES. Depuis l’ère industrielle, l’utilisation massive de combustibles
29. Peu de gens contestent l’augmentation des GES. Le débat est sur le rapport
des contributions naturelles (par exemple les volcans) versus l’apport humain.
Lorsque ce questionnement est motivé par l’idéologie, on dérape.
La science qui dérange 153
fossiles pour la génération d’énergie et les transports a tout chamboulé30
(figure 4.6). Mais le CO2 ainsi produit ne se limite pas à polluer l’at-
mosphère. Il existe une interaction complexe entre les GES de l’atmos-
phère, les océans et la biosphère. Il y a un flux bien compris entre les
sources de CO2 et ce qu’on appelle les puits, c’est-à-dire les processus
qui contribuent à l’absorption du CO2. Les principaux puits sont l’at-
mosphère, l’ensemble des végétaux et des forêts, les sols et les océans :
environ 24 % des émissions anthropiques sont absorbées par les océans
qui s’en trouvent acidifiés ; 30 % le sont par le sol ; les autres (46 %) restent
entrent dans l’atmosphère et y demeurent pour de longues périodes31.
Plusieurs sources naturelles, comme les volcans, produisent des GES,
surtout du CO2 et des composés sulfureux, mais leurs émissions à long
terme (mesuré en millions d’années) sont relativement stables, comme
je le décrirai plus loin.
Comment mesure-t-on la teneur en CO2 ?
Au début des années 1950, le jeune géochimiste américain Charles
Keeling (1928-2005), chercheur postdoctoral au California Institute of
Technology, s’intéressa à la teneur de l’atmosphère en CO2. Il fut un
véritable pionnier de la science atmosphérique contemporaine. Il mit
au point un instrument (un spectrographe infrarouge) qu’il installa de
façon permanente sur le flanc nord du volcan Mauna Loa à Hawaii,
que j’ai décrit en début de section. Keeling démarra ses mesures en
1958. Il mit d’abord en évidence l’importante fluctuation saisonnière
correspondant à l’évolution de la végétation entre été et hiver dans
l’hémisphère nord ; c’était un effet local à court terme. Après plusieurs
années, il démontra que la teneur en CO2 croissait avec le temps, et cela
de manière inattendue et spectaculaire. Plusieurs chercheurs l’avaient
suspecté, mais ce qui frappa brutalement dans les résultats de Keeling,
c’était la montée dramatique en quelques années de la teneur de CO2.
De 300 parties par million (ppm) en 1960, la « courbe de Keeling » mon-
tait régulièrement et irrévocablement (figure 4.6). Ces mesures furent
30. Par ordre d’importance, les GES sont la vapeur d’eau (teneur constante), le CO2,
le méthane, le protoxyde d’azote et des composés de fluorométhane.
31. Global Carbon Project, Global Carbon Budget Summary Highlights, 2017-11-20 ;
http://www.globalcarbonproject.org/index.htm.
154 Sur la science qui surprend, éclaire et dérange
maintes fois répétées à d’autres stations et confirmées par maints cher-
cheurs indépendants. Tant et si bien qu’en 2018 nous avons atteint une
teneur d’environ 410 ppm de CO2 à l’échelle du globe. Et l’augmentation
moyenne de 2 à 3 ppm/an s’accélère.
La croissance de la teneur de l’atmosphère en CO2 et autres GES est
considérée comme la cause principale du réchauffement climatique32. Les
émissions de méthane, dont 60 % sont le produit d’activités humaines,
augmentent aussi et contribuent pour 17 % du forçage radiatif. Depuis,
plusieurs recherches ont étudié cet accroissement des GES en relation
avec les activités humaines. Pour l’année de référence 2016, environ
41 gigatonnes de CO2 ont été produites. Environ 90 % des émissions
anthropiques de CO2 proviennent de la combustion de carburants fos-
siles : charbon (40 %), gasoil (34 %), gaz naturel (19 %) et cimenteries
(6 %). À une échelle moindre, la déforestation, l’exploitation des sols
pour l’agriculture, le développement urbain et la construction d’in-
frastructures sont responsables de 9 % des émissions globales33. Si l’on
considère le CO2 de source anthropique émis durant la période allant
de 1870 à 2014, on estime que 2000 gigatonnes de CO2 se sont ajoutées
à notre environnement, dont 43 % dans l’atmosphère. Le niveau de CO2
dans l’atmosphère se trouve donc 43 % plus élevé qu’au commencement
de la révolution industrielle vers 1850.
Un argument fréquemment avancé pour tenter de minimiser l’impor-
tance des sources anthropiques de GES est de contraster ces émissions
avec celles des phénomènes naturels et géologiques, par exemple les
volcans. On peut mesurer cette contribution naturelle. L’observation
par des observatoires en orbite de trois volcans en action au Vanuatu
(Pacifique Sud) a mesuré une émission de 15 +/- 7 mégatonnes de CO2
par année. L’activité volcanique globale est variable et est responsable de
65 à 320 mégatonnes de CO2 par an. Les grandes centrales thermiques
au pétrole et au charbon émettent chacune entre 15 et 20 mégatonnes
32. Organisation météorologique mondiale, Bulletin de l’OMM sur les gaz à effet de
serre, no 13, 30 octobre 2017. Voir aussi Claude Villeneuve et François Richard,
Vivre les changements climatiques, MultiMondes, 2007.
33. Global Carbon Project, Global Carbon Budget Summary Highlights, 2017-11-20 ;
http://www.globalcarbonproject.org/index.htm
La science qui dérange 155
par an, et il y en a des centaines en fonction actuellement. Comparati-
vement, on estime que la production de CO2 anthropique s’élevait à 41
000 mégatonnes par an en 2016, soit 2 700 fois plus que le CO2 émis par
les volcans présentement actifs.
Les volcans, comme ce fut le cas avec le mont Pinatubo aux Philip-
pines en 1991, peuvent néanmoins avoir une influence à court terme
sur le climat : ils injectent dans la stratosphère de grandes quantités de
poussières contenant des aérosols de sulfates qui bloquent le rayonne-
ment solaire ; leur effet d’écran entraîne un refroidissement temporaire.
Extrêmement préoccupante est la pollution engendrée par la combustion
massive des carburants fossiles. Parmi nombre de polluants, une grosse
centrale au charbon comme celle de Belchatów en Pologne (5400 MW)
diffuse dans l’atmosphère 18 tonnes de poussières radioactives d’ura-
nium et de thorium par an, dont 34 kg d’uranium-235, une quantité plus
que suffisante pour fabriquer une bombe atomique si l’élément n’était pas
dispersé par les vents. La dose radioactive effective émise par toutes les
centrales au charbon est 100 fois celle de toutes les centrales nucléaires
en exploitation34. En contraste, les déchets d’un réacteur nucléaire sont
récupérés, compactés et stockés sous contrôle.
L’arrivée d’un véritable observatoire de CO2
La mesure des GES à partir d’observatoires en orbite amène une véri-
table révolution. Le plus puissant actuellement en fonction est l’Orbital
Carbon Observatory-2, ou OCO-2, mis en orbite par la NASA le 6 sep-
tembre 2014. Le satellite est sur une orbite polaire avec une période de
98,82 minutes. Ses instruments fournissent 74 000 mesures à chaque
orbite. Les chercheurs et les analystes de l’environnement ont l’instru-
ment de choix : une observation en continu de la surface de la Terre et
de l’atmosphère avec une résolution spatiale de 3 km2, ou 300 hectares,
soit l’équivalent d’un grand terrain de golf. Il est maintenant possible de
localiser et de caractériser les sources et les puits de CO2, et de comparer
34. Alex Gabbard, « Coal Combustion : Nuclear Resource or Danger ? », Oak Ridge
National Laboratory Review, Summer/Fall 1993, vol. 26, nos 3 et 4.
156 Sur la science qui surprend, éclaire et dérange
les émissions des surfaces océaniques et continentales35. Que donne la
résolution de 3 km 2 ? Elle permet de déterminer les sources de GES avec
une précision quasi chirurgicale : steppes, forêts, déserts, lacs et océans ;
mais aussi villes, banlieues, milieux agricoles, champs pétrolifères, auto-
routes, raffineries, cimenteries, etc., et la variation de leurs émissions en
fonction des saisons. On peut suivre les grands évènements climatiques
comme El Niño et La Niña. À cela s’ajoutent des mesures de réflectivité
du sol et de l’atmosphère (albédo), de l’activité de photosynthèse et du
contenu atmosphérique en aérosols. OCO-2 effectue un balayage complet
de la surface éclairée de la Terre tous les 16 jours. D’aucuns ont dit que
OCO-2 surveille la respiration de la Terre. Comme un vrai espion, il est
clair qu’OCO-2 va déranger. Les cartes détaillées de CO2 fournies par
OCO-2 permettront des bilans précis et l’identification des pollueurs.
Que fera-t-on ensuite ?
Qu’est-ce qui dérange ? Chacun de nous est un contributeur aux émis-
sions GES ; nous avons besoin de manger, de consommer un ensemble
de produits et de nous déplacer. Nous sommes tous interpellés. Si vous
avez une voiture et l’utilisez fréquemment, vous produisez 4,7 tonnes
métriques de CO2 par année – pas des kilogrammes, des tonnes ! Lorsque
vous voyagez en avion à bord d’un gros porteur comme un Boeing 747,
les réservoirs contiennent 150 000 litres d’essence ; à la fin d’un voyage
de 10 heures, 320 tonnes de CO2 auront été produites, soit plusieurs
centaines de kilogrammes de CO2 par passager. L’injection de CO2 par
les avions de ligne se fait à haute altitude et l’impact est plus puissant.
Pour terminer, j’aimerais faire un commentaire de sémantique. Je consi-
dère l’utilisation de l’expression « changement climatique » comme un
euphémisme distrayant. Les climato-sceptiques adorent, car l’expression
leur permet de faire fi des causes anthropiques et de faire dérailler le
débat. Avec raison, ils affirment qu’il y a toujours eu des changements
climatiques dans l’histoire de la Terre, certains changements furent
35. A. Eldering et collab., « The Orbiting Carbon Observatory-2 early science inves-
tigations of the regional carbon dioxide fluxes », Science, 2017, vol. 358, p. 188.
Voir aussi les quatre articles de ce numéro spécial consacré aux premiers résultats
d’OCO-2. Le premier observatoire fut perdu lors de son lancement en 2009. Le
coût total de la mission est de 467,7 millions de dollars américains.
La science qui dérange 157
dramatiques, comme lors des glaciations36. Le changement est la nature
même du climat, on exagère et on dramatise outre mesure, disent-ils.
Je propose qu’on utilise l’expression « réchauffement planétaire anthro-
pique ».
Les évidences provenant d’observations archéologiques et géologiques
et les simulations numériques favorisent indubitablement des facteurs
anthropiques. Il est certainement dérangeant d’en parler : nous avons
affaire à un réchauffement planétaire anthropique forcé qui perdurera
tant que nous brûlerons les combustibles fossiles et exploiterons sauva-
gement notre environnement. Il y a une raison fondamentale à notre
effervescence de consommer et d’épuiser les ressources naturelles : c’est
la croissance supra-exponentielle de la population humaine (figure 4.7).
Ajoutée à cette augmentation est la croissance phénoménale de la
consommation de biens par les citoyens des pays riches. Notre impact
sur l’environnement est multiple en dimensions : diminution des res-
sources renouvelables, affaiblissement catastrophique de la biodiversité et
des populations animales, réchauffement planétaire37. Le réchauffement
mène plus qu’à des changements climatiques. Pourquoi ? Alors que,
durant la longue histoire de la Terre et de son climat, les changements
atmosphériques avaient cours sur des périodes de centaines de milliers
et de millions d’années, nous, Homo sapiens, avons bousculé et accéléré
cette modification (figure 4.8). L’environnement se modifie à une vitesse
plus grande que celle avec laquelle les organismes vivants et leurs envi-
ronnements peuvent s’adapter38. Rappelez-vous que c’est la rapidité du
réchauffement actuel qui est inquiétante.
36. Gilles Ramstein, Voyage à travers les climats de la Terre, Odile Jacob, 2015.
37. Gerado Ceballos, Paul R. Ehrlich et Rodolfo Dirzo, « Biological annihilation via
the ongoing sixth mass extinction signaled by vertebrate population losses and
declines », Proceedings of the National Academy of Sciences of the United States
of America, 2017, vol. 30, E6089-E6096.
38. Claude Villeneuve, Est-il trop tard ? Le point sur les changements climatiques,
MultiMondes, 2013.
158 Sur la science qui surprend, éclaire et dérange
FIGURE 4.7 Croissance démographique de la population humaine de 10 000 av. J.-C.
à aujourd’hui. Source : EI T at English Wikipedia.
FIGURE 4.8 La teneur atmosphérique en CO2 pendant les derniers 800 000 ans ;
la teneur maximum en CO2 fut d’environ 280 ppm. Source : Scripps Institution of
Oceanography.
La hausse des GES a entraîné une montée des températures moyennes
de l’atmosphère et de la surface terrestre (figure 4.9). Une hausse d’une
La science qui dérange 159
fraction de degré Celsius paraît minime, mais elle représente une colos-
sale quantité additionnelle d’énergie solaire qu’emmagasinent l’atmos-
phère et les océans. L’augmentation de température se traduit par la
montée du niveau moyen des océans qui a deux causes : a) L’eau plus
chaude subit une dilatation de son volume ; b) Les glaciers fondent, sur-
tout ceux du Groenland, amenant plus d’eau et provoquant aussi une
montée du niveau des mers (figure 4.10). La calotte glaciaire de l’Arc-
tique, vieille de cinq millions d’années, s’amenuise dramatiquement
d’une année à l’autre39. On prévoit sa disparition durant les étés d’entre
les années 2040 et 2050. Encore une fois, la Terre a connu des périodes
chaudes et sans glace avec des variations importantes des niveaux océa-
niques au cours de sa longue histoire. Ce qui est inusité avec les phé-
nomènes actuels, ce sont leur rapidité et leur forçage par l’activité des
milliards d’humains.
FIGURE 4.9 Augmentation des températures moyennes globales de surface entre
1880 et 2016 par rapport à la moyenne entre 1950 et 1975. Source : NASA/Goddard
Institute for Space Studies.
39. La fonte de la calotte glaciaire de l’Arctique ne change pas le niveau des eaux.
160 Sur la science qui surprend, éclaire et dérange
FIGURE 4.10 Montée du niveau moyen des océans de 1880 à aujourd’hui.
Source : Wikipedia Creative Commons/Robert A. Rohde, SuperManu.
Sauvons le pétrole
Au chapitre précédent, on a vu Dmitri Mendeleïev semoncer ses contem-
porains d’utiliser le pétrole de façon aberrante, c’est-à-dire le brûler
sottement comme carburant. Le grand chimiste russe, qui nous a légué
le tableau périodique, connaissait et appréciait toute la richesse molécu-
laire de cette substance. Le pétrole est le résultat de l’action de bactéries
anaérobiques qui ont transformé les débris organiques dans les profon-
deurs des sédiments pendant des millions d’années. Ce polymère de
riches hydrocarbures est le compost par excellence de toute la biosphère.
Le pétrole, « l’huile de pierre », est d’une richesse étourdissante par la
variété de molécules organiques qui entrent dans sa composition. On
estime que des dizaines de milliers de molécules de types différents sont
présentes. On les utilise marginalement dans des produits chimiques,
des lubrifiants, des plastiques, des médicaments et d’autres matériaux
synthétiques. Mais nous en dilapidons la majeure partie. Il importe
de protéger cette extraordinaire ressource produite par les organismes
La science qui dérange 161
vivants du Carbonifère il y a 300 millions d’années. Malheureusement,
nous sommes myopes et indolents. Nous avons quasiment épuisé les
réserves de pétrole léger, celui qui exige le minimum de raffinage. Nous
nous tournons vers des formes plus lourdes, plus difficiles et coûteuses
à exploiter et à raffiner. Pensez-y à votre prochain plein d’essence.
Partie II
LES USAGES DE LA SCIENCE
5
CROYANCES ET SAVOIRS
Si, comme la vérité, le mensonge n’avait qu’un
visage, nous serions en meilleure situation
[par rapport à lui], car nous prendrions pour
certain le contraire de ce que dirait le menteur.
Mais l’envers de la vérité a cent mille formes
et un champ sans limites.
Michel de Montaigne1
Beaucoup l’ont constaté : les gens acceptent la théorie de la relativité
générale et celle de la nature quantique de la matière même s’ils ne les
comprennent pas. Mais certaines personnes s’opposent avec véhémence
à la théorie de l’évolution par sélection naturelle, qu’ils imaginent com-
prendre. De toute évidence, comme je l’ai montré au chapitre précédent,
certains savoirs scientifiques dérangent, d’autres pas du tout, même si
dans les deux cas leur évidente complexité les rend difficiles à saisir. On
dit savoir ou penser, mais le plus souvent on croit. Qu’est-ce que savoir ?
Qu’est-ce que croire ?
1. Michel de Montaigne, Les Essais. Sur les menteurs, Quarto Gallimard, 2009,
p. 46.
166 Sur la science qui surprend, éclaire et dérange
Dans le livre de Théétète de Platon, il y a un échange singulier entre le
sage Socrate et le jeune disciple Théétète2.
Socrate — Dis-moi, apprendre n’est-ce pas devenir plus savant relative-
ment à ce qu’on apprend ?
Théétète — Comment le nier en effet ?
Socrate — Or, n’est-ce pas par le savoir que les savants sont savants ?
Théétète — Oui.
Socrate — Mais est-ce que cela diffère en quelque chose de la connais-
sance ?
Théétète — De quoi veux-tu parler ?
Socrate — Du savoir : ne connaissons-nous pas ce en quoi précisément
nous sommes savants ?
Théétète — Sans conteste.
Socrate — Il y a donc identité entre connaissance et savoir ?
Théétète — Oui.
Socrate — Eh bien ! C’est cela même qui m’embarrasse et que par moi-
même je ne peux saisir bien comme il faut : qu’est-ce qui,
précisément, constitue la connaissance ?
Questions et questions-réponses qui déboussolent. Sacré Socrate, à la fois
subtil et juste ! Les langues latines distinguent connaître (par exemple
conocer en espagnol) et savoir (saber en espagnol) par l’utilisation de deux
verbes différents, ce que ne font pas les langues germaniques. On associe
connaître au latin agnoscere (en grec gignosko ou γινωσκω) qui signifie
voir, concevoir, comprendre. Savoir vient du grec phronein, φρονειν, et
du latin saper, qui veut dire avoir du goût, savourer. Connaître représente
2. Platon, Théétète. Œuvres complète de Platon, NRF/Bibliothèque de la Pléiade,
1950, p. 88.
La science qui dérange 167
la phase d’acquisition, et savoir son intégration, la possession et la jouis-
sance de ce qu’on a appris à connaître. Connaissance et savoir mènent à
comprendre, l’objectif de la science. Avec cet éclairage socratique, abor-
dons de front notre sujet des savoirs de manière plus terre-à-terre. Dans
ce qui suit, je m’attarde à expliquer ce que signifie et ce qui distingue
croyances, opinions et savoirs. J’aborde ensuite d’autres aspects cognitifs,
les intuitions et les illusions. Je considère brièvement la croyance idéolo-
gique, en particulier la religieuse, qui est un endossement inconditionnel
d’un credo inaltérable.
Savoirs, opinions et croyances
Qu’est-ce qu’une opinion ? Est-elle différente d’une croyance ? Comment
différencier une opinion ou une croyance d’un savoir. Je me limite ici à
quelques considérations sur leur portée cognitive et leurs effets sur les
attitudes envers la science. D’abord, les croyances revêtent une variété
de visages.
« Je sais que », « je pense que », « je crois que » – savoir, penser, croire.
Les mots savoir et croire sont chacun porteur d’un éventail de sens qu’il
importe de saisir. Intuitivement, nous percevons les différences entre ces
trois niveaux cognitifs, que ce soit à propos de nous-mêmes, du monde
et de notre environnement proche ou lointain. On peut aussi distinguer
un niveau de certitude variable pour chacun de ces modes cognitifs
d’appréhension : de savoir à croire, il y a aussi un net glissement d’ob-
jectivité vers subjectivité. Soyons toutefois conscients que nous avons
toujours besoin de croire, sinon nous serions figés à ne rien faire. Par
exemple, on croit que la science est un mode valable et efficace d’expli-
cation du monde : la science est fondée sur un axiome, une « croyance »,
le monde est explicable et vaut la peine d’être expliqué. Je reviendrai
sur cette dimension sémantique ; je souligne ici que ce qui importe,
c’est de savoir croire ! Le sujet est vaste ; il a été amplement analysé par
les philosophes et les psychologues cognitifs. Certains aspects relatifs à
la science et à sa perception, incluant leur dimension sociologique, ont
168 Sur la science qui surprend, éclaire et dérange
été admirablement traités par le sociologue français Gérald Bronner3.
Je vous réfère à quelques ouvrages pertinents dans la bibliographie à la
fin du livre4.
Nous sommes généralement conscients, mais pas toujours, des limites
et des biais qui affectent nos perceptions. Nos observations ne sont pas
neutres ; mais réalisons-nous à quel point nos sens peuvent être aveugles
et comment notre cerveau applique un filtre un peu malgré nous sur les
impressions qui nous frappent ? Tout cela est normal, car il nous faut
choisir parmi une multitude de stimulus et d’informations, ce qui est
important pour le bien-être et la survie.
Les chapitres précédents ont été des célébrations du savoir scientifique.
Je n’ai pas tenté de définir les « savoirs ». Soyons ici plus rigoureux d’un
point de vue épistémologique : qu’est-ce que le savoir scientifique ? Dans
son expression simple, le savoir scientifique est une description objective
des objets du monde naturel, y compris l’humain. Dans son extension,
ce savoir va au-delà de la description, il explique5. Le savoir scientifique
englobe ces éléments descriptifs et inclut des lois explicatives dans un
schéma structurant, utilisant les mathématiques lorsque cela est néces-
saire ou utile. On construit une théorie scientifique. S’engage alors une
confrontation systématique et vérifiable avec la nature. Par exemple,
selon la théorie de la relativité générale, la grande masse des étoiles fait
courber l’espace autour d’elles ; je mesure le déplacement de la position
des étoiles vues en fond de ciel durant une éclipse du Soleil et je les com-
pare avec celles qui sont mesurées la nuit. Pour constituer un ensemble
fonctionnel, le savoir doit donc être cohérent et refléter la réalité en étant
confronté avec elle. Comme je l’ai montré dans les chapitres 1 à 4, les
étapes de la construction d’un savoir sont complexes. Le degré de succès
3. Gérald Bronner, La démocratie des crédules, Presses universitaires de France,
2013. Voir aussi les autres ouvrages de l’auteur dans la bibliographie de l’ouvrage.
4. La littérature est abondante. Pour un traitement en profondeur, voir Yves Gin-
gras, L’impossible dialogue : sciences et religions, Boréal, 2016. Voir aussi Yves
Gingras, Propos sur les sciences : entretiens avec Yanick Villedieu, Éditions Raison
d’agir, 2010 ; M. Sylvestre, L’immortelle illusion, Presses de l’Université Laval,
2017.
5. Carlo Rovelli, Anaximandre de Milet, ou la naissance de la pensée scientifique,
Dunod, 2015.
La science qui dérange 169
d’une théorie ou d’un savoir scientifique est mesuré par les avancées et
l’accumulation de nouvelles connaissances sur le monde qu’elle amène :
un « connaître » qui résulte en un « savoir » toujours plus riche.
Le savoir scientifique permet d’intervenir sur la nature et l’humain : ce
sont les applications de ce savoir qui dégagent à leur tour de nouvelles
connaissances. Le savoir devient alors un tremplin pour des programmes
ultérieurs qui élargissent son champ d’application. Exemple : ayant établi
la nature de la Lune comme satellite naturel de la Terre, on détermine sa
distance, sa dimension et ses propriétés. On prédit des éclipses lunaires et
solaires. Les calculs qui nous permettent de prédire des éclipses sont uti-
lisés en astronautique pour établir la trajectoire des vaisseaux spatiaux.
On envoie des équipages humains en orbite autour de notre satellite
naturel, confirmant la validité de nos calculs ; nous y faisons atterrir
des astronautes qui ramènent des échantillons de roches lunaires pour
analyse minéralogique et pour confrontation avec les théories de la for-
mation de la Lune (figure 5.1). Les interventions sur le matériel génétique
sont un autre exemple de cette orchestration du savoir (chapitres 4 et 7).
Comme ces exemples le montrent, le savoir scientifique est intrinsèque-
ment un moteur d’activités poussant l’enveloppe du connu, tout en enga-
geant des communautés de chercheurs et des acteurs d’autres sphères
de la société. Ce que l’on a en main n’est jamais final, il faut toujours
pousser plus loin. Cette dynamique distingue le savoir scientifique de
la croyance idéologique où le dogme ne peut pas être remis en question.
Ma description s’applique aux sciences exactes, mais je crois qu’on peut
l’étendre aux sciences humaines.
Le savoir a ainsi un pouvoir prédictif et vérifiable, ce que les croyances
n’ont pas. Si une opinion peut inclure une prédiction (par exemple sur
les cours du marché boursier ou une prévision électorale), sa réalisation
ou sa négation sont généralement sans conséquence, car la vérification
n’est pas requise. Toute erreur est rapidement oubliée ou corrigée ; per-
sonne ne revient sur les prédictions des économistes ou ne les châtie
pour avoir complètement passé à côté de certaines évidences. À l’op-
posé, la confirmation des prédictions scientifiques par confrontations
avec les faits et l’intégration de découvertes additionnelles assoient la
théorie. J’en ai donné de beaux exemples dans les chapitres précédents ;
170 Sur la science qui surprend, éclaire et dérange
FIGURE 5.1 L’astronaute et géologue américain Harrison Schmitt à côté d’un gros
bloc erratique sur la Lune le 13 décembre 1972, lors de la dernière mission Apollo XVII.
Cette image résume une colossale quantité de savoirs et représente la coordination d’un
imposant ensemble d’activités scientifiques et technologiques. Source : NASA.
rappelez-vous la prédiction de nouveaux éléments par Dmitri Mende-
leïev et des ondes gravitationnelles par Albert Einstein (chapitre 3). Des
échecs répétés de confirmation, lorsqu’ils sont bien compris, entraînent
généralement l’abandon de l‘hypothèse ou réduisent son champ d’appli-
cation. La théorie de cosmologie de l’état stationnaire et de la création
continue fut mise de l’avant – en opposition à celle du big bang, dans les
années 1960. L’élégante théorie fut mise au rancart dans les années 1980
parce que la plupart des observations la contredisaient. Celle de l’éther
La science qui dérange 171
rigide remplissant l’espace et permettant de transmettre des effets entre
les corps fut rejetée au début du xxe siècle ; ou celle du calorique, comme
la substance ou le fluide portant la chaleur du chaud au froid, qui fut
lentement laissée de côté au xixe siècle. D’autre part, la théorie gravita-
tionnelle de Newton de 1687 continue d’être utilisée dans les champs
de gravitation faible et aux basses vitesses relatives, parce qu’elle permet
de construire des ponts et d’envoyer des véhicules robotisés sur Mars.
La prédiction n’est cependant pas gage absolu de la vérité, même si la pré-
diction s’avère correcte. Le modèle géocentrique de Ptolémée permettait
de calculer et de prédire les éclipses. Plus d’une hypothèse ou théorie
peuvent expliquer le même phénomène. On remarque bien cette mul-
tiplicité d’interprétations lorsqu’un nouveau phénomène astronomique
est découvert. Avec des observations répétées et des calculs plus précis,
les choses se tassent ; une théorie privilégiée émerge. Retenons que le
domaine scientifique n’est pas un cimetière de théories, comme certains
relativistes de la connaissance le prétendent, et que les transitions ne
sont pas aussi marquées ou brutales que le laisse entendre l’approche des
« révolutions scientifiques » proposée par Thomas Kuhn6.
Croyance stratégique
Les dogmes idéologiques ou religieux sont le contraire des savoirs résul-
tant de la démarche scientifique. Ils ne sont que rarement soumis à des
tests. Personne ne vérifiera la véracité de l’Immaculée-Conception et
de l’assomption au ciel de la Vierge avec tout son corps7. Si elles le sont,
la vérification n’aura pas de conséquences. Même si l’infaillibilité du
pape de Rome (concile Vatican I de 1870) a été maintes fois démolie, le
maintien dogmatique de l’autorité déclarative ex cathedra reste bien en
place8. Mais l’étude de la création des dogmes religieux et de leur évolu-
6. Moti Misrahi, « The History of Science as a Graveyard of Theories : A Philo-
sophers’ Myth ? », PhilSci Archive, http://philsci-archive.pitt.edu/12897/.
7. Cyrille Barrette, Mystère sans magie. Science, doute et vérité : notre seul espoir
pour l’avenir, MultiMondes, 2006, p. 148-151.
8. Les prévisions astrologiques et économiques ne sont pas testables ni vérifiables, et
elles ne sont ni testées ni vérifiées. Dans le créationnisme, tous les efforts visent
172 Sur la science qui surprend, éclaire et dérange
tion est un domaine valide de recherche scientifique, d’autant plus que
les dogmes revêtent une forte connotation géopolitique par les schismes
qu’ils ont générés au cours des âges.
L’univers est immense ; notre environnement naturel et social est com-
plexe. Mais notre esprit est limité dans sa capacité d’appréhension. Nous
ne pouvons pas tout vérifier et tester. Il nous faut faire confiance et porter
des jugements. Un bon esprit d’analyse est nécessaire. Un « Je pense
que… » correspond souvent à endosser un savoir en nous basant sur des
faits établis ou des données fiables parce que nous faisons confiance aux
individus ou aux sources de leur provenance. « Nous sommes définiti-
vement des croyants sur toutes sortes de sujets parce que nous n’avons
pas accès aux informations qui nous permettraient de connaître ou,
lorsque nous possédons ces informations, nous ne les traitons pas
toujours bien9. » Les informations ou données scientifiques sont aussi
souvent tellement complexes qu’une compréhension même minimale
exigerait une expertise en physique quantique, en biologie moléculaire
ou en science statistique.
Le critère « faire confiance » ne suffit pas. Oui, les gens font confiance aux
charlatans et pseudo-médecines. Il faut donc connaître et établir des cri-
tères fiables pour savoir faire confiance, pour savoir croire. Nous volons
à bord d’un avion moderne. C’est un exemple d’une machine complexe
qu’aucun humain ne comprend intégralement. Nous faisons confiance
à la commandante de bord et au copilote, et ceux-ci font confiance aux
systèmes qu’ils ont sous la main et les yeux. Ces systèmes ont été conçus,
construits et mis ensemble par des cohortes d’experts. Dans la vie cou-
rante, nous fonctionnons avec un imposant enchaînement d’acceptation
d’informations complexes sans analyser ni démontrer chaque étape. Il
y a ainsi plusieurs paliers cognitifs. On peut néanmoins les simplifier et
distinguer deux niveaux de savoir.
à appuyer l’hypothèse proposée comme inaltérable, jamais à la démontrer et
encore moins à la réfuter.
9. Gérald Bronner, Croyances et imaginaires contemporains, Éditions Manucius,
2013, p. 29.
La science qui dérange 173
Personnellement, je sais que la Terre est ronde, car j’en ai fait maintes
fois l’expérience directe. J’ai plusieurs fois voyagé de l’hémisphère nord
à l’hémisphère sud. Comme les marins phéniciens de l’Antiquité qui
voyageaient le long de la côte occidentale de l’Afrique, j’ai vu la constel-
lation de la Grande Ourse et l’Étoile polaire baisser vers l’horizon au
fur et à mesure que je me déplaçais la nuit vers le sud, et vice versa le
déplacement apparent vers le nord de la Croix du Sud et des Nuages de
Magellan. Le jour à midi, le Soleil franchissant le méridien apparaît dans
la direction du nord géographique lorsqu’il est observé de l’hémisphère
sud. On le voit vers le sud lorsqu’il est observé au même moment à partir
de l’hémisphère nord. La constellation d’Orion familière du ciel hivernal
de l’hémisphère nord est dominante dans le ciel estival de l’hémisphère
sud, mais apparaît renversée. J’ai quelques fois fait les longs voyages
d’avion qui m’amenaient de la ville de Québec vers l’Australie, donc en
me dirigeant vers le sud-ouest. De là, de longs vols vers le nord-ouest
m’amenaient vers la Thaïlande, Bahreïn et l’Europe. De là encore, un
dernier vol toujours vers l’ouest permettait de compléter le tour de la
Terre. Par ces expériences, je sais que la Terre est ronde parce que je me le
suis démontré. C’est le premier niveau de savoir, une expérience directe.
Mais lorsque je dis ou enseigne que la matière est faite de particules élé-
mentaires, (quarks, leptons et bosons), que mon corps fonctionne sous
les commandes de molécules d’ADN et les actions de protéines, je parle
d’un savoir indirect. Je sais, mais je n’en ai pas l’expérience, comme celle
que j’ai pu relater pour la sphéricité de la Terre. J’ai toutefois un large
éventail de connaissances provenant de mes études, de mes lectures et de
mes réflexions. J’ai eu de multiples échanges avec des chercheurs d’autres
disciplines. J’ai pu éprouver leurs méthodes de travail, vérifier leurs
compétences, analyser les pratiques de vérification de leurs disciplines
et évaluer la rigueur des journaux où ils publient. J’affirme modestement
que je sais des choses que je ne peux pas me démontrer directement à
moi-même. Mon « croire » repose néanmoins sur de solides assises. C’est
le deuxième niveau de savoir, un savoir analytique, que je dois admettre
être aussi une « croyance », mais une croyance réfléchie et prudente.
« Je pense que… » représente un niveau plus lâche, avec parfois une portée
prédictive qui me permet un degré de vérification. C’est souvent l’expres-
sion utilisée pour décrire un processus inductif. Je regarde le baromètre
174 Sur la science qui surprend, éclaire et dérange
chuter : je pense qu’il va pleuvoir cette après-midi. « Je pense que » est
aussi la conséquence d’un processus déductif. Je lis sur le thermomètre
que la température extérieure est à -10 °C ; j’en déduis que la surface
de l’étang de mon jardin sera gelée et que la glace aura une épaisseur de
quelques millimètres. Dans ces deux cas, la vérification est possible. Par
conséquent, « je pense que » est aussi un outil de connaissance, même
s’il ne m’est pas toujours possible ni nécessaire de faire la vérification
moi-même.
Reprenant l’exemple des cochons dont les chercheurs chinois ont neu-
tralisé des rétrovirus (chapitre 4), je pense que la production de cochons
aptes à la xéno-transplantation est viable et pourrait devenir possible
dans le futur. Encore une fois, j’accepte la compétence des équipes de
chercheurs qui ont procédé à ces expériences. J’accepte la qualité de leur
programme de recherche tel qu’il est décrit par la fiabilité de lecteurs
arbitres compétents, et la rigueur et le prestige de la revue dans laquelle
a été publié ce travail. Plus important, je peux présumer que d’autres
chercheurs vont répéter ces manipulations, confirmer les résultats et
améliorer les techniques10. Et lorsque mon assise de connaissances est
moins solide, le « je pense que » ou « je crois que » a alors la force d’une
simple opinion.
Comme vous, je ne fais que rarement cette analyse détaillée face à tout ce
que je lis et vois, mais j’en prends acte inconsciemment et continuellement
dans la vie quotidienne. Intuitivement, c’est un processus qui structure
ce qui est au départ un doute ou une non-croyance, soit un scepticisme
de bon aloi, quitte ensuite à prendre position et enfin établir un savoir.
Par ce genre de démarche implicite que chacun fait tous les jours, je sais
qu’un agent microbien est responsable d’une maladie infectieuse ; que la
radiographie de mes poumons est produite par l’illumination d’un film
photographique ou d’un détecteur électronique éclairé par des rayons X
transmis différemment à travers les diverses parties de mon thorax ; que
le GPS donne ma localisation en utilisant comme références quelques
centaines de quasars lointains dont les astronomes ont établi les positions
10. Voir les chapitres 2 et 3 dans Jean-René Roy, Les héritiers de Prométhée. L’in-
fluence de la science sur l’humain et son univers, Presses de l’Université Laval,
2017.
La science qui dérange 175
dans le ciel avec grande précision ; et que les signaux des satellites GPS
ont été corrigés pour les effets de ralentissement d’horloge calculés par
la relativité générale (figure 5.2). Je pourrais énumérer ainsi des milliers
d’exemples de structuration inconsciente des « savoirs » quotidiens.
FIGURE 5.2 L’officière militaire Nayibe Ramos de l’Armée de l’air des États-Unis dans
une salle de contrôle du Global Positioning System de la constellation de 29 satellites qui
fournissent des données de navigation et de position à des usagers civils et militaires du
monde entier. Source : United States Air Force photo by Airman 1st Class Mike Meares.
Tout ce bagage de savoir me permet aussi d’émettre des opinions et
d’exprimer des croyances, des « je pense que… », qui n’impliquent pas
une adhésion aveugle, encore moins forcée. Pourtant bien des personnes
s’arrêtent à la croyance par conviction viscérale ou au déni systématique,
et s’en satisfont. Pourquoi ? Ce peut être le manque de curiosité pour aller
plus loin ou la paresse face à l’effort de comprendre ce qui est complexe
ou paraît étrange. D’autres craignent peut-être de s’ouvrir à un savoir
qui dérangerait ou qui ébranlerait une foi, pas forcément religieuse.
L’important est de ne pas être aveugle à une adhésion aveugle.
176 Sur la science qui surprend, éclaire et dérange
Intuitions et illusions
Pour mieux comprendre ce qui distingue savoir, opinion et croyance,
il est utile d’aborder des aspects de nos facultés cognitives. D’abord,
nos sens qui nous permettent de percevoir le monde : le cortex cérébral,
dont la moitié est consacrée à l’analyse sensorielle, surtout la vision, qui
connecte et agence le stockage des informations. Dans un processus
complexe, le cerveau choisit et interprète les données sensorielles recueil-
lies. J’aborde ici les distorsions de perception et les illusions affectant ce
processus et déterminant l’image finale que nous nous faisons du monde
autour de nous11.
Les illusions cognitives proviennent de notre interaction avec le monde
qui nous entoure par des suppositions et des schémas de pensée déjà en
place. Ces interactions mènent à des inférences inconscientes au moment
où nous interprétons ce que nous voyons, entendons ou sentons. Ces
illusions représentent une saine réaction de notre cerveau, mais pas
toujours. Dans la demi-obscurité, si je vois soudainement une ombre se
déplacer, je confondrai peut-être la souris proche, le loup un peu plus
éloigné ou l’ours très éloigné. J’entends un bruit profond et je sens un
frisson du plancher : est-ce un camion-remorque qui s’approche dans
la rue, un gros hélicoptère qui me survole ou la rumeur d’une secousse
sismique qui s’apprête à frapper ? On peut généralement corriger ces
illusions (par exemple en se donnant un temps pour analyser – ce peut
être quelques secondes) et construire une image fidèle de la réalité. Mais
il y a des aspects beaucoup plus subtils qui compliquent l’interprétation
et confondent le cerveau. Il importe d’en être conscient.
Les illusions optiques sont nombreuses et bien connues. Elles s’avèrent
un excellent moyen d’étude de nos facultés cognitives. Les illusions
d’optique sont utilisées pour illustrer les multiples façons employées
par notre vision et notre cerveau pour interpréter et agir. Les distorsions
géométriques en dimension, longueur et courbure de figures aux formes
et aux proportions trompeuses représentent des exemples classiques
11. Pour une analyse plus poussée accompagnée de beaux exemples, voir Cyrille
Barrette, Mystère sans magie, Science, doute et vérité : notre seul espoir pour
l’avenir, MultiMondes, 2006, p. 89-130.
La science qui dérange 177
(figure 5.3)12. Certaines images d’objets dont la géométrie alterne d’un
instant de regard à l’autre, ou des géométries impossibles comme dans les
œuvres de l’artiste néerlandais Maurits Cornelis Escher (1898-1972) sont
toujours déroutantes. Examinées avec attention, les œuvres du peintre
catalan Salvador Dalí (1904-1989) et du peintre mexicain contemporain
Octavio Campo révèlent des détails picturaux que le premier regard a
complètement ignorés13. L’étude des illusions géométriques et picturales
relève d’une discipline scientifique, la psychologie cognitive, dont plu-
sieurs volets d’exploration sont de nature expérimentale.
FIGURE 5.3 Illusion optique de géométrie. Malgré qu’elles semblent faire un angle
l’une par rapport à l’autre, les lignes horizontales sont parallèles. Source : Wikipedia
Creative Commons/Fibonacci.
Le phénomène des illusions est fascinant. On ne comprend toujours pas
pourquoi nous sommes sujets aux illusions d’optique ou distorsions de
perception, mais notre cerveau réagit correctement la plupart du temps.
L’interprétation de ce que l’on voit se fait toujours dans un contexte plus
ou moins bien compris, ce à quoi il faut être sensible et vigilant. Il est
12. Voir l’excellent site http://blog.world-mysteries.com/science/cognitive-illusions/.
13. De Dalí, voir ses tableaux Vieux couple de musiciens (1930), Cygnes se reflétant
en éléphants (1937) ou Corps féminin formant une tête de mort (1953).
178 Sur la science qui surprend, éclaire et dérange
probable que notre cerveau ait évolué de façon à ce que notre intuition,
ou notre instinct, nous serve de guide fiable et nous invite à la pru-
dence face à l’inconnu. Le jeune enfant qui est à construire son bagage
cognitif réagit souvent différemment de l’adulte, parce qu’il apprend
à saisir les contextes. Si je vois une personne derrière un podium, je
sais que c’est une personne entière, non pas un torse surmonté d’une
tête. Si je passe derrière un mur et réapparais de l’autre côté, vous me
reconnaîtrez comme la même personne. Anaximandre de Milet comprit
que le Soleil, la Lune et les étoiles qui paraissaient se coucher à l’ouest
et réapparaissaient à l’est plusieurs heures plus tard étaient les mêmes
objets qui continuaient d’exister de l’autre côté de la Terre (figure 5.4).
Il déduisit ainsi que la Terre flottait libre dans l’espace sans support,
une formidable étape dans le développement d’une cosmologie qui ne
FIRGURE 5.4 Traînées d’étoiles obtenues lors d’une exposition de deux heures du ciel
au-dessus du volcan Mauna Kea, à Hawaii, en soirée du 29 avril 2004. Les traînées sont
dues à la rotation de la Terre : certaines étoiles paraissent se lever à l’est (à droite sur cette
image), monter et se coucher à l’ouest. D’autres étoiles, appelées circumpolaires, ne se
lèvent pas ni se couchent. L’Étoile polaire correspond au trait brillant très court proche
du centre des trajectoires circulaires. Source : Gemini Observatory/Peter Michaud.
La science qui dérange 179
faisait pas appel aux dieux, comme le faisaient les prêtres des civilisations
anciennes (figure 5.5)14.
FIGURE 5.5 Détail du Livre de la mort de Nesitanebtashru, œuvre sur papyrus,
montrant les dieux de la cosmologie égyptienne antique (vers 950 av. J.-C.), Shu dieu de
l’air et ses acolytes, Nut la déesse du ciel supportant la voûte céleste et Geb dieu de la
Terre en dessous. La nuit se produit lorsque le Soleil passe sous la Terre dans le Duat ou
le royaume des morts, et les étoiles émergent de cette région. Source : British Museum.
Toutefois, notre mode cognitif peut nous déjouer, car l’illusion peut
s’ancrer comme réalité. La Lune (et le Soleil) nous paraît parfois plus
grosse lorsqu’elle est vue près de l’horizon que lorsqu’on la voit haut dans
le ciel. C’est une illusion universelle démentie par toute séquence photo-
graphique montrant la Lune s’élevant au-dessus de l’horizon. Pourtant,
même sensibilisés à la présence de l’illusion, nous continuons de voir la
Lune grosse près de l’horizon.
14. Carlo Rovelli, Anaximandre de Milet ou la naissance de la pensée scientifique,
Dunod, 2015.
180 Sur la science qui surprend, éclaire et dérange
Plus importante, l’illusion ou la distorsion de perception dépasse les
simples formes géométriques. On connaît les inconsistances rappor-
tées dans les différents témoignages rendus par plusieurs témoins d’une
même scène d’accident, si simple soit-elle. Au lieu de savoirs exacts,
nous faisons plutôt face à des opinions, d’autant plus que les versions
varient d’un individu à l’autre. Cela nous rappelle que tout un groupe
de gens peuvent voir une même scène et être tous dans l’erreur. Les
reportages de miracles d’apparition de la Vierge Marie ou d’ovnis sont
des exemples spectaculaires de cette dérive perceptive qu’on appelle la
paréidolie, où l’on identifie une forme familière dans quelque chose de
vague, comme un dragon dans les nuages, un visage sur Mars, etc.15
Toute une collectivité peut arriver à une interprétation fantastique d’un
simple phénomène naturel. Les cerveaux peuvent aussi organiser une
information ou construire un phénomène alors qu’il n’y a rien du tout.
En contraste, quelque chose d’incongru peut apparaître sur une scène
et être complètement ignoré. Sans être astreints à ces extrêmes, nous
sommes tous plus ou moins sujets aux distorsions cognitives. L’illusion
est possiblement un mécanisme de défense gravé dans notre cerveau
à des fins d’optimisation des chances de survie. Si c’est une souris qui
rôde dans nos parages, il est préférable d’imaginer d’abord un loup ou
un ours, quitte à corriger rapidement.
L’illusion ou la distorsion dans la perception cognitive affecte aussi
nos comportements. On tend à établir des connexions dans des phé-
nomènes totalement aléatoires, comme le parieur convaincu d’avoir la
combinaison gagnante, l’individu qui se fait enrôler dans un système de
Ponzi, une vente pyramidale ou un investissement en crypto-monnaies.
Le terme apophénie décrit cette attitude mentale assez commune : on
attribue un sens particulier à des évènements banals entre lesquels on
établit des rapports inexistants. D’instinct, on imagine les personnes
riches plus heureuses que les moins riches. L’entreprise de notre monde
commercialisé sait exploiter ce penchant pour mousser un produit.
Mettant en scène des images alléchantes de personnes et d’objets, un
15. Les apparitions prétendues de la madone vues par deux enfants et la réaction
populaire sont admirablement bien rendues par le réalisateur cinématographique
italien Enrico Fellini dans son superbe film La Dolce Vita (1960).
La science qui dérange 181
marketing débridé déploie avec efficacité le message porteur que plus on
consomme (produits de nettoyage, séries télévisées, voitures luxueuses,
etc.), plus on sera heureux. À en juger par les 3,5 millions de tonnes de
déchets produits chaque jour par les humains, ces messages portent
fruit, contribuant à l’expansion phénoménale du dépotoir à une échelle
planétaire.
Parer à l’illusion confirmative
L’effet placebo, traitement pharmacologique neutre, est amplement
exploité dans les groupes témoins pour vérifier l’efficacité et l’effet véri-
table de nouveaux médicaments. Le patient ou le sujet expérimental
pense recevoir une substance active alors que les composés administrés
sont neutres. Un mécanisme psychologique (avec effet physiologique
possible) entre en action ; le placebo peut ainsi avoir un effet. L’effet
placebo est un bel exemple où l’illusion perceptive constitue un outil de
recherche pour les psychologues et les neurologues.
L’effet placebo nous amène à l’illusion confirmative : les observations
paraissent renforcer une attente ou un propos privilégiés. Ces dérives
sont amplifiées surtout si les illusions paraissent appuyer une croyance
idéologique. Par exemple, pour le camp créationniste, les empilements
de centaines de mètres de strates géologiques bourrées de fossiles confir-
ment le déluge biblique. Ainsi, le croyant fondamentaliste voit le Grand
Canyon du Colorado d’un œil qui explique aisément le tout. J’imagine
que le plus grand canyon du système solaire, Valles Marineris sur la pla-
nète Mars, recevra aussi son interprétation de l’action d’un dieu vengeur
qui fit le ménage des pécheurs de la planète rouge.
Comment reconnaître et éviter les pièges cognitifs ? Notre éducation
et nos expériences nous apprennent à nous prémunir des traquenards
les plus évidents. Pour le chercheur, c’est une habileté essentielle. L’ap-
prenti chercheur est soumis à un protocole d’apprentissage structuré.
Les approches utilisées pour cet entraînement datent de plusieurs siècles.
Les philosophes matérialistes grecs de l’Antiquité en établirent les pre-
mières balises. Les savants arabes du Moyen Âge en étaient aussi férus.
Les outils plus familiers que nous appelons la méthode scientifique et
expérimentale furent mis en place au xviie siècle. « L’empirisme collectif
182 Sur la science qui surprend, éclaire et dérange
lancé institutionnellement par les académies du xviie siècle dépendait du
recrutement et de la coordination perceptive des observateurs œuvrant
dans les différents réseaux. Cela était de grande évidence pour les obser-
vateurs du climat, qui furent encouragés à standardiser leurs instru-
ments, les heures d’observation et les formulaires d’enregistrement des
mesures, mais cela s’appliquait aussi autant à l’astronomie, à l’anatomie
et à l’histoire naturelle16. »
En début d’apprentissage, le scientifique est impressionnable au même
niveau que le non-scientifique. Il n’est pas à l’abri de la distorsion cogni-
tive, surtout lorsqu’un nouveau phénomène ou un effet expérimental
bizarre survient et qui doit être abordé et étudié de manière différente.
L’approche scientifique consiste justement à s’immuniser contre les périls
perceptifs. La formation des chercheurs et l’initiation à la méthode scien-
tifique fournissent les outils pour reconnaître les pièges de l’illusion et
de distorsion cognitive. La sensibilisation cognitive est une démarche
exigeante et qui nécessite du temps. Si l’on compte les études universi-
taires de tous les cycles, il faut environ 10 ans pour acquérir cette attitude,
en plus de l’énorme bagage des connaissances disciplinaires. C’est un
entraînement éprouvé et continuellement amélioré, par l’interaction
autant avec les chercheurs expérimentés qu’avec les jeunes collègues ; les
outils cognitifs spécialisés sont acquis tout en menant un travail original
de recherche. Ce sont des techniques maintes fois vérifiées qui aident à
sensibiliser le chercheur aux biais cognitifs, comme pour l’immuniser.
Mais, comme pour l’action d’un vaccin, elle ne permet pas de prémunir
contre toutes les souches… Oui, la science s’autorégule, mais les pulsions
humaines pour la nouveauté, le désir d’être reconnu et d’autres phéno-
mènes comportementaux complexes expliquent qu’on tombe parfois
dans des pièges cognitifs. Sans être scientifique, vous pouvez aussi vous
prémunir contre les pièges cognitifs et vous donner les outils pour faire
votre propre analyse critique face à l’avalanche d’informations qu’on
vous propose de partout17.
16. Lorraine Daston, « On scientific observations », Isis, mars 2008, vol. 99, no 1,
p. 102.
17. Voir l’excellent livre de Normand Baillargeon, Petit guide d’autodéfense intellec-
tuelle, Lux éditeur, 2001.
La science qui dérange 183
Aléas et contingence18
Plusieurs sont déroutés ou mis mal à l’aise par certains savoirs scienti-
fiques. Comment expliquer ce malaise ? J’ose quelques commentaires,
sans prétendre expliquer le fond des réticences envers la science, encore
moins les motivations anti-science. Les astronomes ont établi que la Terre
n’est pas au centre de l’univers, et les biologistes ont montré que l’humain
n’est pas le sommet de la création. En détrônant impitoyablement l’hu-
main, la science remet en question l’exception et la centralité de l’humain
dans la nature. En plus de baliser l’anthropocentrisme, la science révèle
que la Terre, la vie et l’humain sont le fruit du hasard d’évènements
cosmiques et de contingences dans l’évolution par sélection naturelle.
On a longtemps cru que la Terre était au centre du monde. Se départir
de l’idée d’un « statut particulier » de l’humain dans l’univers et se passer
de l’idée que l’univers est fait pour nous ont été des pas difficiles. Cette
perte de centralité de l’humain désarçonne.
Les astroblèmes ou cratères d’impact, ces gigantesques cicatrices de la
croûte terrestre causées par la collision avec de gros météores ou comètes,
et les grandes extinctions nous rappellent que l’évolution de la vie sur
Terre est sujette aux aléas cosmiques19. Le philosophe grec Démocrite
a écrit : « Tout ce qui existe dans l’univers est le fruit du hasard et de la
nécessité. » Un univers dont le hasard, l’aléatoire et la nécessité sont les
moteurs est dérangeant20. Le mot hasard vient de l’arabe az-zahr qui veut
dire « dé » ; aléatoire vient du latin alea qui veut aussi dire « dé ». Hasard
et aléatoire sont loin de signifier le désordre absolu. La science moderne,
de la biologie à la physique quantique, nous a habitués à l’idée et au
rôle du hasard dans plusieurs processus de la nature. Mais ces concepts
dérangent, et l’idée que nous en sommes les fruits bouleverse encore plus.
18. J’emprunte de mon texte paru dans Jean-René Roy, Les carnets d’un astrophysi-
cien, Éditions MultiMondes, 2013.
19. L’impact d’un petit astéroïde ou d’une comète ayant un diamètre de quelques
kilomètres est catastrophique. Il se produit environ une collision d’un objet de
10 km de diamètre par 100 millions d’années.
20. Nécessité est un concept métaphysique stipulant qu’un être ou une chose est
« nécessaire » parce qu’il ne dépend pour exister d’aucune cause ni d’aucune
condition (Jean-Maurice Monnoyer, dans Dictionnaire d’histoire et philosophie
des sciences, sous la direction de Dominique Lecourt, Paris, PUF, 1999, p. 680).
184 Sur la science qui surprend, éclaire et dérange
« Il n’est pas surprenant que l’évolution par sélection naturelle appliquée
à notre espèce soit si difficile à accepter puisqu’elle affirme que nous ne
faisons partie d’aucun scénario grandiose préétabli21. »
Sans surprise, le questionnement philosophique à propos du hasard et
de la nécessité a soulevé bien des controverses. La notion de liberté est
ballottée, et le débat sur la liberté est un des plus anciens qui soient. La
polémique sur le libre arbitre illustre l’inconfort que nous ressentons
devant la nature aléatoire de notre existence et l’incertitude que nous
éprouvons à propos de l’autonomie humaine. De toute époque, l’interro-
gation à propos du contrôle que l’humain a de sa pensée et de ses actions
a stimulé nombre de penseurs. Des conciles furent tenus pour débattre
de la question ; ils créèrent de nouvelles classes d’hérétiques22.
Augustin d’Hippone, ou saint Augustin (354-430), tient en bonne partie
sa notoriété de ses propos sur la liberté humaine qu’il liait d’une manière
incontournable à être chrétien baptisé. Si plus tard, au xvie siècle, le
philosophe français René Descartes (1596-1650) fut un champion de
l’idée de libre arbitre et de son actualisation dans l’action des humains,
le philosophe néerlandais Baruch Spinoza (1632-1677), vivant presque
à la même époque, en fut au contraire le critique et l’analyste le plus
puissant et le plus convaincant. Selon Spinoza, l’humain peut faire et
fait des choix ; mais il ignore les raisons profondes et complexes qui
motivent ses choix. Il en connaît encore moins les conséquences. Le libre
arbitre est une illusion. L’humain n’est qu’un rouage de l’univers dont
les processus se déroulent de façon inexorable selon les lois de la nature.
Voilà ce qui peut déranger encore plus. L’humain craint de perdre son
sens et sa signification, surtout lorsqu’il se considère comme un simple
véhicule des gènes.
L’idée de hasard comme intrinsèque à la nature imprégnait déjà les textes
de Démocrite, d’Épicure et de Lucrèce dans l’Antiquité. Que l’univers, le
système solaire, la vie sur Terre et son évolution soient les fruits du hasard
et des aléas cosmiques est difficile à réfuter et, pour certains, impossible
21. Cyrille Barrette, Le miroir du monde. Évolution par sélection naturelle et mystère
de la nature humaine, Éditions MultiMondes, 2000, p. 292.
22. Par exemple, les conciles d’Orange en 529 et de Valence en 855.
La science qui dérange 185
à accepter. C’est aussi une idée fertile qui a permis le développement de
nouveaux champs de recherche en physique statistique et quantique et
en biologie23. Comme nous l’avons vu au chapitre 3, l’idée est à la base
de la théorie évolutive par sélection naturelle proposée Charles Darwin
et son compatriote Alfred Wallace. « Une mutation se fait au hasard
au sens où la chance qu’une mutation spécifique se produise n’est pas
affectée par son utilité virtuelle », comme l’écrit le biologiste améri-
cain Douglas Futuyama. « La sélection naturelle, ce processus aveugle,
inconscient, automatique, que découvrit Darwin, et dont nous savons
maintenant qu’elle est l’explication de l’existence et de la forme apparem-
ment orientée vers un but de toute vie, ne se nourrit pas d’intentions. Elle
n’a pas d’esprit et pas d’œil de l’esprit. Elle ne fait pas de plans d’avenir.
Elle n’a pas de vision, pas de pouvoir d’anticipation, elle est totalement
dénuée de vue24. » Bref, la sélection naturelle est, comme le décrit le
l’évolutionniste britannique Richard Dawkins, un processus aveugle.
Pour plusieurs, c’est très difficile à avaler. Les discours réconfortants
de la religion représentent un baume avec des réponses qui aguichent
celui ou celle qui veut bien se voir comme un être élu d’une quelconque
divinité bienveillante. Heureusement, pour bien des croyants, hasard et
contingence ne posent pas de problème.
Où sont les archanges ?
« Je comprends tout ce que vous dites, mais je ne vous crois pas ! » Ne pas
croire : voilà la remarque d’un auditeur très poli qui venait d’entendre
ma présentation de l’historique de la découverte du monde des galaxies
que je donnais à l’Observatoire Maria Mitchell sur l’île de Nantucket
au Massachusetts en août 2013. Qu’est-ce qui se cachait derrière cette
assertion de refus on ne peut plus claire ? Je suspectai une solide adhésion
religieuse alliée à une incapacité à distinguer les genres et les catégories
cognitives.
23. Jacques Monod, Le hasard et la nécessité. Essai sur la philosophie naturelle de la
biologie moderne, Paris, Éditions du Seuil, 1970.
24. Richard Dawkins, L’horloger aveugle, Robert Laffont, 1989, p. 20.
186 Sur la science qui surprend, éclaire et dérange
Je ne pourrais mieux illustrer la place et le rôle des croyances religieuses
dans notre monde contemporain qu’en évoquant le tout nouveau Musée
de la Bible érigé au coût de 500 millions de dollars américains, à deux pas
de la grande agora des musées nationaux du Smithsonian Institution au
cœur de Washington, D. C.25 De toute évidence, le nouvel établissement
tente de tirer profit du prestige des musées centenaires du Smithsonian
en s’installant à deux pas de ces derniers. Il vise aussi à profiter de leur
affluence. D’appeler ce centre « musée » est un bel exemple de ce que les
économistes qualifient de « labellisation », l’utilisation d’un nom porteur
de prestige pour faire autorité. Il y a dans le monde bien d’autres centres
d’inspiration religieuse allant des nombreuses arches de Noé reconsti-
tuées aux centres créationnistes qui poussent comme des champignons.
Les mythes du déluge et de la séparation des eaux par Moïse pour le
passage de la mer Rouge sont des thèmes primés dans les vitrines car ils
frappent l’imaginaire26. Ces établissements ont en commun la promotion
d’une interprétation littérale et stricte des textes bibliques, en particulier
celui de la Genèse, et la contestation sans appel de la théorie de l’évo-
lution par sélection naturelle. On parle beaucoup de ces « musées » aux
États-Unis où ils sont bien présents. Mais le Canada en est aussi l’hôte
de deux autres, assez modestes, situés en Alberta27. Ces nouveaux lieux
sont souvent financés par de généreux milliardaires évangélistes, actifs
en Amérique et en Asie, visant à reléguer la science au second rang de la
connaissance. Évitons de simplement les ridiculiser : ils sont de puissants
concurrents sur le marché cognitif, une concurrence fort bien décrite par
le sociologue Gérald Bronner28.
L’histoire des sciences montre que des scientifiques éminents ont été
croyants, c’est-à-dire adeptes d’une forme ou une autre de croyance
religieuse. Wikipédia en présente de longues listes. Néanmoins, une
liste des incroyants serait probablement beaucoup plus longue, surtout
25. Ce musée a été inauguré le 17 novembre 2017.
26. La mer Rouge a actuellement une largeur d’environ 200 à 300 km et une profon-
deur moyenne de plus de 2000 m.
27. Le Big Valley Creation Science Museum se donne comme mission d’être une
« alternative » au Musée royal Tyrrell de la paléontologie.
28. Gérald Bronner, La démocratie des crédules, Presses universitaires de France,
2013, p. 23-32.
La science qui dérange 187
parmi les communautés contemporaines de chercheurs. Les quelques
sondages réalisés à ce sujet indiquent que la majorité des chercheurs
sont indifférents aux questions religieuses et se déclarent agnostiques.
Moins de 10 % affirment adhérer à un dieu personnel29. Peut-on être un
scientifique et un croyant dans le sens religieux ? J’ai rencontré beaucoup
de scientifiques et travaillé avec plusieurs d’entre eux au cours de ma car-
rière. Si la plupart demeuraient discrets sur leurs croyances religieuses,
plusieurs s’affichaient ouvertement agnostiques, athées ou indifférents à
toute étiquette. Je savais un nombre d’entre eux croyants et pratiquants,
d’obédiences catholique, anglicane, protestante, mormone, musulmane
ou bouddhiste. Parmi ceux-ci, il y avait le directeur du National Astro-
nomical Observatory of Japan, moine bouddhiste et grand amateur de
sumo, sport de lutte japonaise. Quelques autres étaient probablement
déistes, à la façon de Newton ou Spinoza. De tous les chercheurs croyants
avec qui j’ai interagi, jamais je n’ai senti la moindre interférence de leurs
croyances dans les programmes de recherche, dans les échanges et entre-
tiens, dans les analyses et recommandations de subventions de recherche,
ou dans la gestion des infrastructures de recherche.
Oui, un scientifique peut être croyant et mener ses activités de recherche
selon les règles et avec toute la rigueur de la pratique scientifique. Ces
chercheurs, tout comme une majorité d’entre nous, séparent ces domaines
cognitifs. Ils acceptent la valeur symbolique des textes religieux. Ils s’op-
posent aux fondamentalismes religieux, au créationnisme et refusent des
constructions malhonnêtes comme le « dessein intelligent ».
En effet, le mélange des genres et le refus de distinguer entre les domaines
cognitifs sont source inévitable de problèmes et de conflits, comme
pour mon auditeur de Nantucket. Le fondamentalisme religieux est
un glissement cognitif menant à des contradictions flagrantes, parfois
amusantes, d’autres fois à des conséquences graves. Il est ironique de voir
des croyants fondamentalistes utiliser leurs téléphones cellulaires ou le
GPS, prendre l’avion en faisant confiance aux technologies complexes de
l’appareil et à la navigation aérienne. Les mieux nantis sont les premiers
29. Yves Gingras, Propos sur les sciences : entretiens avec Yanick Villedieu, Éditions
Raisons d’agir, 2010, p. 137-141. Paru chez Boréal sous le titre Parlons science en
2008.
188 Sur la science qui surprend, éclaire et dérange
à exiger et à employer les meilleures techniques de traitements médicaux
et à profiter des dernières avancées de la biologie moléculaire pour se
faire soigner, tout cela en adhérant littéralement au texte de la Bible. Si
certains sont sincères, d’autres le font par tromperie et pour dominer et
contrôler les cœurs et les esprits de leurs concitoyens.
L’illusion des « cruches à remplir » ou le défi
de l’éducation
Je fais une hypothèse, ou j’émets plutôt une opinion, qui vous paraîtra
peut-être osée, en tout cas quelque peu iconoclaste. Honnêtement,
j’ignore comment on pourrait la tester, mais elle m’aide à comprendre
certaines réactions défensives ou négatives envers la science.
Examinant ces réactions, j’observe une division entre deux attitudes, les
curieux et les croyants. Pourquoi ? Chacun de nous détiendrait-il une
sorte de gabarit cognitif préétabli, dès la naissance, qui fait de chaque
personne une curieuse ou une croyante, avec évidemment des variantes
intermédiaires ? Nous aurions alors en chacun de nous un noyau dur
qui détermine nos attentes cognitives. Ce noyau serait culturellement
renforcé ou affaibli, mais qui ne change pas, ou ne le ferait que superfi-
ciellement. Encore une fois, ce fondement irréductible est utile du point
de vue de la survie. Mais il peut contraindre ou fausser notre appréhen-
sion du monde.
Certains sont des curieux innés, d’autres des croyants tandis qu’une
bonne portion de la population tient d’un modèle cognitif plutôt hybride.
Un amendement à ma proposition serait que nous naissons malléables,
puis nous nous transformons selon notre personnalité (et les pressions
du milieu) en croyants ou curieux. Une partie d’entre nous est faite pour
poser des questions, l’autre pour recevoir des réponses et les accepter.
Les curieux sont des sceptiques pragmatiques ; les croyants sont des
sceptiques idéologiques. Ce n’est en aucun cas un jugement de valeur,
car, d’un point de vue évolutif et sociétal, cette diversité dans les atti-
tudes cognitives a probablement favorisé le développement tant collectif
qu’individuel. Le jeune enfant (et même l’adolescent) a tout intérêt à
croire ses parents et ses enseignants tant qu’il n’a pas acquis la maturité,
La science qui dérange 189
l’esprit critique pour apprendre de lui-même et savoir porter des juge-
ments fiables. Mais, à un moment donné, l’enfant cesse de croire au père
Noël. Peut-être que certains ne cessent jamais d’y croire et demeurent
des « crédules » ?
Si l’on accepte ma supposition de gabarit cognitif établi à la naissance
ou de malléabilité vite figée, il y a des conséquences au rôle qu’on vou-
drait bien attribuer à l’éducation lorsqu’il s’agit d’apprendre à analyser
les opinions, contrer les croyances douteuses et privilégier les savoirs
établis rigoureusement. Nous le savons, la démonstration de la fausseté
d’une croyance ne la fait pas disparaître, loin de là. Gérald Bronner a
montré que le « marché cognitif » actuel est profondément modifié par
un implacable marketing commercial, le prosélytisme vigoureux des
fondamentalismes religieux et les discours de charlatans profiteurs de
tout acabit. Les nouveaux outils de communication alimentent la vitalité
et la vigueur des croyances30. Les analyses critiques, la pensée ration-
nelle et les savoirs scientifiques paraissent des outils modestes devant
les crocs de tyrannosaures que sont les milliardaires fondamentalistes.
L’esprit critique et l’analyse rationnelle demeurent nos meilleurs moyens
pour contrer avec diligence et avec force les fanatismes de toutes sortes,
incluant certaines déclarations faites au nom de la liberté religieuse ou
de la nouvelle rectitude politique.
Il y a une part d’illogisme dans tout esprit humain et elle est habilement
exploitée par les « marchands du doute31 ». L’éducation et l’influence
des pairs peuvent modérer l’attrait pour le gratuit et l’irréfléchi, mais
ne l’éliminent pas. On pourrait alors croire qu’en augmentant le niveau
d’éducation on accroît le niveau de connaissances et que, par ce fait
même, on fait décroître la crédulité collective. Mais non ! Comme plu-
sieurs sociologues et psychologues ont tenté de le démontrer, il y a une
limite à l’éducation : elle ne peut, à elle seule, éradiquer la pensée irra-
tionnelle. L’ignorance n’est pas la source des croyances. Certes, plusieurs
fausses idées ont été éliminées par un meilleur accès à l’information et
30. Gérald Bronner, La démocratie des crédules, Presses universitaires de France,
2013.
31. Naomi Oreskes et Erik M. Conway, Merchants of Doubt, Bloomsbury Press, 2010.
190 Sur la science qui surprend, éclaire et dérange
par la familiarisation avec les savoirs scientifiques. Mais il n’y a pas de
solution magique.
« Le fait que des personnes ayant un certain niveau d’éducation ne soient
pas immunisées contre les croyances les plus étranges peut paraître
surprenant, mais il est d’une portée très générale et dépasse largement
l’exemple du moon hoax.32 En vérité, on ne trouve pas toujours de lien
entre l’adhésion à des croyances douteuses et le manque d’éducation.
Le plus souvent, c’est même l’inverse qui est vrai33. » J’en ai en maintes
fois fait l’expérience : il est parfois plus facile d’expliquer des concepts
scientifiques à des gens qui ont une éducation élémentaire, mais un solide
sens critique, qu’à certains universitaires qui ont fait des études avan-
cées, mais qui demeurent scientifiquement incompétents. Plusieurs ont
des difficultés à faire la différence entre science-fiction, pseudosciences
et science. Poussons à l’extrême : la formation intellectuelle n’empêche
nullement des gens de tomber dans le fanatisme religieux ou de défendre
des causes politiques aberrantes. Les groupes sectaires et les bandes
mystiques recrutent des universitaires.
La solidité et la pérennité des croyances dans notre monde contemporain
méritent donc une attention et une approche originale. Pour contrer
les croyances, l’ignorance crasse, il nous faut plus que la rationalité, les
statistiques et la méthode scientifique. Il importe de reconnaître dans
chacun de nous les angles aveugles. Les sociologues sont nos alliés sur
ce terrain miné. Interprétez-moi bien : l’éducation et la formation intel-
lectuelle demeurent des outils essentiels qui équipent tout esprit pour
le rendre mieux préparé à comprendre son univers. Enfin, les sciences
n’ont pas le pouvoir absolu et infaillible d’appréhender le monde. Cette
imperfection alimente son dynamisme tel que je l’ai illustré dans la
première partie de l’ouvrage. La science n’est pas une papauté infaillible.
C’est ce qui en fait la force, alimente son dynamisme, et non pas une
raison pour la diaboliser.
32. Le Great Moon Hoax réfère à une série de six articles publiés dans le journal
New York Sun en 1935. Les textes étaient attribués à l’astronome John Herschel
(décédé en 1871) et prétendaient rapporter ses observations des activités et des
ébats des habitants de la Lune.
33. Gérald Bronner, op. cit., p. 280-281.
6
Instrumentalisation
de la science :
techno-utopies
et techno-catastrophes
Gare à la flatterie, ma fille :
trop de sucre gâte les dents.
Madame de Sévigné (1626-1696)
Nous sommes bombardés par des quantités colossales d’information, de
propagande et de désinformation. Malheureusement, nous sommes mal
outillés pour séparer l’ivraie du bon grain, d’autant plus que les faussetés,
capables de se propager comme de véritables pandémies cognitives,
sont d’une abondance et d’une vigueur époustouflantes. On génère des
mèmes et l’on corrompt les véritables savoirs à la mitrailleuse de la four-
berie. Perversement, on fabrique aussi des faussetés par malice et l’on
vandalise la véritable information. On choque, on flatte et on aguiche
constamment.
J’aborde ici quelques thèmes rappelant des enjeux scientifiques et tech-
nologiques actuels qui gagnent à être mieux éclairés par une perspective
moins superficielle que celle qui a été mise de l’avant par leurs promo-
teurs et moins triomphaliste que celle qui a été présentée par les médias.
Comme lecteur de ce livre, vous êtes déjà désensibilisé aux promesses
192 Sur la science qui surprend, éclaire et dérange
mirobolantes de l’hyperbole qui auréolent certains résultats de recherche,
en particulier en recherche médicale1. Je veux parler des techno-utopies
dont on fait miroiter les rêves pour engager des fonds publics dans des
projets mal assurés ou risqués, ou ceux dont la promotion berce des
instincts favorisant la consommation de produits inutiles ou distrayants.
Mes exemples de techno-utopies iront de l’utilisation de bombes thermo-
nucléaires pour de grands travaux de génie civil – une attrayante lubie
des années 1960 – aux annonces sibyllines de tenants de l’intelligence
artificielle et de promoteurs débridés de l’exploration spatiale future.
Dans une veine racoleuse étonnamment analogue, il y a les prophètes de
techno-catastrophes. Nous avons encore affaire à des prophètes impro-
visés qui sont parfois les mêmes personnes que les techno-utopistes, mais
dont les discours deviennent tout à coup menaçants. Dans la foulée de
ces dérives catastrophistes, j’aborderai les harangues de certains socio-
logues, je les appellerais plutôt pseudo-sociologues, friands de l’achar-
nement contre la science (science bashing). Ces derniers carburent au
dénigrement et à la diabolisation de la science, se faisant les perroquets de
quelques gourous de l’anarchisme cognitif. Ils portent malheureusement
ombrage à leurs collègues qui font un travail remarquablement éclairant
sur le rôle de la science dans nos sociétés.
Terrassement thermonucléaire
et propulsion nucléaire
Je me souviens de dessins que j’ai vus quand j’étais enfant et qui mon-
traient la ville du futur ponctuée d’immenses gratte-ciels croisés d’une
trame complexe d’autoroutes gigantesques à plusieurs étages. Ce qui
m’étonnait était l’absence de personnages humains et un ciel rempli
d’hélicoptères, comme un bourdonnant essaim d’abeilles méca-
niques. On nous promettait que tout le monde aurait son hélicoptère
pour se déplacer partout et à volonté. Auto, avion et hélicoptère per-
sonnels allaient être mus chacun par un réacteur nucléaire miniature.
1. Jean-René Roy, Les héritiers de Prométhée. L’influence de la science sur l’humain
et son univers, Presses de l’Université Laval, 2017. Voir le chapitre 5 et la postface.
Instrumentalisation de la science : techno-utopies et techno-catastrophes 193
Évidemment, et heureusement, nous sommes loin de ce monde utopique.
Malgré l’évanouissement de presque toutes les promesses et prédictions
technologiques sur le futur, on continue de nous bombarder de fantai-
sies futuristes. On oublie que ce qui se réalise est souvent complètement
imprévu.
Le mythe d’un « âge d’or » semble cependant bien ancré chez l’humain.
Écrivains et philosophes l’ont exploité depuis l’Antiquité ; l’utopie affiche
une riche histoire2. Certains rebondissements géopolitiques, comme
la découverte des Amériques par les Européens et la révolution indus-
trielle, ramènent périodiquement les discours utopiques à l’avant-scène.
Aujourd’hui c’est ladite révolution de l’information et de l’intelligence
artificielle ou celle du contrôle du génome qui alimentent ces rêves. La
propagande utopique s’est toujours bien vendue. Qui ne veut pas rêver ?
Que sont les utopies ? Ce sont des projets imaginaires ou des rêves
irréalisables. Le mot aurait été inventé en 1516 par l’avocat et écrivain
anglais Thomas Moore (1478-1535) pour décrire une société imaginaire
idéale. L’objectif de mon propos est de vous alerter aux discours uto-
piques exploitant les sciences et les technologies pour faire des promesses
douteuses ou créer des peurs inutiles ; ce sont les techno-utopies ou les
techno-catastrophes. Pour ce faire, j’utilise des exemples pigés dans l’his-
toire récente. Je rappelle d’abord quelques projets ambitieux qui furent
mis de l’avant aux États-Unis et en ex-Union soviétique dans la foulée
de la découverte de la fission et de la fusion nucléaire. Je me souviens
très bien de ces projets, car, adolescent, je fus littéralement enseveli par
des piles de documents et de photographies qui me furent envoyés avec
grande générosité par la Commission de l’énergie atomique des États-
Unis. J’étais émerveillé par ces projets grandioses de transformation de
notre planète par terrassement thermonucléaire. Mais qui étaient ces
méga-paysagistes ?
L’arrivée de la bombe atomique (par fission de l’uranium-235 ou du
plutonium-239) et de la bombe thermonucléaire (fusion de l’hydrogène)
rendait disponible un explosif des millions de fois plus puissant que
2. Pierre Musso, « De la socio-utopie à la techno-utopie », Le Monde diplomatique,
no 112, août-septembre 2010.
194 Sur la science qui surprend, éclaire et dérange
le meilleur explosif chimique d’alors, le trinitrotoluène (TNT) ou la
dynamite. On avait rapidement appris à maîtriser la fission nucléaire
et à en exploiter l’énorme énergie libérée. Durant les années 1950 et
1960, de multiples réacteurs à fission nucléaire pour la production
d’électricité furent construits et mis en marche tant aux États-Unis et
en Union soviétique qu’en Grande-Bretagne, en France et au Canada.
En parallèle, la production d’uranium-235 et de plutonium-239 pour
des bombes atomiques allait bon train dans plusieurs pays devenus des
puissances nucléaires : les États-Unis en 1945, l’ex-Union soviétique en
1949, la Grande-Bretagne en 1952, la France en 1960 et la Chine en
1964 ; l’Inde, le Pakistan, Israël et la Corée du Nord se joignirent au club
atomique plus tard. L’humanité se trouvait avec un stock grandissant de
bombes hyperpuissantes utilisant le processus encore plus énergique de
la fusion thermonucléaire de l’hydrogène. Des projets d’ingénierie civile
jugés irréalisables jusqu’aux années 1960 furent remis sur les planches à
dessin. Le meilleur exemple de ces projets demeure le projet Plowshare
d’excavation à grande échelle. Glorieusement, on enrobait l’entreprise de
l’auréole d’usage d’explosions nucléaires à des fins pacifiques (plowshare
signifie charrue.)
L’idée fut mise de l’avant lors de la crise du canal de Suez en 1956. Le
nouveau président égyptien Abdel Nasser (1918-1970) avait alors arraché
le contrôle du canal des mains des Britanniques et des Français en le
nationalisant. Il avait coulé nombre de navires pour bloquer le canal à
la suite de l’intervention militaire des deux pays européens. Un groupe
de chercheurs du Livermore Radiation Laboratory de l’Université de
Californie imagina alors de creuser un nouveau canal sur un tracé moins
à risque politique en utilisant l’explosion d’un chapelet de bombes ther-
monucléaires pour joindre la Méditerranée au golfe d’Aqaba. Lorsque la
crise politique de Suez fut réglée, les visées de géo-ingénierie nucléaire se
tournèrent vers un nouveau canal de Panama ; ce canal devait traverser
l’isthme plus au sud, via la Colombie. D’autres tracés furent considérés.
Le projet avança rondement. On planifia un canal creusé au niveau
de la mer qui n’aurait pas requis d’écluses. D’autres idées de grands
terrassements à l’aide de bombes thermonucléaires, certaines absolu-
ment farfelues, émergèrent : élimination de rapides sur de grands fleuves
d’Amérique du Sud, creusage de ports de mer en eaux profondes en
Instrumentalisation de la science : techno-utopies et techno-catastrophes 195
Alaska et en Australie, forage de vallées à travers les chaînes de mon-
tagnes de la Californie pour y passer autoroutes et voies ferrées, fractu-
ration de cavités pour dégager le gaz naturel ou le pétrole.
Il ne faisait aucun doute que l’excavation nucléaire offrait d’énormes
avantages, en particulier un coût versus efficacité extrêmement bas et
une grande rapidité d’exécution. La Commission de l’énergie atomique
des États-Unis mena 41 tests dans le désert du Nevada pour vérifier le
concept d’excavation nucléaire3 (figure 6.1). Le canal proposé avec un
tracé colombien aurait requis 300 explosions nucléaires. Mais très tôt des
obstacles surgirent. On comprit que le coût du canal « nucléaire » aurait
été supérieur à ce qu’il aurait coûté s’il avait été effectué par excavation
traditionnelle avec les moyens mécaniques normaux et le dynamitage.
Les débris radioactifs nécessitant le déplacement des populations s’avé-
rèrent importants. Enfin, pour des raisons de risque environnemental, on
rejeta l’idée d’avoir un canal complètement au niveau de la mer qui aurait
permis aux espèces de traverser d’un océan à l’autre et de se mélanger.
En plus des défis techniques et environnementaux, le projet Plowshare
fut finalement la victime du Traité de non-prolifération nucléaire de
1963 qui stipulait l’interdiction de toute explosion nucléaire qui « cau-
serait des retombées radioactives au-delà des frontières de l’État sous la
juridiction et le contrôle duquel une telle explosion serait menée ». Tou-
tefois, c’est l’opposition des populations, l’absence d’acceptation sociale,
qui bloqua tous ces projets. Même avec les bombes thermonucléaires
les plus propres, il s’avéra impossible de produire un explosif nucléaire
dont les substances radioactives auraient été complètement retenues au
lieu de l’explosion. Quelques analystes notèrent l’hypocrisie des pro-
moteurs de Plowshare dans leur manœuvre visant à tester des bombes
à des fins militaires sous le couvert de « l’atome pour la paix ». Prenez
note que le projet Plowshare n’a jamais été fermé et qu’il reste dans les
cartons. Elon Musk, l’homme d’affaires américain de la voiture Tesla
et du programme spatial Space X, jamais à court d’idées farfelues, a
proposé de faire fondre les calottes polaires de la planète Mars avec un
3. Glenn T. Seaborg, Adventures in the Atomic Age, from Watts to Washington,
Farrar, Straus and Giroux, p. 229-233.
196 Sur la science qui surprend, éclaire et dérange
FIGURE 6.1 Un des tests du projet Plowshare : cratère résultant du test Sedan d’une
bombe thermonucléaire d’une puissance équivalant à 104 kilotonnes de TNT. Le cratère
formé a 400 m de diamètre et 100 m de profondeur. Source : National Nuclear Security
Administration.
feu de bombes thermonucléaires4. Son objectif : dégager le CO2 de ces
glaces pour réchauffer le climat martien. Je vous laisse juge de la sagesse
du projet martien de ce populaire gourou de l’utopie.
Quand l’atome propulse
Si l’on met à part l’utilisation médicale des radioéléments et l’utilisation
de la fission nucléaire pour la production d’énergie électrique propre (plus
coûteuse que prévu initialement), le plus grand succès de l’utilisation de
4. Todd Leopold, « Elon Musk’s new idea : Nuke Mars », CNN, 11 septembre 2015.
Instrumentalisation de la science : techno-utopies et techno-catastrophes 197
l’énergie nucléaire a été dans l’utilisation de réacteurs à fission atomique
pour la propulsion de sous-marin et de grands navires, comme les porte-
avions et les brise-glaces. Son grand avantage est de fournir une source
fiable d’énergie donnant une longue autonomie et, pour le submersible,
la possibilité de demeurer sous l’eau durant des mois – pas besoin de
tuyau d’échappement pour dégager les gaz de combustion du gasoil.
De tels sous-marins militaires offrent aussi des avantages stratégiques
importants en permettant d’approcher leur cible à quelques centaines de
kilomètres ; pas besoin de missiles balistiques intercontinentaux.
L’avantage de la propulsion nucléaire est aussi important pour les brise-
glaces qui circulent en zones éloignées et dans des conditions extrêmes.
La Russie possède la flotte de brise-glaces la plus importante au monde,
qu’elle déploie autant dans l’Arctique que dans l’Antarctique. Puisque
les États-Unis n’ont qu’un seul grand brise-glace, d’ailleurs vieillot, la
National Science Foundation, la grande agence américaine de finance-
ment de la recherche, loue les services d’un brise-glace russe pour assurer
la livraison de carburant et d’autres approvisionnements à ses stations de
recherche de l’Antarctique. La flotte russe possède 40 brise-glaces, dont
six sont à propulsion nucléaire. Ces navires sont coûteux à construire,
plus d’un milliard de dollars l’unité, mais leurs avantages opérationnels
justifient l’investissement.
La propulsion de navires spécialisés avec réacteur nucléaire a été réalisée,
mais d’autres projets connurent un sort moins heureux5. En particu-
lier, l’utilisation d’un réacteur nucléaire pour la propulsion d’avions
militaires tels de gros bombardiers. Le seul avion à avoir été testé avec
un réacteur nucléaire à bord fut le bombardier NB-36H (figure 6.2).
Le réacteur de cinq mégawatts ne fut cependant jamais branché pour
actionner les moteurs de l’avion. Le programme fut annulé en 1958. Les
problèmes inhérents à l’intense radioactivité dégagée par le réacteur ne
furent jamais résolus : le blindage pour sécuriser du personnel de bord
et au sol et les conséquences de l’écrasement d’un tel avion. L’arrivée des
5. La compagnie Ford élabora un concept d’une voiture à propulsion nucléaire
en 1958. Le modèle Nucleon qui aurait abrité un petit réacteur nucléaire ne vit
jamais le jour. On ne pourrait que difficilement miniaturiser suffisamment ce
type de réacteur pour servir à une telle fin.
198 Sur la science qui surprend, éclaire et dérange
missiles intercontinentaux et des sous-marins à propulsion nucléaire
dans les années 1960 rendirent désuets les bombardiers de longue auto-
nomie tant aux États-Unis qu’en Union soviétique. Enfin, il est important
de noter que le problème d’entreposage à long terme des déchets radioac-
tifs produits par ces réacteurs, et de tous les réacteurs actuellement en
service, n’est pas résolu et demeure un obstacle au déploiement à grande
échelle de cette source d’énergie. Étant donné le vif réflexe « pas dans ma
cour », ces déchets sont entreposés sur les lieux mêmes des centrales, avec
le risque d’un entassement excessif et dangereux en cas de défaillances
en cascade.
FIGURE 6.2 Le bombardier américain NB-36H en vol avec à bord un petit réacteur
nucléaire. Source : United States Air Force.
L’exploration spatiale n’est pas demeurée inattentive au nucléaire. Le
projet Orion fut un concept extravagant de propulsion en astronautique
Instrumentalisation de la science : techno-utopies et techno-catastrophes 199
qui aurait été assurée par une succession d’explosions atomiques pour
les voyages à travers le système solaire ! Encore une fois, le Traité de
1963 contribua à mettre fin à cette aventure. L’idée d’utiliser des bombes
nucléaires dans l’espace revient de temps à autre, en particulier comme
moyen de détruire un astéroïde dont la trajectoire l’amènerait trop près
de la Terre. Les scientifiques proposent d’autres options qui seraient
beaucoup plus efficaces, moins risquées et plus faciles à implanter. Le
tracteur gravitationnel, employant un véhicule évoluant proche de l’as-
téroïde pendant une durée suffisante en modifierait la trajectoire ; moins
spectaculaire que la bombe, c’est une manière efficace de faire dévier un
tel objet. D’ailleurs les simulations numériques montrent que même les
bombes les plus puissantes auraient peine à vaporiser un objet de plus
d’une centaine de mètres de diamètre ; oubliez l’idée de pouvoir volati-
liser un objet comme celui qui contribua à l’extinction des dinosaures
au Paléogène-Crétacé il y a 66 millions d’années. Toutefois, avec ces
modélisations, on pourrait concevoir une façon effective de briser un
astéroïde sans le fracturer en mille miettes et modifier ainsi sa trajectoire.
Attendez-vous donc à ce que l’idée thermonucléaire resurgisse, car ses
retombées militaires sont malheureusement attrayantes.
Mais ne courez pas chez le concessionnaire à l’annonce de la voiture
atomique.
L’intelligence assistée
Je ne vous apprends rien : les sociétés, les entreprises, les institutions et les
foyers s’informatisent à une vitesse phénoménale. Nous jouissons ainsi de
beaucoup d’avantages, dont l’accès à une information extraordinaire ; je
n’ai pas à en énumérer les bénéfices. La cybercriminalité et l’usurpation
de l’identité des citoyens en sont l’ombre. Il importe d’être conscient de
la fragilité de ce nouvel édifice sociétal, surtout lorsqu’il s’écroule comme
un château de cartes, par exemple lorsque le système de gestion des vols et
des réservations d’une compagnie aérienne tombe en panne et quand des
institutions financières se font arnaquer. Parfois, la panne informatique
tourne au ridicule. J’étais récemment un client matinal du restaurant
d’un grand aéroport américain. Le menu n’était disponible que sur une
200 Sur la science qui surprend, éclaire et dérange
tablette et je tentais de faire ma sélection. Les cuisines étaient ouvertes,
la vapeur montait des casseroles et les vaillants cuisiniers attendaient
leurs premières commandes. Mais le système de gestion informatique
du restaurant était en panne. La maison n’avait aucun autre choix, pas
de menu traditionnel sur carton. Tout le monde attendait que l’ordina-
teur se réinitialise. Tout dans la cuisine était figé. Après un assez long
moment, l’impatience prit le dessus, je quittai le restaurant et m’assurai
que le restaurant suivant avait un menu sur carton.
Ce petit incident de cuisine informatisée était banal, mais donnait une
leçon. Imaginez les conséquences d’une panne généralisée du système
GPS, ce qui pourrait bien survenir lors d’une cyberattaque à grande
échelle. Nous sommes à l’adolescence de l’ère informatique, et nous ne
savons pas encore vraiment nous prémunir des conséquences de failles
graves. Un effort accru de prévention et une augmentation des ressources
sont nécessaires pour rendre nos systèmes et nos infrastructures plus
solides et résilientes en cas de crise. Nous avons appris à nous préparer
à l’éventualité de tremblements de terre, d’ouragans et de tsunamis.
La majeure partie des grandes infrastructures essentielles (la santé, les
transports, les réseaux d’aqueduc et de distribution d’énergie) sont modé-
rément protégées contre les failles qui pourraient survenir en cas de
catastrophes naturelles. Il faut faire de même pour préparer et protéger
les infrastructures informatiques susceptibles de pannes systémiques.
Cette tâche peut être un travail peu spectaculaire, mais essentiel pour
l’intelligence artificielle.
D’abord quelques définitions. On parle d’intelligence artificielle lors-
qu’une machine reproduit les fonctions cognitives qu’on associe générale-
ment au cerveau humain ou aux comportements des animaux. On décrit
l’intelligence artificielle (IA) comme étant le pouvoir d’ordinateurs ou de
robots contrôlés par un ordinateur d’accomplir des tâches généralement
effectuées par des êtres intelligents, donc par des humains. L’expression
est élargie pour couvrir des systèmes capables de reproduire les pro-
cessus humains, comme faire un raisonnement, résoudre un problème
et apprendre d’expériences passées. Nous sommes tous familiers avec
nombre d’exemples comme les répondeurs automatisés qui posent des
questions pour diriger plus efficacement nos appels ou les traducteurs
de langue en ligne. Vous avez probablement vu ou utilisé des tondeuses
Instrumentalisation de la science : techno-utopies et techno-catastrophes 201
à gazon ou des aspirateurs de maison robotisés. Les nouveaux robots
conçus pour l’industrie du recyclage sont aussi impressionnants qu’ef-
ficaces. La voiture automatisée sans conducteur est un sujet d’actualité ;
ce genre de véhicule existe depuis des décennies dans des utilisations
spécialisées comme les aéroports et la grande industrie. Il y a un com-
mandant de bord et une copilote dans le cockpit, mais l’avion commercial
moderne est une machine hautement robotisée.
Le concept et le champ de recherche de l’IA sont relativement récents,
mais n’ignorons pas ses racines historiques. On parle d’intelligence arti-
ficielle ou d’un équivalent depuis la mise au point et l’usage des premiers
calculateurs mécaniques au xviie siècle. Un bel exemple est la pascaline, la
machine d’arithmétique que Blaise Pascal mit au point en 1645 pour faci-
liter les tâches de comptabilité de son père6. Le mathématicien et logicien
anglais Alan Turing (1912-1954) formalisa les concepts d’algorithme et
d’apprentissage automatique. Il est considéré comme le père de l’infor-
matique et de l’intelligence artificielle. L’IA comme champ de recherche
prit son envol dans les années 1950 et 1960. On attribue la création de la
discipline à John McCarthy (1927-2011) et Marvin Minsky (1927-2016),
deux jeunes mathématiciens américains. Ils firent leur proposition en
1955, A proposal for the Darmouth Summer Research Project on Arti-
ficial Intelligence. Âgés alors de moins de trente ans, ils s’associèrent
à des chercheurs reconnus, dont Claude Shannon (1916-2001), célèbre
mathématicien, cryptographe et père de la théorie de l’information, pour
asseoir leur crédibilité. Cette proposition arriva dix ans après ENIAC, le
premier ordinateur7. Depuis, un chemin complexe et plein de surprises
a été parcouru. Comment se situe l’IA dans notre monde actuel de l’in-
formatique et de la robotique, soixante ans après nos jeunes pionniers
de la Nouvelle-Angleterre ?
6. À la même époque, Gottfried Leibniz (1646-1716), le grand philosophe et mathé-
maticien allemand, inventa le calculus ratiocinator pour des opérations sur les
concepts plutôt que sur les chiffres.
7. ENIAC fut inventé et construit par J. Presper Eckert et John Mauchly à l’Uni-
versité de Pennsylvanie. L’ordinateur occupait un espace de près de 180 m2 et
fonctionnait à l’aide de 18 000 tubes électroniques ; son poids était de 50 tonnes.
202 Sur la science qui surprend, éclaire et dérange
Qu’est-ce que l’intelligence ?
D’abord, tentons de répondre à la question simple « qu’est-ce que l’intel-
ligence ? » On a beaucoup écrit sur le sujet. Vous le percevez immédiate-
ment, la réponse n’est pas simple. Personnellement, j’aime la définition
donnée par le philosophe américain Daniel C. Dennett8. L’intelligence
des humains et de plusieurs animaux se caractérise par deux dimen-
sions essentielles et complémentaires : compétence et compréhension.
La compétence est l’habileté d’effectuer des opérations qui assurent le
fonctionnement de l’organisme, de l’individu ou de la collectivité : les
gènes, les bactéries, les termites et les éléphants sont compétents à des
degrés divers. La compréhension est l’autre dimension incontournable
de l’intelligence. Comme humain, je sais ce que je fais et j’ai une expli-
cation qui me permet de savoir pourquoi je le fais. Je sais que je sais des
choses et, encore plus important, je sais que je ne sais pas des choses.
J’ai la compréhension.
Comme l’éléphant, votre chien ou votre chat ont aussi une compréhen-
sion du monde. S’ils ont faim ou soif, ils sauront distinguer les odeurs
pertinentes et se diriger vers leur plat d’aliments ou vous implorer par
des gestes signifiant de les nourrir ou de leur ouvrir la porte pour courir
vers les écureuils. Comme nous, ces animaux combinent compétences
et un certain niveau de compréhension. Mais Fido n’atteindra jamais
nos niveaux d’excellence dans l’intégration de ses compétences et sa
compréhension, pas même ceux d’un jeune enfant. Un ordinateur a des
compétences de calcul irréfutables, mais sa compréhension est moindre
que celle de l’enfant et même celle de votre compagnon canin. Elle est
nulle ! Sans courant électrique, les plus gros ordinateurs ne sont que des
ramassis de métal, de semi-conducteurs et de plastiques. Jean-Gabriel
Ganascia, chercheur en intelligence artificielle, nous le rappelle : « L’in-
telligence n’équivaut ni à une fréquence d’exécution d’opérations élé-
mentaires ni au nombre d’informations engrangées dans une mémoire.
8. Daniel C. Dennett, From Bacteria to Bach and Back. The Evolution of Minds,
W. W. Norton & Co., 2017.
Instrumentalisation de la science : techno-utopies et techno-catastrophes 203
Ni l’accroissement de la puissance de calcul ni la capacité de stockage
ne produisent automatiquement de l’intelligence9. »
Aux deux critères – compétence + compréhension – proposés par Den-
nett pour définir l’intelligence, je propose d’ajouter un troisième critère,
la méta-mémoire. Nous, humains, savons des choses sur le monde ; nous
savons aussi que nous savons, et, plus fondamentalement, nous savons
que nous ne savons pas. Un bel exemple de cela, c’est lorsqu’il nous arrive
d’avoir un nom, un mot ou une idée « sur le bout de la langue ». C’est la
méta-mémoire. Les animaux n’ont pas ce niveau élevé de conscience et
la capacité d’en évaluer la fiabilité. Le concept de méta-mémoire signale
que les humains manifestent un sens de connaître et une capacité d’avoir
confiance ou d’avoir des doutes à propos de leur mémoire et de leurs
souvenirs10.
Vous réalisez tout de suite que les robots ou les systèmes dits intelli-
gents sont pourvus de certaines compétences, mais possèdent zéro com-
préhension, et encore moins de méta-mémoire. La voiture moderne la
mieux équipée en technologies n’a aucune intelligence. Lorsque le signal
lumineux vous indique que le niveau d’essence du réservoir est bas ou
que la pression des pneus est insuffisante, votre voiture ne se dirige pas
spontanément vers la station d’essence la plus proche, même si le GPS
de votre auto l’a bien localisée. Votre téléphone dit intelligent dont la
charge est épuisée ne s’élancera pas hors de vos mains pour se brancher
dans la prise électrique la plus proche. Si vous menacez de le frapper ou
de le détruire avec un marteau, il demeurera complètement immobile et
indifférent. C’est une faiblesse caractéristique des systèmes robotisés qui
nous entourent. Ils ont des fonctions impressionnantes, mais elles sont
déconnectées l’une de l’autre et n’ont donc aucune interaction entre elles.
Votre chien ou votre chat sont énormément plus intelligents que votre
téléphone « intelligent », car ils comprennent leurs sensations, perçoivent
leur environnement et agissent en conséquence. Toutefois, votre chat ne
peut pas utiliser votre téléphone. En tout cas, pas encore…
9. Jean-Gabriel Ganascia, Le mythe de la singularité, Faut-il craindre l’intelligence
artificielle, Éditions du Seuil, 2017, p. 41.
10. Stanislas Dehaene, Hakwan Lau et Sid Kouider, « What is consciousness, and
could machines have it ? », Science, 2017, vol. 358, p. 486-492.
204 Sur la science qui surprend, éclaire et dérange
Les multiples facettes de l’intelligence humaine et animale
Watson, le puissant superordinateur d’IBM qui répond aux questions
posées par des humains, peut lire 800 millions de pages à la seconde, mais
coupez-lui l’électricité et c’en est fait. Il ne fera pas une colère et ne vous
crachera pas à la figure. Il ne sortira pas de son local pour aller admirer
le ciel d’une belle nuit étoilée. Il n’a certainement pas de méta-mémoire.
Stopper la climatisation de la salle où Watson est logé et il s’autodétruira
(je suppose que les protections sont en place pour éviter cette éventua-
lité). Watson possède d’incomparables compétences de calcul. Il impres-
sionne, mais il n’a aucune compréhension. Il ne sait rien, il « calcule »
et il ne le sait pas. Il ne sait surtout pas qu’il y a des choses qu’il ignore.
L’intelligence humaine et animale comporte une quantité phénoménale
de facettes différentes. Nous commençons à peine à appréhender les phé-
nomènes physiques, chimiques et biologiques derrière ces intelligences.
Distinguer ces facettes, les comprendre et les simuler représentent un
défi colossal qui va au-delà des performances des ordinateurs, si puis-
sants soient-ils.
Pour mieux recentrer la nature et le rôle de l’IA, je propose un peu de
sémantique. Avec justesse, certains parlent d’« intelligence assistée »
plutôt que d’IA – pour mieux refléter la nature des systèmes avec les-
quels nous interagissons. J’aime aussi le terme « compétence artificielle ».
J’avoue simplifier et vous n’aurez probablement pas tort d’affirmer que
« compréhension » n’est peut-être qu’un ensemble de compétences. Il est
évident que le domaine de l’IA est en expansion fulgurante. Nous aurons
des surprises agréables, mais aussi des déceptions et des désagréments.
Les différentes prospectives ont mené nombre de chercheurs à réfléchir
aux dangers des ordinateurs et de leurs extensions robotiques, à faire
une mise en garde dramatique au sujet du développement incontrô-
lable des technologies11. Le mariage entre biologie, nanotechnologie,
technologies de l’information et les masses de données fait peur, et avec
raison. Toutefois, Jean-Gabriel Ganascia invite sagement à « élucider
prudemment les fondements des prédictions catastrophiques avant de
11. Futureoflife.org/misc/open_letter
Instrumentalisation de la science : techno-utopies et techno-catastrophes 205
discuter de leur signification, leur vraisemblance et leurs implications
éthiques et politiques12 ».
Attention à l’offre alléchante de vous transformer en cyborg, mais vous
pouvez peut-être vous aventurer prudemment sur les sites de rencontre
ou forums offrant des partenaires d’IA.
Les discours alarmistes me rappellent les annonces de fin du monde
que je voyais souvent inscrites sur de grands panneaux ou peintes en
permanence sur les parois de fourgonnettes au National Mall à Was-
hington. Ces alertes de désastres imminents sont de tous les temps.
Aujourd’hui, ce sont leurs porte-paroles qui peuvent étonner. C’est le cas
lorsque les Stephen Hawking, les Elon Musk, les Bill Gates de ce monde
nous annoncent des ordinateurs autonomes, qui se passeront de nous
pour agir et domineront le monde à notre insu. On nous dit que cette
évolution est en cours et qu’on se retrouvera dans le trou noir sans nous
en rendre compte, et cela plus rapidement qu’on pourrait l’imaginer.
Jean-Gabriel Ganascia a fait une analyse et une critique en profondeur
de ces attitudes face au mythe de l’IA. « Rien dans l’état actuel des tech-
niques d’intelligence artificielle n’autorise à affirmer que les ordina-
teurs seront bientôt en mesure de se perfectionner indéfiniment sans
le concours des hommes, jusqu’à s’emballer, nous dépasser et acquérir
leur autonomie13. » Utilisant leur prestige, ces sommités font pour le
moins preuve d’imprudence intellectuelle. Sont-ce des pompiers pyro-
manes ? Ganascia les qualifie de « marchands de catastrophes ». Il est
sage de leur opposer une approche d’une gestion de risque éclairée. Par
exemple de considérer des séries d’évènements indépendants, mais en
principe probables, dont l’enchaînement est inattendu, par exemple des
défaillances en cascade comme l’accident de la grande centrale nucléaire
de Fukushima au Japon, lors du tremblement de terre et tsunami de
Tōhoku du 11 mars 201114. Le tsunami a provoqué une vague de dizaines
de mètres d’amplitude, beaucoup plus haute que les 15 m des murs de
12. Jean-Gabriel Ganascia, op. cit., p. 15-16.
13. Jean-Gabriel Ganascia, op. cit., p. 54.
14. Jean-Gabriel Ganascia, op. cit., p. 99.
206 Sur la science qui surprend, éclaire et dérange
protection, et mis hors jeu les systèmes électriques et les unités de refroi-
dissement de trois des réacteurs nucléaires de la centrale. Les risques
d’une chaîne de défaillances sont toujours près de nous. La simulation
par ordinateur peut grandement aider à reconstruire de telles séquences
hypothétiques. Quoiqu’ils soient préoccupants, les risques sont souvent
identifiables et gérables. Une vision globale des infrastructures-clefs
est de mise et les ressources appropriées sont requises. L’intelligence
assistée peut aider grandement à la tâche par sa capacité d’intégrer une
énorme quantité de données sur des systèmes d’infrastructure et leurs
interconnexions.
Sans tomber dans le catastrophisme, on peut quand même se demander
jusqu’où mènera l’IA comme outil d’aide à la décision. Jusqu’où l’humain
se reposera-t-il sur cette aide et est-ce que l’aide deviendra décision-
nelle ? Auquel cas, comme la biologiste Valérie Levée met en garde, ce
n’est pas l’IA qui acquerra son autonomie, mais l’humain qui délaissera
la sienne15. Aussi l’humain doit-il veiller à déterminer la décision de la
latitude décisionnelle qu’il céderait à l’IA.
Les capitalistes sur Mars
À côté du chœur des marchands de catastrophes, il y a les flatteurs
professionnels qui encensent l’entreprise privée (surtout la leur) et pro-
mettent un brillant futur là où l’harmonie régnera. Il est curieux qu’ils
soient parfois les mêmes gens que les prophètes de catastrophes. J’ai traité
du sujet des enjoliveurs instrumentalisant la science pour leurs fins com-
merciales dans Les héritiers de Prométhée16. Il faut peser ces discours, en
prendre et en laisser. Par exemple, j’ai brièvement mentionné le Musée
de la Bible dans le précédent chapitre. Cette entreprise et ses semblables
à motivation religieuse sont des exemples d’instrumentalisation de la
science. Elles se revêtent de la toge « science », c’est-à-dire qu’elles pré-
tendent engager une démarche scientifique alors qu’elles en refusent les
15. Valérie Levée dans un échange par courriel du 13 janvier 2018.
16. Jean-René Roy, Les héritiers de Prométhée. L’influence de la science sur l’humain
et son univers, 2e édition, Les Presses de l’Université Laval, 2017, p. 216-220.
Instrumentalisation de la science : techno-utopies et techno-catastrophes 207
règles fondamentales (test, vérification, prédiction, validation répétée).
On ne fait que singer pour attirer de potentiels disciples, hypnotiser les
convertis et enjôler les sceptiques.
L’histoire nous enseigne depuis le temps des Égyptiens qu’il est commun
pour les gens de pouvoir et les affairistes cherchant à mousser leur auto-
rité ou leur réputation de mettre de l’avant des idées surprenantes et de
proposer des projets sensationnels. À la recherche d’investisseurs, ces
prophètes cherchent à démontrer une vision exceptionnelle, à chanter
qu’ils n’ont pas peur des risques et qu’ils ont des bases financières solides.
Viennent alors l’instrumentalisation et la commercialisation de la science
et son utilisation pour la promotion des affaires. Si le Musée de la Bible
de Washington est une incarnation spectaculaire de cette approche,
d’autres ne se limitent pas au plancher des vaches : les marchands de
l’utopie ont les yeux vers le ciel.
On annonce de grandioses missions vers Mars (un aller seulement pour
les plus téméraires) ou des vols touristiques autour de la Lune dans un
calendrier totalement farfelu. On fait aussi miroiter que toute l’entreprise
se financera d’elle-même. Et ce ne sera pas cher, comparativement aux
dizaines de milliards de dollars estimés par la NASA, l’Agence spa-
tiale européenne et Roscomos pour leurs projets de missions humaines
vers la Lune ou Mars17. Les hommes d’affaires américains Elon Musk
(Tesla, Space X) et Jeff Bezos (Amazon), pour citer deux personnages
bien connus, sont de prime abord intéressés par leurs affaires : vendre
des autos électriques de luxe, amasser des fonds pour produire les meil-
leures batteries électriques du marché et vendre avec le plus grand profit
possible. Ils sont en aéronautique et dans le spatial à titre d’un fascinant
système de lobbyisme pour attirer l’attention des investisseurs et générer
de nouveaux consommateurs pour leurs produits. Le tout tourne souvent
autour d’un culte de personnalité habilement entretenu par ces messies
de la technologie et leurs lobbyistes.
Rappelons que, derrière les discours corporatistes, les entreprises en
aéronautique et en astronautique ont toujours été solidement subven-
tionnées par l’État. Le privé dans l’espace, ce n’est rien de nouveau. Les
17. Roscomos est l’agence spatiale de la Russie.
208 Sur la science qui surprend, éclaire et dérange
Boeing, Lockheed Martin, United Aeronautical Corp., Airbus et autres
ont toujours été partenaires des grandes organisations spatiales comme
la NASA aux États-Unis, l’Agence spatiale européenne, l’Agence spatiale
canadienne, Roscomos en Russie, JAXA au Japon et les autres. Ces par-
tenaires privés reçoivent de gros sous. Mais, sans eux et sans les commu-
nautés de chercheurs universitaires, les grands projets spatiaux comme
Apollo, la Station spatiale internationale, le télescope spatial Hubble, le
James Webb Space Telescope et le manipulateur robotique Canadarm
n’auraient pas eu lieu ou n’existeraient pas.
Nouvelle ère spatiale
Ce qu’il y a de nouveau, c’est que le monopole spatial que les États exer-
çaient jusqu’aux années 1980 n’existe plus. Les fusées, les satellites et les
services de l’industrie spatiale (par exemple, les stations de communi-
cation au sol) qui étaient sous la tutelle des gouvernements dans le passé
sont maintenant possédés et gérés par des compagnies privées. Pour
l’année 2015 seulement, on évaluait les dépenses globales des activités
spatiales pour tous les pays à 323 milliards de dollars américains. Les
dépenses relevant directement des agences gouvernementales consti-
tuaient environ 25 % de ce total. Pour le matériel, le même recensement
annuel dénombrait 576 satellites de propriété américaine en orbite ; de
ce total, 286 étaient pour des usages commerciaux et 12 autres pour
des projets de chercheurs universitaires. L’emprise du privé est devenue
importante et se renforcera18. Si l’ampleur de l’entreprise spatiale dite
privée vous étonne, pensez à toute l’industrie des satellites de commu-
nication, de navigation et de géolocalisation qui occupe la grosse part
du morceau. C’est un exemple saisissant de l’instrumentalisation de la
science pour les affaires. Et les bénéfices sont nombreux.
Cet élargissement de l’entreprise spatiale soulève d’autres défis qui
dépassent la technologie et la science. Nombre de questions légales,
éthiques et politiques associées à l’exploitation des ressources extra-
terrestres surgissent. Pensez à la responsabilité environnementale, à la
18. Bill Canis, « Commercial Space Industry Launches a New Phase », Congressional
Research Services Report, 2016.
Instrumentalisation de la science : techno-utopies et techno-catastrophes 209
sécurité des systèmes et des opérations, aux assurances, à l’implantation
de l’ordre par une police spatiale indépendante, à la propriété du terri-
toire, aux brevets, etc. Les conséquences et les retombées des partenariats
publics-privés sont bénéfiques, mais il faudra surveiller et contrôler la
monopolisation des services qui ne manquera pas d’infester ce nouveau
champ d’affaires. Comme dans toutes les activités humaines, on ne peut
non plus ignorer l’arrivée de magouilleurs et l’insertion du criminel. La
gestion de l’Antarctique nous fournit une référence pour mettre de l’avant
une structure réglementaire intégrée. Le Traité sur l’Antarctique, entré en
vigueur en 1961, a mis en place un cadre réglementaire pour l’occupation
du continent par les différents États signataires et leurs relations, pour
les activités et les recherches qui y sont menées et pour la protection de
l’environnement. L’Outer Space Treaty des Nations unies est en vigueur
depuis 1966, mais les enjeux ont pris une ampleur non prévue depuis
plus de 50 ans. Il faut probablement revoir cet important traité.
Une meilleure coordination de tous les acteurs est essentielle. Seule-
ment aux États-Unis, les programmes spatiaux gouvernementaux se
retrouvent sous plusieurs parapluies : les départements de la Défense,
du Commerce, du Transport et le Département d’État. Il faut travailler
à une meilleure intégration et un assouplissement des lois contrôlant
l’exportation des technologies sensibles pour permettre à l’industrie
de mieux entrer en concurrence sur le plan international et d’établir
des partenariats qui bénéficient à tous les citoyens de toute la planète.
Le besoin de réorganisation s’applique et doit s’étendre à tous les pays,
d’autant plus que plusieurs nouveaux joueurs s’engagent dans le spatial
à mesure que les satellites peuvent être construits plus petits et à coût
relativement modique. Par exemple, avec les nouvelles techniques et
la miniaturisation qui ne cessent de s’améliorer, un satellite peut tenir
dans la main (figure 6.3) ! CubSat est un exemple de satellite miniature
venant sous la forme d’un cube de 10 cm de côté et de masse moindre que
1,33 kg. Ces microsatellites peuvent être déployés à partir de la Station
spatiale internationale, lancés en grappes par fusée. Même un groupe
d’étudiants universitaires peut avoir son engin dans l’espace et bientôt
autour de la Lune.
Mais méfiez-vous de l’offre d’une excursion sur Mars pour 2025, et sur-
tout prenez un billet de retour !
210 Sur la science qui surprend, éclaire et dérange
FIGURE 6.3 Châssis d’un mini-satellite spatial CubSat. Source : University College
London Faculty of Mathematical and Physical Sciences.
Instrumentalisation de la science : techno-utopies et techno-catastrophes 211
Enfin je désire faire une remarque sur la tendance détestable de certains
astronomes, friands de publicité, de faire appel au Deus ex machina. Il
arrive que les astronomes découvrent tout à coup un phénomène inat-
tendu, d’abord difficilement explicable. Au grand plaisir des médias
assoiffés de sensationnel, quelques-uns de mes collègues invoquent
les extraterrestres. Les extraterrestres d’aujourd’hui remplacent les
archanges médiévaux. Même s’ils ne l’annoncent que comme une simple
hypothèse, c’est une interprétation inacceptable de la part de scienti-
fiques puisqu’ils émettent une opinion sans fondement. Faire appel aux
extraterrestres est prendre un raccourci paresseux, incohérent avec la
rigueur scientifique. Voici des exemples récents de phénomènes astro-
nomiques nouveaux où les « petits hommes verts » super-intelligents ont
été invoqués : les pulsars (puissants pulses d’ondes radioélectriques émis
par des étoiles à neutrons en rotation rapide), les masers interstellaires
(source de rayonnement d’émission stimulée apparaissant comme une
raie spectrale anormalement forte), les sursauts radio rapides (sursauts
cosmiques d’ondes radio de durée de quelques millisecondes) et l’étoile
de Taby (une étoile montrant d’étranges fluctuations de brillance). Les
deux premiers exemples sont clairement compris et expliqués ; les deux
derniers sont en voie d’être expliqués par des causes bien connues. Dans
tous ces cas, les appels aux extraterrestres sont futiles. On oublie que la
nature est inventive et qu’une origine physique est la toute première expli-
cation à privilégier. Le principe de parcimonie, ou le rasoir d’Occam, qui
permet de « raser » des explications improbables, est toujours pertinent19.
Diabolisation de la science
Comme je le rappelle dans la postface des Héritiers de Prométhée, les
sociologues jettent un regard éclairant sur les façons dont travaillent les
scientifiques et la manière dont fonctionnent leurs communautés, et sur
ce qui les motive. Les sociologues mettent en lumière les dimensions et
les structures qui lient les sciences au reste de la société et les interactions
19. Le rasoir d’Occam n’est pas un principe irréfutable de logique. Il est un outil qui
guide le scientifique : l’hypothèse la plus simple est la plus vraisemblable et doit
être d’abord privilégiée.
212 Sur la science qui surprend, éclaire et dérange
complexes mises en jeu par les activités scientifiques20. Ils peuvent nous
alerter du fossé qui se creuse entre les connaissances scientifiques et
technologiques et la manière dont le public les comprend ; pensons aux
répercussions de la transgénèse, de l’édition des gènes avec CRISPR-Cas
et de l’intelligence artificielle que j’ai abordés plus haut. Les chercheurs
des sciences sociales peuvent mesurer cette compréhension ou cette
incompréhension et proposer des actions pour réduire cet écart. Les
sociologues informés scientifiquement sont bien placés pour comprendre
les tensions sociopolitiques, telles celles qui agitent les débats autour du
réchauffement planétaire anthropique et les applications de la biologie
moléculaire et de la génomique à la médecine et à l’agriculture21. Dans ces
derniers domaines, l’apport d’éthiciens des sciences est aussi essentiel.
Que ce soit pour comprendre et expliquer la facilité et l’aisance avec
lesquelles les discours frauduleux et racoleurs sont reçus par le commun
des mortels, qui mieux qu’un psychologue ou un sociologue aguerri
peut nous éclairer sur ce qu’il faut bien comprendre, sur les positions à
prendre et les stratégies à adopter ? On ne peut être effectif dans l’ana-
lyse de la science, des savoirs et de l’activité des chercheurs sans avoir
des connaissances au moins élémentaires des sciences et une approche
analytique rigoureuse exempte d’idéologie.
Le dénigrement systématique de la science est une forme d’instrumenta-
lisation de la science. Malheureusement, quelques tenants de la sociologie
s’y prêtent allègrement depuis quelques décennies. La cible est large et les
tireurs opportunistes sont nombreux. Au-delà d’un commentaire général
quelque peu défensif, je présente des cas précis. Je cite des extraits de texte
d’une littérature heureusement assez limitée – des discours douteux tirés
d’un livre récent qui rassemble des textes courts, certains informatifs et
intéressants, au milieu d’autres qui colportent des clichés décevants22.
20. Yves Gingras, 2013, op. cit.
21. Dominique Pestre, « Les sciences ne sont pas les seuls savoirs décisifs dans les
débats publics », La Recherche, avril 2013, p. 74-76.
22. Lionel Larqué et Dominique Pestre (dir.), Les sciences ça nous regarde. Histoires
surprenantes de nos rapports aux sciences et aux techniques, La Découverte, 2013.
Instrumentalisation de la science : techno-utopies et techno-catastrophes 213
Ces communautés scientifiques, donc, ne sais-tu pas qu’elles ont his-
toriquement construit la fable de l’indiscutabilité de la science et le
mythe de l’illégitimité des savoirs n’émanant pas d’elle ? Elles ont
construit ces arguments pour s’arroger l’exclusivité de la rationalité
et de la modernité. […] Les acteurs de la science sont à double titre
les grands responsables des trajectoires que nous constatons. Au-delà
de leurs apports de connaissances scientifiques, ils ont construit le
système de légitimation de ces trajectoires ; ceci au bénéfice et en ren-
forcement des puissances établies, ce qui, en bon français, s’appelle une
idéologie – en l’occurrence, le scientisme et le technocratisme. (Rémi
Barré, Qu’est-ce que l’idéaliste et le réaliste ont à se dire ?, p. 251-255)
Je cite ce long fragment d’un discours à l’emporte-pièce, iconoclaste
et émotif, le tout dissimulé à travers un échange imaginaire entre un
personnage idéaliste et l’autre réaliste, où l’auteur se campe en réaliste.
Un exemple d’attaque frontale dont le fondement idéologique n’est pas
caché. On aurait beaucoup à rétorquer à une telle diatribe, car elle a
son audience, quoique certainement pas dans le milieu scientifique que
l’auteur lapide à renfort de « –ismes ».
L’histoire populaire nous apprend ainsi que la science est aujourd’hui
l’une des principales forces politiques qui gouvernent le monde.
(G. Carnino, Les sciences sont-elles une affaire de génie, p. 33-36)
Moins tonitruant que le précédent, cet auteur met bien l’accent sur la
science. La quasi-omnipuissance de la science est réaffirmée : assertion
englobante qui termine une analyse facile tentant de montrer que la
science est œuvre collective, où les artisans ont joué un rôle important,
mais dont une élite aurait usurpé sans gêne les connaissances en igno-
rant les contributions des artisans en question. L’histoire des sciences
ne retiendrait que les grands noms, ce qui est en partie vrai. Mais est-ce
différent des autres domaines de connaissance ?
Alors que bien des entreprises humaines utilisent les savoirs scientifiques,
cela ne veut pas dire que la science soit une force politique qui gouverne,
loin de là. Les seuls partis politiques qui prônent un contenu scientifique
important sont souvent des partis marginaux dont les programmes ont
une dimension de protection environnementale et de plus grande équité
socioéconomique. La frilosité des gouvernements face aux constats scien-
tifiques quant à l’impact humain sur la biodiversité, l’environnement et
214 Sur la science qui surprend, éclaire et dérange
le réchauffement planétaire montre bien que la science est loin d’être
une force politique déterminante. Dans plusieurs pays, des politiciens
sensibles aux fondamentalismes religieux et au créationnisme tiennent
les rênes du pouvoir. C’est plutôt l’antiscience ou les pseudosciences qui
sont des forces politiques gouvernant le monde.
À l’époque de Bernard, on ne se souciait pas d’éthique. La morale
utilitariste l’emportait sur toute autre considération. (Jean-Yves Bory,
La vivisection peut-elle laisser de marbre ?, p. 175-177)
Ce court essai fait allusion aux méthodes et aux attitudes des expérimen-
tateurs du xixe siècle sur la douleur infligée aux animaux dans des expé-
riences de vivisection. Le médecin physiologiste français Claude Bernard
(1813-1878) fut avec Louis Pasteur (1822-1895) un des fondateurs de la
biologie moderne. Comme aujourd’hui, un de leurs outils de recherche
était l’expérimentation animale, une technique qui remonte à l’Antiquité.
Le médecin grec Claude Galien (129-vers 216) utilisait la vivisection
de porcs, de macaques, de serpents et d’autres animaux sauvages pour
explorer les fonctions de nerfs, de la moelle épinière et du nerf optique23.
Il est quelque peu étonnant qu’un sociologue qui suit une démarche
historique pour explorer les rapports hommes-animaux tombe dans le
piège de juger le passé par la lunette des référentiels actuels. Ne serait-il
pas plus approprié et prudent de supposer que les référentiels éthiques
de Bernard et de Galien étaient différents des nôtres, comme ceux des
sociétés futures du 4e millénaire seront aussi différents de ceux que nous
prônons actuellement ? Ce cas simple met en lumière une perspective
déformante qui juge des scientifiques dans des situations reflétant leurs
sociétés respectives avec le regard d’aujourd’hui.
Et puis, qu’est-ce que la morale utilitariste ? N’y a-t-il pas quelque chose
d’aussi variable à travers l’histoire de l’humanité ? Une célèbre encyclo-
pédie culinaire québécoise qui offre une recette d’écureuil au vin blanc.
Un menu japonais propose une potée au raton laveur. Sont-ce des preuves
de morale utilitariste ?
23. Guido Majno, The Healing Hand, Man and Wound in the Ancient World, Harvard
University Press, 1975, 405-409.
Instrumentalisation de la science : techno-utopies et techno-catastrophes 215
Ce ne sont que quelques extraits d’un collectif dont la lecture est somme
toute intéressante. Ce qui frappe à la lecture de tels écrits, c’est qu’on ne
cite jamais les scientifiques eux-mêmes ni ne mentionne un effort de
les avoir rencontrés ou interviewés. Mutisme total, comme si les scien-
tifiques étaient des momies ou d’étranges animaux mis en cage avec
lesquels il est impossible de communiquer, mais qu’on imagine décrire
savamment derrière des barreaux virtuels.
Des gourous à la participation citoyenne
Un des auteurs souvent cités dans le collectif (et dans plusieurs autres
essais de sociologie des sciences) est le sociologue français Bruno Latour,
qui a mené une carrière passablement effervescente à critiquer et à vili-
pender la science et les communautés de chercheurs. J’avais lu avec plaisir
son premier livre de 1979, une étude anthropologique basée sur un séjour
au laboratoire de neuroendocrinologie du professeur Roger Guillemin
de l’Institut Salk de Californie. Rédigé avec le sociologue britannique
Steve Wolgard, le livre Laboratory Life : The Construction of Scientific
Facts m’avait paru fort éclairant24. Latour s’est fait connaître comme
un relativiste modéré prônant que les « faits » sont construits par les
communautés scientifiques et qu’on ne peut pas distinguer les éléments
techniques et sociaux de la science, analyse que nombre de scientifiques
acceptent en partie.
Le flamboyant Latour écrit avec éloquence. Son approche iconoclaste a
contribué à nourrir ce qu’on a appelé les science wars, un rejet de l’objec-
tivité et de la méthode scientifique. Son but bien affirmé : déboulonner la
science de son présumé piédestal d’autorité. Les débordements et dérives
de sociologues foulant ses traces et endossant cette approche radicale ont
malheureusement rendu plusieurs de mes collègues scientifiques profon-
dément cyniques et acerbes par rapport à la sociologie. La plupart des
scientifiques ne tiennent pas compte de ces débats qu’ils jugent byzantins,
voire enfantins. D’aucuns sont d’opinion que Latour et ses apôtres sont
en partie responsables de la motivation et des arguments des promoteurs
24. Bruno Latour et Steve Wolgard, La vie de laboratoire : la production des faits
scientifiques, La Découverte, 1988.
216 Sur la science qui surprend, éclaire et dérange
des mouvements antiscience. Ils auraient alimenté la discréditation de
l’approche scientifique et le déni des savoirs scientifiques pour fourbir
les rhétoriques des politiciens de droite et des fondamentalistes religieux.
Rejetant le processus scientifique, ces derniers tiennent aujourd’hui le
haut du pavé. Il y a des conséquences à être pyromane. Cela dit, Latour
n’est pas responsable de l’élection de Donald Trump à la présidence des
États-Unis, pas plus que des autres politiciens obscurantistes élus dans
divers pays. Il est d’ailleurs essentiel d’avoir des intellectuels dérangeants
comme Bruno Latour. Il importe que les disciples ne s’égarent pas trop
dans les tempêtes de sable qu’il soulève.
Dans une entrevue récente à la revue américaine Science, Latour a
reconnu son rôle dans les mouvements antiscience et fait amende hono-
rable. « Je n’étais certainement pas antiscience, quoique j’admets m’être
senti satisfait d’avoir dénigré un peu les scientifiques. Il y avait un peu
d’enthousiasme juvénile dans mon style25. » Latour réaffirme que, dans
des grands enjeux de société, la science et la technologie ne peuvent
pas être isolées du politique. « Dans les enjeux ayant des implications
politiques majeures, vous ne pouvez pas produire de données sans biais.
Cela ne signifie pas que vous ne pouvez pas générer de la bonne science,
mais les scientifiques doivent énoncer explicitement leurs intérêts, leurs
valeurs et quel type de preuve leur fera changer d’opinion. »
Le nouveau Latour prône un regain d’autorité pour la science, tout le
contraire de ce que promouvaient les science studies, nom donné en
anglais aux études venues des sciences sociales dont l’objet d’analyse est la
science et son domaine de compétence. Il est temps de redonner le respect
et l’autorité aux sciences, dit-il, mais en acceptant qu’une controverse
rationnelle est saine, car l’incertitude, ou plutôt l’indétermination statis-
tique, est fondamentale dans nos mesures des phénomènes. Notre éva-
luation du réchauffement global et de ses impacts est un fouillis, dit-il26.
25. Jop de Vrize, « Bruno Latour, a veteran of the “science wars”, has new mission »,
Science, 10 octobre 2017.
26. Latour utilise l’expression messy. Il est grandement exagéré, voire malhonnête, de
qualifier les fondements scientifiques du réchauffement global et l’évaluation de
ces impacts de « fouillis ». Un spécialiste peut comprendre, mais le grand public
prend au pied de la lettre une telle qualification incorrecte.
Instrumentalisation de la science : techno-utopies et techno-catastrophes 217
Ce n’est pas une raison, poursuit-il, pour arrêter les recherches et encore
pour remettre à plus tard des mesures d’atténuation et de ralentissement
d’activités humaines considérées à risque par nos meilleures études.
Maintenant retraité, Latour est déterminé à travailler pour reconstruire
la confiance envers la science. Quel retournement d’attitude ! Est-il peut-
être sage de considérer deux Latour, dont il faut entendre les propos, si
dérangeants soient-ils ?
Je me répète et j’insiste : le rôle de la sociologie des sciences est essentiel et
son apport est des plus précieux. Je ne mets donc pas tous les courants de
pensée sociologique dans le même sac. À retenir : l’instrumentalisation
de la science peut se retourner contre ses auteurs. Les conséquences des
discours antiscience sont souvent indésirables et entachent tous ceux et
celles qui travaillent à mieux comprendre le monde.
Pour terminer, je propose quelques commentaires sur la « participation
citoyenne » dans les questions soulevant des enjeux scientifiques. Les
courants de participation citoyenne sont essentiels pour la démocratie.
Ils comportent néanmoins des risques de dérive. L’opinion de quiconque
sur des sujets complexes doit être entendue et prise en compte, ce qui
ne va pas sans conséquences sociopolitiques. Cette approche pose deux
problèmes : 1. Lorsque des décisions stratégiques doivent être prises, il
n’est pas vrai que tous doivent avoir un poids égal. Quand un citoyen
donne un avis étayé sur sa seule perception et non sur la science et qu’on
considère cet avis comme un savoir, on confond malheureusement, et
parfois dangereusement, savoir et opinion ou croyance. Comme passager
d’un avion, vous ne vous attendez pas à ce qu’on consulte l’ensemble des
passagers et qu’on choisisse un quelconque passager pour entrer dans le
cockpit et piloter votre vol. Vous acceptez le rôle de l’expert sans poser
de question. 2. Jusqu’où faut-il obtenir l’acceptabilité sociale ? Dans un
monde de « faits alternatifs » qui sont des mensonges, on assiste à des
campagnes attaquant les savoirs établis et à l’éjection des experts au nom
du rejet de l’élitisme. Certains visent simplement la mise au rancart de
l’expertise27. Dans les faits, c’est une attaque contre la connaissance et le
27. Tom Nicholls, The Death of Expertise, The Campaign against Established Know-
ledge and Why it Matters, Oxford University Press, 2017.
218 Sur la science qui surprend, éclaire et dérange
savoir. Avec l’aide des médias sociaux, de nouveaux « gardes rouges » et
des Lysenko déguisés entrent en scène et tentent de saboter les institu-
tions démocratiques. C’est ce que le sociologue français Gérald Bronner
appelle la « démocratie des crédules », d’où on évacue jugement critique
et savoir.
Socrate nous a mis en garde contre les charlatans des pseudosciences
et les illusions qu’ils propagent habilement : « Lorsqu’en effet ils auront
réussi sans enseignement à se pourvoir d’une information abondante, ils
se croiront compétents en une quantité de choses alors qu’ils sont, dans
la plupart, incompétents : insupportables en outre dans leur commerce,
parce que, au lieu d’être savants, c’est savants d’illusion qu’ils seront
devenus ! 28 » Ce jugement sévère a été prononcé il y a près de 24 siècles.
Le philosophe grec Platon en est l’auteur rapporteur. On retrouve l’aver-
tissement à la fin du discours de Socrate à propos mythe de Theuth, le
dieu égyptien qui inventa l’écriture, le nombre et le calcul, la géométrie
et l’astronomie. La mise en garde socratique demeure aujourd’hui fort
appropriée. Prenez donc garde aux « Bonhommes Sept-Heures », aux
croque-mitaines utopistes ou autres flatteurs.
Ces considérations nous amènent naturellement à un sujet complexe,
celui de l’application des connaissances scientifiques et des enjeux
éthiques qu’elles soulèvent.
28. Platon, Phèdre. Œuvres complètes de Platon, NRF Bibliothèque de la Pléiade,
1950, p. 75.
7
La science qui aide
CRISPR-Cas9, tout comme d’autres méthodes
de génie génomique, peut être utilisé pour
modifier l’ADN des noyaux de cellules
reproductives qui transmettent l’information
d’une génération à la suivante.
David Baltimore et collab.1
La science explique le monde ; ce faisant, elle donne des outils pour le
modifier. La synergie entre connaissance scientifique et applications est
très ancienne. On retrouve des retombées des savoirs scientifiques dans
tous les domaines de l’activité humaine : la musique, la cuisine, l’arpen-
tage, l’agriculture, la construction, les moyens de transport, l’exploita-
tion des ressources naturelles, la production et le transport de l’énergie,
l’acquisition et la diffusion de l’information, les archives de toutes sortes,
la médecine sous toutes ses facettes, le marché boursier, l’armement, etc.
La liste est presque sans fin. Même s’ils ne sont pas l’objectif primaire
de la science, les applications découlant de la recherche ont des retom-
bées surprenantes et imprévues. L’étude du vide et la compréhension du
poids de l’air permirent à Evangelista Torricelli d’optimiser la pompe
hydraulique au xviie siècle (chapitre 1). Comprendre un problème de
1. David Baltimore et collab., « A prudent path forward for genomic engineering
and germline gene modification », Science, 2015, vol. 348, p. 36-38.
220 Sur la science qui surprend, éclaire et dérange
production de yogourt a mené au formidable outil d’édition des gènes
qu’est CRISPR-Cas9 (chapitre 4 et plus loin dans ce chapitre).
La recherche scientifique appliquée est motivée par l’incessante curio-
sité humaine à intervenir sur l’univers et ce qui nous entoure, et par
notre habileté à en décortiquer les mécanismes et à les réaménager pour
notre bien-être et notre survie. Le profit financier est aussi recherché,
tout comme la suprématie militaire. Puisque la recherche appliquée est
importante dans nos sociétés, elle est soutenue par les gouvernements
et l’industrie privée. Ainsi, la majeure partie des efforts en recherche
appliquée sont faits en entreprise privée et dans les laboratoires d’ins-
titutions gouvernementales. Les universités y contribuent en explorant
les problèmes plus ardus ou en participant à des projets plus risqués
ou exigeant un travail à long terme. Dans les sociétés développées, la
recherche appliquée engage des mises de fonds jusqu’à six à dix fois ceux
qui sont destinés à la recherche fondamentale2.
Les sciences sociales sont de plus en plus soutenues par l’industrie, car il y
a un profit financier à faire. Facebook, Google et les nouvelles entreprises
de même nature engagent des psychologues et des sociologues pour
étudier les consommateurs et leurs habitudes. Les sciences sociales sont
encore néanmoins le plus souvent occultées par les sciences naturelles
et le génie et celles-ci par les sciences de la santé, comme si ces dernières
pouvaient résoudre tous les problèmes. Cependant les sciences sociales
peuvent agir en amont des problèmes, dans le domaine crucial de la
santé par exemple. Mieux vaut prévenir que guérir, mais, pour l’industrie
pharmaceutique, mieux vaut guérir que prévenir.
Malgré les désirs et les rêves des politiciens, il est illusoire d’imaginer
les tablettes des laboratoires universitaires débordantes de trésors de
connaissance et de résultats attendant d’être collectés par le premier
venu pour devenir quasi instantanément un produit magique à l’hô-
pital, à l’usine ou sur tout autre marché. Il est vrai que certaines applica-
tions découlent rapidement de découvertes scientifiques. Des exemples
frappants furent l’implantation de l’imagerie par rayons X seulement
2. Jeffrey Mervis, « Data check : U.S. government share of basic research funding
falls below 50 % », Science, 9 mars 2017.
La science qui aide 221
quelques années après leur découverte par Wilhelm Röntgen en 1895, ou
la fabrication de bombes à fission nucléaire six ans après la découverte
du phénomène nucléaire par le trio de physiciens allemands, Otto Hahn,
Lise Meitner et Fritz Strassmann, en 1939 (chapitres 1 et 3). Le plus sou-
vent, une démarche complexe et de longues étapes parsemées d’embûches
marquent le temps entre l’acquisition d’une nouvelle connaissance scien-
tifique, l’établissement de ce savoir et une retombée pratique.
Parmi de multiples exemples possibles pour illustrer ce propos, j’en
choisis deux relativement récents. Ils se distinguent par le fait que le
premier (le laser) est caractérisé par une période de plusieurs décennies
séparant la découverte initiale de son application, et le second (CRIS-
PR-Cas) où moins d’une décennie sépare les deux moments, celui de la
découverte et celui de l’application. Les recherches et les développements
qui aboutirent au laser et au CRISPR-Cas engagèrent un grand nombre
d’acteurs et les avancées se déroulèrent plus au moins simultanément
dans plusieurs institutions et des pays différents. Ces chevauchements et
efforts parallèles embrouillent les questions de priorité (qui a découvert
quoi ou inventé quoi le premier/la première ?). Étant donné l’importance
des retombées commerciales, ce flou donne lieu à des conflits parfois
acrimonieux quand vient le temps de breveter un concept ou de faire
la mise en marché des produits dérivés de ces nouvelles connaissances.
Tant le laser que CRISPR-Cas illustrent cette dynamique sociologique.
Revoyons leurs histoires respectives.
Du photon au laser
Prenons d’abord l’exemple du laser, l’acronyme familier de light ampli-
fication by stimulated emission of radiation. L’appareil qu’on emploie
pour mettre en œuvre le phénomène d’émission induite de lumière est
un outil optique tellement présent et d’usage si universel dans la vie de
tous les jours que nous oublions à la fois ses extraordinaires propriétés
et son étonnante histoire. Le laser peut être miniaturisé au point où l’on
aurait de la difficulté à le voir, et les plus gros systèmes peuvent atteindre
la taille d’un autobus. Le processus physique donnant lieu à de la lumière
« laser » est toujours le même, l’émission stimulée.
222 Sur la science qui surprend, éclaire et dérange
Commençons par quelques éléments de physique atomique. La lumière
est généralement émise lorsque les électrons des différentes orbitales
d’un atome ou d’une molécule passent d’un niveau supérieur à un niveau
inférieur ; cela peut se produire spontanément ou être déclenché par la
collision de l’atome avec un électron ou une autre particule du milieu
ambiant. Ce processus est à la source de notre éclairage, par exemple
lorsque vous allumez vos lampes à la maison, que ce soient les fluores-
cents, les diodes ou les diodes électroluminescentes (les DEL, ou, selon
l’acronyme anglais, les LED). La lumière émise par ces sources est tou-
jours de nature « spontanée » ; elle n’est pas cohérente et se diffuse dans
toutes les directions. La lumière laser est très différente ; voyons pourquoi.
La lumière « laser » provient de la désexcitation d’un électron à partir
d’un niveau supérieur de l’atome, à la suite de l’illumination de l’atome
par de la lumière ayant exactement les mêmes propriétés. On pourrait
dire que c’est de la lumière clonée. Toute lumière ou tout photon ainsi
émis a l’énergie qui correspond à la différence d’énergie entre les deux
niveaux atomiques. Dans un laser, un photon incident d’énergie corres-
pondant exactement à cette différence fait basculer l’électron du niveau
supérieur au niveau inférieur ; se produit ainsi un photon absolument
identique au photon incident. On parle d’émission stimulée (ou induite)
par opposition à une émission qui se produit au hasard, soit spontané-
ment. Une analogie sonore simple permet de saisir le concept d’émission
stimulée : c’est l’art très ancien de faire chanter les verres en cristal. Un
manipulateur habile produit des sons harmonieux en frottant du doigt
le pourtour mouillé d’une coupe de cristal de qualité ; le diamètre du
verre et le niveau de liquide dans celui-ci déterminent la tonalité émise.
Lorsqu’il y a plusieurs verres, les autres verres se mettent aussi à chanter :
ils entrent en résonance par « sonorisation stimulée » issue de la vibration
du cristal des autres verres. Mais là s’arrête l’analogie.
Étonnamment, le tout a démarré dans le cerveau de quelqu’un que l’on
connaît bien, Albert Einstein (1879-1955). Oui, encore lui ! Il décrivit le
principe de l’émission stimulée dans un article de 19173. Einstein fut tou-
3. A. Einstein, « Zur Quantentheorie der Strahlung » (La théorie quantique du
rayonnement), Physikalische Zeitschrift, 1917, vol. 18, p. 121. C’est un article fort
La science qui aide 223
jours fasciné par les interactions entre lumière et matière. Rappelons que
c’est lui qui avait mis de l’avant le concept de photon, comme particule
indivisible de la lumière, pour expliquer l’effet photoélectrique douze
années plus tôt, en 19054. La nouvelle idée d’Einstein, celle d’émission
stimulée, était contre-intuitive. Elle impliquait que la lumière se pro-
pageant dans un matériau pouvait induire plus de lumière, une sorte
d’amplification de l’intensité lumineuse, ou de réaction en chaîne de
photons produisant d’autres photons identiques5. Il y avait encore plus ;
cette lumière induite revêtait d’extraordinaires qualités.
Il fallut attendre une trentaine d’années, soit les années 1940 et 1950,
pour qu’on invente et mette au point un prototype de laser qui concréti-
sait le concept d’émission stimulée proposé par Einstein. La clef était de
trouver la bonne sorte d’atomes excitables et de créer la cavité résonante
appropriée pour mettre en branle la création de photons « clonés ». Atten-
tion, Einstein n’a pas prédit le laser comme tel. Mais son extraordinaire
intuition physique l’avait amené très rapidement au concept d’émission
stimulée de lumière, fondamental au laser.
La qualité unique et extraordinaire de la lumière laser provient du fait
que le photon émis possède non seulement exactement la même fré-
quence, mais aussi la même phase, polarisation et direction que celles
du photon incident. Le mot « laser » décrit ce type de lumière et aussi
l’appareil qu’on utilise pour la générer. L’invention laser fut de mettre en
œuvre ce phénomène de lumière stimulée dans un montage optique. Les
chercheurs l’accomplirent à l’aide d’un « résonateur » de lumière ; ce der-
nier est formé d’une cavité optique ayant un miroir à chaque extrémité
qu’on entoure d’un système de pompage lumineux. Le pompage sert à
amener les électrons d’un matériau choisi au niveau excité pour qu’ils
bien écrit qu’un étudiant en physique de premier cycle universitaire peut lire avec
grand plaisir.
4. Dans l’effet photoélectrique, le photon produit l’éjection d’un électron de l’atome
d’un métal ou d’un semi-conducteur.
5. L’effet laser implique une réaction en chaîne de photons, mais, contrairement à
la fission nucléaire, il n’y a pas d’énergie nouvelle générée. Il faut pomper conti-
nuellement de l’énergie dans le milieu excitable pour maintenir l’effet laser.
224 Sur la science qui surprend, éclaire et dérange
puissent cascader au niveau inférieur, lorsqu’ils sont éclairés par des
photons de même fréquence (figure 7.1).
FIGURE 7.1 Schéma simplifié du laser montrant le milieu optique excitable (1),
l’énergie lumineuse de pompage incidente (2), le miroir totalement réfléchissant (3),
le miroir partiellement réfléchissant (4) et le faisceau de lumière laser émergeant (5).
Le milieu excitable peut être un gaz (hélium ou rubidium) ou un solide (cristal de rubis
ou de grenat). Source : Wikipedia Creative Commons/Tatoute.
Après la Deuxième Guerre mondiale, le physicien américain Charles
Townes (1915-2015), spécialiste du radar et de la spectroscopie des molé-
cules, utilisa les micro-ondes du domaine des ondes radioélectriques
pour étudier les molécules. Il travaillait avec de l’émission stimulée
employant ces micro-ondes ; on parlait d’effet « maser », m pour micro-
wave ou micro-onde. Townes suggéra que la technique d’amplification
serait plus effective avec des longueurs d’onde plus courtes, celles de
la lumière infrarouge ou visible. Avec son collègue physicien Arthur
Schawlow (1921-1999), il proposa en 1958 l’emploi d’une cavité résonante
avec miroirs décrite à la figure 7.16. Les deux chercheurs reçurent un
6. A. Schawlow et C. Townes, « Infrared and Optical Masers », Physical Review,
1958, p. 703.
La science qui aide 225
brevet pour leur concept en 19607. La même année, le physicien ingé-
nieur Theodore Maiman (1927-2007) de la Hughes Aircraft Company
construisit le premier laser utilisant un cristal de rubis comme milieu
excitable, cette fois en utilisant de la lumière et non pas des micro-ondes.
Maiman utilisait les flashs d’une lampe d’appareil photographique pour
le pompage optique. Ce fut le premier laser. En 1961, le physicien iranien
Ali Javan (1926-2016) faisait fonctionner un laser à gaz employant le néon
et l’hélium comme milieu excitable.
Aujourd’hui le laser est omniprésent. L’émission stimulée proposée par
Einstein il y a plus de 100 ans et son application laser-maser développée
il y a 60 ans sont devenues le fondement d’une industrie de plusieurs
milliards de dollars. On utilise le laser pour la communication optique
(il est essentiel pour les réseaux de fibres optiques), pour le lecteur
optique des appareils lecteurs de CD et de DVD et les divers appareils
à la base du gigantesque commerce de systèmes de lecture par code à
barres. L’avantage : vitesse et capacité de lire de grandes quantités de
données. On utilise aussi le laser infrarouge comme outil d’usinage pour
percer les diamants, pour couper le métal et d’autres matériaux avec
haute précision. Le laser est devenu un instrument de choix en chirurgie,
en particulier en ophtalmologie. On efface les tatouages indésirables au
laser. Les avantages du micro-usinage laser sont importants : précision,
zéro contact et faible degré d’usure de l’outillage. Les astronomes ont
trouvé une étonnante application : ils utilisent des faisceaux de lumière
laser syntonisés à la longueur d’onde émise par le sodium afin de créer
de petites constellations d’étoiles artificielles dans la haute atmosphère.
On mesure les images de ces « étoiles » artificielles pour corriger en
temps réel la déformation sur la lumière des astres produite par la tur-
bulence de l’air de notre atmosphère. Enfin, le laser est aussi un outil
de recherche de premier ordre. On l’emploie pour générer et étudier
des pulses de lumière extrêmement brefs ou pour produire des ondes
de choc à l’intérieur de matériaux par irradiation laser impulsionnelle.
7. Charles Townes et les physiciens russes Nikolai Basov et Alexander Prokhorov,
pionniers de l’optique électronique, partagèrent le Prix Nobel de Physique de
1964. Ils reçurent cette reconnaissance pour avoir adapté et appliqué la théorie
d’Einstein aux longueurs d’onde visibles.
226 Sur la science qui surprend, éclaire et dérange
Il s’est écoulé près de quarante ans entre la découverte scientifique et son
application à grande échelle. Les premières étapes étaient motivées entiè-
rement par le désir de mieux comprendre le phénomène de l’émission
stimulée ou comme outil d’investigation des propriétés des molécules
ou des matériaux. La question vous démange, le laser aurait-il pu être
inventé plus tôt ? Deux facteurs sont à la base des efforts pour tenter de
réaliser des applications scientifiques : la disponibilité des technologies
pour l’application désirée et le besoin de cette nouvelle technologie.
Par exemple, dans le cas de la bombe atomique, qui fut une application
directe de la fission nucléaire, le besoin naissait de l’urgence créée par
l’imminence que les nazis pouvaient être en avance dans la fabrica-
tion d’une bombe à fission nucléaire. Le projet Manhattan, pendant
la Seconde Guerre mondiale, mit en œuvre les études et les travaux
gigantesques pour comprendre et créer la technologie pour séparer l’ura-
nium-235 fissile de l’isotope dominant non fissile, l’uranium-238. Il
fallut développer plusieurs technologies nécessaires pour avoir un engin
nucléaire explosif capable d’exploser sur commande. Sans le conflit, la
bombe atomique aurait probablement aussi été construite et testée, mais
possiblement avec un délai plus long. La guerre froide en est devenue le
moteur, et fut le stimulus pour le développement de la bombe H, ou à
fusion thermonucléaire, dans les années 1950.
Pour mieux saisir le cheminement d’un concept à un produit, revoyons
l’histoire d’un objet familier. La bicyclette est d’invention relativement
récente. Les technologies appropriées devinrent disponibles pour réaliser
un vélo pratique au courant du xixe siècle. La draisienne du baron alle-
mand Karl von Drais fut, en 1817, la première bicyclette connue. Suivit le
vélocipède, avec des pédales sur une grande roue avant. Mais il fallut un
temps pour que la bicyclette devienne un objet d’usage commun et facile.
Ce qui manquait, c’étaient des sentiers appropriés, des routes aplanies
et sécuritaires. Ces conditions s’agencèrent au cours du xixe siècle. En
même temps qu’on construisait et réorganisait les systèmes d’aqueduc
des grandes villes, on s’affairait à refaire des rues avec des chaussées
uniformes et plus douces. Aussi important, un acier de bonne qualité
devint disponible, permettant de fabriquer des roues légères et robustes
ainsi que des roulements à billes résistants. L’arrivée des pneumatiques
donna l’envol déterminant.
La science qui aide 227
Y a-t-il eu une telle séquence pour le laser ? Oui, et ce ne fut pas simple.
Comment stimuler un matériau avec de la lumière et montrer qu’Eins-
tein, encore une fois, avait raison ? Le système maser créé en 1953 par
Townes et son équipe ne pouvait fonctionner de manière continue pen-
dant une durée suffisamment longue. Un pas important fut franchi au
début des années 1950 lorsque le physicien français Alfred Kastler (1902-
1984), Prix Nobel de physique de 1966, proposa une méthode efficace de
pompage optique pour faire passer les électrons d’un niveau atomique à
un niveau supérieur à l’aide de la lumière. Il fallut aussi du temps pour
identifier les matériaux les plus susceptibles d’être « lasés ». Plusieurs
physiciens, dont Basov, et Prokhorov, Maiman et Javan mentionnés
ci-dessus, réglèrent ce problème en mettant au point un matériau dopé,
c’est-à-dire dans la matrice des atomes où l’on introduit des atomes d’un
autre matériau. Ces « impuretés » atomiques modifient les propriétés
optiques ; elles rendent le milieu optiquement excitable, donc propre au
pompage optique selon le principe mis de l’avant par Kastler.
Mais les embûches furent nombreuses. On douta initialement de la faisa-
bilité et de la demande pour cette étrange lumière. Certains affirmèrent
que l’effort de mettre en œuvre un laser ne valait pas la peine, car on
ne voyait pas « à quoi ça servirait ». Comme dans bien des instances,
l’invention et sa mise en œuvre furent le fruit des travaux de plusieurs
intervenants. Les billes tombèrent dans les bonnes cases dans les années
1960. D’abord un instrument de laboratoire utile qui se répandit len-
tement, mais sûrement, le laser mit assez peu de temps pour sortir de
ces murs. En résumé, la route fut complexe et les historiens débattent
toujours pour savoir à qui attribuer l’invention du laser. Entre 1964 et
2009, dix prix Nobel furent adjugés à des chercheurs qui ont travaillé
dans le domaine des lasers et le développement d’applications.
L’édition génétique et les cochons CRISPRisés
Allez-vous manger du bacon CRISPR ?
CRISPR-Cas9 est une technique toute récente d’édition des gènes dont
le développement, toujours en cours, est fulgurant. J’en ai parlé au cha-
pitre 4 avec son utilisation pour neutraliser les rétrovirus du porc, afin
228 Sur la science qui surprend, éclaire et dérange
de permettre les xéno-transplantations d’organes de l’animal chez l’hu-
main. Avec CRISPR-Cas9, on modifie directement les gènes d’un orga-
nisme, contrairement à l’ADN recombinant où l’on modifie le gène d’un
organisme en introduisant un bout d’ADN d’un autre organisme. Avec
CRISPR-Cas9, on change ou l’on ajoute par exemple une paire de bases
AT pour une paire GC dans leur séquence ADN (figure 1.9), ou on éli-
mine sélectivement une ou l’autre de ces bases8. On peut aussi introduire
un gène du même organisme pour en avoir une copie supplémentaire et
en augmenter l’expression, ou introduire une version mutée d’un gène
du même organisme. On fait souvent l’analogie avec l’édition de texte,
où l’on remplace la lettre d’un mot par une autre ; par exemple, « bain »
devient « pain » ou « main ». On n’importe pas tout un paragraphe d’un
autre texte écrit dans une autre langue, qui serait l’analogie pour l’ADN
recombinant. La différence est que CRISPR-Cas9 agit directement sur
le gène d’intérêt dans le génome, alors que la transgénèse introduit le
nouveau gène sans toucher au gène endogène et l’on ne contrôle pas le
site d’insertion du transgène. La technique CRISPR-Cas9 est très récente ;
j’en fais un bref rappel historique9.
Lorsque vous dégustez votre yogourt du matin, il est peu probable que
vous vous interrogiez sur l’origine de cette merveilleuse concoction
du génie humain mésopotamien qui l’inventa il y a sept mille ans. Il
est simple de fabriquer du yogourt. Sous une chaleur bien contrôlée, la
bactérie Streptococcus thermophilus et le Lactobacillus transforment le
lactose du lait en acide lactique, qui fige le lait. Lorsqu’une des deux bac-
téries est détruite, il n’y a pas de yogourt, en tout cas, pas de bon yogourt !
Comme tout organisme vivant, les cultures bactériennes de yogourt
sont sujettes aux infections. Des virus, appelés bactériophages, peuvent
attaquer S. thermophilus et gâcher la culture de yogourt. En 2007, des
chercheurs de la compagnie Danisco au Danemark, en collaboration avec
le microbiologiste québécois Sylvain Moineau (Université Laval), travail-
laient à comprendre et à protéger les cultures de yogourt des infections
8. Je rappelle que A (adénine), C (cytosine), G (guanine) et T (thymine) sont les
lettres identifiant les quatre bases azotées (figures 1.9 et 4.4). Ces nucléobases
s’apparient selon des règles strictes pour former l’ADN.
9. J’emprunte de mon texte dans Les héritiers de Prométhée (2e édition) 2017, p. 213-
215.
La science qui aide 229
virales (figure 7.2). Leur curiosité fut éveillée par l’observation d’un
modèle répétitif très régulier de l’ADN de S. thermophilus. On nomma
CRISPR ce modèle répétitif d’ADN. La structure CRISPR, ainsi que
diverses protéines appelées Cas (pour CRISPR-associated), agit comme
un système immunitaire contre les virus, une sorte de barrière molécu-
laire pour bloquer l’intrus avec précision et efficacité. Le nom CRISPR
vient de clustered regularly interspaced short palindromic repeats. Cette
structure d’ADN avait été reconnue dès 1987 par le biologiste moléculaire
japonais Yoshizumi Ishino et, en 1993, par le microbiologiste espagnol
Francisco Mojica. Les chercheurs de Danisco et du Québec se rendirent
compte que le CRISPR de S. thermophilus correspondait exactement
à celui du virus phage, permettant à S. thermophilus de reconnaître le
virus et de le détruire.
L’appellation CRISPR-Cas9 est maintenant attribuée à la technique de
reconnaissance et d’édition des séquences d’ADN et aux protéines asso-
ciées permettant d’éditer les gènes10. Des techniques d’édition des gènes
existent depuis quelques décennies, mais CRISPR-Cas9 est supérieure
par sa précision et son efficacité. Elle fut appliquée d’abord aux proca-
ryotes, organismes simples dont les cellules n’ont pas de noyaux, comme
les bactéries et les archées. On l’utilise maintenant pour éditer les gènes
des eucaryotes, des organismes multicellulaires plus complexes comme
les semences, les souris, les chiens, les cochons et les humains. De nou-
velles applications sont annoncées presque chaque semaine.
Les travaux de la biochimiste américaine Jennifer Doudna et de la micro-
biologiste française Emmanuelle Charpentier ont été à l’origine de l’outil
moléculaire et versatile CRISPR-Cas9 (figure 7.2). Sylvain Moineau a
aussi été un pionnier puisque son équipe de recherche a démontré que
le système CRISPR-Cas coupait l’ADN de manière très précise et que
la protéine Cas9 était essentielle pour cette coupure. Aujourd’hui plu-
sieurs équipes de chercheurs perfectionnent et utilisent la technique
qui permet d’ajouter, de neutraliser ou de retrancher des sections de
séquences d’ADN avec grande précision. Ces travaux sont essentiels
10. On parle de CRISPR-Cas9 ou CRISPR associated protein 9 (ou autre chiffre) un
ensemble bien défini de protéines qui permet l’édition de gènes.
230 Sur la science qui surprend, éclaire et dérange
puisqu’il arrive à l’occasion que l’outil CRISPR-Cas9 ne coupe pas au bon
endroit, ce qui pourrait évidemment voir un effet néfaste dans diverses
applications. Sans surprise, la technique et ses dérivés améliorés, élaborés
dans plusieurs laboratoires de pointe, donnent maintenant lieu à une
FIGURE 7.2 Les pionniers de CRISPR-Cas9
Source : Creative Commons Attribution-Share Alike 4.0 International license ; Bianca
Fioretti, Hallbauer et Fioretti, ©Emmanuelle Charpentier ; Conseil de recherches en sciences
naturelles et en génie du Canada.
A) L a microbiologiste française
Emmanuelle Charpentier
B) la biochimiste américaine Jennifer C) le microbiologiste québécois
Doudna Sylvain Moineau.
La science qui aide 231
course folle aux brevets et, dans cette course, aux querelles de priorité.
Une concurrence féroce est engagée entre diverses équipes. D’aucuns
rêvent de CRISPR inc. avec les fortunes qui font saliver les investisseurs.
Parmi plusieurs applications thérapeutiques envisageables, CRISPR
représente une voie prometteuse pour le traitement du cancer. Des
équipes chinoises sont à l’œuvre pour infuser à des patients atteints de
cancer leurs propres cellules modifiées avec la technique CRISPR-Cas9.
Les chercheurs en oncologie de grandes institutions chinoises travaillent
à des thérapies pour cancers de l’œsophage, du poumon, de la prostate
et de l’estomac, ciblant les patients où les thérapies traditionnelles ont
échoué11. Toujours au stade d’essai, les chercheurs introduisent l’éditeur
de gène dans les cellules infectées pour détruire deux gènes clefs qui ali-
mentent la croissance de la tumeur. D’autres s’attaquent au virus du sida
et du papillome, responsable du cancer du col de l’utérus. Une dimension
intéressante est l’avancement rapide du travail des chercheurs chinois qui
doivent aussi franchir les étapes d’approbation de leurs programmes de
recherche. Cependant les processus de revue et les protocoles d’appro-
bation y sont moins lourds que ceux de la plupart des pays occidentaux,
et visent à démontrer d’abord l’efficacité et l’absence de danger relié à
ces traitements. Certains chercheurs exercent même de la pression pour
tenter de simplifier les étapes d’approbation des protocoles de recherche
qu’ils doivent franchir. Tout ce travail utilisant CRISPR-Cas9 est au stade
expérimental ; un traitement sûr pouvant rejoindre plusieurs patients
reste pour les années à venir.
L’industrie alimentaire ne demeure pas passive. Déjà on a utilisé CRIS-
PR-Cas9 pour extraire un bout d’ADN d’un gène du champignon de
Paris et empêcher ce dernier de brunir lorsqu’il est tranché. Une équipe
chinoise a réussi à créer des cochons édités par CRISPR-Cas9 ayant
une teneur en gras inférieure de 24 % à celle de leur frères et sœurs
non « crispérisés », sans modifier le goût de la viande (figure 7.3). Pour
produire leur cochon « maigre », les biologistes moléculaires chinois
ont édité une version du gène de la souris dans des cellules de porcs.
11. Dennis Normile, « China sprints ahead in CRISPR therapy race », Science, 2017,
vol. 358, p. 20-21.
232 Sur la science qui surprend, éclaire et dérange
FIGURE 7.3 Cochons CRISPR à faible teneur de gras et thermorégulation améliorée.
© tJianguo Zhao, Institute of Zoology, Chinese Academy of Sciences.
Puis ces cellules furent introduites dans les embryons de 2 553 cochons
clonés. Ces embryons furent implantés dans 13 truies, dont trois don-
nèrent naissance à 12 cochonnets. À l’âge de six mois, ils furent abattus
et analysés, et ne montrèrent aucun signe d’anormalité. Un des mâles
fut mis à l’œuvre pour s’accoupler et la procédure mena à des rejetons
normaux. De plus, ces cochons ont un métabolisme plus actif et ont
donc l’avantage de tolérer des conditions de températures plus froides.
Contrairement aux autres mammifères, le cochon normal ne bénéficie
pas du gène codant pour la protéine UCP1 qui aide l’animal à adapter sa
température lorsqu’il fait froid. Plusieurs chercheurs, ayant commenté
sur ce cochon « crispérisé », ont mentionné que le bien-être de l’animal
est amélioré par une meilleure thermorégulation. Le bacon CRISPR ne
sera pas vendu chez votre boucher la semaine prochaine. Mais ce genre
de recherche augure un avenir différent de ce que la simple sélection
artificielle traditionnelle aurait mis dans notre assiette12.
12. Qiantao Zheng et collab., « Reconstitution of UCP1 using CRISPR-Cas9 in the
white adipose tissue of pigs decreases fat deposition and improves thermogenic
La science qui aide 233
Le potentiel d’utilisation de cet outil multifonctionnel, le « canif suisse
des gènes » comme l’appelle Emmanuelle Charpentier, paraît à ce jour
colossal, que ce soit pour la fabrication de nouveaux médicaments, une
plus grande productivité agricole, des animaux améliorés ou de nou-
veaux produits chimiques. Des chercheurs ont inactivé une hormone de
croissance pour créer des micro-cochons de la taille de gros chats qui
pourraient ainsi devenir des animaux de compagnie. Un véritable « Klon-
dike » semble à portée de main avec des promesses mirobolantes. Plus
époustouflante et inquiétante demeure la possibilité d’employer CRISPR
pour éditer les cellules germinales, soit pour éradiquer le gène d’une
maladie, soit pour optimiser la performance ou l’allure d’un animal.
Ces cellules sont le point de départ de tout embryon ; elles peuvent trans-
mettre à leur descendance les mutations génétiques acquises. On parle
aussi de faire revivre des espèces éteintes, comme le mastodonte en modi-
fiant les gènes de l’éléphant asiatique, une opération qui serait complexe.
La question se pose : serait-ce une bonne idée de ressusciter des espèces
disparues, même récentes, comme le pigeon voyageur (disparu en 1914),
le tigre de Tasmanie (éteint en 1936), l’éléphant de Sicile (éteint vers
50 av. J.-C.) lorsque l’environnement naturel a été profondément altéré ?
Juste penser qu’une édition précise des gènes des cellules humaines
devient possible est stupéfiant. L’American Society of Gene and Cell
Therapy, l’organisation américaine professionnelle de la médecine fondée
sur l’utilisation de l’ADN, est claire : elle exprime « son opposition indé-
fectible à l’édition des gènes, ou la modification des gènes, dans des cel-
lules humaines pour créer des humains viables (œufs fertilisés) avec des
modifications de cellules germinales pouvant être transmises aux des-
cendants13 ». Attendons-nous à des débats gigantesques dans les années
à venir. La participation de tous les gens informés et concernés par des
retombées possibles de recherche de cette nature est cruciale. Quand la
majorité des gens ignorent la nature des cellules et de ses constituants,
il importe que le plus grand nombre possible de citoyens améliorent
leurs connaissances de base pour pouvoir décider et agir en acteurs
capacity », Proceedings of the National Academy of Sciences of the United States
of America, oct. 2017, DOI : 10.1073/pnas. 1707853114.
13. Cité dans Jennifer Doudna et Samuel Sternberg, op. cit., p. 216.
234 Sur la science qui surprend, éclaire et dérange
informés, sages et prudents. Reprenant les inquiétudes exprimées par la
communauté des chercheurs, Jennifer Doudna, une des pionnières de
CRISPR-Cas9, l’a martelé maintes fois : « Nous voulions que la commu-
nauté scientifique appuie sur la touche “pause” jusqu’à ce que les consé-
quences sociétales, éthiques et philosophiques de l’édition de cellules
germinales aient été discutées de manière appropriée et approfondie –
idéalement à l’échelle de la planète14. » La prudence est de mise, mais la
recherche avance comme un rouleau compresseur, et le public est laissé
ébloui et parfois abasourdi par ces avancées15.
En seulement quelques années, les applications d’édition du génome avec
CRISPR-Cas9 ont connu une croissance fulgurante. « Mais la véritable
raison pour laquelle CRISPR a explosé sur la scène des biotechnologies
avec une telle force et vigueur a été son coût peu élevé et son emploi
facile. CRISPR-Cas9 a finalement rendu l’édition des gènes disponibles
à tous les scientifiques16. » Avec un investissement relativement modeste,
on peut mettre sur pied un laboratoire CRISPR d’édition des gènes !
Emmanuelle Charpentier le résume bien : « Si CRISPR-Cas 9 a connu
un succès tellement fulgurant, dans le milieu académique comme dans
l’industrie pharmaceutique, c’est qu’il est plus efficace, plus rapide, moins
cher, aussi simple que sophistiqué. Il est “mignon”. Et il permet de bri-
coler – un vrai couteau suisse17. »
Cependant, comme dans le passé, la réalité du monde moléculaire et les
contraintes sociétales refroidiront probablement les esprits et le marché
boursier, lorsque les applications se révéleront plus complexes et plus coû-
teuses que ce qu’on avait d’abord rêvé. On sait que CRISPR-Cas9 comme
outil d’édition des gènes est précis, mais pas à 100 % ; des erreurs se pro-
duisent. Reprenant notre analogie typographique, pensez à la différence
14. Jennifer Doudna et Samuel Sternberg, op. cit., p. 209.
15. Lire l’excellent article de David Baltimore et 17 autres auteurs, « A prudent path
forward for genomic engineering and germline gene modification », Science,
2015, vol. 348, p. 36-38.
16. J. Doudna et S. Sternberg, A Crack in Creation. The New Power to Control Evo-
lution, The Bodley Head London, 2017, p. 111.
17. Emmanuelle Charpentier, « Le “couteau suisse” de l’ADN », L’Express, propos
recueillis par Marie Simon, publié le 15 mars 2016.
La science qui aide 235
entre les mots utilité et futilité, qui implique l’ajout d’une seule lettre pour
changer le sens du mot. Les chercheurs travaillent à comprendre ces
mécanismes d’erreur pour diminuer les risques et accroître la précision
de CRISPR-Cas9, par exemple en utilisant des séquences moléculaires
plus complexes et fiables.
La polémique endiablée qui a cours autour de « l’invention CRISPR » a
plusieurs sources : la complexité de l’établissement de priorité des décou-
vertes et des avancées technologiques, et la démonstration de la manière
dont CRISPR-Cas9 protège les bactéries, en reconnaissant et en neutra-
lisant le virus envahisseur. Les diverses équipes tentent de maximiser
leur contribution tout en atténuant celle de leurs concurrents. Il s’agit
d’une intéressante lutte à suivre et à analyser pour les historiens et les
sociologues des sciences. Évitera-t-on l’épineuse controverse des brevets
pour le laser et la longue saga judiciaire qui a empoisonné la carrière de
plusieurs chercheurs18 ? Par-dessous tout, souhaitons que CRISPR soit
un meilleur outil pour assurer notre bien-être et améliorer la biodiver-
sité. Là aussi, ce sera tout un défi d’informer et d’engager le public dans
certaines décisions autour de l’évolution fulgurante de CRISPR. Il faudra
aussi contrer les appétits des monopoles industriels qui ont entaché la
production et l’utilisation des organismes génétiquement modifiés.
La recherche en industrie
Les exemples de recherche et de découvertes que j’ai présentés dans ce
livre sont reliés surtout à la recherche menée en milieu académique,
dans les universités et les instituts de recherche, financés pour la plupart
par l’État ou des fondations privées. Il existe en parallèle un monde
immense de recherche, celui de la recherche en industrie, qui mériterait
un ouvrage entier. On y a affaire à une activité scientifique au profil plus
modeste, mais tout aussi valable ; elle revêt d’importants aspects pra-
tiques et économiques, et elle est souvent soutenue par une vocation plus
directement sociale. Ces chercheurs ne font pas souvent de découvertes
18. Arti K. Rai et Robert Cook-Deegan, « Racing for academic glory and patents :
Lessons from CRISPR », Science, 2017, vol. 358, p. 874.
236 Sur la science qui surprend, éclaire et dérange
qui font nécessairement les manchettes, sauf celles de quelques grands
laboratoires industriels. Le travail des chercheurs de l’industrie peut
donc paraître moins héroïque. Mais ce qu’ils font, les résultats qu’ils
obtiennent et les produits qu’ils créent sont d’une grande importance
économique et sociale. Ce furent souvent des individus innovateurs qui
mirent au point une technologie et la développèrent grâce aux retombées
commerciales tout en l’améliorant. Voici une très courte liste d’exemples
familiers.
• Le pyrex inventé en 1908 et les céramiques à faible coefficient d’ex-
pansion thermique mis au point successivement par la compagnie
Corning, aux États-Unis au cours du xxe siècle.
• Le processus Bessemer pour la fabrication de l’acier par Henry
Bessemer and Company, Grande-Bretagne en 1850.
• La téléphonie par Alexander Graham Bell en 1876.
• L’utilisation des ondes radio par Guglielmo Marconi pour la télé-
graphie sans fil à partir de 1894.
• Le téflon découvert par Roy Plunkett de la Société chimique E. I.
du Pont de Nemours, aux États-Unis en 1938.
• La fibre optique comme transmetteur d’information par pulse laser
par les chercheurs de Telefunken, en Allemagne, en 1965.
• La mise au point de l’ordinateur personnel des années 1970 et 1980
chez IBM, Hewlett-Packard, Apple et bien d’autres.
• La production d’insuline synthétique par Herbert Boyer, fondateur
de Genentech, en 1978.
• La mise au point d’une batterie de spectromètres pour la mesure
des gaz à effet de serre, des teneurs en différents ingrédients dans
l’alimentation ou d’autres substances chez Bomem et ABB, Québec,
depuis les années 1970
La recherche industrielle peut paraître plus prosaïque, mais ces quelques
exemples montrent que ses retombées dans le fonctionnement de nos
sociétés et la vie quotidienne des citoyens sont colossales. Une impor-
tante dimension de l’innovation technologique provient de sa diffusion :
La science qui aide 237
testée continuellement auprès d’usagers, elle s’améliore sans cesse19. Sans
éclipser ce propos, il importe d’être aussi conscient que certains volets
de cette recherche visent à prendre un contrôle indu des marchés et que
certaines approches de production et de vente demeurent indifférentes
aux conséquences négatives sur l’environnement naturel et social.
Risque et précaution
Sommes-nous mieux aujourd’hui que dans le passé ? La réponse est très
probablement un « oui » qu’on peut justifier et que l’on doit qualifier.
Nous vivons en moyenne plus longtemps et en meilleure santé que nos
ancêtres. Les gens travaillent moins dur et durant moins d’années. Nous
avons des options de styles de vie et de loisirs auxquelles nos parents
et grands-parents ne pouvaient que rêver. Les exemples les plus spec-
taculaires sont les nombreux outils qui ont amené la mécanisation de
l’agriculture, l’automatisation de la production industrielle, les techno-
logies médicales et l’informatisation de l’information et des systèmes de
gestion. Plusieurs de ces améliorations sont le résultat des nombreuses
applications découlant de découvertes scientifiques et de la recherche
industrielle.
Tout n’est pas dû seulement à la technologie. Les améliorations pro-
viennent aussi de la réorganisation sociale et de la redistribution de
la richesse. Beaucoup reste à faire pour réduire les inégalités sociales
et contrer la concentration de la richesse. Mais ces gains ont des coûts
élevés pour une bonne proportion des humains et pour la biosphère.
L’humanité fait aujourd’hui face à des risques qui mettent en péril son
futur et sa survie à long terme.
Les risques sont nombreux. Que se passera-t-il ? Qu’est-ce qui est pos-
sible, probable et plausible ? Une fois identifié, un risque demande à
être compris, sa probabilité et ses répercussions cernées, pour mieux
définir les stratégies à adopter, les actions à prendre et les ressources
à consacrer pour rendre ces actions effectives. Jean-Gabriel Ganascia
19. Louis Guay, courriel en janvier 2018.
238 Sur la science qui surprend, éclaire et dérange
invite à bien distinguer les concepts de possibilité, probabilité et plausi-
bilité20. Probable est proche de « preuve » : sans être garantie, une chose
probable a des chances de se produire. Par exemple, vous voyez de gros
nuages à l’horizon ; vous pouvez dire qu’il est probable qu’il pleuve. Si
rien n’assure qu’une chose se produise, mais que rien ne l’interdit, on
dit qu’elle est possible. Toujours selon notre exemple météorologique,
le ciel est bleu ; il est possible qu’il pleuve – mais improbable. Plausible,
dont le sens a évolué au cours du temps, signifie vraisemblable ; rien ne
garantit la possibilité ou la probabilité que cette chose arrive. Vous êtes
au cœur de l’été ; vous pouvez dire qu’il est plausible qu’il neige, mais
peu probable, à moins que vous habitiez à Schefferville, dans le nord du
Québec, au Canada.
Lorsqu’on observe les risques auxquels font face nos sociétés, il est bon
de distinguer ces trois niveaux d’occurrence d’évènements. Il importe de
garder à l’esprit ces concepts et de les distinguer lorsque des chercheurs
tentent de prédire le futur. Par exemple, la menace de la prise en charge
de l’humanité par des ordinateurs hyper puissants est possible, mais
peu plausible et improbable, alors que les pronostics de la température
future de la planète selon l’augmentation de la teneur des GES sont pos-
sibles, plausibles et très probables. Ces deux cas prédisent le futur. Dans
le premier cas, on se fonde sur des opinions et, dans le second cas, sur
des données ayant une large base historique et géographique, et en plus
sur des modélisations extrêmement sophistiquées où entrent des hypo-
thèses scientifiques cohérentes et testables. Les résultats des différentes
simulations climatiques sont comparés pour leur solidité et vérifiés en
comparant avec les conditions planétaires historiques. Les mêmes résul-
tats sont publiés et discutés par les communautés scientifiques et par le
public. Dans le premier cas des possibles hyper ordinateurs, vous faites
face à un risque mal défini, donc fort hypothétique. Dans le second cas,
vous avez un risque défini, quantifié et constamment revérifié, donc réel.
L’humanité fait face à nombre de risques encore plus immédiats. Au
tout premier plan, la destruction à grande échelle que provoquerait une
20. Jean-Gabriel Ganascia, Le mythe de la singularité. Faut-il craindre l’intelligence
artificielle ?, Éditions du Seuil, 2017, p. 88-90.
La science qui aide 239
guerre thermonucléaire planétaire. Des milliers de bombes atomiques et
thermonucléaires sont stockées par les grandes puissances (États-Unis et
Russie) et les nations atomiques de second ordre ; en ordre de puissance
décroissante, ces dernières sont la Grande-Bretagne, la France, la Chine,
Israël, l’Inde, le Pakistan et la Corée du Nord. Nous sommes perpétuel-
lement assis sur une poudrière qui peut éclater à tout instant, soit à la
suite du dérapage d’une crise politique régionale ou du déclenchement
accidentel de l’un des nombreux arsenaux nucléaires. On estime les
stocks globaux actuels à 14 900 armes nucléaires, dont 93 % sont entre
les mains des seules deux grandes puissances21. Après un apaisement de
deux décennies, on assiste aujourd’hui à un climat géopolitique malsain
où les « joueurs nucléaires » augmentent leurs capacités de frappe.
L’usage des armes chimiques et biologiques est interdit par un accord
international, le protocole de Genève signé en 1993. Mais celui des armes
nucléaires beaucoup plus puissantes et meurtrières ne l’est pas. La raison
est que les grandes puissances vénèrent la bombe. Il y a un traité de
non-prolifération nucléaire qui protège le monopole des « ayants », mais
pas l’élimination ou l’interdiction d’usage de ces armes. Ainsi les puis-
sances nucléaires peuvent menacer les nations non nucléarisées et terri-
fier les petites nations. Résultat : la meilleure défense pour ces dernières
est de s’équiper d’armes nucléaires. Cinquante-trois nations ont signé
le 7 juillet 2017 un accord pour interdire l’usage des armes nucléaires et
pour les bannir ; d’autres pays ont signé dans les mois qui ont suivi. Mais
les récalcitrants demeurent nombreux. Les raisons ? Ils gardent l’arme
qu’ils cajolent, souhaitent l’acquérir ou visent à demeurer sagement sous
le parapluie protecteur d’une puissance nucléaire. À la traîne sont les
hypocrites, dont le Canada, qui tacitement soutiennent ainsi l’utilisa-
tion des armes nucléaires. L’émoi est grand lors d’utilisation d’armes
chimiques où les décès se comptent par centaines ou par milliers. Avec
des centaines de millions de tués et des infrastructures détruites à une
échelle apocalyptique, une guerre thermonucléaire aurait des consé-
quences énormément plus terribles et catastrophiques. Quel paradoxe
21. Bulletin of the Atomic Scientists, Ploughshare Funds, 2017. https ://www.ploughs-
hares.org/world-nuclear-stockpile-report
240 Sur la science qui surprend, éclaire et dérange
de voir une sainte horreur des armes chimiques et l’adoration des armes
nucléaires !22, 23
L’humanité fait aussi face à une batterie de risques moins graves à court
terme que la catastrophe nucléaire, mais ces dangers demeurent impor-
tants. Je distingue deux classes : 1. Les risques assez bien perçus par le
public : dérapages dans la transgénèse des plantes et des animaux, vac-
cinations défaillantes, dangers des accidents de centrales nucléaires,
Internet incontrôlé ou trop contrôlé, vols d’identité, monopoles indus-
triels et secret entrepreneurial, bio-résistance et prolifération des armes
nucléaires discutée plus haut. 2. Les risques moins bien perçus ou non
perçus : l’impact environnemental d’une croissance supra-exponentielle
de la population, une consommation effrénée, une biodiversité qui se
rétrécit rapidement, le réchauffement planétaire anthropique, l’explo-
sion de la production de déchets et leur accumulation sur terre et dans
la mer, l’érosion de la vie privée, le dérapage d’une participation sociale
vers une « démocratie des crédules », la science « trumpiste » et son ins-
trumentalisation par les fondamentalistes religieux, les conséquences
du brevetage du vivant, les dérives dans la modification du génome
humain, la puissance des outils de propagande politique et commerciale,
les défaillances d’infrastructures en cascade, les injustices flagrantes des
systèmes d’incarcération et de détention, etc. Ces dangers sont présentés
et discutés dans maints ouvrages. Je me limite à rappeler au lecteur l’im-
portance d’une attitude éclairée et vigilante qui refuse de tomber dans
les pièges des techno-utopies et des techno-catastrophes. Il importe de
ne pas avoir la tête dans le sable.
Le 13 novembre 2017, des milliers de scientifiques signaient une publi-
cation-choc en relançant une alerte sur l’état de l’environnement face
à l’impact grandissant des activités humaines. Ces auteurs soulevaient
l’urgence d’actions immédiates pour protéger l’environnement terrestre
22. Fred Kaplan, The Wizards of Armageddon, Simon and Schuster, 1983.
23. Daniel Ellsberg, The Doomsday Machine. Confessions of a Nuclear War Planner,
Bloomsbury, 2017.
La science qui aide 241
et la biosphère24. L’état de notre environnement est bien résumé dans
neuf tableaux de la figure de l’article que je reproduis à la figure 7.4. Ce
récent appel venait 25 ans après le premier lancé par 1700 scientifiques
indépendants en 1992. La population des humains a crû de 2 milliards
de personnes en ce dernier quart de siècle. Le seul acquis entretemps a
été notre prise en main réussie pour stopper l’effondrement de la couche
d’ozone stratosphérique qui nous protège des rayons ultraviolets du Soleil
(figure 7.4, panneau A). Les autres graphiques de la figure 7.4 montrent
à quel point la situation de la biosphère et de l’atmosphère s’est systéma-
tiquement dégradée depuis 1992.
En dépit d’une croissance démographique époustouflante, notre société
de consommation à la croissance économique débridée peut être en voie
d’extinction à moins de correction draconienne dans les habitudes de
faire. La croissance spectaculaire de la démographie que nous avons
maintenant n’est pas garantie pour le futur. Les ressources cruciales
sont en chute et l’équilibre de la biosphère dont nous dépendons est
près d’être rompu. Ces ressources-clefs sont bien connues. Ce sont la vie
marine, l’eau douce, la forêt et la qualité de l’air. L’histoire d’anciennes
civilisations devrait nous alerter et nous rendre plus sages.
Nous assistons à l’affaissement de plusieurs espèces d’animaux, de plantes
et d’insectes. L’humanité serait responsable de la sixième extinction au
cours des 540 derniers millions d’années de l’histoire de la Terre. On
parle d’anthropocène, l’époque géologique définie par l’impact humain
à l’échelle planétaire. Étant donné notre interdépendance avec la nature,
la population humaine risque d’être affectée. Malgré les discours toni-
truants, ce n’est pas la Terre qui est à sauver, c’est nous l’humanité et notre
descendance qui sont à protéger. Quoi qu’il arrive, la Terre ne déviera
pas de sa trajectoire autour du Soleil et la vie sur Terre continuera, sans
nous. Les 4 600 espèces de coquerelles qui rampent sur la Terre depuis
320 millions d’années (époque du Carbonifère) ne sont pas près de dis-
paraître, même si elles aiment cohabiter avec nous. Il y a 120 000 espèces
24. William J. Ripple et collab. (au nom de 15 364 scientifiques de 184 pays), « World
Scientist’s Warning to Humanity : A Second Notice », Bioscience, 13 novembre
2017, https ://doi.org/10.1093/biosci/bix125
242 Sur la science qui surprend, éclaire et dérange
FIGURE 7.4 Tendances évolutives d’impacts humains sur la biosphère à travers neuf facteurs
environnementaux identifiés en 1992. Source : William L. Ripple et collab., Bioscience.
d’araignées (datant aussi du Carbonifère) ; elles ne sont pas à risque.
Rappelons-nous que plus un animal est petit, plus il est apte à survivre à
une grave crise environnementale, à une guerre thermonucléaire globale
ou à l’impact d’un gros astéroïde (chapitre 3 – Les lois d’échelle).
La science qui aide 243
Les milliers de scientifiques signataires du récent rapport sont clairs.
L’espèce humaine court au galop vers un mur. « En échouant à limiter
la croissance de la population, à réexaminer une économie liée à la
croissance, à réduire les gaz à effet de serre, à mettre des incitatifs pour
les énergies renouvelables, à protéger les habitats naturels, à restaurer
les écosystèmes, à contrôler la pollution, à stopper la défaunation et
à contraindre les espèces étrangères invasives, l’humanité ne fait pas
les gestes requis pour protéger notre biosphère menacée25. » Heureuse-
ment, les problèmes sont suffisamment bien circonscrits pour définir
des stratégies de correction ; nous avons des voies de sortie. Le groupe
donne en exemple les décisions qui ont fonctionné dans le passé (par
exemple, le programme de réduction des gaz réfrigérants de type fréon
qui appauvrissent l’ozone stratosphérique et le détruisent dans les régions
polaires). Il mentionne aussi une liste de 18 actions urgentes à prendre
pour modérer et arrêter la destruction de la biosphère, ou au moins en
modérer le rythme et mettre nos sociétés sur les rails de la durabilité.
Certaines de ces actions exigent étonnamment peu de ressources, mais
elles requièrent un changement des mentalités, bien plus que des solu-
tions technologiques. Sous-jacent à toutes ces propositions, on répète un
message clair : la nécessité de contrôler la croissance démographique. Peu
de documents résument aussi bien les risques que court l’humanité à ce
stade-ci de son évolution et définissent aussi clairement les mesures à
prendre. Ce cri d’alarme est tabou, c’est de la science qui dérange pro-
fondément (chapitre 4).
On sait donc ce qu’il y a à faire. Au-delà du défi de définir les priorités,
plus grands sont l’exercice d’un leadership politique fort et des actions
efficaces face à des populations qui visent à un plus grand confort de vie
et résistent aux changements d’habitudes, certains de ces changements
devant être draconiens. En effet, ce qui dérange, c’est de remettre en
cause notre mode de vie et notre confort souvent luxueux par rapport
à la capacité de notre environnement à fournir les ressources requises.
Cette démesure est elle-même aggravée par des technologies ruineuses.
Comment atteindre un juste milieu entre l’amélioration des conditions
de vie que la science nous apporte et la technologie sans cesse plus
25. William J. Ripple et collab., ibid.
244 Sur la science qui surprend, éclaire et dérange
envahissante ? Comment contrer les dérives de surconsommation et
atténuer les répercussions environnementales ainsi déclenchées ? Pour-
quoi ne pas accompagner ce que j’appelle la science traditionnelle d’un
peu plus de sciences sociales, de philosophie et d’éthique ?
Conclusion
La science ne se réduit pas à des prédictions ni aux applications des
connaissances scientifiques. Sa fonction première est de comprendre
le monde, et elle est notre meilleur outil pour appréhender le monde.
« La science naît de ce que nous ne savons pas (“qu’y a-t-il derrière la
colline ?”) et de la mise en doute de tout ce que nous croyons savoir,
mais qui ne résiste pas à l’épreuve des faits, ou à une analyse critique
intelligente1. » La science est en recherche continuelle de vaincre notre
ignorance, subjuguer nos préjugés et repenser le monde. Nous sommes
fondamentalement curieux et nous le serons toujours.
Puisque les activités de recherche se déroulent presque toujours aux
frontières du connu, notre connaissance n’est jamais absolument parfaite.
Pour le philosophe des sciences canadien Mario Bunge, la démarche du
scientifique est de toujours tendre vers une meilleure appréhension du
monde. Carlo Rovelli insiste : avec chaque avancée, le monde se refait ;
nous le connaissons mieux. Blaise Pascal proposa l’analogie d’une sphère
dont le rayon augmente avec le temps pour décrire la croissance de la
connaissance et des savoirs scientifiques : le volume des connaissances
croît, mais aussi la surface frontière avec l’espace de l’inconnu.
Les résultats de recherche sont parfois spectaculaires, mais la démarche
scientifique elle-même revêt le plus souvent un caractère prosaïque.
1. Carlo Rovelli, Anaximandre de Milet, ou la naissance de la pensée scientifique,
Dunod, 2015, p. 111.
246 Sur la science qui surprend, éclaire et dérange
Plusieurs sont à l’œuvre dans les coulisses. Il y a piétinement et bien
des voies sont explorées silencieusement ou abandonnées. Ces étapes
de réflexion, de conceptualisation et de travaux sont essentielles pour
atteindre les sommets des grandes révolutions conceptuelles, comme
celles d’Aristarque de Samos, de Galilée, de Darwin, de Marie Curie
et d’Einstein. Bien des humains hésitent devant ces visions qui cham-
boulent l’idée qu’on se fait de notre propre nature et de notre place dans
l’univers. Avec le temps qui est parfois très long, on finit par embrasser
les nouvelles conceptions. Il fallut persévérer pendant plusieurs siècles
pour que la validité de l’héliocentrisme soit reconnue officiellement par
l’Église de Rome. La théorie de Darwin de 1859 décrivant l’évolution
des organismes vivants est toujours rejetée avec force par les fondamen-
talistes religieux de l’Amérique du Nord et du Moyen-Orient. Si l’on se
réfère à l’« affaire Galilée » et à la résistance séculaire à laquelle fit face
l’héliocentrisme, ce n’est qu’en l’an 2259 qu’on aura intégré la « dange-
reuse idée » de Darwin dans le patrimoine culturel de l’humanité.
Les scientifiques eux-mêmes peuvent hésiter devant un concept nou-
veau parce qu’il est inattendu, qu’il chambarderait l’ordre des choses
ou impliquerait l’abandon de tout ce qui a été appris auparavant. Avec
le temps et malgré quelques poches de résistance, la plupart des scien-
tifiques se rallient à la nouvelle idée et font bon ménage avec le nouvel
ordre des choses. Ils vont même jusqu’à minimiser ou relativiser l’am-
pleur de leur opposition préalable. En effet, après une résistance farouche
à l’idée d’un univers en expansion, Einstein se rallia à la proposition
révolutionnaire de Georges Lemaître. Il en fut ainsi pour les géologues
américains qui adoptèrent la théorie de la tectonique des plaques dans
les années 1960, après avoir ridiculisé Alfred Wegener et rejeté l’idée
de dérive des continents pendant des décennies. Cela étonne parfois
le non-scientifique, le scientifique ne déchire pas sa chemise lors de ce
changement de paradigme. La plupart des chercheurs poursuivent leur
programme de recherche déjà en cours tout en s’adaptant au nouveau
paradigme. Ces considérations m’amènent à mon message de clôture.
Qu’est-ce qui donne à la science sa qualité intellectuelle première ? Ma
réponse est simple : la science marche, ça fonctionne. L’histoire des
sciences nous l’enseigne éloquemment : la science bouge, et cela conti-
nuellement. D’une découverte ou de l’établissement d’un fait, on avance.
Conclusion 247
Au vie siècle avant notre ère, Anaximandre de Milet découvrit que la
Terre flottait libre dans l’espace (figure C.1). Rassemblant les obser-
vations des marins, et notant la forme de l’ombre de la Terre lors des
éclipses lunaires, son contemporain Parménide d’Élée déduisit la forme
de la Terre, une sphère. Comme bon pythagoricien, c’était une géométrie
qu’il privilégiait et que les observations appuyaient. Puis, employant
une méthode trigonométrique méthodologiquement irréprochable,
Eratosthène d’Alexandrie mesura le diamètre de la Terre avec une éton-
nante précision au iiie siècle avant J.-C. Près de 2000 ans plus tard, Isaac
Newton expliqua pourquoi les astres avaient une forme sphérique. Le
FIGURE C.1 La Lune passant devant la Terre. Photographie d’une distance d’environ
1.6 million de km prise par le Deep Space Climate Observatory le 5 juillet 2016.
Source : NASA, NOAA.
248 Sur la science qui surprend, éclaire et dérange
grand physicien anglais raffina la géodésie de notre globe ; il montra
que celui-ci avait la forme d’un ellipsoïde, largement aplatie aux pôles et
renflée à l’équateur. Au xviiie siècle, plusieurs cohortes de membres de
l’Académie royale des sciences de Paris menèrent des expéditions pour
définir plus exactement cette forme.
Aujourd’hui, une suite de satellites géodésiques en orbite autour de la
Terre cartographie avec précision les déviations locales par rapport à
l’ellipsoïde de référence calculé par Newton. Ces déviations de quelques
dizaines de mètres d’amplitude sont causées par des irrégularités dans
la distribution de la masse des roches à l’intérieur de la Terre. On a ainsi
défini le « géoïde », une surface le long de laquelle le potentiel gravita-
tionnel est constant et la direction de la gravité perpendiculaire. Cet
exemple simple démontre la nature dynamique de la recherche et d’une
science qui vise toujours à approfondir le savoir : d’avoir réalisé la sphé-
ricité de la Terre a mené à un programme continu de recherche géodé-
sique qui se poursuit toujours 2 500 ans plus tard ! Et ces connaissances
sont essentielles au bon fonctionnement du Global Positionning System
(GPS) qui ancre une multitude de technologies de notre monde actuel.
On applique même ces techniques de géodésie à l’étude des formes des
autres planètes et satellites du système solaire, incluant notre compagne
proche, la Lune.
Terminons avec ce rappel de Carlo Rovelli : « La pensée scientifique est
une exploration toujours recommencée de nouvelles conceptualisations
du monde2. » Acceptons notre ignorance, restons curieux et poursuivons
notre aventure vers les sommets embrumés, à la recherche de nouveaux
mondes inconnus. De ces sommets, cher Qohélet, Vieux Sage, explorons
« le plan qui se déroule sous le soleil ».
2. Carlo Rovelli, Anaximandre de Milet, ou la naissance de la pensée scientifique,
Dunod, 2015, p. 170.
Bibliographie
ouvrages choisis
Baillargeon, N., Petit guide d’autodéfense intellectuelle, Montréal : Lux édi-
teur, 2001.
Barrette, C., Le miroir du monde. Évolution par sélection naturelle et mystère
de la nature humaine, Québec : MultiMondes, 2000.
Barrette, C., Mystère sans magie. Science, doute et vérité : notre seul espoir
pour l’avenir, Québec : MultiMondes, 2006.
Bottéro, J., Naissance de Dieu. La Bible et l’historien, Paris : Gallimard, 1992.
Bronner, G., La démocratie des crédules, Paris : Presses universitaires de
France, 2013.
Bronner, G., Croyances et imaginaires contemporains, Paris : Éditions Manu-
cius, 2013.
Bunge, M., Teoria y realidad, Barcelone : Editorial Ariel, S. A., 1985.
Bunge, M., La ciencia, su método y su filosofia, Buenos Aires : Ediciones Siglo
Veinte, 1993.
Bunge, M., Philosophy of Science. From Explanation to Justification, Pisca-
taway, NJ : Transaction Publishers, 1998.
Chalmers, A. F., Qu’est-ce que la Science ? Popper, Kuhn, Lakatos, Feyerabend,
Paris : Éditions La Découverte, 1987.
Cossart, P., La nouvelle microbiologie. Des microbiotes aux CRISPR, Paris :
Odile Jacob, 2016.
250 Sur la science qui surprend, éclaire et dérange
Crick, F., What Mad Pursuit. A Personal View of Scientific Discovery, New
York : Basic Books, 1988.
Dawkins, R., L’horloger aveugle, Paris : Éditions Robert Lafont, 1989.
Dennett, D. C., From Bacteria to Bach and Back. The Evolution of Minds,
New York : W. W. Norton & Co., 2017.
Doudna, J., et Sternberg, S., A Crack in Creation. The New Power to Control
Evolution, Londres : The Bodley Head London, 2017.
Ellsberg, D., The Doomsday Machine. Confessions of a Nuclear War Planner,
New York : Bloomsbury, 2017.
Fensome, R., et collab., Quatre milliards d’années d’histoire. Le patrimoine
géologique du Canada, Québec : MultiMondes, 2014.
Ganascia, J.-G., Le mythe de la singularité. Faut-il craindre l’intelligence
artificielle ?, Paris : Éditions du Seuil, 2017.
Gingras, Y., Propos sur les sciences : entretiens avec Yanick Villedieu, Paris :
Éditions Raison d’agir, 2010.
Gingras, Y., L’impossible dialogue : sciences et religions, Montréal : Boréal,
2016.
Gingras, Y., L’histoire des sciences, Que sais-je ?, Paris : Presses universitaires
de France, 2018.
Gingras, Y., C. Limoges et P. Keating, Du scribe au savant. Les porteurs du
savoir de l’Antiquité à l’ère industrielle, Montréal : Boréal, 1998.
Houdebine, L.-M., Le génie génétique, de l’animal à l’homme ?, Paris : Flam-
marion et Dominos, 1996.
Kuhn, T., La structure des révolutions scientifiques, Paris : Flammarion, 1983.
Lecourt, D. (dir.), Dictionnaire d’histoire et philosophie des sciences, Paris :
Presses universitaires de France, 1999.
Marchildon, L., L’effet science. Comment la démarche scientifique a changé
notre vision du monde, Montréal : MultiMondes, 2018.
Monod, J., Le hasard et la nécessité. Essai sur la philosophie naturelle de la
biologie moderne, Paris : Éditions du Seuil, 1970.
Montaigne, M., Les Essais, Paris : Gallimard, coll. Quarto, 2009.
Nichols, T., The Death of Expertise. The Campaign against Established Know-
ledge and Why it Matters, Oxford : Oxford University Press, 2017.
Bibliographie ouvrages choisis 251
Oreskes, N., et Conway, E.M., Merchants of Doubt. How a Handful of Scien-
tists Obscured the Truth on Issues from Tobacco to Global Warming,
New York : Bloomsbury Press, 2010.
Ramstein, G., Voyage à travers les climats de la Terre, Paris : Odile Jacob, 2015.
Rosmoduc, J., Histoire de la physique et de la chimie. De Thalès à Einstein,
Paris : Seuil, « Points sciences », 1985.
Rovelli, C., Anaximandre de Milet, ou la naissance de la pensée scientifique,
Paris : Dunod, 2015.
Roy, J.-R., Les héritiers de Prométhée. L’influence de la science sur l’humain
et son univers, 2e édition, Québec : Presses de l’Université Laval, 2017.
Roy, J.-R., Les carnets d’un astrophysicien, Québec : MultiMondes, 2013.
Russell, B., History of Western Philosophy, Londres : George Allen & Unwin
Ltd., 1961.
Sokal, A., et Bricmont, J., Impostures intellectuelles, Paris : Odile Jacob, 1997.
Vacher, L.-M., Entretiens avec Mario Bunge. Une philosophie pour l’âge de la
science, Montréal : Liber, 1993.
Verdet, J.-P., Histoire de l’astronomie, Paris : Seuil, « Points sciences », 1990.
Villeneuve, C., Est-il trop tard ? Le point sur les changements climatiques,
Québec : MultiMondes, 2013.
Villeneuve, C., et Richard, F., Vivre les changements climatiques, Québec :
MultiMondes, 2007.
Voilquin, J., Les penseurs grecs avant Socrate. De Thalès de Milet à Prodicos,
Paris : Garnier-Flammarion, 1964.
West, G., Scale. The Universal Laws of Growth, Innovation, Sustainability,
and the Pace of Life in Organisms, Cities, Economies, and Companies,
New York : Penguin Press, 2017.
Index
A « atome primitif », hypothèse, 87
atomisme, 72-73
ABB (compagnie), 236
Anaximandre de Milet, 6, 178-179, 247
actinide, 100
ancêtre humain commun, 129
Adam et Ève, 128, 132-133
Ancien Testament, 1-2
adénine, 47, 134-135
apophénie, 180-181
ADN (acide désoxyribonucléique), 11-12,
apparition miraculeuse, 180
23-25, 47-52 (découverte), 61, 69, 88, 119,
application de la science, 219-244
122, 134-137, 146-147, 228-233 (manipulé
araignée, 241-242
par CRISPR-Cas9)
Aristarque de Samos, 4, 245
ADN recombinant, 50, 136-137
Aristote, 73
American Society of Gene and Cell Therapy, 233
arbre (hauteur), 104
ARN, 69-70, 88
Arrhenius, Svante, 150
air, poids, 73-74, 80
astéroïde, 199
alcalin, métal, 97
astroblème, 183
alcalino-terreux, métal, 97
atmosphère terrestre, composition, 150
alchimie, 36-37, 42
atomisme, 4-5, 37
allométrie, 103, 107-108
Atsbury, William, 47
anthropocène, 241
Augustin d’Hippone, 184
antiscience, mouvement, 215-216
Australopithèque, 131
Aqua Bounty Technologies, 139
Avery, Oswald, 48-50, 122
Apollo XVII, 170
aqueduc urbain, 111-112
arme biologique, 239 B
arme chimique, 239 Bacon, Francis, 27
atome, structure, 40 bactérie, 136, 228
254 Sur la science qui surprend, éclaire et dérange
Baillargeon, Normand, 182 Bronner, Gérald, 186, 218
Baltimore, David, 219, 234 Bruno, Giordani, 63-64
banane Cavendish, 138 Buffon, Comte de, 91, 115-116, 122
Barkla, Charles, 99 Bunge, Mario, xii, 89, 245
baromètre, 73-74, 79 Bunsen, Robert, 93
Barrette, Cyrille, 119-120, 131
Barriel, Véronique, 129
Barrish, Barry, 61
C
baryum, 44 calendrier, 3
basalte, 27 calorique, théorie, 171
Basov, Nikolai, 225, 227 Campo, Octavio, 177
Beagle, 113, 115 cancer, traitement à l’aide de CRISPR-Cas9, 231
Becquerel, Henri, 37-38, 42 capillaire, 111-112
béryllium, 42, 144 carbone-14, 31, 41
Bède le Vénérable, 10 Cas (CRISPR-associated), 229
Bell, Alexander Graham, 236 carbonifère, 161, 241
Benfey, Theodor, 101 centrale électrique au charbon, 155
Bernard, Claude, 214 céphéide, étoile, 80-81
Bessemer, Henry, 236 Chadwick, James, 41
Bezos, Jeff, 207 « chainon manquant », 128-130
bicyclette (invention), 226 champ magnétique terrestre, 32-33
Bieri, Lydia, 84-85 cellule, 12, 2, 47, 69-70, 119
big bang, 87, 94, 170 cellule germinale, 233-234
biologie moléculaire, 123, 127, 134 cerveau (taille), 107-108, 130
biosphère, état, 240-244 cétacé, 104
bipédie, 129 Chalmers, Alan, xii
Block, Antonius, 16 Champollion, Jean-François, 65
Bohr, Niels, 40, 44 Charpentier, Emmanuelle, 229-230, 233-234
bolchévisme, 120-121, 126-127 Chéops, pyramide, 148
bombardier à propulsion nucléaire NB-36H, Chernobyl, Ukraine
197-198 (accident de la centrale), 147
bombe nucléaire, 194-196, 226 (arsenal Chicago, Université de, 144-146
nucléaire mondial), 238-240 chimpanzé, 12, 129-130
BOMEM (compagnie), 236 Chomsky, Noam, 65
Bottéro, Jean, 1-2 chromosome, 23-24, 134-135
Boyer, Herbert, 236 chronopharmacologie, 72
Boyle, Robert, 75-78 cladogramme des hominines, 131
Boyle-Mariotte, loi de, 79 climat, évolution, 150,
brachiosaure, 104 clonage, 136
brevet (nombre de), 108-109 CO2, 150-156, 158, 196
cochon, 140-143, 227-228, 231-233
Index 255
Cockcroft, John, 41 DBT (protéine), 70-72
compétence, 202-203 De la nature des choses (Lucrèce), 4
compétence artificielle, 204 de Mairan, Jean-Jacques d’Orous, 67-68
compréhension, 202-203 « démocratie des crédules », 218
Compton, Arthur, 145 de Sévigné, Madame, 191
Conant, James, 145 déluge biblique, 181, 186
Conca, James, 140 demi-vie, radioélément, 31, 40, 110
connaître, 166-167 Démocrite, 14, 37, 63, 72, 115, 183-184
continent, 26, 30 démographie humaine (croissance), 241-244
contingence, 4-6, 183-185 Dennett, Daniel, 123, 202
convection (intérieur terrestre), 26, 30-31, Descartes, René, 74, 184
33-34 « dessein intelligent », 187
coquerelle, 241 Deusing, Dr., 77
Corning (compagnie), 236 dinosaure, 120
courbure de l’espace, 81-82 diploïde (chromosome), 24
Crick, Francis, 47, 50-52, 61, 119 Discours et démonstrations mathématiques
CRISPR-Cas, xii, 136, 142, 212, 219, 221, concernant deux nouvelles sciences (Galilée),
227-235 103-104
croûte terrestre, densité, 26 Djebel Ighour (Maroc), 132
croyance, xii, 166, 171-175, 188-190 dopage (de matériau), 227
CubSat, 209-210 dorsale mid-océanique, 27, 32
culture transgénique ou OGM, 137-139 Doudna, Jennifer, 229-230, 234
Curie, Marie Sklodowska, 38-40, 143, 245 doubletime (gène), 70-72
Curie, Pierre, 38-40 drosophile, 69
Curtis, Heber, 80 durée de vie (organisme vivant), 105-106
Cuvier, Georges, 115
cyberattaque, 200
cytogénétique, 23
E
cytoplasme, 69-70 eau (sur terre et dans les mers), 7-8
cytosine, 47, 134-135 Ecclésiaste, 1-16
Eddington, Arthur, 53-54, 81-84
éducation, 189-190
D effet de serre, 150-152
Dali, Salvador, 177 effet photoélectrique, 223
Dalton, John, 37 effet placebo, 181
Dana, James Dwight, 28-30 Einstein, Albert, 52-55, 58-59, 61, 79, 81-82, 86,
Danisco (compagnie), 228-229 125, 170, 222-223, 245
Darrieussecq, Marie, 140 électricité (production), 143, 148-149, 155
Darwin, Charles, 113-123, 126, 184, 245 électroporation, 136
datation radiométrique, 31, 148 Éloge de la Folie, 3
Dawkins, Richard, 185 Elohiste, 2
256 Sur la science qui surprend, éclaire et dérange
Empédocle, 115 Feynman, Richard, 54-55
émission stimulée (lumière par), 222-224 fibre optique (invention), 236
encéphalisation, 129-130 fission nucléaire, 44-47 (découverte),
énergie du vide, 79 144-145, 193-194, 221
énergie noire, 87 fixistes, 20, 26, 30, 35, 61, 66
ENIAC (premier ordinateur), 201 fluorescence lumineuse, 37-38
entreprise commerciale (allométrie), 109-110 fond océanique (densité), 26-27
épicentre, tremblement de terre, 32 fondamentalisme religieux, 187-188, 216
Épicure, 4, 14, 115, 184 Fontenelle, 64
« élément 93 », 44 Forward, Robert, 57
Érasme de Rotterdam, 3 Fourier, Joseph, 150
Ératosthène d’Alexandrie, 6, 247 Franklin, Rosalind, 40
Escher, Maurits Cornelis, 177 Friedmann, Alexandre, 82-83, 86
Essais, Les (Michel de Montaigne), 14-15 Frisch, Otto, 44-46, 144
état stationnaire (théorie cosmologique), 170 fusion thermonucléaire, 194
éther, 79, 100, 170-171 Futuyama, Douglas, 184
éthique en science, 141-143, 204-205, 208-209,
214, 233-234, 244
étoile à neutron, 56,
G
Étoile polaire, 178 Galilée, 35, 73, 103-105, 245
eucaryote, 229 Galien, 214
Euphrate, 7, gallium, 99-100
évolution, 5, 113-123, 128, 246 Ganascia, Jean-Grabriel, 202-205, 237-238
Exiguus, Dionysius, 3 Gates, Bill, 205a
exon, 135 gaz noble, 97-98
exoplanète, 63-64 gaz à effet de serre (GES), 150-151, 238
expansion de l’univers, 80-88 ; 125-126, 246 GEO600, observatoire d’ondes
exploration spatiale, 206-211 gravitationnelles, 60
extinction du Crétacé-Paléogène, 120, 199 gène, 23, 68-70, 88, 119, 122, 134-136,
extraterrestres (appel aux), 211 228-229 ; édition des gènes, 229, 231-235
Genèse, 2, 186
Genetech, compagnie, 236
F génétique, 23, 48, 120-121, 134-137
facteur transformatif, 48-49 génome, 12, 23-25, 88
Ferdinand III, 75 germanium, 99-100
Fermi, Enrico, 42-44 Gingras, Yves, xii, 21, 168
Fermi, Laura, 46 géoïde, 248
Fermi, observatoire spatial de rayons GloFish (poisson OGM), 137
gamma, 60 Godzilla, 105
fer, 98 gorille, 129-130
Index 257
Gosling, Raymond, 50 Homo Sapiens, 127-134
GPS (Global Positioning System), 82, 174-175, Houdebine, Louis-Marie, 50-51
200, 203, 248 Hubble, Edwin, 80-81, 84-86
grammaire universelle, 65 Hubble, loi de, 84
Grande Oxydation, 72 Hulse, Russell, 56-57
Gray, Asa, 114 Humason, Milton, 84-86
graphite, 145-146 Hutton, James, 9
greffe d’organe, 140-143 Huxley, Thomas, 128-129
Grégoire XIII, 3 Huygens, Christian, 77
Griffith, Frederick, 48 hydrocarbure, 160-161
guanine, 47, 134-135
Guillemin, Roger, 215
I
Iapetus, 34
H illusion cognitive, 176-182
Haeckel, Ernst, 128-129 Infeld, Leopold, 54
Hahn, Otto, 44-46, 144, 221 ion, 37
Hall, Jeffrey, 67, 68-70 insuline synthétique, 137, 236
Hanford Nuclear Reservation, 146 instrumentalisation de la science, 206-207
Hawaii, archipel, 34, 149-150 intelligence, définition, 202-204
Hawking, Stephen, 205 intelligence artificielle, 199-206, 212
hasard, 183-185 interféromètre laser, 57-61
Heidelberg, 93 intron, 135
héliocentrisme, 20, 66, 126, 246 Irving, Edward A., 32-33
hérédité, 24-25, 48-50, 121-122 Ishono, Yoshizumi, 229
Hérodote, 63 isométrie, 102
Hertz, Heinrich, 55 isotope, 41, 99
Hiroshima, 46, 145-147
Histoire ecclésiastique du peuple anglais
(Bède le Vénérable), 10
J
Hitler, Adolf, 144 Javan, Ali, 225, 227
Hobbes, Thomas, 74-75 Jeffreys, Harold, 35-36
Hoffmann, Banesh, 54, 63 Jésus de Nazareth, 3
Holmes, Arthur, 31, 34 Johanssen, Wilhelm, 122
hominine, 128 Joliot, Frédéric, 41-43
hominoïde, 130 Joliot-Curie, Irène, 41-43
Homme de Cro-Magnon, 132 Joly, John, 8-9
Homo Erectus, Homo Ergaster, Homo Habilis,
Homo Heidelbergensis, Homo
Neanderthalensis, 131-134
258 Sur la science qui surprend, éclaire et dérange
K Loban, Peter, 136
loi d’échelle (ou loi de puissance), 102-113
KAGRA, observatoire d’ondes
Lucrèce (Titus Lucretius Carus), 4-5, 7, 63,
gravitationnelles, 60
72, 115, 184
Kastler, Alfred, 227
lumière, processus d’émission, 221-222
Keeling Charles, 153-154
Lune, illusion de grosseur apparente, 179
Kirchoff, Gustav, 93
Lyell, Charles, 9, 27, 113, 116
Kleiber, Max, 106
Lyssenko, Trofime, 121, 126-127, 218
Koch, David H., 128
Koltsov, Nikolai, 47, 127
Kuhn, Thomas, 65-66 M
MacLeod, Colin, 48
L magma, 26
maïs, 23-25
lactobacillus, 228
Maiman, Theodore, 225, 227
Lamarck, Jean-Baptiste, 116, 122
mammifère, 120
Langevin, Paul, 40
Manhattan, projet, 145, 226
lanthanide, 100
Marconi, Guglielmo, 236
Lakatos, Imre, 19
marées (table des), 10
Latour, Bruno, 215-217
Mars, exploration spatiale, 206-207
Lavoisier, Antoine-Laurent, 94-96
marxisme, 126-127
Lawrence, Ernest, 41
maser, 211, 224
laser, 57-58, 221-227
Mauna Kea, Hawaii, 149, 178
La vie de laboratoire (Latour et Wolgar), 215
Mauna Loa, Hawaii, 149-150, 152-153
Leibniz, Gottfried, 201
McCarthy, John, 201
Lecoq, Paul Émile, 99-100
McCarthy, Maclyn, 48
Lemaître, Georges, 83-87, 246
McClintock, Barbara, 23-26, 31, 61
Leucippe, 37
McGill, Université, 38
Levée, Valérie, 88, 206
Meitner, Lise, 44-46, 144, 221
Levene, Phoebus, 48
Mendel, Gregor, 121-122
libre arbitre, 184
Mendeleïev, Dmitri, 37, 91-102, 160, 170
L’impossible dialogue : sciences et religions
Mersenne, Marin, 74
(Gingras), 168
métabolisme, 106-107, 110-112
LIGO (Laser Interferometer Gravitational Wave
méta-mémoire, 203
Observatory), 57-61
méthode scientifique, 181-182
LISA, observatoire spatial d’ondes
Meyer, Lothar, 95
gravitationnelles, 60
Miescher, Friedrich, 47
Livingston, Milton, 41
Milankovic, Milutin, 34
Livre de la mort de Nesitanebtashru
Millikan, Robert, 85
(cosmologie égyptienne), 179
Minsky, Marvin, 201
Index 259
miracle, 180 O
mobilistes, 21, 26, 61, 66
océan, ancien ou paléo-océan, 33-34
Moineau, Sylvain, 228-230
OGM (organisme génétiquement modifié),
Mojica, Francisco, 229
136-139
Monod, Jacques, 125
Oliver, Jack, 31
Montaigne, Michel de, 14-15, 166
onde électromagnétique, 52-53, 55
Mont Wilson, Observatoire, 84
onde gravitationnelle, 52-61
montgolfière (usage par Mendéleïev),
Orbital Carbon Observatory, 155-156
93-94, 100
ordinateur, 202-206 ; ordinateur personnel
moon hoax, 190
(invention), 236 ; 238
Moore, Thomas, 193
Oreskes, Noami, 35
Morley-Michelson, expérience, 79
Origine des espèces (Charles Darwin),
Moseley, Henry, 99
20, 113-114, 121-123
Musée de la Bible, 186, 206-207
Orion, projet, 198-199
Musée d’histoire naturelle du Smithsonian
Ortelius, Abraham, 27-28
Institute, 128, 130, 134
Outer Space Treaty, 209
Musk, Elon, 195-196, 205, 207
Ozone stratosphérique, 241-243
muon, 148
N P
paléomagnétisme, 32-33, 35
Nagasaki, 46, 145, 147
Pan (genre), 129-130
National Science Foundation, 57-58, 197
Panama, canal, 194
Néanderthalien, 127-128, 130
Panama, isthme, 30
nébuleuse spirale, 80
papaye transgénique, 138
néo-lamarckisme, 120-121, 126-127
Pangée, 30
neptunium, 44
Paracelse, 143
neutron, 41-42, 44-46, 99, 144
Parménide d’Élée, 247
Newlands, John, 95
paréidolie, 180
Newton, Isaac, 171, 187, 247-248
Parménide d’Élée, 6
NGC 4993, galaxie, 60
« participation citoyenne », 217-218
Nilson, Lars, 99
particules élémentaires, 173
niveau des mers, 159-150
Pascal, Blaise, 74, 78, 81, 201, 245
nomenclature binomiale, 89-90
Pascal, Étienne, 74
Nouvelles expériences touchant le vide
pascaline, 201
(Blaise Pascal), 74
Pasteur, Louis, 214
nova, étoile, 80
Pavlov, Ivan Petrovich, 11, 91
nucléaire, accident, 147-149, 205-206
period (gène), 68-70
nucléobase, 47
PER (protéine), 68-72
numéro atomique (éléments), 99-101
Périer, Florin, 74
Nussbaumer, Harry, 84-85
260 Sur la science qui surprend, éclaire et dérange
Perlmutter, Saul, 87 pou, 132
Perrin, Jean, 40 prédiction en science, 98-99, 169-171
Perry, John, 30 pression atmosphérique, 73-79
pesticide, 137-138 Principes de chimie (Dmitri Mendeleïev), 95
Petit guide d’autodéfense intellectuelle profondeur optique, 151
(Baillargeon), 182 Prokhorov, Alexander, 225-227
pétrole, 93, 160-161 Prométhée, 36, 123
Philolaus, 26 propulsion nucléaire, 196-198
philosophie, 9-10, 13, 79-80, 184, 244 protéine, 69-70, 88, 135, 137
phosphate, 47 proto-humain, ancêtre, 127-134
phosphore, 41-42 proton, 99
photographie, 37-38 Ptolémée, 35
photon, 222-224 pulsar (source d’ondes gravitationnelles),
phylogénie, 130-131 56-57, 65, 211
physique nucléaire, 143-149
Pierre de Rosette, 65
pile nucléaire, 144-146
Q
Pinatubo, volcan, 155 quasar, 65, 174-175
Pirani, Felix, 54-55 Quohéleth (auteur présumé de l’Ecclésiaste),
pyrex, invention, 236 1-16, 248
Pittendrigh, Colin, 68, 72
Platon, 166, 218
Plowshare, projet, 194-196
R
Pluckett, Roy, 236 radioactivité, 31, 34, 36-47 (découverte),
plutonium, 193-194 143-144, 147-149, 155, 195
pois (expériences de Gregor Mendel), 121-122 radioélément, 40, 148
pompe à air, 75-78 radiothérapie, 148
pompe à piston, 73, 79, 219 radon, 42
Pongo (lignée), 130 radium, 41-42
population des villes (et allométrie), 108-110 ralentissement des horloges, 81
porc, voir cochon Ramos, Nayibe, 175
poumon (et alvéoles), 103, 111 Ramsey, William (Lord Raleigh), 98
Pluton, 35 Rasetti, Franco, 42
pneumonie, 48 rasoir d’Occam, 211
poids atomique, 96-97, 99 rayon alpha, 38-41
Poincaré, Henri, 52 rayon bêta, 38-40, 41
polonium, 42 rayon cosmique, 146-147
pompage optique, 223-227 rayon gamma, 38-40, 60, 65
population humaine (croissance), 157-158 rayon X, 37-38, 48, 50, 65, 174, 220-221
potassium-40, 144 rayonnement infrarouge, 150-151
pouls, 105-106 réacteur nucléaire, 192, 194, 196-198
Index 261
réaction en chaîne, 144-146 science (définition et fonctionnement),
réchauffement planétaire, 149-161, 214, 238 19, 21-22, 52, 61, 64-65, 86-87, 166-175,
recherche en industrie, 235-237 181-182, 245-248
réflexe conditionné, 91 sciences sociales, 220, 244
Regensbourg (Ratisbonne), 75 science studies, 216
Reiss, Adam, 87 science wars, 215
rejet hyper aigu, 141-142 Schott, Kaspar, 77
relativité générale, 52-54, 80-84 Segrè, Emilio, 42
relativité restreinte, 79 séismicité, 31-32
religions, 11, 171-172, 185, 187 sélection naturelle, 112, 113-123, 185
réseautage (dans les organismes), 111-112 sélection sexuelle, 120
rétrovirus, 142, 174 Sénèque (Lucius Annaeus Seneca), 7, 9-10, 15
risque (nature et gestion), 205-206, 237-244 sensitive (mimosa pudica), 67
Ritchey, George, 80 séquoia, 104
riz doré (oryza sativa), 137 Septième sceau, Le (film d’Ingmar Bergman), 16
Robash, Michael, 67, 68-70 Schaffer, Simon, 75
Robertson, Howard, 54 Shannon, Claude, 201
robot, 200-201, 203-204 Shapin, Stevin, 75
Rockfeller Institute, 48-50 Slipher, Vesto, 82, 86
Röntgen, Wilhelm, 17, 221 Schmidt, Brian, 87
Rosen, Nathan, 54 Snider-Pelligrini, Antonio, 27
Rovelli, Carlo, 19, 245, 248 sociologie et science, 211-218
Roy, Jean-Claude, 101-102, 143 Socrate, 15, 166-167, 218
Runcorn, Stanley, 32-33, 35-36 Soddy, Frederick, 38, 40-41,
Rutherford, Ernest, 38-40 Soleil (mouvement apparent du), 6, 71, 72
rythme biologique, 70-72 spectroscopie, 93
rythme circadien, 66-72 Spinoza (Baruch Espinoza), 15-16, 184, 187
spiritisme, 94
Staline, 91, 120-121, 126-127
S Strassmann, Fritz, 44, 46, 144, 221
Sacks, Oliver, 102 stratosphère, 155
Saint-Pétersboug, Université de, 93, 95, 99 Streptococcus pneumoniae, 48
salinité (océans), 8-9 Streptococcus thermophilus, 228-229
Salomon, 15 subduction, 31
saumon transgénique, 138-139 Suez, canal, 194
savoir, 166-167 super-continent Amérique-Groënland-
savoir scientifique, xi-xii, 167-175, 245-248 Europe-Afrique, 29
scandium, 99 Systema Naturae (Carl von Linné), 90
scepticisme, 174, 188-189 système sanguin, 103
Schawlow, Arthur, 224-225 Szilard, Leo, 144-145
Schmitt, Harrison, 170
262 Sur la science qui surprend, éclaire et dérange
T Travers, Morris, 98
tremblement de terre, 31-32, 200
tableau périodique, 91-102
triploïde (chromosome), 24
Taby (étoile de), 211
trou noir, 59-60
Taylor, Joseph, 56-57
Turing, Alan, 201
techno-catastrophe, 192, 240
Tyndall, John, 150-151
techno-utopie, 192-199, 240
tectonique des plaques, 26-36, 246
téflon (découverte), 236 U
télégraphie (invention), 236 UCP1 (protéine), 232
téléphonie (invention), 236 uniformitarisme, 9,
terrassement nucléaire, 193-196 uranium, 37-38, 42. 44-46, 100, 144-146,
Terre (forme, position et mouvement), 193-194, 226
6, 20, 26, 173, 178, 247-248 utopie, 193
Terre (âge), 8-9, 115
Terre (température à la surface), 151, 158-159
Terre (température du noyau), 33 V
terre rare, 100 Vanuatu (volcans de), 154
Téthys, 34 vapeur d’eau (dans l’atmosphère), 151, 153-155
Théétète (Platon), 166 Vavilov, Nikolai, 127
thermorégulation (chez le cochon), 232 vent (action du), 6-7
Thesaurus Geographicus (Abraham Ortelius), 27 vide (nature du), 72-80
Theuth (dieu égyptien), 218 Villusen, Rasmus, 31
Thompson, D’Arcy, 103 VIRGO, observatoire, 60
thorium, 42, 144, 148 virus, 228-229
Thorne, Kip, 61 vitamine A, 137
thymine, 47, 134-135 Voie Lactée, 5, 80
Tigre (fleuve), 7 volcan (source de GES), 153, 155
timeless (gène), 70-72 van den Broëk, Antonius, 99
TIM (protéine), 70-72 von Drais, Karl, 226
TNT (trinitrotoluène), 194 von Guericke, Otto, 75-79
Torricelli, Evanlegista, 73-75, 78-79, 219 von Humboldt, Alexander, 27
Townes, Charles, 224-225 von Linné, Carl, 89-91
Traité élémentaire de chimie (Antoine Lavoisier),
94-96
Traité de non prolifération nucléaire, 195, 199 W
Traité sur l’Antarctique, 209 Wallace, Alfred, 112-123, 184
transgénèse, 136-139, 228 Watson, super-ordinateur, 204
transformisme, 116 Watson, James, 47, 50-52, 61, 119
transmutation (des éléments), 36, 41-44, 47 Weart, Spencer, 149
transposon (jumping genes), 25 Weber, Joseph, 55-56, 61
Index 263
Wegener, Alfred, 30-31, 34, 246
Weiss, Rainer, 57, 61
Wells, H. G., 149
West, Geoffrey, 105, 108-110, 112
Wilkins, Maurice, 47, 50
Wilson, John Tuzo, 34
Winkler, Clemens, 99
Wolgar, Steve, 215
X
xéno-transplantation, 140-143
Y
Yahviste, 2
yogourt, 228
Young, Michael, 67, 68-70