0% ont trouvé ce document utile (0 vote)
13 vues32 pages

L'EPISTEMOLOGIE

L'épistémologie

Transféré par

kamounth
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
13 vues32 pages

L'EPISTEMOLOGIE

L'épistémologie

Transféré par

kamounth
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

CHAPITRE 1

UN REGARD SUR
L’HISTOIRE ET
L’EPISTEMOLOGIE

Mise à jour : Juillet 2017

La forme renouvelée du PAC, nécessite d’importants investissements que les auteurs,


bénévoles, ne peuvent plus assumer seuls. Nous faisons appel à votre solidarité afin que
le plus grand nombre de lecteurs puisse continuer à bénéficier, longtemps encore,
gratuitement du Précis d’Anesthésie Cardiaque. Nous vous remercions pour votre don.

© CHASSOT PG

Texte, photo, dessin, tableau, vidéo sont protégés par les lois sur le droit d’auteur. Ni copie, ni publication, ni utilisation ne sont autorisés sans
l’accord de l’auteur principal, selon la Convention Universelle sur le Droit d’Auteur (Paris, Juillet 1971).
Table des matières
Historique de l'anesthésie cardiaque 3 L'évolution des connaissances 15
La chirurgie cardiaque 3 Un peu d'épistémologie 15
La circulation extracorporelle (CEC) 6 Pensée scientifique 18
L'anesthésie cardiaque 10 Systèmes complexes & chaos 21
Les leçons de l'histoire 13 Conclusion: EBM 29

Auteur

Pierre-Guy CHASSOT Ancien Privat-Docent, Maître d’enseignement et de recherche,


Faculté de Biologie et de Médecine, Université de Lausanne
(UNIL), CH - 1005 Lausanne
Ancien responsable de l’Anesthésie Cardiovasculaire, Service
d’Anesthésiologie, Centre Hospitalier Universitaire Vaudois
(CHUV), CH - 1011 Lausanne

Lectures conseillées

ANDERSEN H. Mechanisms: what are their evidence for in evidence-based medicine? J Eval Clin Pract 2012;
18:992-9
CAPTUR G, KARPERIEN AL, HUGHES AD, et al. The fractal heart – embracing mathematics in the cardiology
clinic. Nat Rev Cardiol 2017; 14:56-64
GLANCE LG, KELLERMANN AL, HANNAN EL, et al. The impact of anesthesiologists on coronary artery
bypass graft surgery outcomes. Anesth Analg 2015; 120:526-33
HESSEL EA. History of cardiac surgery and anesthesia. In: ESTEFANOUS FG, BARASH PG, REVES JG.
Cardiac anesthesia, principles and clinical practice, 2nd ed. Philadelphia: Lippincott, Williams & Wilkins, 2001, 3-
36
LUSIS AJ, WEISS JN. Cardiovascular networks. Systems-based approaches to cardiovascular disease. Circulation
2010; 121:157-70
SHERIDAN DJ, JULIAN DG. Achievements and limitations of evidence-based medicine. J Am Coll Cardiol
2016; 68:204-13

© CHASSOT PG

Texte, photo, dessin, tableau, vidéo sont protégés par les lois sur le droit d’auteur. Ni copie, ni publication, ni utilisation ne sont autorisés sans
l’accord de l’auteur principal, selon la Convention Universelle sur le Droit d’Auteur (Paris, Juillet 1971).
Historique de l'anesthésie cardiaque

Theodor Billroth, le maître de la chirurgie allemande, avait écrit en 1883: "Un chirurgien qui tenterait
une opération sur le coeur perdrait le respect de ses pairs". Les prophètes se trompent parfois! En
effet, l’intervention inaugurale de la chirurgie cardiaque a eu lieu 65 ans plus tard, en 1948; il s'agissait
d'une commissurotomie mitrale à ciel fermé. L'histoire de l'anesthésie cardiaque est donc jeune,
puisqu'elle a à peine 70 ans. De fait, elle se confond avec celle de la chirurgie cardiaque; l'introduction
de la circulation extracorporelle hypothermique (1951), les remplacements valvulaires (1961), les
pontages aorto-coronariens (1967) et la transplantation (1967) ont suscité toute une évolution dans la
technique d'anesthésie. C'est pourquoi il est important de consacrer d'abord quelques lignes à l'histoire
de la chirurgie cardiaque et à celle de la machine coeur-poumon.

La chirurgie cardiaque

En 1896, Ludwig de Rehn, à Francfort, traitait pour la première fois une plaie du ventricule droit par
suture directe. La chirurgie cardiaque était née, il y a 120 ans de cela. Par la suite, Rehn pratiqua 124
fois cette intervention, avec un taux de survie de 40% [7]. En 1907, Friedrich Trendelenburg, de
Leipzig, décrivit l'embolectomie pulmonaire par occlusion de l'artère pulmonaire et extraction de
caillots, mais il fallut attendre 1924, après bien des échecs, pour que le premier malade survive à son
intervention.

La suite se déroula essentiellement en Amérique du Nord, et débuta par des opérations à coeur fermé.
Ce furent la ligature du canal artériel (Robert Gross, Boston 1938), le shunt systémique-pulmonaire
comme palliation pour améliorer le flux pulmonaire dans la tétralogie de Fallot (Helen Taussig et
Alfred Blalock, Philadelphie 1944), et la commissurotomie mitrale (Charles Bailey, Philadelphia
1948) [12].

La première technique à "coeur ouvert" n'utilisait pas de circulation extracorporelle (CEC), mais un
arrêt de 5 à 10 minutes en hypothermie par refroidissement de surface du coeur (26°C) et occlusion de
la veine cave inférieure [18]. Ceci permit de fermer des communications interauriculaires (CIA) et de
dilater des sténoses pulmonaires ou mitrales [10]. A l'exception du cas de Philadelphie en 1953 (voir
ci-dessous), aucune des 14 premières tentatives d'opération à coeur ouvert en CEC ne fut un succès
[11]. Il fallut bien de la persévérance pour continuer ! Mais cette insistance porta ses fruits, puisque
deux équipes, celle de John Kirklin à la Mayo Clinic et celle de Walton Lillehei à l'Université de
Minnesota, réussirent à partir de 1955 à corriger des malformations congénitales simples avec un taux
de succès de 93% et 89% respectivement [20].

Les années 1960 à 1970 allaient voir se développer trois domaines essentiels de la chirurgie cardiaque:
le remplacement valvulaire, le pontage aorto-coronarien et la transplantation. Par ailleurs, plusieurs
autres éléments importants sont apparus pendant cette décennie: l'oxygénateur à bulles disposable et
compact, le pace-maker (W. Chardack et W Greatbatch en 1960, fabriqué par Medtronic), et la contre-
pulsion intra-aortique (A. Kantrowitz à Brooklyn en 1967).

Albert Starr, chirurgien à Portland (Oregon) aidé d'un ingénieur, Lowell Edwards, mit au point une
prothèse valvulaire consistant en une bille retenue dans une cage montée sur un anneau (Figure 1.1A).
Il remplaça ainsi la première valve mitrale en 1961 et la première valve aortique en 1962. Par la suite,
la valve de Starr-Edwards a été implantée chez plus de 175'000 patients [24]. Simultanément, Donald

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 3


Ross à Londres, commençait à remplacer des valves avec des homogreffes aortiques, et décrivit
l'opération qui porte son nom en 1967 (autotransplantation de la valve pulmonaire en position aortique
et homogreffe ou hétérogreffe pulmonaire de remplacement) [16].

Le deuxième évènement majeur de cette période fut la chirurgie de revascularisation myocardique. En


1945 déjà, Vineberg, à Montréal, avait fait faire ses premiers pas à la chirurgie de revascularisation en
implantant sans anastomose la mammaire interne au sein du myocarde; le développement
hypothétique de collatérales devait revasculariser le muscle sous-jacent [23]. La véritable greffe
artérielle mammaire fut imaginée par Kolessov à Leningrad en 1964; comme il ne disposait pas de
CEC, il procédait à ses anastomoses à coeur battant [8]. Mais le plenum de l'Académie soviétique de
cardiologie décida que "le traitement chirurgical de la maladie coronarienne était impossible et
n'avait aucun futur" [14]. Et l’expérience russe s’arrêta là. C’est à Cleveland Clinic en mai 1967 que
Effler et Favaloro introduisirent la technique du pontage veineux entre l'aorte et les troncs coronariens
sous CEC telle qu'on la pratique aujourd'hui [5]. Elle est devenue progressivement l'opération de
chirurgie cardiaque la plus pratiquée, avec un taux actuel d'environ 1 million d'interventions par année.

A B

Figure 1.1: Prothèses valvulaires cardiaques. A: valve à cage-et-bille de Starr-Edwards. B: valve biologique de
Carpentier-Edwards. C: valve mécanique à double ailette de St.Jude.

Les débuts de la transplantation cardiaque ont été assez lents. Décrite et développée chez l'animal par
Shumway en 1960, la technique a été appliquée à l’homme pour la première fois le 3 décembre 1967 à
Capetown par Christian Barnard [1]; le malade mourut au 18ème jour [7]. Pendant une douzaine
d'années, seuls quelques chirurgiens pratiquaient cette intervention peu gratifiante, dont la survie à 1
année allait de 22% à 65% [9]: Shumway à Stanford, Barnard à Capetown, Lower à Richmond et
Cabrol à Paris [13]. La découverte en 1972 des effets immunosuppresseurs sur les lymphocytes d'un
extrait de champignon, la ciclosporine A, modifia complètement les résultats de la greffe cardiaque; la

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 4


survie à 1 an passa à 83% et celle à 3 ans à 70% [15]. Dès lors, l'opération se pratiqua couramment.
Les améliorations techniques, la codification de la notion de mort cérébrale et l'introduction de
nouveaux immunosuppresseurs ont permis à la greffe de devenir la thérapeutique de choix de
l'insuffisance cardiaque terminale. Plus de 70'000 transplantations orthotopiques ont été réalisées à ce
jour. Actuellement, la limitation tient essentiellement au manque chronique de donneurs.

La décennie 1970-1980 vit de nouvelles avancées: l'introduction de la cardioplégie froide au


potassium (William Gay et Paul Ebert, 1973), la mise au point des valves biologiques porcines (Alain
Carpentier à Paris) et des valves mécaniques en pyrolocarbone (StJude Medical) (Figure 1.1 B et C),
l'opération de switch artériel pour la transposition des gros vaisseaux (Jatene à Sao Paolo et Yacoub à
Londres, 1975), la commercialisation de l'oxygénateur à membrane (Edwards Laboratory. 1975) [7].
Deux nouveautés dans des domaines voisins allaient grandement influencer la chirurgie cardiaque: le
cathéter pulmonaire de Swan-Ganz (Henry Swan et William Ganz, Los Angeles 1970) et la dilatation
coronarienne transluminale percutanée (Andreas Grüntzig, Zürich 1977) [6,22]. Les découvertes
quittaient le territoire américain et commençaient à se faire partout dans le monde.

La décennie suivante vit le jour de la plastie mitrale par A. Carpentier à Paris et D. Cosgrove à
Cleveland Clinic [2], et la mise en place des premiers stents coronariens par U. Sigwart à Lausanne
[21]. On introduisit l'aprotinine en 1987 pour diminuer l'hémorragie peropératoire [17]. Le groupe de
John Kirklin, en Alabama, attira l'attention pour la première fois sur l'importance du syndrome
inflammatoire systémique déclenché par l'intervention et par la CEC [4].

Ces vingt dernières années ont été marquées par des raffinements techniques comme l'ultrafiltration, la
miniaturisation des circuits, les circuits héparinés et les valves stentless. Elles sont aussi influencées
par les contraintes économiques et la compétition entre les centres, comme si la chirurgie entrait dans
l'ère de la marchandisation. Les techniques de fast-track ou à coeur battant ont pour but essentiel de
freiner les coûts. C'est aussi la raison pour laquelle le pontage aorto-coronarien à coeur battant se
pratique largement dans les pays émergents comme le Brésil, l'Argentine, la Turquie, ou l'Inde [3].
Mais les dix dernières années ont surtout été marquées par l'essor des techniques percutanées et des
interventions minimalement invasives comme l'implantation de la valve aortique (TAVI,
Transcatheter aortic valve implantation) ou la plastie mitrale percutanée (MitraClip™), et par les
interventions hybrides réalisées dans une salle dévolue munie des installations radiologiques et
échocardiographiques permettant de pratiquer à la fois à la chirurgie en CEC et la pose percutanée de
stents ou de valves.

Quel est le l'avenir de la chirurgie cardiaque ? Comme les futurologues se trompent toujours parce que
l'inattendu vient renverser leurs extrapolations, il est prudent de se contenter de prévoir le court terme.
On peut imaginer cinq axes principaux [19].

 Interventions percutanées par cathétérisme; les TAVI et les MitraClip ont ouvert la voie vers
davantage d'opérations réalisées par des équipes interventionnelles multidisciplinaires
spécialisées, constituées aussi bien de chirurgiens que de cardiologues. Avec de meilleures
bioprothèses, la technique va s'étendre aux valves tricuspide et pulmonaire et à une population
plus jeune. Elle va se compléter d'interventions hybrides combinant cathétérisme et chirurgie à
ciel ouvert.
 Assistance ventriculaire; le manque de donneurs pour des greffes et la prévalence en
expansion de l'insuffisance cardiaque vont multiplier les systèmes de soutien
hémodynamiques provisoires ou définitifs. Même si leurs coûts baissent, ces techniques
resteront l'apanage de sociétés privilégiées.
 Chirurgie minimalement invasive; les techniques endoscopiques et robotiques permettent déjà
de réaliser des interventions par des accès limités qui facilitent grandement la récupération
postopératoire. Ce qui n'est qu'exceptionnel pourrait devenir une routine.

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 5


 Médecine régénératrice; la combinaison d'interventions chirurgicales et de dépôts de cellules
souches programmées pour reconstituer du tissu myocardique ou valvulaire pourrait remplacer
les parties malades par du tissu normal au lieu d'utiliser des prothèses et de se contenter de
cicatrices.
 Démocratisation de la chirurgie; à l'image de l'ouverture offerte à toute la population par
certaines cliniques indiennes, la chirurgie cardiaque des pays défavorisés doit se développer
afin de proposer à toutes les classes de la société des interventions simples, rapides et peu
onéreuses qui ont un taux élevé de réhabilitation sans traitement ultérieur.

Histoire de la chirurgie cardiaque

Quelques points de repères:


- 1944: shunt de Blalock-Taussig
- 1948: commissurotomie mitrale à ciel fermé
- 1953: première fermeture réussie de CIA en CEC
- 1961: RVM, 1962: RVA (valve de Starr)
- 1964: pontage à cœur battant mammaire sur IVA (Kolessov)
- 1967: pontage aorto-coronarien, transplantation cardiaque
- 1977: PCI
- 1987: stents coronariens
- 2002: TAVI

Références

1 BARNARD CW. A human cardiac transplant: An interim report of a successful operation performed at Groote-Schur Hospital,
Capetown. S Afr Med J 1967; 41:1271-5
2 CARPENTIER A. Cardiac valve surgery: the "French correction". J Thorac Cardiovasc Surg 1983; 86:323-8
3 CHASSOT PG, VAN DER LINDEN P, ZAUGG M, MUELLER XM, SPAHN DR. Off-pump coronary artery bypass surgery:
Physiology and anaesthetic management. Brit J Anaesth 2004; 92:400-13
4 CHENOWETH DE, COOPER SW, HUGLI TE, et al. Complement activation during cardiopulmonary bypass. N Engl J Med 1981;
304:497-501
5 FAVALORO RG. The present era of myocardial revascularization. Int J Cardiol 1983; 4:331
6 GRUNTZIG AR, SENNING A, SIEGENTHALER WE. Nonoperative dilatation of coronary artery stenosis: percutaneous
transluminal coronary angioplasty. N Engl J Med 1979; 301:61-8
7 HESSEL EA. History of cardiac surgery and anesthesia. In: ESTEFANOUS FG, BARASH PG, REVES JG. Cardiac anesthesia,
prinsiples and clinical practice, 2nd ed. Philadelphia: Lippincott, Williams & Wilkins, 2001, 3-36
8 KOLESSOV VI. Mammary artery-coronary artery anastomosis as method of treatment for angina pectoris. J Thorac Cardiovasc
Surg 1967; 54:535-44
9 LANSMANN SL, ERGIN MA, GRIEPP RB. History of cardiac transplantation. In: WALLWORK J, ed. Heart and Heart-lung
transplantation. Philadelphia: WB Saunders, 1989, 3-25
10 LEWIS FJ, TAUFIC M. Closure of atrial septal defects with aid of hypothermia: experimental accomplishments and the report of
one successful case. Surgery 1953; 33:52-60
11 LILLEHEI CW. Historical development of cardiopulmonary bypass in Minnesota. In: GRAVLEE GP, DAVIS RF, KURUSZ M,
eds. Cardiopulmonary bypass, principles and practice, 2nd edition. Baltimore: Lippincott, Williams & Wilkins, 2000, p 3-21
12 LITWACK RS. The growth of cardiac surgery: historical notes. Cardiovascular Clinics 1971; 3:5
13 LOWER RR, SHUMWAY NE. Studies on orthotopic transplantation of the canine heart. Surgical Forum 1960; 11:18
14 MUELLER RL, ROSENGART TK, ISOM DW. The history of surgery for ischemic heart disease. Ann Thorac Surg 1997; 63:869-
78
15 ROBBINS RC, BARLOW CW, OYER PE, et al. Thirty years of cardiac transplantation at Stanford University. J Thorac Cardiovasc
Surg 1999; 117:939-44
16 ROSS DN. Replacement of aortic and mitral valve with a pulmonary autograft. Lancet 1967; 2:956-60
17 ROYSTON D, BIDSTRUP BD, TAYLOR KM, et al. Effect of aprotinin on need for blood transfusion after repeat open-heart
surgery. Lancet 1987; 2;1289-92
18 SELLICK BA. A method of hypothermia for open heart surgery. Lancet 1957; 1:443-7
19 SHEMIN RJ. The future of cardiovascular surgery. Circulation 2016; 133:2712-5
20 SHUMACKER HB. The evolution of cardiac surgery. Bloomington IN: Indiana University Press, 1992

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 6


21 SIGWART U, PUEL J, MIRKOVITCH V, et al. Intravascular stents to prevent occlusion and restenosis after transluminal
angioplasty. N Engl J Med 1987; 316:701-6
22 SWAN HJC, GANZ W, FORRESTER J, et al. Catheterization of the heart with use of a flow-directed balloon-tipped catheter. N
Engl J Med 1970; 283:447-52
23 VINEBERG A. Development of anastomosis between coronary vessels and transplanted internal mammary artery. Can Med Ass J
1946; 55:117
24 WESTABY S, BOSHER C. Landmarks in cardiac surgery. Oxford: Isis Medical media, 1997

La circulation extracorporelle

L'idée d'une perfusion artificielle revient au physiologiste français Jean-Jacques Le Gallois qui avait
perfusé la tête de lapins décapités pour prouver que la circulation du sang maintenait la fonction de
l'organe [7]. Le prototype de machine coeur-poumon avec contrôle de la température a été imaginé en
1884 par von Frey et Gruber [10], mais c'est Hooker, en 1915, qui a construit le précurseur des
oxygénateurs à film: il s'agissait d'un disque de caoutchouc sur lequel le sang se répandait en un film
oxygéné par contact direct avec un flux d'O2 [5]. Ces montages avaient peu de succès, car le sang
coagulait très rapidement. En effet, il a fallu attendre la découverte de l'héparine en 1916 et celle de la
protamine 20 ans plus tard pour que ce problème soit résolu [9]. Ce n'est qu'en 1937 que John Gibbon
créa la première machine de circulation extracorporelle (CEC) complète qui permette la survie
d'animaux en laboratoire; l'oxygénateur était un écran à disques rotatifs [3].

Le 5 avril 1951 à Minneapolis, Dennis utilisait pour la première fois une machine de CEC en clinique
pour procéder à la correction d'un canal atrio-ventriculaire chez un enfant de 6 ans; ce fut un échec
chirurgical [1]. L'année suivante, la deuxième tentative (fermeture de CIA) se solda également par le
décès de l'enfant. Mais le 20 mai 1953, à Philadelphie, la machine de Gibbon permit de fermer avec
succès une CIA chez un patient de 18 ans au cours d'une CEC de 45 minutes [4]. Pour Gibbon, c'était
l'aboutissement de 23 ans de recherche et de conceptions de circuits extracorporels. Il devint ainsi le
"père de la CEC" et le premier perfusionniste de l'histoire. Les premiers circuits de CEC étaient
encombrants et dangereux; ils demandaient un amorçage de plusieurs litres de sang, et fonctionnaient
avec un oxygénateur fait de grands disques plongeant partiellement dans le sang et tournant dans une
chambre pleine d'oxygène. Le tout était lavé et réutilisé pour un autre patient. Seuls les tuyaux étaient
à usage unique. C'était le cas de la première machine lausannoise, celle de Livio-Mettraux, qui date de
1960 (Figure 1.2).

Le problème de l'oxygénateur restait lancinant, car les modèles à disques causaient d'innombrables
ennuis et manquaient d'efficacité. Dès 1956, DeWall et Lillehei dessinèrent un système réalisable en
plastic et consistant en une chambre où le sang était oxygéné par barbotage de bulles d'oxygène,
surmontée d'une chambre de débullage remplie d'un agent anti-mousse et d'un réservoir hélicoïdal [2].
De nouvelles entreprises se lancèrent dans la commercialisation de ces appareils: Bentley™,
Travenol™, etc. Le premier appareil de ce type largement utilisé en Europe fut celui de Rygg et
Kyvsgaard; c'était un sac de polyéthylène disposable contenant l'ensemble des éléments (Figure 1.3)
[8]; il fut très répandu jusqu'à la fin des années soixante-dix parce qu'il était simple, efficace et bon
marché.

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 7


Moniteur

Réservoir
Echangeur
veineux
thermique

Oxygénateur

Pompe

Console

Figure 1.2: Machine de CEC de Livio-Mettraux, construite à Lausanne en 1960 et utilisée en clinique jusqu'en
1966. Elle contient déjà tous les éléments d'une machine moderne: réservoir veineux, pompe à galet,
oxygénateur, échangeur thermique, monitorage. Seuls les tuyaux sont à usage unique; le réservoir veineux,
l'oxygénateur et l'échanger thermique sont des systèmes réutilisables. L'oxygénateur est un modèle à disques:
une série de disques verticaux tourne sur un axe légèrement incliné et plonge dans le sang qui coule au fond de la
cuve cylindrique; le sang emporté à la surface des disques est ainsi exposé à un courant d'oxygène qui traverse de
cylindre. La pompe est une pompe à galet très similaire à celles utilisées sur les circuits actuels. Le seul moniteur
est un manomètre de pression sur le circuit artériel.

Figure 1.3: Oxygénateur à bulles de Rygg


et Kyvsgaard (1956). Le sang veineux
est oxygéné par simple barbotage. Une
chambre remplie d'anti-mousse assure
le débullage. Une cascade de trois
petits réservoirs complète l'élimination
des bulles et permet le stockage de
volume [8].

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 8


Mais l'oxygénateur à bulles restait une cause majeure d'embolie gazeuse; de plus, dès que la CEC
dépassait une heure, le contact direct du sang avec l'air entraînait une dénaturation protéique et une
activation du complément qui étaient la cause d'un syndrome inflammatoire systémique massif et très
souvent d'un SDRA, que l'on appelait le pump lung. Comme les membranes de dialyse rénale étaient
performantes, l'idée vint de les utiliser pour la diffusion de l'O2 sans que ce dernier soit en contact
direct avec le sang. On utilisa des plaques d'éthyl-cellulose, de Teflon™ puis de silicone, arrangées en
couches ou en tubules [6]. Bien que les problèmes de contact air-sang soient résolus, les oxygénateurs
à membranes ont mis du temps à s'imposer à cause de leur complexité et de leur prix. Actuellement,
leurs perfectionnements et leur facilité d'utilisation en font les seuls systèmes utilisés dans les
machines de CEC; ils sont inclus en un bloc comprenant l'oxygénateur, le réservoir veineux et
l'échangeur thermique (Figure 1.4).

A l'exception de la pompe, tous les éléments de la CEC sont maintenant à usage unique. Le circuit
comprend également de nombreux systèmes de sécurité qui n'existaient pas sur les premiers modèles:
moniteur de bulles, filtres artériels et veineux, monitorage de SaO2 et de SvO2, asservissement de la
pompe au niveau du réservoir, etc. Les travaux actuels portent essentiellement sur l'amélioration de la
biocompatibilité des surfaces de contact et sur la miniaturisation de tout le système (voir Chapitre 7,
Machines et circuits).

A D

C E

Figure 1.4: L'oxygénateur de CEC. Il est en général couplé au réservoir veineux et à l'échangeur thermique par
le fabriquant. A: corps de l'oxygénateur contenant les microfibres pour les échanges gazeux. B: sang veineux en
provenance du réservoir via la pompe. C: sang artériel sortant de l'oxygénateur. D: arrivée des gaz (avec filtre
micropore). E: échangeur thermique. F: tuyaux pour la circulation de l'eau de refroidissement / réchauffement.

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 9


Histoire de la CEC

La circulation extra-corporelle (CEC) en quelques dates:


- 1953: première réussite d'une fermeture de CIA en CEC
- 1956: oxygénateur à bulle
- 1967: oxygénateur à membrane
- 2000: mini-CEC

Références

1 DENNIS C, SPRENG DS, NELSON GE, et al. Development of a pump-oxygenator to replace the heart and lung: An apparatus
applicable to human patients and an application to one case. Ann Surg 1951; 134:709-21
2 DEWALL RA, WARDEN HE, GOTT VL, et al. Total body perfusion for open cardiotomy using bubble oxygenator. J Thorac Surg
1956; 32:591-603
3 GIBBON JH. Artificial maintenance of circulation during experimental occlusion of the pulmonary artery. Arch Surg 1937;
34:1105-31
4 GIBBON JH. Application of the mechanical heart and lung apparatus to cardiac surgery. Minn Med 1954; 36:171-85
5 HOOKER DR. The perfusion of the mammalian medulla: The effect of calcium or potassium on the respiratory and cardiac centers.
Am J Physiol 1915; 38:200-8
6 LANDE AJ, DOS SJ, CARLSON RG, et al. A new membrane oxygenator dialyser. Surg Clin N Am 1967; 47:1461-70
7 LE GALLOIS JC. Expériences sur le principe de la vie, notamment sur le siège de ce principe. Paris, D'Hautel 1812
8 RYGG IH, KYVSGAARD E. A disposable polyethylene oxygenation system applied in the heart/lung machine. Acta Chir Scand
1956; 112:433-7
9 STAMMERS AH. Historical aspects of cardiopulmonary bypass: From antiquity to acceptance. J Cardiothorac Vasc Anesth 1997;
11:266-74
10 VON FREY M, GRUBER M. Ein respirations-apparat für isolierte organe. Arch Physiol 1885; 9:519-32

L'anesthésie cardiaque

Dès les premiers pas de la chirurgie cardiaque, les anesthésistes ont joué un rôle de premier plan dans
les résultats opératoires. Potts le mentionnait déjà en 1946: "Dans ce type d'opération, une anesthésie
experte est essentielle" [22]. Mais la technique d'anesthésie a évolué considérablement au cours de ce
demi-siècle.

Pour la première ligature de canal artériel par Robert Gross (Boston 1938), l'anesthésiste était une
infirmière, Ms. Betty Lank; elle avait utilisé du cyclopropane au masque; son principal monitoring
était un doigt sur l'artère temporale de l'enfant [8]. La plupart des enfants opérés par la suite (ligature
de canal artériel, shunt de Blalock-Taussig, anastomose aorto-pulmonaire) était cyanosée,
hypodynamique et parfois moribonde. La technique consistait en une prémédication à la morphine-
scopolamine, une intubation avec ventilation contrôlée, et une anesthésie au cyclopropane; une canule
dans la saphène permettait la perfusion liquidienne. La chirurgie intracardiaque commença avec une
commissurotomie mitrale à ciel fermé (Charles Bailey, Philadelphie 1948); pour ce cas, K.K. Keown
avait réalisé l'anesthésie avec un mélange d'oxygène et de N2 O (50/50 à 30/70); le malade était intubé
en spontanée sous anesthésie topique et ventilé manuellement. L'analgésie était assurée par des
injections intraveineuses de procaïne 0.2% et l'inconscience par des supplémentations de thiopenthal.
Le monitoring consistait en une pression-brassard et un ECG sur oscilloscope. Le patient fut extubé
sur table [11]. Cette technique, accompagnée de suppléments de morphine et d'infiltrations
intercostales de procaïne, se répandit largement.

Les premiers remplacements valvulaires avaient lieu chez des malades souffrant d'insuffisance
aortique massive. Ils étaient intubés éveillés avec une anesthésie locale, puis endormis avec de faibles

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 10


doses de thiopental et maintenus avec un mélange O2/N2O supplémenté d'éther et de morphine; la
tubocurarine était utilisée dans certains centres. Le monitoring se résumait toujours à une pression-
brassard et un ECG [18]. La mortalité opératoire était de 20%. AW. Conn, à Toronto, introduisit
l'halothane en 1959; il fut aussi le premier à décrire le cathétérisme de l'artère radiale pour mesurer la
pression de manière invasive [5]. A noter que ce cathétérisme se faisait par dissection à ciel ouvert et
non par ponction percutanée (introduite en 1970 seulement).

Au cours de la dizaine d'années suivantes, l'anesthésie pour la chirurgie en CEC s'établit autour de la
même technique de base décrite ci-dessus; le monitorage était déjà bien codifié: ECG 3-dérivations,
cathétérisme artériel et veineux central, températures rectale et oesophagienne, contrôle fréquent des
gazométries artérielle et veineuse [20]. En 1967, Earl Wynands (Royal Victoria Hospital, Montréal)
définit les exigences de l'anesthésie pour la chirurgie coronarienne: prémédication généreuse,
anesthésie profonde, monitoring invasif, contrôles fréquents des gaz sanguins et du potassium,
maintien de la pression artérielle de base (néosynéphrine), assistance ventilatoire postopératoire de 4-
24 heures en soins intensifs [30]. La mortalité opératoire n'était plus que de 1.3%. Lowenstein
(Massachusetts General Hospital, Boston) proposa en 1969 d'administrer de hautes doses de morphine
(0.5 – 3 mg/kg iv) pour gagner en stabilité hémodynamique et supprimer la stimulation sympathique
néfaste [15]; l'administration de fortes doses de narcotique et d'un curare devint ainsi l'emblème de
l'anesthésie dite "cardiaque". Par la suite, on préféra les hautes doses de fentanyl (50-100 mcg/kg), qui
abaissait moins les résistances artérielles que la morphine [27]. En Europe, la neuroleptanesthésie
(fentanyl – dropéridol – curare et ventilation avec un mélange 30/70 d'O2/N2O) devint très populaire et
fut couramment utilisée pour les interventions en CEC. En 1976, Joel Kaplan introduisit la perfusion
peropératoire de nitroglycérine lors des pontages aorto-coronariens et recommanda l'utilisation de la
dérivation V5 pour diagnostiquer les épisodes ischémiques [9,10]. C'est au cours de la même période
que se répandit l'usage du cathéter de Swan-Ganz pour évaluer plus finement l'hémodynamique [28].

Dès le début des années quatre-vingt, on a associé différents agents hypnogènes: isoflurane,
flunitrazépam, midazolam, étomidate, propofol, sevoflurane. De nouveaux morphinomimétiques ont
été introduits (alfentanil, sufentanil, rémifentanil), dans le but d'obtenir davantage d'effet hypnotique et
de raccourcir la phase postopératoire ; la pharmacocinétique de ces nouvelles substances permit
l’utilisation de perfusions continues et le maintien d’une grande stabilité dans les effets recherchés.
L’anesthésie loco-régionale a fait son apparition dans l'espoir de réduire la réponse physiologique au
stress (stress-free anaesthesia) par une sympathicolyse cardiaque, et de trouver un meilleur équilibre
entre la profondeur de l'analgésie et la possibilité d'un réveil accéléré [3,14]. La péridurale ne s'est
cependant jamais imposée en chirurgie cardiaque. Ces modifications ont pu diminuer la morbidité
dans certaines circonstances, mais n’ont pas permis de modifier significativement le devenir des
patients.

A propos de l’impact de l'anesthésie en chirurgie cardiaque, Slogoff et Keats (Texas Heart Institute,
Houston) avaient démontré en 1985 que l'incidence de l'ischémie peropératoire génératrice d’infarctus
lors de pontages aorto-coronariens n'était pas corrélée à la technique d'anesthésie elle-même, mais bien
à la performance de chaque anesthésiste [25]. L'article est resté fameux pour une mortalité excessive
liée à l'anesthésiste n° 7 de l'étude ! Trois publications ultérieures portant sur plus de 1'000 patients
chacune ont confirmé que le choix de la technique n'influence guère le devenir des patients; seule
compte la qualité de l'anesthésiste [17,26,29]. Trente ans plus tard, deux nouvelles études ont obtenu
des résultats complètement différents. La première a découvert que seuls les malades à haut risque
pâtissent des prestations de l'anesthésiste lorsque celui-ci se situe dans le quartile inférieur d'une
l'échelle de performance [7]. La deuxième a mis en évidence que la variabilité des résultats d'une
opération cardiaque tient pour 95% aux risques propres du patient, pour 4% à la performance du
chirurgien et pour 1% seulement à celle de l'anesthésiste [19]. Que s'est-il passé pour expliquer une
telle dissonance à un quart de siècle d'intervalle ? Cinq éléments peuvent être invoqués pour tenter de
répondre à la question [6].

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 11


 La compréhension de l'hémodynamique et de la cardiologie a progressé à grands pas.
 La pharmacopée a mis à disposition un vaste éventail de médicaments aux propriétés précises,
dont certains améliorent le devenir des patients comme les halogénés, les β-bloqueurs ou le
levosimendan chez les malades ischémiques [2,12,13,21]. La technologie a développé de
nouveaux systèmes de prise en charge (ventilateurs sophistiqués, ultrasons de ponction, etc) et
de monitorage (saturation cérébrale en O2, BIS, échocardiographie transoesophagienne, etc)
qui augmentent la sécurité des malades [13].
 La formation des anesthésistes cardiovasculaires s'est considérablement améliorée, notamment
avec l'introduction de l'échocardiographie; celle-ci leur a fourni un immense bagage de
connaissances cardiologiques, hémodynamiques et physiopathologiques qui a imprégné toute
leur pratique.
 De nombreux protocoles et recommandations (Guidelines) basés sur les évidences acquises et
rédigés par des experts ont défini la meilleure stratégie pour les situations difficiles.
 La standardisation de la pratique a instauré des routines fiables qui limitent l'improvisation et
imposent des procédures bien codifiées.

Un élément majeur dans le perfectionnement de l'anesthésie cardiaque a été l'introduction de


l'échocardiographie transoesophagienne (ETO). La première application de l'ETO comme monitorage
peropératoire de la fonction ventriculaire revient à M. Matsumoto (Albert Einstein College of
Medicine, New York 1980); il ne s'agissait d'ailleurs que d'une fonction M-mode, difficile à utiliser
[16]. Les premières images bidimensionnelles ETO ont été obtenues par Schlutter et Hanrath en 1982
[24]. La même année, l'ETO était essayé sur des malades en salle d'opération par Michael Cahalan et
Michael Roizen de UCSF (San Francisco), dans le but d'évaluer en continu la volémie, la fonction et
l'ischémie [1,23]. Ce fut une véritable révolution lors de leur présentation à l'ASA, en grande partie
parce que plusieurs grands patrons de l’époque jugèrent cette innovation "prétentieuse et sans avenir" !
La technique fut complétée ultérieurement par le Doppler couleur, et se révéla plus sensible que l'ECG
pour le diagnostic des ischémies lors de pontages aorto-coronariens, comme le démontrèrent F.
Clements et N. DeBruijn à Duke University [4]. L'ETO fait maintenant partie du monitorage routinier
en chirurgie cardiaque, et les fabricants ont apporté de multiples perfectionnements à l'instrumentation
au cours des dix dernières années (Doppler tissulaire, images tridimensionnelles, miniaturisation des
appareils et des sondes, appareils portables, etc).

Histoire de l'anesthésie cardiaque

L'anesthésie cardiaque a suivi les progrès techniques de l'anesthésie au XXème siècle. Elle a passé
successivement du cyclopropane, du protoxyde et de la morphine à la neuroleptanesthésie avec
fentanyl-dropéridol, puis aux halogénés modernes et aux nouveaux fentanils. Elle a utilisé pour
l'induction le thiopental et le midazolam, puis le propofol et l'étomidate. Elle a perfectionné sa
pharmacopée, son monitorage et sa technologie, et a inclus l'ETO de routine dès 1990. La formation
des anesthésistes cardiovasculaires s'est améliorée, notamment grâce à l'échocardiographie et à la
standardisation de la pratique par de nombreux protocoles et recommandations.

Références

1 CAHALAN MK, KREMER P, SCHILLER NB, et al. Intraoperative monitoring with two-dimensional transesophageal
echocardiography. Anesthesiology 1982; 57:A153
2 CASON BA, GAMPERL AK, SLOCUM RE, HICKEY RF. Anesthetic-induced preconditioning: previous administration of
isoflurane decreases myocardial infarct size in rabbits. Anesthesiology 1997; 87: 1182-90
3 CHANEY MA. Intrathecal and epidural anesthesia and analgesia for cardiac surgery. Review article. Anesth Analg 1997; 84:1211-
21

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 12


4 CLEMENTS FM, DEBRUIJN NP. Perioperative evaluation of regional wall motion by transesophageal two-dimensional
echocardiography. Anesth Analg 1987; 66:249-55
5 CONN AW, ALLAN D, JUNKIN CI. Anaesthesia with hypothermia for closure of atrial septal defects in children. Can Anaesth
Soc J 1959; 6:327-32
6 GERSTEIN NS, PETERSEN TR, RAMAKRISHNA H. Evaluating the cardiac anesthesiologist's role in surgical outcomes – A
reappraisal based on recent evidence. J Cardiothorac Vasc Anesth 2017; 31:283-90
7 GLANCE LG, KELLERMANN AL, HANNAN EL, et al. The impact of anesthesiologists on coronary artery bypass graft surgery
outcomes. Anesth Analg 2015; 120:526-33
8 HESSEL EA. History of cardiac surgery and anesthesia. In: ESTEFANOUS FG, BARASH PG, REVES JG. Cardiac anesthesia,
prinsiples and clinical practice, 2nd ed. Philadelphia: Lippincott, Williams & Wilkins, 2001, 3-36
9 KAPLAN JA, DUNBAR RW, JONES EL. Nitroglycerin infusion during coronary artery surgery. Anesthesiology 1976; 45:570-4
10 KAPLAN JA, KING SB. The precordial electrographic lead (V5) in patients who have coronary artery disease. Anesthesiology
1976; 45:14-20
11 KEOWN KK. Anesthesia for surgery of the heart, First ed. Charles Thomas, Springfield, 1956
12 KERSTEN JR, SCHMELING TJ, PAGEL PS, et al. Isoflurane mimics ischemic preconditioning via activation of KATP channels.
Anesthesiology 1997; 87:361-8
13 LANDONI G, PISANO A, LOMIVOROTOV V, et al. Randomized evidence for reduction of perioperative mortality: an updated
consensus process. J Cardiothorac Vasc Anesth 2017; 31:719-30
14 LIEM TH, HASENBOS MA, BOOIJ LH, et al. Coronary artery bypass grafting using two different anesthetic techniques: Part III:
Postoperative outcome. J Cardiothorac Vasc Anesth 1992; 6:156-61
15 LOWENSTEIN E, HALLOWELL P, LEVINE FH, et al. Cartdiovascular response to large doses of intravenous morphine in man.
N Engl J Med 1969; 281:1389-95
16 MATSUMOTO M, OKA Y, STROM J, et al. Application of transesophageal echocardiography to continuous intraoperative
monitoring of left ventricular performance. Am J Cardiol 1980; 46:95-102
17 MERRY AF, RAMAGE MC, WHITLOCK RM, et al. First-time coronary artery bypass grafting: the anaesthesist as a risk factor.
Br J Anaesth 1992; 68:6-12
18 O'DONNELL JA, McDERMOTT F. Anesthetic problems of surgical correction of aortic insufficiency. Anesthesiology 1955;
16:343-8
19 PAPACHRISTOFI O, SHARPLES LD, MACKAY JH, et al. The contribution of the anaesthesist to risk-adjusted mortality after
cardiac surgery. Anaesthesia 2016; 71:138-46
20 PATRICK RT, THEYE RA, MOFFITT EA. Studies in extracorporeal circulation. V: Anesthesia and supportive care during
intracardiac surgery with the Bibbon-type pump oxygenator. Anesthesiology 1957; 18:673-8
21 POLDERMANS D, BOERSMA E, BAX JJ, et al. The effect of bisoprolol on perioperative mortality and myocardial infarction in
high-risk patients undergoing vascular surgery. N Engl J Med 1999; 341:1789-94
22 POTTS WJ, SMITH S, GIBSON S. Anastomosis of the aorta to a pulmonary artery: certain types in congenital heart disease.
JAMA 1946; 132:627-31
23 ROIZEN MF, KREMER P, CAHALAN M, et al. Monitoring with transesophageal echocardiography: patients undergoing
supraceliac occlusion. Anesthesiology 1982; 57:A152
24 SCHLUTTER M, LANGENSTEIN BA, POLSTER J, et al. Transesophageal cross-sectional echocardiography with a phased array
transducer system: technique and initial clinical results. Br Heart J 1982; 48:67-74
25 SLOGOFF S, KEATS AS. Does perioperative myocardial ischemia lead to postoperative myocardial infarctions ? Anesthesiology
1985; 62:107-14
26 SLOGOFF S, KEATS AS. Randomized trial of primary anesthetic agents on outcome of coronary artery bypass operations.
Anesthesiology 1989; 70:179-87
27 STANLEY TH, WEBSTER LR. Anesthetic requirements and cardiovascular effects of fentanyl-oxygen and fentanyl-diazepam-
oxygen anesthesia in ma. Anesth Analg 1978; 57:411-9
28 SWAN HJC, GANZ W, FORRESTER J, et al. Catheterization of the heart with use of a flow-directed balloon-tipped catheter. N
Engl J Med 1970; 283:447-52
29 TUMAN KJ, McCARTHY RJ, SPIESS BD, et al. Does the choice of anesthetic agents significantly affect outcome of coronary
artery surgery ? Anesthesiology 1989; 70:189-98
30 WYNANDS JE, SHERIDAN CA, KELKAR K. Coronary artery disease and anaesthesia: experience in 120 patients for
revascularisation of the heart. Can Anaesth Soc J 1967; 14:382-7

Les leçons de l'histoire

Ce rapide tour d'horizon de la chirurgie et de l'anesthésie cardiaques nous montre à quel point sont
difficiles les premiers pas de toute technique nouvelle. Les précurseurs ont besoin de beaucoup de
ténacité et d'indépendance d'esprit pour persévérer dans la mise au point de thérapeutiques considérées
comme audacieuses, voire téméraires, tant qu'elles ne sont pas acceptées par l'establishment médical.
Ce dernier ne se prive d'ailleurs pas d'avoir des jugements péremptoires sur des événements dont il ne
mesure pas la portée. Lorsqu'une nouveauté apparaît, il est presque impossible de savoir si elle a de
l'avenir ou si elle est un futur cul-de-sac. Le fait que les premiers essais soient des échecs ne prouve
rien. L'avenir est donc trop hasardeux à prédire pour que l'on s'y risque ici.

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 13


On voit aussi à quel point l'esprit humain est curieux. Comme les rats placés dans un territoire inconnu
sont poussés à explorer leur environnement, les hommes font preuve d’un état d'insatisfaction
permanent qui les incite à essayer et à découvrir sans cesse des nouveautés. S'il y a toujours une part
de hasard dans les découvertes, il y a aussi une immense énergie et une incroyable ténacité dépensées
à créer les conditions dans lesquelles le succès devient probable. Ainsi, il n'est pas rare que des
découvertes aient lieu simultanément dans deux centres indépendants, parce qu'il s'y est instauré un
climat d'émulation qui favorise la chance. Malgré un énorme investissement préalable dans la
recherche expérimentale, le drame est qu'en médecine ce sont souvent des malades qui paient le prix
de la nouveauté. Si les premiers chirurgiens cardiaques nous paraissent bien courageux, que dire de
leurs patients, qui eux y risquaient leur vie !

L'histoire nous révèle aussi que toute nouveauté passe par trois phases dès qu'elle s'installe dans la
pratique clinique [2]. Que ce soit un médicament ou une technique, cela commence par une phase
d'enthousiasme; les publications en énumèrent les avantages et les indications s'élargissent sans
discrimination. Au point de tomber dans le piège des indications inutiles: lorsque leur gain est nul, les
malades n'en ont que les effets secondaires. Vient alors une phase critique: de nombreux travaux
mettent en évidence un manque d'impact sur le devenir des patients, voir une dangereuse augmentation
de morbi-mortalité. Il faut en général plusieurs années pour atteindre la troisième phase, qui est une
phase d'équilibre où les connaissances sont suffisantes pour définir correctement les indications. Du
cathéter de Swan-Ganz aux béta-bloqueurs, on a vécu d'innombrables exemples de cette évolution ces
trente dernières années. Il faut donc conserver un œil critique et savoir raison garder avant d'émettre
un jugement sur la portée d'un produit, et tenter de distinguer dans quelle phase il se trouve avant de
chanter ses louanges ou de le clouer au pilori.

L'anesthésie cardiaque est un domaine privilégié pour le travail d'équipe. Comme le déclarait RC. Brock
en 1949: "It is a type of surgery that is not for the lone operator. Teamwork is of course essential in the
operating theater, where the anaesthetist plays a part of fundamental importance which deserves a
special tribute" [1]. Le partage des connaissances et des capacités au sein du team fait surgir des
performances supérieures à la sommes des possibilités individuelles, comme les propriétés émergentes
dans les systèmes physiques complexes. De ce point de vue, l'ETO s'est révélée être l'instrument
multidisciplinaire par excellence. De plus, l'anesthésiste cardiovasculaire occupe une place privilégiée:
non seulement il fait partie d'une équipe de salle d'opération, mais il est au centre de l’équation entre le
bloc opératoire, la cardiologie et les soins intensifs [3]. Grâce à ses connaissances en échocardiographie,
en réanimation cardiologique et en médecine intensive, il passe peu à peu d'un stade de simple
pourvoyeur de sommeil à celui d'interniste-consultant en salle d'opération. Il jouit également d'une
bonne maîtrise du suivi périopératoire, depuis la préparation médicale préopératoire jusqu'à la gestion
des évènements postopératoires qui sont conditionnés par les circonstances rencontrées en salle. Il
devient ainsi un praticien en médecine périopératoire [4].

Enfin, l'histoire nous démontre qu'aucune idée n'est jamais définitivement acquise; toute opinion peut
être remise en question par une nouvelle théorie, toute certitude peut être démentie par de nouveaux
faits. Ceci va nous amener à quelques réflexions sur l'évolution des connaissances.

Références

1 BROCK RC. The surgery of pulmonic stenosis: The Alexander-Simpson-Smith Lecture. BMJ 1949; 2:399
2 GIDWANI UK, GOEL S. The pulmonary artery catheter in 2015: the Swan and the Phoenix. Cardiol Rev 2016; 24:1-13
3 MORDECAI MM, MURRAY MJ. The value of teamwork. J Cardiothorac Vasc Anesth 2006; 20:1-2
4 SHEAR TD, GREENBERG S. Pro: cardiac anesthesiologists should provide critical care consultation in the operating room. J
Cardiothorac Vasc Anesth 2014; 28:1154-8

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 14


L'évolution des connaissances
Un peu d'épistémologie

La connaissance scientifique est par nature dynamique et dubitative; elle n'est jamais une certitude:
"Dans un sens, toute vérité n'est qu'une erreur qui corrige une autre erreur" (V. Frankl). Elle progresse
par essais successifs et par corrections continues, à la manière des robots cybernétiques. L'activité
humaine de connaître ne mène jamais à une image des phénomènes qui soit certaine et vraie, mais
seulement à une interprétation conjecturale de phénomènes caractérisés par leurs régularités [14]. Karl
Popper l'a superbement décrit: "La science ne repose pas sur une base rocheuse. La structure
audacieuse de ses théories s'édifie en quelque sorte sur un marécage. Elle est comme une construction
bâtie sur pilotis. Les pilotis sont enfoncés dans le marécage, mais pas jusqu'à la rencontre de quelque
base naturelle ou "donnée" et, lorsque nous cessons d'essayer de les enfoncer davantage, ce n'est pas
parce que nous avons atteint un terrain ferme. Nous nous arrêtons tout simplement parce que nous
sommes convaincus qu'ils sont assez solides pour supporter l'édifice, du moins provisoirement" [10].
Toute théorie scientifique peut être mise en défaut par une nouvelle observation ou un nouveau
paradigme; elle n'est jamais "ultime", mais toujours momentanée, provisoire et attaquable, "falsifiable"
comme il est convenu de l'appeler [11]. Toute pensée scientifique est également tributaire d’un
ensemble de concepts tacitement acceptés et partagés par la communauté intellectuelle, qui forment le
paradigme momentanément en vigueur au sein de la société. Toute recherche et toute observation sont
conçues et interprétées en fonction de ce paradigme, qui est le cadre mental dans lequel évolue la pensée
de cette période. Etant structuré et cohérent, ce paradigme se modifie peu, mais il peut s’effondrer
devant des découvertes qui contredisent ses fondements [7]. Il laisse alors la place à un nouveau
paradigme, au cours d’une de ces révolutions scientifiques qui jalonnent l’histoire, comme celles
déclenchées par Galilée, Copernic, Pasteur ou Einstein.

Ceci soulève une question fondamentale: dans quelles circonstances des conclusions peuvent-elles être
considérées comme valides? Pour ce faire, elles doivent remplir un certain nombre de conditions [4] :

 Leur base est un collectif de données objectives analysable statistiquement;


 Ces données sont susceptibles d'être organisées en une théorie cohérente;
 Cette théorie prédit certaines observations que l'on peut effectivement faire;
 Ces observations sont reproductibles par d'autres équipes.

Dans le domaine de l'anesthésie, le premier point est rempli par les nombreuses études expérimentales et
cliniques rétrospectives ou prospectives dont les résultats statistiques, particuliers à chacune d'entre
elles, sont des acquis incontestables. Leur organisation en théories cohérentes est actuellement beaucoup
plus touffue. Une explication théorique est une proposition qui reformule les observations en un système
de concepts acceptable pour un groupe d'experts qui partagent les mêmes critères de validation [8].
Hormis la rigueur de l'observation et la cohérence logique des conclusions, ces critères sont souvent mal
définis en médecine. La prédiction des observations - le troisième point - est naturellement limitée dans
des systèmes aussi complexes qu'un organisme humain soumis au stress d'une opération. Quant au
dernier point, la littérature médicale de ces vingt dernières années abonde en études cardiovasculaires
dont les résultats n’ont jamais pu être reproduits.

Cela n’est guère surprenant, parce que l'équilibre hémodynamique est un système multifactoriel en
réajustement constant. Nos mesures ne perçoivent que la résultante des interactions et rétro-actions
complexes entre de très nombreux facteurs. Or, dans les systèmes complexes, la causalité n'est plus
linéaire mais elle est multiple et interdépendante: modifier un élément du système peut ou non entraîner
des conséquences selon l'état des autres éléments du système au sein duquel il interagit. L'erreur logique
fondamentale consiste à confondre participation essentielle et responsabilité unique [8]. Pour que

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 15


surviennent une panne ou un accident, il faut que plusieurs éléments soient atteints: chaque modification
rétrécit la marge de sécurité de l'ensemble, mais n'est pas à elle seule la cause déclenchante. En fait, il
n'est pas étonnant que l'on éprouve tant de difficultés à mettre en évidence des facteurs prédictifs
indépendants, par exemple dans l'estimation du risque opératoire, car la méthode classique
d'investigation ne permet d'étudier une relation qu'après l’avoir isolée de l’ensemble complexe du
système global. Mais la sélection d’un axe d'analyse unique transforme l’objet observé en un mode de
causalité dominante parce qu’on réduit au minimum les régulations multiples qui fonctionnent au sein
dudit système [1]. La relation observée n’a de valeur prédictive que dans le contexte particulier de cette
analyse-là; elle a toutes les chances de ne pas être reproductible dans un autre contexte [12].

Car la relation de causalité peut prendre schématiquement deux aspects bien différents. La causalité
déterministe est caractérisée par une relation directe entre la cause et son effet ; dans ce système, la
cause est l’élément nécessaire et suffisant pour que se produise l’effet. La répétition de la cause
engendre à chaque fois la répétition de l’effet. C’est en isolant un phénomène simple et en observant son
évolution que se sont construites les théories scientifiques en physique classique comme en biologie.
Mais le phénomène n'est simple que pour notre esprit, et les lois que nous déduisons de nos observations
ne sont que la traduction dans un langage d'une observation qui nous apparait comme telle parce que
nous avons exclu tous les autres éléments de notre expérience. La question posée détermine la réponse
obtenue. Nous ne pouvons pas savoir si notre déduction correspond à une réalité du monde ou si elle
n'est qu'une interprétation statistiquement cohérente à l'intérieur d'un système mental préconçu. La
causalité probabiliste, au contraire, n’entretient pas de relation directe et univoque entre une cause et un
effet. La même cause peut produire un effet différent selon le contexte. Plusieurs mécanismes sont
requis pour provoquer l’effet, mais ils sont eux-mêmes interdépendants. Ainsi le phénomène observé est
d’origine multifactorielle et ne peut pas être isolé de son contexte. Il existe même une incertitude
fondamentale sur la possibilité de déterminer les enchaînements qui conduisent à l’effet observé. On
peut certes remonter les successions d’évènements qui ont conduit à un phénomène pour tenter de
l’expliquer, mais cette filiation n’est pas la seule possible. Ce qui est juste dans un cas peut se révéler
erroné dans un autre. Un succès isolé ne garantit nullement que la théorie soit adéquate. De ce fait, on ne
peut pas prévoir comment se mettront en place les multiples éléments en jeu afin d’anticiper ce qui va se
produire. L’Histoire en est la meilleure illustration : elle peut tout expliquer en remontant dans le passé,
mais elle ne peut rien prévoir en extrapolant dans le futur. Elle fonctionne en marche arrière: elle définit
des enchaînements de cause à effet parce qu'elle reconstruit les causes à partir des effets. Elle a toujours
raison parce qu'elle connaît déjà le devenir des évènements lorsqu'elle recherche leurs origines. Comme
n'importe quelle présentation de cas dans un colloque morbidité-mortalité, elle est constamment
menacée par le piège du "Post hoc ergo propter hoc" (après cela, donc à cause de cela) qui attribue une
relation de causalité à la simple succession temporelle de deux phénomènes. Le mental humain, curieux
et inquiet dès l'origine, a besoin de trouver une cohérence dans le monde qui l'entoure pour pouvoir le
gérer; il prend facilement une explication possible pour une preuve formelle.

L'instrument de mesure lui-même conditionne les résultats. Nous n'observons pas la nature elle-même,
mais la nature soumise à nos méthodes d'investigation [5]. Or, c'est l'observateur qui définit les
paramètres. En anesthésie, par exemple, le système de lecture "pression-débit" traditionnel (cathéter de
Swan-Ganz) observe l'hémodynamique sous un angle qui lui est propre, mais qui ne permet pas de voir
la totalité des phénomènes. Un autre système, tel celui des données "flux-volume" fourni par
l'échocardiographie, opère des mesures sous un autre angle et peut, de la même situation, fournir des
interprétations différentes. La sensibilité et la spécificité de chaque méthode varie selon les types de
lésions et les classes de patients : L'ECG, qui analyse les modifications électriques liées aux variations
du débit coronaire, a une sensibilité variable selon le type d'ischémie en cause. Il est vain de décider
arbitrairement qu'un mode d'observation est l'étalon-or; il s'agit de les utiliser de concert pour qu’ils se
complètent mutuellement, et de construire ainsi par bribes et par morceaux le modèle le plus adéquat
possible de la réalité.

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 16


Cette dépendance vis-à-vis du système d'observation a des conséquences cliniques immédiates. Selon
que l'on utilise le taux de CK-MB, les critères de l'OMS (angor, modifications ECG et élévation des
CK-MB), la troponine I ou la troponine T, l'incidence de l'infarctus myocardique postopératoire varie
entre 1.4%, 3%, 12% ou 17% respectivement [6,13]. Une élévation minime des troponines à haute
sensibilité (TnT-hs 0.03-0.4 ng/mL) est présente chez 8-19% des patients à risque dans le
postopératoire, bien que 58% d’entre eux ne remplissent pas les critères d’un infarctus et que 84%
soient asymptomatiques. Ils souffrent de ce qu’il est convenu d’appeler un MINS (Myocardial Injury
after Noncardiac Surgery) [2,9]. Ce phénomène est accompagné d'un triplement de la mortalité
cardiovasculaire et d'une amélioration du pronostic lorsqu'un traitement classique de l'ischémie est mis
en route [3]. Dans ce cas, le problème est d'une part de savoir si un système de mesure surestime
l'incidence de l'affection. Augmenter la sensibilité sacrifie la spécificité: on risque de traiter des
affections qui n'existent pas. De plus, nous avons tendance à confondre le marqueur d'un phénomène
avec le phénomène lui-même. La troponine n'est pas l'infarctus, les CEA ne sont pas le cancer du côlon,
et le chiffre du BIS™ n'est pas le sommeil du malade. La carte géographique n'est pas le territoire !
D'autre part, le problème est plus fondamental: nous fragmentons le réel en une multiplicité d'entités
définies par notre langage, dont nous sommes tributaires pour nous y repérer, alors que la réalité est un
fondu-enchaîné complexe auquel nous n'avons accès que par le biais des représentations que nous nous
en faisons (Figure 1.5).

Figure 1.5 : Exemples de fondu-enchaîné. Dans la figure de gauche, il est évident que l’angle supérieur droit est
noir et l’angle inférieur gauche blanc, mais la limite entre les deux couleurs est un dégradé progressif dans la
densité des pixels noirs qui exclut de tracer une limite distincte entre le noir et le blanc. La diagonale du rectangle,
qui est la médiane statistique du gris équilibré, peut être envisagée comme limite arbitraire parce que la figure est
de géométrie simple. La figure de droite est déjà plus compliquée puisqu’on assiste à deux passages horizontaux
entre le rouge et le vert sans qu’il soit possible d’attribuer une limite géométrique aux deux couleurs, bien qu’il
soit évident que les bords sont rouges et le centre vert.

Dans la réalité, les formes, aussi bien que les processus ou les maladies, sont infiniment plus complexes
que celles de la figure. Mais le problème est le même: définir une zone de couleur, comme définir un
infarctus, consiste à tracer une limite à l'intérieur de laquelle existe l'entité en question et au-delà de
laquelle elle n'existe pas. Cette frontière n'a pas d'existence réelle; elle marque une limite entre des
entités que nous définissons pour nous les représenter avec discrimination et les manipuler avec
précision. Mais ce qui erroné d’un point de vue ontologique reste utilisable d’un point de vue
pragmatique. Néanmoins, la volonté de circonscrire et de définir les choses barre tout accès direct à la
réalité et contraint définitivement à ne pouvoir connaître que notre représentation du monde, non le
monde lui-même. Les MINS correspondent-ils à une réalité nosologique ? La réponse à cette question
ne peut être qu'une tautologie puisque le langage qui définit le phénomène est le même que celui qui
codifie notre représentation de l'ischémie myocardique. Nous sommes prisonniers de la convention qui
veut que le réel soit sécable en petites entités autonomes que nous définissons, que nous nommons et
que nous combinons ensemble pour construire un édifice physiopathologique cohérent pour notre
raison. Ces entités entretiennent avec le réel une relation à distance analogue à celle qui sépare et relie
tout à la fois le mot et l'objet qu'il décrit. Mais ceci n'est qu'une des lectures possibles du réel. Tout ce

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 17


que nous pouvons en dire est qu'elle fonctionne plutôt bien dans notre conception du monde, qui n'est
est qu'une parmi d'autres.

Un peu d'épistémologie

La science est un langage décrivant nos représentations du monde fondé sur la régularité des
phénomènes auquel nous attribuons le statut de loi. Les "vérités" scientifiques ne sont jamais des
certitudes acquises mais sont par nature susceptibles d'être remises en question par de nouvelles
découvertes. La relation linéaire entre la cause et l'effet n'est vérifiable que dans des systèmes simples
artificiellement isolés de leur contexte. Les systèmes complexes qu'analyse la médecine relèvent
d'une causalité multifactorielle ou probabiliste. Leur investigation dépend fondamentalement de
l'instrument de mesure utilisé.
Pour pouvoir le gérer selon nos paradigmes, nous fragmentons le réel, par nature continu, en entités
isolées et définies qui sont à la base de la physiopathologie et de la nosologie. Ces entités
correspondent au fonctionnement de notre raison; elles ont par rapport au réel la même distance que
celle qui sépare l'objet du mot qui le décrit.

Références

1 AMZALLAG GN. La raison malmenée. Paris, CNRS Edition, 2002


2 BOTTO F, ALONSO-COELLO P, CHAN MT, et al. Myocardial injury after noncardiac surgery: a large international prospective
cohort study establishing diagnostic criteria, characteristics, predictors, and 30-day outcomes. Anesthesiology 2014; 120:564-78
3 FOUCRIER A, RODSETH R, AISSAOUI M, et al. The long-term impact of early cardiovascular therapy intensification for
postoperative troponin elevation after major vascular surgery. Anesth Analg 2014; 119:1053-63
4 HAYWARD JH. Scientific method and validation. In: HAYWARD JW, VARELA FJ. Gentle Bridges. Shambala Ed., Boston, 1992
5 HEISENBERG W. Physics and philosophy, the revolution in modern sciences. Harper, New-York, 1958
6 KEMP M, DONOVAN J, HIGHAM H, HOOPER J. Biochemical markers of myocardial injury. Br J Anaesth 2004; 93:63-73
7 KUHN TS. The structure of scientific revolutions. Chicago: University of Chicago Press, 1962
8 MATURANA HR, VARELA FJ. The Tree of knowledge. Shambala, Boston, 1992
9 OBERWEIS BS, SMILOWITZ NR, NUKALA S, et al. Relation of perioperative elevation of troponin to long-term mortality after
orthopedic surgery. Am J Cardiol 2015; 115:1643-8
10 POPPER K. La logique de la découverte scientifique. Payot, Paris, 1973
11 POPPER K. L'Univers irrésolu, plaidoyer pour l'indéterminisme. Hermann, Paris, 1984
12 PRASAD V, VANDROSS A, TOOMEY C, et al. A decade of reversal: an analysis of 146 contradicted medical practices. Mayo
Clin Proc 2013; 88:790-8
13 PRIEBE HJ. Triggers of perioperative myocardial ischemia and infarction. Brit J Anaesthesiol 2004; 93:9-20
14 WATZLAWICK P. L'invention de la réalité. Contribution au constructivisme. Seuil, Paris 1988

Pensée scientifique et attitude idéologique

Notre connaissance du monde ne dépend pas que de nos techniques d'observation, à la limite toujours
perfectibles. Il y a plus profond. Continuellement, nous évaluons les évènements qui surviennent par la
pensée. En permanence nous les relions par des concepts pour les comprendre. Machinalement, nous les
traduisons en langage pour leur chercher un sens, comme si la réalité n'était qu'une série de phrases. "Ce
faisant, nous mélangeons continuellement deux dimensions distinctes: celle de nos pensées et celle de la
réalité. Ce mélange provoque dans notre appréhension du monde des confusions lourdes de
conséquences" [1]. La connaissance scientifique et ses lois restent du domaine du langage, même aussi
rigoureux que le langage mathématique. Elles présentent toutes les limitations du langage, comme l'a si
bien démontré Wittgenstein [2]. Nous n’avons pas d’accès direct au réel, mais seulement à notre
représentation mentale de celui-ci. Définir un phénomène comme l'infarctus, par exemple, c'est l'isoler

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 18


de la réalité et le transformer en concept par la pensée; après ce processus premier, on n'est plus que
dans un jeu de langage, ou devant un écran qui masque le réel.

La pensée scientifique s'est construite contre les croyances religieuses, mais l'attachement et le respect
que l'Occident affiche vis-à-vis des théories scientifiques relèvent d'une attitude elle-même religieuse.
Lorsque on ne fait confiance – mais une confiance absolue – qu'aux études randomisées ou à une
evidence-based medicine, on manque soi-même de jugement et de rigueur, et on s'ampute d'une partie
de la réalité qui ne rentre pas dans ce cadre [8]. Que la croyance dans la science devienne elle-même une
attitude idéologique se remarque à la foi avec laquelle on adopte les dernières publications, pour autant
qu'elles restent dans le cadre d'une certaine convention bien établie et jouissent de la caution d'un
journal à haut facteur d'impact. Les propositions qui en découlent deviennent rapidement des dogmes,
que quelques thuriféraires se chargent de faire respecter sous la menace d'une nouvelle Inquisition. Tout
semble confirmer les données; c'est une période d'euphorie. Et lorsque les conclusions sont mises en
doute ou démenties par la suite, on développe le même enthousiasme pour condamner ce que l'on avait
adoré. Une enquête menée sur dix ans de publications dans le New England Journal of Medicine a
révélé que le 60% des 1'344 études concernant le domaine de la thérapeutique médicale proposaient le
contraire de ce qui avait été précédemment admis ou n'apportaient pas de conclusions valables, et que le
40% des 363 articles testant les pratiques considérées comme standards concluaient qu'elles n'étaient pas
supérieures à des thérapies plus simples et moins onéreuses [5]. Ces allers-retours sont d'autant plus
amples et plus rapides que le domaine est plus en vogue [3].

Dans une investigation, on pose une question dont on espère trouver la réponse, par exemple, telle
substance est-elle plus efficace qu'un placebo contre telle affection dans telles circonstances ? Mais le
simple fait de poser une question en certains termes conditionne la réponse que l'on obtiendra, même en
l'absence de toute ingérence extérieure. La construction de l'étude est en elle-même un biais
fondamental qui influencera inévitablement les résultats, en les transformant pour une part en une
mesure très précise mais du biais original. A cela s'ajoute un autre biais: plus le thème fait partie d'un
domaine chaud et plus les intérêts économiques sont élevés, moins les résultats ont de chance d'être
justes [3]. De plus, la minutie avec laquelle on épie un évènement que l'on observe va elle-même
introduire un nouvel élément, appelé effet Hawthorne: l'observation méticuleuse d'un phénomène
modifie sa probabilité d'existence, parce que des événements sans portée sont pris en compte alors qu'ils
passent inaperçus en temps normal. Dans une étude contrôlée et randomisée, on induit ce que l'on
recherche à cause de la rigueur du canevas, du choix précis des observations, et du recrutement très
sélectif des patients ; il arrive que moins de 10% des candidats potentiels soit retenus pour l’étude [4].
Dans un essai thérapeutique, les malades sont observés et impliqués personnellement avec bien plus de
contrainte que dans le suivi habituel ; ils n’oublient aucune dose, ne manquent aucun contrôle et ne sont
jamais perdus de vue. Dans la période périopératoire, la méticulosité du monitorage peut avoir autant
d’impact que l’effet du médicament observé. Ainsi les premières publications sur un phénomène
donnent en général des résultats extraordinaires. Par la suite, ceux qui veulent répéter les expériences et
aborder le problème sous un autre angle ou dans le monde réel de la pratique quotidienne obtiennent le
plus souvent des résultats moins flamboyants. Finalement, l'élément peut même être abandonné parce
qu'invalide ou parce que ses défauts sont supérieurs à ses bénéfices. De nombreux médicaments et de
nombreuses techniques ont subi cette séquence: l'atropine en prémédication, le thiopental dans la
réanimation cardio-pulmonaire, l'aprotinine en chirurgie cardiaque, le circuit de Bain en ventilation, etc.
Peut-être le préconditionnement, les β-bloqueurs et les antiplaquettaires en prophylaxie de l'ischémie
périopératoire subiront-ils un jour le même sort….

En clinique, la validité d'une conclusion est prouvée en dernier ressort par l'introduction de
modifications thérapeutiques qui améliorent considérablement la qualité des prestations offertes aux
patients. Le fait que ces améliorations soient significatives sera prouvé à son tour par des études de
contrôle de qualité sur le devenir des malades. Celles-ci sont encore peu nombreuses en anesthésiologie
et n'apportent pas toujours des réponses assez claires pour pouvoir établir un consensus réel sur le sujet

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 19


en question. Celles qui existent donnent souvent des résultats équivoques. La cause n'est pas forcément
leur taille trop faible, car plus les études sont vastes plus les résultats ont de chance d'être le résultat de
biais importants [3].

Quand on survole la littérature médicale de ces vingt dernières années, on a l'impression attristante que
le degré de signification des résultats est de plus en plus faible. La bithérapie antiplaquettaire par
exemple, universellement considérée comme obligatoire dans la prévention secondaire des risques
cardiovasculaires, n'améliore le pronostic des patients que de 20-30%. C'est toujours ça, certes, mais
c'est peu par rapport aux sommes colossales investies dans la recherche et dans le coût des traitements.
Or on modifie toute la prise en charge d'une maladie au nom d'une étude dont le gain par rapport au
placebo est de l'ordre de 25% (hazard ratio 0.25) dans des conditions expérimentales idéales. Il n'est
guère surprenant que la moitié des thérapies testées ces dix dernières années ne soit pas meilleure que
des traitements plus simples et moins onéreux [5], et que le 45% des interventions thérapeutiques
proposées ne devrait pas être appliqué en clinique au vu de la faiblesse des preuves; au sein des études
dont les conclusions débouchent sur un bénéfice probable, seuls 2% ont des résultats suffisamment nets
pour ne pas justifier des investigations supplémentaires [7]. Quant aux recommandations publiées en
cardiologie (ACC/AHA Guidelines), elles reposent pour 48% d'entre elles sur un degré d'évidence C
seulement (voir Figure 1.9) [6]. Contrôlée par les commissions éditoriales des grands journaux,
soutenue directement ou indirectement par l'industrie, et devenue le passage obligé de toute prétention
académique, la recherche clinique a de moins en moins de chance d'accoucher d'idées neuves et de
trouvailles révolutionnaires, tant elle ronronne en vase clos au sein d'un establishment intellectuel ligoté
par les conventions. Les conflits d'intérêt ne sont pas le seul fait de l'industrie ou de la politique
académique; ils existent déjà dans la foi du chercheur pour sa propre théorie et dans les présupposés
rationnels du paradigme scientifique.

Science et idéologie

La croyance dans la suprématie du paradigme scientifique relève de l'idéologie et non de la pensée


scientifique, qui est fondée sur le doute et la remise en question. La pensée médicale s'est installée
dans un mode rationnel basé sur des évidences mécanistes et statistiques obtenues à partir d'études
randomisées et contrôlées. Ces études sont par nature des expériences isolées de leur contexte, dont
les réponses dépendent de la manière dont les questions sont posées. Bien que la méthodologie soit
rigoureuse, les résultats sont le plus souvent peu significatifs, au point que 45% des interventions
thérapeutiques proposées ne devraient pas être appliquées vu la faiblesse des preuves et que seuls 2%
des résultats sont suffisamment tranchés pour ne pas justifier des investigations complémentaires.

Références

1 GALATIS A. L'indicible. Paris: Editions Accarias L'Originel, 1997, p 5


2 HADOT P. Wittgenstein et les limites du langage. Paris: Librairie Philosophique J.Vrin, 2005,126 pages
3 IOANNIDIS JPA. Why most published research findings are false. PLoS Med 2005; 2:e124
4 POLDERMANS D, BOERSMA E, BAX JJ, et al. The effect of bisoprolol on perioperative mortality and myocardial infarction in
high-risk patients undergoing vascular surgery. N Engl J Med 1999; 341:1789-94
5 PRASAD V, VANDROSS A, TOOMEY C, et al. A decade of reversal: an analysis of 146 contradicted medical practices. Mayo
Clin Proc 2013; 88:790-8
6 TRICOCI P, ALLEN JM, KRAMER JM, et al. Scientific evidence underlying the ACC/AHA clinical practice guidelines. JAMA
2009; 301:831-41
7 VILLAS BOAS PJ, SPAGNUOLO RS, KAMEGASAWA A, et al. Systematic reviews showed insufficient evidence for clinical
practice in 2004: what about 2011? The next appeal for the evidence-based medicine age. J Eval Clin Pract 2013; 19:633-7
8 WALLACE BA. The taboo of subjectivity. Oxford: Oxford University Press, 2000, 218 p

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 20


Systèmes complexes et chaos

La crédibilité d'une science naît de sa faculté à relier les causes et les effets, et, de là, à rendre les
phénomènes prédictibles. Or, certains systèmes manifestent des comportements aléatoires qui semblent
défier la connaissance par leur complexité et leur imprévisibilité: citons par exemple les turbulences, la
météorologie, la fluctuation des populations, les embouteillages routiers, les arythmies létales ou les
accidents vasculaires. Ces systèmes échappent à toute analyse selon la méthodologie classique, qui
consiste à rechercher une cause individuelle à tout événement en le décomposant en ses éléments les
plus simples. La conception mathématique linéaire, qui décrit des effets directement proportionnés à
l’intensité de leur cause, n’a plus cours dans ces modèles non-linéaires où elle ne voit que du chaos
[810]. Les systèmes non-linéaires sont caractérisés par une variabilité d’effets qui paraît imprévisible:
des causes minuscules peuvent y engendrer des résultats gigantesques et inattendus. Ils sont également
caractérisés par un comportement global différent de celui des éléments qui le constituent ; un système
complexe peut passer certains seuils, et donner naissance à des propriétés émergentes différentes des
propriétés initiales du système ; une propriété émergente est une caractéristique imprévisible au niveau
local qui apparaît au niveau global [22]. Les systèmes non-linéaires sont aussi extrêmement dépendants
des conditions initiales définies comme celles du temps zéro de l'observation. Sur l’échelle du temps, ils
tendent à maintenir une variabilité adaptatrice mais non à préserver leur stabilité [3]. Enfin, les
équations qui décrivent ces systèmes non-linéaires n’ont en général pas de solution analytique [7] ; seule
la simulation informatique permet d’élucider les comportements possibles du système.

Cette nouvelle méthodologie a dévoilé que ces comportements apparemment chaotiques sont régis par
des structures géométriques élégantes qui engendrent de l'aléatoire, et ceci dès que le système examiné
comporte trois ou plus degrés de liberté (ou variables indépendantes) et que celles-ci, en tout ou en
partie, suivent des progressions géométriques exponentielles [4]. Un exemple simple est un pendule
métallique oscillant entre trois aimants équidistants ; celui-ci va s’immobiliser au-dessus d’un des
aimants après avoir parcouru un mouvement compliqué et désordonné que l’on ne pourrait prévoir que
si l’on pouvait connaître avec une exactitude infinie le champ d’attraction de chaque aimant et la
position initiale exacte du pendule, ce qui est évidemment impossible puisque la précision des mesures
est limitée et puisque le temps zéro de l'expérience n'est pas le temps zéro de l'univers: on intercepte un
phénomène toujours déjà en cours [22]. Les systèmes complexes n’ont nullement besoin d’être
compliqués pour donner lieu à d’innombrables possibilités au milieu desquelles ils évoluent de manière
surprenante. Si l’on ajoute quelques grains à un tas de sable, la hauteur de celui-ci augmente, de même
que sa pente ; cette pente croît jusqu’à un certain seuil, au-delà duquel se déclenche une avalanche. Si
l’on recommence continuellement l’opération, on verra que la taille des avalanches est indépendante de
la quantité de sable ajoutée, et que leur fréquence est inversement proportionnelle au logarithme de leur
taille [22]. Finalement, la notion de fractale est fréquemment associée à la complexité et au chaos ; la
fractale est un concept géométrique décrivant un objet composé de sous-unités dont la structure est
similaire à celle de l’ensemble (Figures 1.6 et 1.7) [3,9]. Ces quelques points méritent un
développement un peu plus détaillé en relation avec la biologie.

Des marins ont depuis des siècles décrit l’apparition soudaine d’une vague monstrueuse au cours de
gros temps ; certain ont sancis, beaucoup ont coulé et quelques-uns en sont revenus. Cette vague
scélérate a été tenue pour une légende parce qu’elle paraît exceptionnelle et que, décidément, les marins
boivent beaucoup. Mais dans la deuxième moitié du XXème siècle, quelques cargos ou pétroliers ont eu
le temps de lancer un SOS avant de disparaître corps et biens, décrivant se trouver en face d’un mur
d’eau gigantesque qui allait les engloutir. C’est lorsqu’on eut l’idée de modéliser la dynamique des
vagues océaniques sur ordinateur et de faire tourner le programme pour créer des milliards de milliards
de vagues qu’on s’aperçut que, sporadiquement, apparaissait un véritable monstre de 25 mètres de
hauteur. Ce que les observations satellite ont pu confirmer. Les petites vagues sont fréquentes, les
grandes sont plus rares, et les monumentales sont exceptionnelles. Il en est de même des tremblements

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 21


de terre : leur magnitude sur l’échelle de Richter (qui est logarithmique) est directement liée au
logarithme de leur fréquence ; la relation est une droite dont la pente est une dimension fractale
(explication aux Figures 1.6, 1.7 et 1.8). Il n’existe aucune différence de nature ou de cause entre un
gros tremblement de terre et un petit, ou entre une vague immense et un clapot : seule l’intensité diffère.
Les évènements les plus importants sont simplement plus rares. Il n’est nul besoin d’un déclencheur
spectaculaire pour provoquer une catastrophe. En mathématique, la fréquence d’un événement est égale
à 1 divisé par une certaine puissance définissant l’importance de cet évènement. En d’autres termes, la
taille d’un événement est égale à 1 divisé par sa fréquence (f) élevée à une certaine puissance (P)
représentant cette taille : 1/fP. Chez les mammifères, l'augmentation de la fréquence cardiaque (f) par
rapport à la diminution de la masse corporelle (M) est elle aussi une ligne droite sur une échelle
logarithmique (où f = 241 M-0.25) (Figure 1.8) [20,21]. C’est la même relation qui existe entre
l’importance des tremblements de terre et leur fréquence.

Figure 1.6: Construction de fractales (courbe de Koch). Le tiers central d’une droite (A, en bas) est transformé en
un triangle isocèle dont le côté est égal à la longueur du tiers de la droite primitive. Cette opération est répétée sur
les quatre segments de cette droite (B). Elle est répétée une deuxième fois pour obtenir l’image du haut (C). On
peut réitérer cette opération autant de fois que l’on veut : la longueur totale de la courbe obtenue tend vers l’infini
alors que ses extrémités sont les mêmes que celles du segment d’origine et qu’elle ne s’élève pas plus haut. Pour
obtenir la longueur d’un côté, il faut diviser la longueur de la courbe primitive par 4 et multiplier le résultat par 3
(voir courbe A). La puissance de 3 égale à 4 est 1.2619 (31.2619) [8]. La dimension fractale de la courbe est 1.2619.
La dimension d’une fractale est toujours située entre 1 et 2. La dimension fractale de la côte de Norvège avec ses
fjords enchevêtrés, par exemple, est 1.52. Dans la réalité, la longueur mesurée est fonction de l’échelle choisie. Si
la carte représentant la côte de Norvège est couverte d’une grille de petits carrés et que l’on mesure la longueur de
la côte dans chaque carré, la longueur totale sera d’autant plus grande que les carrés choisis seront plus petits. Un
graphique mettant en regard le logarithme de la longueur de côte mesurée dans chaque carré (en ordonnée) et le
logarithme de la taille des carrés (en abscisse) montre que la relation est une droite dont la pente est la dimension
fractale (voir Figure 1.8). Le produit des logarithmes de la longueur de côte et de la taille du carré est une
constante : on dit qu’il y a invariance d’échelle.

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 22


2
5

DF = 1.51
ε = (2/5)-1 = 2.5
N=4

Figure 1.7: Embranchement fractal théorique illustrant de manière schématique un réseau de dendrites, des
capillaires coronariens ou des subdivisions de fibres de Purkinje. En l’occurrence, la dimension fractale (DF) est
1.51, l’échelle liant la taille des branches (ε) est (2/5)-1 ou 2.5 et le nombre d’embranchements (N) est 4. Calcul de
la dimension fractale : DF = log 4/log (5/2) = 1.51) [3].

Fréquence cardiaque (f)


(batt/min)

1000

100

-0.25
f = 241 P

10

0.1 1 10 100 1000


Poids (P) (kg)

Figure 1.8: Relation entre le poids des mammifères et leur fréquence cardiaque. La fréquence est d’autant plus
élevée que l’animal est petit. L’échelle est logarithmique pour les deux données [d'après Schmidt-Nielsen K.
Animal physiology. 5th edition. Cambridge: Cambridge University Press, 2002, p 101]. On obtient le même type
de droite dans d’autres lois de puissance, comme la relation entre la puissance des tremblements de terre ou la
hauteur des vagues et leur fréquence, la relation entre la quantité d’ADN contenu dans une cellule et le nombre de
types cellulaires différents que possède l’être vivant considéré, ou la relation entre l’échelle de la carte de
géographie et la longueur de la côte. Dans ce dernier cas, la pente de la droite (sa puissance) est la mesure de la
dimension fractale de la côte.

Le génome humain comprend entre 30'000 et 100'000 gènes qui peuvent agir les uns sur les autres en
s’activant ou se désactivant mutuellement (cross-talk) dans un réseau complexe de connexions et de
rétrocontrôles (feed-back) ; ces gènes contrôlent la différentiation et l’activité cellulaire de notre
organisme. Or nous avons 256 variétés de cellules dans notre corps. En comparant les espèces de la

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 23


bactérie à l’homme, on voit que le nombre de variétés cellulaires croît en fonction de la racine carrée du
nombre de gènes [11]. Autrement dit, les règles qui valent pour les vagues, les séismes et les tas de sable
s’appliquent aussi aux gènes, aux cellules et aux organes de notre corps. Il y a bien invariance
d’échelle ; nous sommes dans un système fractal.

Cette loi de puissance (1/fP) concerne toujours des systèmes complexes formés de nombreux
composants, systèmes ouverts alimentés par une source d’énergie externe qui se gèrent spontanément
dans un état critique auto-organisé situé à la frontière entre la stabilité et le chaos, et qui s’y
maintiennent dans un équilibre dynamique et instable [10]. Un bon exemple est le système du réseau,
ensemble de points partiellement reliés deux à deux et constitués de multiples éléments interdépendants.
Dans le cerveau, ces éléments sont des neurones reliés par leurs dendrites, dans la cellule ce sont des
molécules reliées par des réactions chimiques, et dans la société ce sont des individus liés par leurs
relations sociales. Mais dans chacun de ces systèmes, la probabilité pour qu’un élément « e » soit relié à
k autres éléments est aussi une loi de puissance : 1/ke. Le réseau peut adopter un comportement régulier
ou aléatoire selon le nombre d’interconnections et le nombre d’éléments, mais lorsque ce nombre est
suffisamment grand, le réseau est en équilibre dynamique autour d’une position proche de la transition
entre l’ordre et le chaos [11]. Il présente alors une certaine robustesse contre les perturbations ou les
ruptures de connexions, mais fait aussi preuve d’une imprévisibilité fondamentale. En effet, le nombre
de combinaisons possibles devient vite astronomique, même dans un réseau de petite taille : avec mille
éléments interconnectés pouvant être chacun dans 2 états (activé ou désactivé, par exemple), on obtient
10300 configurations possibles [22] ; ce nombre est tel que l’âge de l’Univers serait un temps insuffisant
à un ordinateur surpuissant pour calculer toutes les combinaisons possibles.

Mais il se passe un autre phénomène dans les systèmes complexes et les réseaux. Certaines
combinaisons et certains circuits reviennent plus souvent que d'autres. Dans les réseaux, les liens se
condensent autour de certains foyers (hubs) qui centralisent un maximum d'interconnexions et dont la
fonction est prioritaire pour la circulation des informations (Figure 1.9) [13]. Un phénomène
physiopathologique est un foyer d'intersections qui nous apparaît comme une entité autonome parce que
nous simplifions la réalité pour nous la rendre compréhensible et manipulable; ce faisant, nous
négligeons l'aspect réticulaire du réel et nous oublions que chaque élément est en totale interdépendance
avec ceux auxquels il est relié au sein des réseaux. Sa description correspond en fait à isoler le hub et à
analyser son fonctionnement indépendamment de ses multiples connexions.

Si nous simulons nos 30'000 gènes connus et leurs interconnexions dans un programme où chaque gène
peut être activé ou inhibé, nous obtenons 109’000 combinaisons possibles. Ce chiffre est évidemment
irréalisable. Or en faisant tourner un programme informatique de simulation, on voit que les
innombrables possibilités se condensent autour d’un nombre restreint de réalisations ou d’états
cycliques, en l’occurrence 173. Ces foyers de réalisations ont été appelés attracteurs ; leur nombre est
équivalent à la racine carrée du nombre d’éléments (dans ce cas les gènes) [10,17]. Comme nous
possédons entre 30'000 et 100'000 gènes, il est intrigant de constater que nous avons 256 espèces de
cellules différentes, soit le nombre probable d’attracteurs correspondant à la racine carrée du nombre de
gènes [10,22]. Au niveau global, la complexité engendre trop de possibilités pour être prévisible, mais
apparaît profondément auto-organisée.

Les rythmes physiologiques comme le rythme cardiaque, la respiration ou la pression artérielle ne sont
pas strictement périodiques mais présentent des variations non-linéaires constantes que l’on peut
partiellement assimiler à des fractales déroulées dans le temps au lieu de l’espace [7]. L’anarchie d’une
arythmie ou l’hyper-régularité par perte des fluctuations conduisent toutes deux vers la pathologie [14].
Les fluctuations complexes du rythme cardiaque sont probablement une fonction physiologique
essentielle assurant une meilleure robustesse du système face aux variations de l’environnement. L’EEG
est un des signaux physiologiques les plus complexes. Les mathématiques non-linéaires sont mises à
contribution en clinique pour analyser son tracé de différentes manières. L’entropie quantifie le degré
d’aléatoire ou d’impredictabilité du signal (une onde sinusoïdale simple a une entropie de 0 alors qu’un

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 24


bruit anarchique a une entropie maximale) ; la complexité normalisée quantifie le degré de répétition de
séquences identiques dans un train de signal ; enfin la dimension fractale mesure l’augmentation de la
disparité dans l’amplitude des signaux lorsque l’échantillonnage est de plus en plus espacé [6]. Toutes
ces techniques sont utilisées pour l’analyse du tracé EEG et pour en extraire des informations sur la
profondeur du sommeil.

Figure 1.9: Image de réseaux contribuant à l'adiposité génétique chez la souris. Les hubs sont les 8 foyers rouges
représentant chacun un des gènes impliqués dans la maladie [Lusis AJ, Weiss JN. Cardiovascular networks.
Systems-based approaches to cardiovascular disease. Circulation 2010; 121:157-70].

Les théories mathématiques non-linéaires ont démontré que les limites de la prédictibilité sont
inhérentes aux systèmes complexes pour deux raisons. En premier lieu, l'extrême sensibilité aux
conditions initiales d'un système à interdépendances multiples conditionne son évolution et permet
d'aboutir, par une cascade d'événements enchaînés dans le temps, à de vastes variations dans les
résultats à long terme à partir de minuscules différences dans la situation de départ. Des phénomènes de
dimensions inobservables à notre échelle prennent, par croissance exponentielle, des valeurs
comparables aux grandeurs qui expriment l'état initial du système. Quelle que soit la précision des
mesures de l’état initial, elle ne peut pas être infinie, donc un certain degré d’incertitude est toujours
présent. Deuxièmement, la croissance de ces incertitudes y est exponentielle au fur et à mesure que le
système évolue: toute mesure est entachée d'erreurs, et ces erreurs croissent si rapidement que toute
prévision devient impossible. On a ainsi décrit un effet papillon: on peut calculer que le battement des
ailes d'un papillon, événement minuscule s’il en est, a pour effet après quelque temps de modifier l'état
de l'atmosphère terrestre et de sa météorologie de manière imprévisible [17]. En physique des fluides, il
suffit d'un jour pour que des modifications sur des dimensions de l'ordre du centimètre soient

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 25


transformées en changements de l'ordre de dix kilomètres [18]. Il existe ici une analogie intrigante avec
le nadir de la performance myocardique qui survient 5-6 heures après une CEC [16] ou avec les
complications cardiaques postopératoires dont l'incidence est maximale entre le 2ème et le 3ème jours
postopératoires [12]. Peut-être sont-elles la conséquence d'une suite de modifications minuscules qui ont
débuté en cours d'intervention mais qui ne peuvent pas encore être perçues par nos instruments de
mesure à ce moment-là. Il existe aussi une analogie inquiétante avec la genèse des accidents : dans les
systèmes complexes, des gestes en apparence anodins peuvent avoir des conséquences fâcheuses par
amplification progressive. Il se peut même que ces gestes soient quotidiens, et qu’une fois,
exceptionnellement, ils se retrouvent liés à une catastrophe parce que le hasard en a modifié le contexte.

On définit les conditions initiales comme celles du temps zéro de l'observation, mais le système est lui-
même en constante évolution dans le temps: chaque instant représente les conditions initiales d'une autre
séquence d'événements, lui-même héritier d'une situation précédente. De plus, un système complexe
peut passer certains seuils, et donner naissance à des propriétés émergentes différentes des propriétés
initiales du système; ainsi, en dessous d'une certaine température, l'eau cristallise, et la glace prend des
caractéristiques non contenues dans la phase aqueuse ; c’est une transition de phase. Si l’on ajoute ou
soustrait des grains de sable à un tas presque plat, les grains voisins ne sont pas modifiés et rien ne se
passe. Mais dès lors que le tas est élevé et présente une pente assez raide, retirer ou ajouter un seul grain
va déséquilibrer l’ensemble, et toute la pente va se modifier dans l’écroulement du tas. Accentuer la
pente du tas de sable est l’équivalent d’une augmentation de l’interdépendance des grains, comme
ajouter des connexions à un ensemble d’unités. Les systèmes assez compliqués pour donner naissance à
des propriétés émergentes et tout de même assez stables pour être observés sont ceux dans lesquels
chaque élément est relié à un ensemble de deux à cinq autres, et entretient avec eux des relations en
feed-back qui peuvent être catalysatrices ou inhibitrices. Ce phénomène peut fournir une explication à
l’origine de la vie. Dans la soupe primitive d’acides aminés d’où elle a démarré, il s’est établi un réseau
de connexions entre substances chimiques réagissant les unes avec les autres ; certaines réactions étaient
autocatalytiques et s’entretenaient, d’autres étaient inhibitrices et freinaient la formation de certaines
molécules. Une hypothèse très plausible est que la vie représente une transition de phase dans un
système chimique présentant un nombre suffisant de connexions en réseau. Quelques connexions en
moins et rien ne se passe, quelques connexions en plus et la vie devient inévitable [10]. Celle-ci n’est
peut-être pas un hasard, mais une nécessité.

Comme une différence d'échelle introduit une différence de propriétés, la déconstruction d'un système
complexe en unités plus simples que l'on additionne ne permet pas d'explorer le fonctionnement de
l'ensemble lorsque des seuils organisationnels sont franchis. Un réseau interactif de neurones
particulièrement dense peut amener une stimulation sensorielle à l'état de conscience au-dessus d'un
certain seuil de complexité [19]. La variabilité individuelle s'efface à l'échelle collective, non pas par
effet cumulatif d'un grand nombre d'unités différentes, mais bien parce qu'il se produit une
homogénéisation progressive des entités les unes en fonction des autres; il émerge donc un
comportement coopératif entre les unités individualisées [1]. D’où le titre d’un article fameux paru dans
Science: "More is different" [2]. La variabilité individuelle n'est pas qu'un phénomène parasite
perturbant le déterminisme préexistant. Elle est au contraire la source même de l'émergence de
propriétés nouvelles agissant comme un noyau de cristallisation autour duquel l'ensemble peut se
restructurer selon une nouvelle dimension par synergie plutôt que par accumulation. Ce type de
paradigme paraît flou aux yeux de la physique mécanique classique, mais il est la base épistémologique
de la biologie et de la neurophysiologie modernes.

Pour compliquer les résultats, les systèmes complexes sont dynamiques; les opérations s'y répètent sans
cesse, telles les oscillations d'un pendule ou les battements du coeur. L'analyse mathématique de ces
répétitions et de leur variabilité dévoile que ce sont les fluctuations d'importance minime qui dominent
finalement le système tout entier, alors que ce système démontre la capacité de se rééquilibrer en
permanence pour amortir l'effet des modifications grossières imposées par l'environnement [4]. Le
concept du chaos remet en cause l'idée réductionniste qui consiste à analyser le comportement d'un

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 26


système en le réduisant à celui des éléments qui le constituent; il impose la notion que son évolution à
long terme est imprévisible, parce que la variabilité fait partie de sa nature. Le seul système capable de
simuler un événement complexe dans ses moindres détails est cet événement lui-même. Dans le cadre
de la prévisibilité du risque opératoire et des analyses de devenir des patients en anesthésie, ces concepts
logiques éclairent sous un jour nouveau les difficultés rencontrées depuis vingt ans dans la recherche
des déterminants du risque et des facteurs déclenchants de morbidité et de mortalité. Leur nature
indéterministe et aléatoire exclut une prédictibilité individuelle fiable pour chaque malade. On
comprend aussi que les résultats des essais cliniques randomisés et contrôlés, qui isolent certaines
données à observer dans une population hautement sélectionnée, ne soient jamais confirmés avec autant
de signification par les études faites dans le monde clinique réel où de multiples facteurs confondants
interviennent en permanence.

On le sait en météorologie: quand bien même on connaîtrait tous les éléments en jeu à un instant précis,
on ne pourrait faire des prédictions fiables qu'à court terme. Les systèmes dynamiques ou chaotiques
peuvent s'étudier à deux niveaux: celui des trajectoires individuelles, qui sont l'illustration du désordre,
et celui des ensembles, qui sont décrits par des distributions de probabilités et qui présentent à cette
échelle un comportement analysable [15]. Une connaissance parfaite des facteurs en jeu dans l'ischémie
myocardique ne permettrait donc qu'une prédiction probabiliste: il serait possible de définir
l'appartenance d'un malade à une classe qui présente une probabilité définie de faire un infarctus, mais il
reste impossible de savoir si ce malade particulier fera un infarctus ou non. La causalité n'étant pas
linéaire mais multifactorielle et redondante, on ne peut prédire que des risques ou des chances par
rapport à un ensemble d'individus. Le malade, lui, est au contraire dans un système binaire: il est vivant
ou mort; il n'a que deux possibilités: 0% ou 100%. Inversement, le fait que ce malade particulier n'ait
pas fait d'infarctus au cours d'une anesthésie ne change rien au risque inhérent à cette classe de patient et
ne cautionne en rien la technique utilisée; la probabilité d'un évènement reste la même, que cet
évènement se soit produit ou non. Un succès isolé ne prouve rien !

Il faut encore tenir compte d’un autre aspect des phénomènes. Dans les systèmes vivants, des erreurs et
des incidents se produisent sans cesse, même si leurs effets sont estompés par les systèmes
homéostasiques de l'organisme qui tendent à maintenir l'équilibre par rapport aux déviances. Tous ces
systèmes comprennent de multiples contraintes qui peuvent se potentialiser ou s'annuler selon les
circonstances. Ainsi le sort d'une plaque athéromateuse dépend de l'équilibre momentané des lipides et
des cellules inflammatoires qu'elle contient, de sa capsule endothéliale, des facteurs déséquilibrants de
l'instant (fumée, stress) ou des substances stabilisantes (statines par exemple), de l'activité des plaquettes
et de la fibrinolyse, des forces de cisaillement locales (hypertension artérielle) et de l'activité
endothéliale (anormale dans la maladie athéromateuse), de la diète et de la constitution génétique. Un
thrombus peut être évacué par le débit, lysé rapidement, ou agrandi par hypercoagulabilité. La survie du
myocarde distal dépend de ses besoins momentanés en O2 (effort ou repos, tachycardie ou bradycardie,
présence d’une valvulopathie), de l'apport en O2 (hypoxie, hypotension, bas débit, anémie ou
hyperviscosité) et du degré de collatéralisation. Si l’on scrute le niveau cellulaire, on voit par exemple
que 1-2% des électrons cheminant dans la chaîne d’oxydo-réduction des mitochondries s'en échappe
dans le cytoplasme et y forme des superoxides toxiques, en général lysés par des enzymes (super-O--
dismutases). Le DNA de chacune de nos cellules est quotidiennement l’objet de 10'000 de ces attaques
oxydatives, dont certaines vont donner naissance à des mutations [5]; et ces dégâts s’accumulent avec
l’âge. La survie de chacune de nos cellules est le fruit d’un équilibre dynamique entre les facteurs qui
conditionnent sa croissance et ceux qui gèrent son apoptose. Cette dernière est programmée par des
gènes, qui sont activés par le stress métabolique ou l’ischémie.

Cette énumération très partielle des multiples phénomènes en jeu simultanément traduit la non-
prédictibilité fondamentale d'un événement, notamment lorsque celui-ci est aussi complexe et aussi
variable qu’un accident d’avion ou un infarctus. Il est illusoire de vouloir le réduire à quelques causes
simples, de le classer en catégories précises dont chacune aurait une thérapeutique propre, et de croire
que l’importance de l’effet est proportionnel à celui de la cause. Face à cette diversité, nos traitements

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 27


sont grossiers, mais ils fonctionnent dans une proportion significative de cas. On les considère comme
adéquats simplement lorsque leur probabilité de tomber juste nous satisfait.

Systèmes complexes

Les systèmes complexes sont régis par un nombre incroyablement élevé de variables. Ils relèvent de
mathématiques non-linéaires qui expliquent qu'une cause minuscule peut avoir un effet gigantesque à
distance dans le temps et l'espace. Leur comportement global est différent de celui des éléments qui le
constituent (propriété émergente). Leur aspect apparemment chaotique est régi par des structures
géométriques qui engendrent de l'aléatoire (attracteur, fractale). La fréquence des évènements y est
inversement proportionnelle à la taille de ces derniers (1/fP). Dans un réseau, la probabilité pour qu’un
élément « e » soit relié à k autres éléments est aussi une loi de puissance: 1/ke. Le nombre de
combinaisons possibles devient vite astronomique, ce qui entraîne une imprévisibilité fondamentale,
mais le comportement global fait preuve de robustesse contre les perturbations majeures. Les
systèmes complexes sont dynamiques; les opérations s'y répètent sans cesse. Leur variabilité dévoile
que ce sont les fluctuations d'importance minime qui dominent le système, alors que l'effet des
modifications grossières imposées par l'environnement est amorti. Dans les systèmes vivants, des
erreurs et des incidents se produisent sans cesse, mais leurs effets sont estompés par les systèmes
homéostasiques de l'organisme qui tendent à maintenir l'équilibre par rapport aux déviances. Comme
une différence d'échelle introduit une différence de propriétés, la déconstruction d'un système
complexe en unités plus simples que l'on additionne ne permet pas d'explorer le fonctionnement de
l'ensemble lorsque des seuils organisationnels sont franchis.

Références

1 AMZALLAG GN. La raison malmenée. Paris, CNRS Edition, 2002


2 ANDERSON PW. More is different. Science 1972; 177:393-6
3 CAPTUR G, KARPERIEN AL, HUGHES AD, et al. The fractal heart – embracing mathematics in the cardiology clinic. Nat Rev
Cardiol 2017; 14: 56-64
4 CRUTCHFIELD J, FARMER D, PACKARD N, SHAW R. Le chaos. In: DE GENNES PG. L'ordre du chaos. Pour la Science,
Diffusion Belin, Paris, 1992, pp 34-51
5 DAS DK, MAULIK N. Mitochondrial function in cardiomyocytes: target for cardioprotection. Curr Opinion Anesthesiol 2005;
18:77-82
6 FERENETS RM, VANLUCHENE A, LIPPING T, et al. Behavior of entropy/complexity measures of the EEG during propofol-
induced sedation : dose-dependent effects of remifentanil. Anesthesiology 2007; 206:696-706
7 GLASS L. Synchronization and rhythmic processes in physiology. Nature 2001; 410:277-84
8 GOLDBERGER AL. Non-linear dynamics for clinicians: chaos, fractals, and complexity at the bedside. Lancet 1996; 347:1312-4
9 GOLDBERGER AL, RIGNEY DR, WEST BJ. Chaos and fractals in human physiology. Sci Am 1990; 262:42-9
10 GRIBBIN J. Simplicité profonde. Le chaos, la complexité et l’émergence de la vie. Paris, Flammarion, 2006
11 KAUFMAN S. At home in the Universe. The search for the laws of self-organisation and complexity. New York, Oxford University
Press, 1995
12 LE MANACH Y, PERREL A, CORIAT P, et al. Early and delayed myocardial infarction after abdominal aortic surgery.
Anesthesiology 2005; 102: 885-91
13 LUSIS AJ, WEISS JN. Cardiovascular networks. Systems-based approaches to cardiovascular disease. Circulation 2010; 121:157-
70
14 MUZI M, EBERT TJ. Quantification of heart rate variability with power spectral analysis. Curr Opinion Anesthesiol 1993; 6:3-17
15 PRIGOGINE I. Les lois du chaos. Flammarion, Paris, 1994, p 10
16 ROYSTER RL. Myocardial dysfunction following cardiopulmonary bypass: Recovery patterns, predictors of initropic needs,
theoretical concepts of inotropic administration. J Cardiothor Vasc Anesth 1993; 7(Suppl 2):19-25
17 RUELLE D. Hasard et chaos. Ed. Odile Jacob, Paris, 1991, p 99
18 RUELLE D. Déterminisme et prédicibilité. In: DE GENNES P.G. - L'ordre du chaos. Pour la Science, Diffusion Belin, Paris, 1992,
pp52-63
19 SACKS O. Les instantanés de la conscience. La Recherche 2004; 374:30-8
20 SCHMIDT-NIELSEN K. Animal physiology. 5th edition. Cambridge, Cambridge University Press, 2002; 101
21 STAHL VR. Scaling of respiratory variables in mammals. J Appl Physiol 1967; 22:453-60
22 ZWIRN HP. Les systèmes complexes. Mathématiques et biologie. Paris: Odile Jacob, 2006

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 28


Conclusion: Evidence-based medicine

Il n'y a pas de conclusion définitive à tirer de ces remarques. Il faut simplement se souvenir de l'extrême
complexité des systèmes que l'on observe, de la relativité des connaissances que l'on peut en avoir, et de
la distance fondamentale qui existe entre la pensée conceptuelle et la réalité. Notre analyse des
phénomènes porte sur leur représentation dans notre mental et reste dépendante des conventions d'un jeu
de langage. Ces dernières sont nécessaires à notre fonctionnement, mais limitent la portée de notre
savoir.

Dans les systèmes complexes comme le métabolisme de la cellule myocardique, la distribution de la


dépolarisation électrique ou la perfusion coronarienne, la connaissance exacte de tous les éléments en
jeu dans la genèse d’un événement ne sera jamais possible. De plus, elle ne suffirait même pas à prédire
sa survenue, qui restera aléatoire à nos yeux. La compréhension totale de l’ensemble des processus
physiologiques est probablement inatteignable. Nous devons en quelque sorte renoncer à comprendre
pourquoi un système complexe comme le cœur se comporte comme il le fait à tel moment de son
existence [10].

Malgré cette incertitude fondamentale, on doit pouvoir proposer au patient des traitements que l’on a de
bonnes de raisons de croire efficaces. C’est la raison pour laquelle on se fonde sur l’évidence acquise au
cours de nombreuses études contrôlées et randomisées (degré d’évidence supérieur), ou lors d’une seule
étude randomisée et/ou de séries observationnelles (degré d’évidence modéré). Lorsque ces éléments ne
sont pas disponibles, on se base sur l’opinion des experts ou sur le principe de précaution (degré
d’évidence inférieur). Le niveau d’évidence (niveaux A, B et C) est donc une évaluation du degré de
certitude dont on dispose pour fonder une recommandation. Les classes de recommandations (classes I,
II et III) sont une estimation des bénéfices et des risques de la procédure ou du traitement envisagé
(Figure 1.10).

 Niveau d'évidence A: données basées sur de multiples et larges études randomisées et contrôlées
et/ou sur leurs méta-analyses;
 Niveau d'évidence B: données basées sur une seule étude randomisée et contrôlée ou sur de
larges études observationnelles prospectives;
 Niveau d'évidence C: données basées sur des études rétrospectives, des consensus d'experts ou
un principe de précaution;
 Recommandation de classe I: le bénéfice est largement supérieur au risque; la procédure ou le
traitement sont utiles et efficaces; ils doivent (must) être appliqués;
 Recommandation de classe IIa: le bénéfice est probablement supérieur au risque; la procédure
ou le traitement sont raisonnables et devraient (should) être appliqués;
 Recommandation de classe IIb: le bénéfice est douteux; la procédure ou le traitement peuvent
être (may) envisagés;
 Recommandation de classe I: la procédure ou le traitement sont inefficaces ou dangereux et sont
contre-indiqués.

Depuis les travaux publiés par la McMaster University (Hamilton, Canada) au début des années 1990, la
justification basée sur l’évidence (Evidence-based medicine, EBM) est considérée comme la manière la
plus scientifique d'établir la validité d'une thérapeutique. Elle introduit une hiérarchie des preuves en
plaçant l'essai contrôlé et randomisés sur une large population (RCT, randomized-controlled trials) en
tête de la fiabilité des sources, et en mettant en queue de valeur le jugement clinique et le raisonnement
déductif [1,7]. Cette attitude largement partagée dans l'establishment médical mérite toutefois quelques
commentaires.

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 29


Classe I Classe IIa Classe IIb Classe III

Bénéfice >>> risque Bénéfice > risque Bénéfice ≥ risque Pas de bénéfice,
ou dommageable
La procédure ou le La procédure ou le La procédure ou le Procédure ou
traitement doit être traitement est traitement peut être traitement inefficace
appliqué raisonnable envisagé ou dangereux

Niveau A Evidence suffisante Les données Utilité/efficacité mal Evidence suffisante


Multiples études pour une penchent en faveur établies, résultats pour recommander
randomisées ou recommandation du traitement, mais des études de ne pas appliquer
méta-analyses formelle avec résultats randomisées la procédure ou le
variables conflictuels traitement

Niveau B La procédure ou le Les données Utilité/efficacité mal Les données


Etude randomisée traitement est penchent en faveur établies, résultats penchent en
unique ou études efficace, mais du traitement, mais des séries défaveur de la
observationnelles l’évidence en est avec résultats conflictuels procédure ou du
non-randomisées restreinte discordants traitement

Niveau C Procédure/traitemnt Les données Utilité/efficacité mal L’opinion ou la


Consensus efficace, mais penchent en faveur établies, avec précaution penchent
d’experts, études l’évidence est du traitement, mais opinions d’experts en défaveur de la
rétrospectives, fondée sur des avec opinions conflictuelles procédure ou du
registres, précaution opinions/probabilités conflictuelles traitement

Figure 1.10 : Classification des recommandations et des niveaux d’évidence, selon le système adopté par les
sociétés médicales (American Society of Anesthesiology, Society of Cardiovascular Anesthesiologists, European
Society of Anaesthesiology, American Heart Association, American College of Cardiology, European Society of
Cardiology, Society of Thoracic Surgeons, etc). Les classes de recommandations (classes I, IIa, IIb et III) sont une
estimation des bénéfices et des risques de la procédure ou du traitement envisagé. Le niveau d’évidence (niveaux
A, B et C) est une évaluation du degré de certitude dont on dispose pour fonder une recommandation.

 Le fait qu'une donnée apparaisse évidente dépend de la grille de lecture qu'on adopte. Dans le
cas de la médecine basée sur l'évidence, il s'agit du mode de penser rationnel et mécaniste de la
science occidentale classique. Aussi rassurante qu'elle soit, la quantification rigoureuse d'un
phénomène est un découpage arbitraire et conventionnel opéré sur une réalité fluide et
mouvante en la morcelant en petites unités indépendantes que l'on peut manipuler
mathématiquement.
 Conceptuellement, l'évidence n'en est une qu'au niveau local, dans l'enclave événementielle
déterminée par le choix de la population investiguée, par les variables exclues et par la question
posée. Cette situation est très différente de la "vrai vie" où chaque élément est noyé dans un
réseau complexe d'interactions et de comorbidités. L'analyse linéaire du comportement de
fragments isolés d'un système complexe ne peut pas rendre compte de ses propriétés émergentes
en tant que tout organisé, car la science est une entreprise de simplification du réel [6]. Bien que
classées inférieures aux essais randomisés dans la hiérarchie des sources, les études
observationnelles ont l'intérêt incontestable d'investiguer les thérapeutiques dans la situation
réelle des malades.
 Cette forme d'appréhension de la réalité n'est pas la seule dont dispose l'esprit humain. Le
concept de "logique floue" et les mathématiques du chaos réhabilitent des mécanismes comme
l'intuition et le jugement clinique, qui analysent les phénomènes dans leur globalité. Ces
modalités, volontiers qualifiées de subjectives, sont fondamentales dans notre appréhension du
réel. Nous les utilisons constamment pour proposer un traitement ou choisir une salade. Le

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 30


raisonnement rationnel est en général la justification d'une option prise antérieurement au
niveau subjectif. La croyance dans la primauté de l'évidence quantitative est une idée préconçue
issue de l'adhésion inconditionnelle et sans esprit critique au paradigme déterministe de la
science classique: la prétention d'objectivité repose en fait sur un choix premier non-objectif.
 L'EBM donne davantage de poids à la signification statistique qu'à la signification clinique, qui
est celle qui compte pour le patient. Elle développe une attitude quasi religieuse pour un p <
0.05 et se concentre sur des marqueurs aisément quantifiables tels la mortalité ou l'incidence de
morbidités bien définies. Elle rechigne à publier des résultats négatifs, et exclut de ses travaux
les malades âgés, polymorbides et peu compliants qui faussent la pureté des résultats [7].
 Les résultats de l'évidence permettent de formuler des recommandations (Guidelines) qui sont
une aide précieuse à la prise de décision thérapeutique, mais qui ne s'appliquent qu'à une
population spécifique subissant une intervention donnée, et qui ne correspondent qu'à des
conséquences prédéfinies (mortalité, diverses morbidités) à l'exclusion de toutes les autres
(bien-être, indépendance, mobilité, etc). Toutefois, comme on l'a déjà relevé précédemment,
près de la moitié des recommandations publiées en cardiologie ne sont pas issues de travaux
ayant un haut degré d'évidence (degré d'évidence A), mais d'opinion d'experts, de registres et
d'études rétrospectives (degré d'évidence C) [9]. Dans un domaine aussi complexe que la
médecine, elles contiennent obligatoirement une part d'incertitude [2]. C'est au jugement
clinique du praticien de décider si elles s'appliquent à un malade particulier. L'application des
recommandations à des patients différents de ceux des études originales se solde en général par
un résultat médiocre [8].
 La médecine basée sur l'évidence n'apporte de réponse qu'à une question déjà formulée. Elle ne
permet pas d'explorer un domaine totalement nouveau. Elle est aveugle aux découvertes par
sérendipité. Elle n’apporte pas non plus de réponse à des situations qui ne peuvent pas faire
l’objet d’essais répétés, comme la mise en évidence d’évènements rares mais très dangereux.
Accorder la priorité aux études contrôlées et randomisées prive la médecine d'idées originales et
de découvertes inattendues.
 Les études randomisées et contrôlées portant sur plusieurs milliers de malades sont d'une
incontestable rigueur statistique, mais restent biaisées par la distribution aléatoire, donc
indiscriminée, de la mesure évaluée au sein de la population choisie. L'étude POISE, par
exemple, trouve une surmortalité associée aux béta-bloqueurs, mais chez les malades à qui on
n'en aurait jamais donné parce que sans indication [3]. Lorsque l'effet primaire d'un médicament
est inutile, seuls apparaissent ses effets secondaires. Or les risques associés à des substances
dans les situations où elles sont sans indication perdent leur poids dans les situations où elles
sont thérapeutiques. Il en est de même pour les techniques de monitorage. A cause de ce
ratissage large, les RCT contredisent souvent les études prospectives ciblées qui portent sur les
patients les plus susceptibles de bénéficier de la substance.
 Il existe toujours une zone d'indécidabilité, souvent appelée "zone grise", entre le seuil de valeur
inférieur en dessous duquel une variable est clairement normale et le seuil de valeur supérieur
au-dessus duquel elle est clairement pathologique (ou l'inverse selon la variable choisie). Selon
que l'on privilégie la spécificité ou la sensibilité, l'étendue de la zone grise se déplace vers son
extrémité pathologique ou physiologique, respectivement. Jusqu'à 25% des patients peuvent se
trouver dans cette zone d'indécidabilité selon la situation étudiée [2]. Le sort des malades se
trouvant dans cette zone relève du jugement clinique du praticien et non de l'évidence
déductible d'un RCT.

L’apparition d’une propriété émergente dans un système complexe, comme un infarctus ou une
tachycardie ventriculaire dans le cas d’un coeur, est le résultat d’un tel nombre de combinaisons
possibles que leur prévision pose des problèmes insurmontables quantitativement et qualitativement.
Mais une relation causale non linéaire n'est pas une relation inexistante. L'absence de lien direct invite à
la prudence, non à l'ignorance. L’absence de relation univoque entre l'ischémie peropératoire vue à
l'ECG et l'infarctus postopératoire, par exemple, n'est pas une raison pour négliger le phénomène
lorsqu'il se produit. En clinique, la prudence prime: mieux vaut prendre au sérieux une information non

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 31


prouvée que scotomiser un signe potentiellement annonciateur d’accident. Nos interventions sur
l’organisme humain croisent un nombre incalculable de processus, et leurs conséquences ne sont jamais
totalement prévisibles. Comme le suggère Stuart Kaufman : « On ne peut jamais savoir si notre
prochain pas ne sera pas celui qui déclenchera le glissement de terrain du siècle ; il vaut donc mieux
avancer avec précaution. Nous ne pouvons pas connaître les conséquences réelles de nos actions. Tout
ce que nous pouvons faire est d’agir de notre mieux au niveau local » [5]. Chaque détail du quotidien
mérite le même soin, non par perfectionnisme mais par réalisme : en effet, chaque petit geste peut être
celui qui fait s’effondrer le tas de sable et entraîne la catastrophe. Les théories de la complexité
devraient donc nous inciter à la prudence et à la modestie, comme le démontrera le chapitre suivant
(voir Chapitre 2, Sécurité et anesthésie).

Médecine basée sur l'évidence

La médecine basée sur l'évidence (Evidence-based medicine) donne la priorité aux résultats des
grandes études randomisées et contrôlées par rapport aux études observationnelles et aux opinions
d'experts ou à l'analyse de registres.
- Degré d'évidence A: basé sur de nombreux et larges essais randomisés-contrôlés
- Degré d'évidence B: unique essai randomisé-contrôlé ou larges études observationnelles
- Degré d'évidence C: études rétrospectives, opinion d'experts, principe de précaution
Elle en déduit des recommandations cliniques classées en 4 catégories
- Classe I: la procédure ou le traitement sont utiles et efficaces, le bénéfice est clair
- Classe IIa: la procédure ou le traitement sont raisonnables et devraient être appliqués
- Classe IIb: la procédure ou le traitement peuvent être envisagés, le bénéfice est douteux
- Classe III: la procédure ou le traitement sont inefficaces ou dangereux (risque > bénéfice)

Mais cette hiérarchie des preuves souffre de certaines faiblesses: priorité à la signification statistique
par rapport à la signification clinique, dépendance du mode de penser rationnel et mécaniste de la
science classique, validité restreinte à des populations hautement sélectionnées, ignorance du poids de
l'intuition et du jugement clinique dans les décisions médicales, extrapolation à la population générale
de recommandations déduites de populations particulières, restriction des conséquences à des données
quantifiables (ex: mortalité) à l'exclusion des aspects qualitatifs (ex: bien-être).

Références

1 ANDERSEN H. Mechanisms: what are their evidence for in evidence-based medicine? J Eval Clin Pract 2012; 18:992-9
2 CANNESSON M, LE MANACH Y, HOFER CK, et al. Assessing the diagnostic accuracy of pulse pressure variations
for the prediction of fluid responsiveness. A “grey zone” approach. Anesthesiology 2011; 115:231-41
3 DEVEREAUX PJ, YANG H, YUSUF S, et al, for the POISE Study Group. Effects of extended-release metoprolol succinate in
patients undergoing non-cardiac surgery (POISE-trial): a randomised controlled trial. Lancet 2008; 371:1839-47
4 IMBERGER G. Clinical guidelines and the question of uncertainty. Brit J Anaesth 2013; 111:700-2
5 KAUFMAN S. At home in the Universe. The search for the laws of self-organisation and complexity. New York, Oxford University
Press, 1995
6 POPPER K. L'Univers irrésolu, plaidoyer pour l'indéterminisme. Hermann, Paris, 1984
7 SHERIDAN DJ, JULIAN DG. Achievements and limitations of evidence-based medicine. J Am Coll Cardiol 2016; 68:204-13
8 TINETTI ME, McAVAY G, TRENTALANGE M, et al. Association between guideline recommended drugs and death in older
adults with multiple chronic conditions: population based cohort study. BMJ 2015; 351:h4984
9 TRICOCI P, ALLEN JM, KRAMER JM, et al. Scientific evidence underlying the ACC/AHA clinical practice guidelines. JAMA
2009; 301:831-41
10 ZWIRN HP. Les systèmes complexes. Mathématiques et biologie. Paris: Odile Jacob, 2006

Précis d’Anesthésie Cardiaque 2017, version 5.0 – 01 Historique 32

Vous aimerez peut-être aussi