MP1 Janson de Sailly Calculs d’incertitudes
Fiche méthode : calculs d’incertitudes
Table des matières
I. Variabilité et incertitude-type 2
1) La variabilité en sciences expérimentales . . . . . . . . . . . . . . . . . . . . . . 2
2) Mesure et probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
3) Calculs statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4) Le z-score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
II. Évaluation dans le cas d’une mesure directe 5
III.Évaluation de l’incertitude d’une grandeur calculée à partir de grandeurs
mesurées directement 7
1) Répétition de l’expérience ou bien simulation informatique : méthode de Monte-
Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2) Cas d’une combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3) Cas d’un produit de puissances . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
IV.Évaluation des incertitudes dans le cas d’un tracé de courbe 10
1) Validation d’un modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2) Calcul de l’espérance et de l’incertitude par une méthode de Monte Carlo . . . 12
3) Utilisation d’une régression linéaire : coefficient de corrélation linéaire . . . . . 13
1
MP1 Janson de Sailly Calculs d’incertitudes
I. Variabilité et incertitude-type
1) La variabilité en sciences expérimentales
La mesure d’une grandeur est un processus généralement complexe qui entremêle de très
nombreux processus. Cette complexité se traduit systématiquement par une variabilité de la
mesure, qui implique que la répétition de la mesure conduit généralement à une valeur mesurée
sensiblement différente de la première. Cette variabilité est naturelle et fait intrinsèquement
partie de la mesure.
Cette variabilité peut provenir de nombreux aspects, dont les principaux sont les suivants :
• le choix de la méthode de mesure ;
Exemple 1 : Choisir de mesurer un petit élément à la règle graduée ou au pied à coulisse
n’implique pas la même précision !
• les variations de l’environnement ;
Exemple 2 : Si l’on souhaite mesurer la célérité du son avec un protocole se déroulant sur
une journée complète, comme la température de l’air va évoluer au cours du temps, la
célérité du son aussi.
• les instruments de mesure ;
Exemple 3 : Mesurer une tension avec deux voltmètres semblant identiques amène parfois
à une mesure de tension légèrement différente.
• le processus physique lui-même ;
Exemple 4 : Une expérience de mécanique quantique est intrinsèquement variable car la
mécanique quantique ne prédit que des lois de probabilité.
• et surtout, la personne réalisant l’expérience.
Généralement la personne réalisant l’expérience est la principale cause de variabilité
de la mesure. Par ses gestes, ses choix et sa technique, cette personne introduit une
variabilité importante. Il est donc totalement naturel que deux personnes réalisant la
même expérience, dans les mêmes conditions, avec le même matériel, trouvent des valeurs
différentes.
2) Mesure et probabilités
Cette variabilité intrinsèque à la mesure entraîne qu’on fait appel à la théorie des probabili-
tés pour décrire correctement la mesure d’une grandeur. On considère donc que la grandeur X
est une variable aléatoire dont les différentes réalisations possibles sont affectées de probabilités.
Dans le cas des grandeurs physiques et chimiques les différentes réalisations possibles
peuvent prendre à priori toute valeur dans R et on est obligé de recourir à des densités de
probabilité : on parle de variables aléatoires continues (contrairement aux variables aléa-
toires discrètes que vous avez vues en maths)
Par définition, une densité de probabilité est une application continue f : R −→ R+ telle
que :
Z d
P (c 6 X 6 d) = f (x) dx
c
où P (c 6 X 6 d) est la probabilité pour qu’une mesure de X donne un résultat compris entre
c et d. Comme P (−∞ < X < +∞) = 1, on a forcément :
Z +∞
f (x) dx = 1
−∞
2
MP1 Janson de Sailly Calculs d’incertitudes
Il y a différents types de densités de probabilités. Parmi les lois modèles très souvent utilisées
on a :
• La loi uniforme sur un intervalle [a, b].
• La loi triangulaire sur un intervalle [a, b] et de maximum en xm .
• La loi Gaussienne (encore appelée loi normale) centrée sur une valeur xm et d’écart
type σ :
(x − xm )2
Å ã
1
f (x) = √ exp −
2π σ 2σ 2
f (x) f (x) f (x)
√1
2πσ
x x x
a b a xm b xm
Loi uniforme Loi triangulaire Loi gaussienne
Figure 1 – Représentation des lois uniforme, triangulaire et gaussienne
Les lois uniforme et triangulaire sont à support borné [a, b]. Comme f (x) = 0 en dehors de
cet intervalle, cela signifie que pour ces deux lois :
Z b Z +∞
P (a 6 X 6 b) = f (x) dx = f (x) dx = 1
a −∞
Autrement dit, il est certain que toute mesure d’une grandeur X suivant l’unde de ces deux
lois donnera un résultat contenant dans l’intervalle [a, b].
Au contraire la loi gaussienne f (x) ne s’annulle jamais : si une grandeur X suit cette loi,
il y a donc toujours une probabilité non nulle d’obtenir un résultat de mesure contenu dans
n’importe quel intervalle [c, d] de R même si c et d sont très éloignés de xm .
Pour les deux lois uniforme et triangulaire, la longueur du support b−a est appelée étendue.
On pose :
b−a a+b
∆= et xc =
2 2
∆ est la demi-étendue et xc est le centre du support.
Dans le cas où on considérera une loi triangulaire symétrique, celle-ci sera toujours symé-
trique. On aura donc les deux représentations de la Figure 2 :
3
MP1 Janson de Sailly Calculs d’incertitudes
f (x) f (x)
∆ ∆
∆ ∆
x x
a b a xc b
xc
Loi uniforme Loi triangulaire symétrique
Figure 2 – Centre du support et demi étendue pour les lois uniforme et triangulaire symétrique
Dans le cas d’une variable aléatoire discrète X ne pouvant avoir que les réalisations x1 , x2 ,
..., xn affectées des probabilités p1 , p2 , ..., pn on définit (cf. cours de maths) l’espérance E(X)
et l’écart type u(X) par :
s
n
X n
X
E(X) = pi xi et u(X) = pi (xi − E(X))2
i=1 i=1
Ces formules se généralisent à une variable aléatoire X affectée d’une densité de probabilité
f (x) de la façon suivante :
Z +∞ Z +∞
2
E(X) = f (x)x dx et u(X) = f (x) (x − E(X))2 dx
−∞ −∞
Dans le vocabulaire de la métrologie (science des mesures), l’écart type u(X) s’appelle l’in-
certitude type. Elle caractérise donc la dispersion des mesures (c’est à dire leur variabilité).
Figure 3 –
La Figure 3 représente une distribution de mesures ainsi que l’incertitude-type. On constate
qu’en moyenne deux valeurs prises au hasard sont séparées de quelques u(X). Toutefois, on
constate aussi que quelques points sont très éloignés des autres. Il ne s’agit pas de points
aberrants, mais de valeurs dans des domaines peu fréquents car peu probables mais tout de
même possibles (cela arrive lorsque X suit une loi de probabilité gaussienne).
Loi uniforme Loi triangulaire sym. Loi Gaussienne
E(X) xc xc xm
∆ ∆
u(X) √ √ σ
3 6
4
MP1 Janson de Sailly Calculs d’incertitudes
Idéalement, la mesure d’une grandeur X doit permettre de déterminer l’espérance E(X) et
l’incertitude type u(X). Le résultat de mesure s’écrira sous la forme conventionnelle :
X = E(X) ± u(X)
Incertitude-type relative :
u(X)
On peut aussi introduire l’incertitude-type relative, définie par :
E(X)
Le problème est que la plupart du temps on ne connaît pas la loi de probabilité (donc la
densité de probabilité f (x)) qui caractérise la grandeur X...
3) Calculs statistiques
Pour accéder à l’espérance E(X) et à l’incertitude-type u(X), les lois de la statistique nous
indiquent que si on réalise N mesures d’une grandeur X qui, du fait de la variabilité ont donné
les résultats x1 , x2 , ..., xN alors :
Ã
N N
déf 1 X déf 1 X
x = xi −→ E(X) et σN −1 = (xi − x)2 −→ u(X) (∗)
N i=1 N 1 N − 1 i=1 N 1
Autrement dit, dans la limite où N −→ +∞, l’espérance E(X) est correctement évaluée
par la moyenne arithmétique x des N résultats et u(X) est correctement approché par
l’écart-type statistique 1 σN −1 .
Pour obtenir E(X) et u(X) il est donc nécessaire en théorie de répéter un très grand nombre
de fois la mesure et d’appliquer les formules (*).
4) Le z-score
Supposons qu’on ait mesuré une grandeur X, c’est à dire qu’on conaît E(x) et u(X). De
plus on sait par des informations dans des tables ou sur internet, quelle est la valeur attendue
xa et son incertitude-type u(xa ).
Afin de pouvoir comparer les deux résultats, on calcule le z-score :
|E(X) − xa |
z-score = p
u(X)2 + u(xa )2
On considère que le résultat de mesure E(X) est compatible avec la valeur attendue si
z-score 6 2. Ce seuil à 2 est d’origine historique. On le retrouve dans de nombreux champs
scientifiques, comme la médecine, la pharmacie, la biologie, la psychologie, l’économie, etc...
II. Évaluation dans le cas d’une mesure directe
On suppose dans cette section qu’on mesure directement la grandeur X : mesure d’une
longueur avec une règle, d’un angle avec le vernier d’un goniomètre, d’une tension avec un
voltmètre, etc...
En pratique, pour déterminer E(X) et u(X) on fait avec les moyens du bord !
1. Les statistiques définissent σN −1 et σN . Dans le premier cas on divise par N −1 et dans le second par N . Le
second donne toujours un résultat inférieur à u(X) : on dit qu’il y a un biais. Cependant avec des échantillons
stastistiques de l’ordre de N = 10 000 ou 100 000, la différence est infime. Les machines à calculer donnent les
deux grandeurs : consultez la notice de votre machine pour en savoir plus.
5
MP1 Janson de Sailly Calculs d’incertitudes
• Cas d’une répétition de la mesure :
Si on peut répéter la mesure plusieurs fois on utilise les lois statistiques (∗). Cependant,
dans ce cas N est de l’ordre de quelques unités, au maximum quelques dizaines. On est
très loin de N 1. Tant pis, on applique quand même (∗) !
• Cas d’une mesure unique
La plupart du temps il n’est pas possible de répéter la mesure et il faut se contenter
d’un résultat unique. Dans ce cas on suppose que la densité de probabilité f (x) est
à support borné (type uniforme ou triangulaire sym.) et on évalue expérimentalement
l’intervalle-support [xc − ∆, xc + ∆] dans lequel on estime qu’on a 100% de chances
d’obtenir n’importe quel résultat de mesure si on répétait l’expérience un grand nombre
de fois.
La demi-étendue ∆ doit être prise la plus faible possible selon les critères personnels de
l’expérimentateur et selon les conditions de l’expérience. Il n’y a pas de règle générale.
Exemple 1 :
On mesure une longueur L avec une règle graduée au millimètre : si on tombe directement
sur une graduation, 14,7 cm par exemple, il est peut sembler naturel de prendre Lc = 14,7 cm
et ∆ = 0,25 mm.
Si la valeur est entre deux graduations, par exemple entre 14,7 cm et 14,8 cm, on prendra
peut-être plus sûrement Lc = 14,75 cm et ∆ = 0,5 mm.
Enfin, une personne peu sûre d’elle peut choisir de prendre dans les mêmes cas ∆ = 1 mm.
Exemple 2 :
Pour les appareils de mesure, il est nécessaire de consulter la notice de l’appareil. Le
constructeur indique souvent un pourcentage, par exemple 0,3% pour un voltmètre : on in-
terprétera ce chiffre comme la demi-largeur exprimée en pourcents de la valeur lue.
On mesure par exemple une tension u = 4,34 V avec une précision constructeur de 0,3%.
On aura donc ∆ = 4,3 × 0,3/100 = 0,013 qu’on s’empresse d’arrondir par valeur supérieure à
un seul chiffre significatif : ∆ = 0,02 V. On aura donc uc = 4,34 V et ∆ = 0,02 V
Exemple 3 :
Les composants électriques (résistances, condensateurs, inductances, ...) sont donnés avec
une précision en pourcent (information constructeur). Par exemple sur une résistance, on peut
lire R = 200 Ω ± 5 %. On aura donc Rc = 200 Ω et ∆ = 200 × 5/100 = 10 Ω.
Il y a ensuite un choix à faire :
• Si on estime qu’une répétition des mesures donnera des résultats uniformément répartis
dans tout l’intervalle-support, alors on décide que c’est la loi uniforme qui s’applique et
on prend :
∆
E(X) = xc et u(X) = √
3
• Au contraire si on estime que les valeurs au centre de l’intervalle-support sont plus pro-
bables que celles aux extrémités alors on décidera plutôt que c’est la loi triangulaire
symétrique qui s’applique et on prend :
∆
E(X) = xc et u(X) = √
6
6
MP1 Janson de Sailly Calculs d’incertitudes
Remarque :
En pratique les u(X) pour les√deux lois sont du même ordre de grandeur et ce n’est pas
très grave si on prend u(X) = ∆/ 3 dans les deux cas !
III. Évaluation de l’incertitude d’une grandeur calculée à partir
de grandeurs mesurées directement
1) Répétition de l’expérience ou bien simulation informatique : méthode de
Monte-Carlo
Supposons que nous souhaitions évaluer une grandeur Z qui est une fonction de grandeurs
mesurées X et Y : Z = g(X, Y )
On a par exemple mesuré la température T et le volume V occupé par 1 mole d’un gaz
parfait et on souhaite évaluer sa pression P au moyen de la formule P = RT /V .
X et Y sont caractérisés par leurs intervalles-support [xc −∆x , xc +∆x ] et [yc −∆y , yc +∆y ].
La variabilité des résultats de mesure sur X et Y entraîne une variabilité du résultat sur Z qui
devient donc aussi une variable aléatoire.
Les lois statistiques indiquent alors que si on réalise N expériences dont les résultats sont
(x1 , y1 ), (x2 , y2 ), ..., (xN , yN ) et qui conduisent à N valeurs de Z : z1 = g(x1 , y1 ), z2 = g(x2 , y2 ),
..., zN = g(xN , yN ), alors dans la limite N 1 :
N N
1 X 1 X
z= zi = g(xi , yi ) −→ E(Z)
N i=1 N i=1 N 1
et
N N
1 X 1 X
(zi − E(Z) )2 = ( g(xi , yi ) − E(Z) )2 −→ u(Z)2
N − 1 i=1 N − 1 i=1 N 1
On a alors deux possibilités :
• Soit on répète l’expérience plusieurs fois mais alors, en pratique on sera limité à N = 10
ou 20 au maximum si on rassemble tous les résultats du groupe de TP.
• Soit on laisse un logiciel comme Python faire le travail en tirant au sort N 1 valeurs xi et
yi dans leurs intervalles-précision suivant la loi de probabilité choisie et on lui demande de
calculer E(Z) et u(Z). Cette simulation informatique des expériences s’appelle méthode
de Monte-Carlo.
Fonctions pour réaliser le tirage au sort
On utilise la bibliothèque numpy pour simuler un processus aléatoire. On suppose qu’on
l’a importée avec import numpy as np
Pour réaliser le tirage au sort on a les possibilités suivantes :
1. Si on suppose que les mesures de X et/ou Y peuvent être uniforméments réparties
sur tout leurs intervalles-précision on utilise la loi uniforme simulée par la fonction :
[Link](a,b)
2. Si on suppose que les valeurs centrales xc et/ou yc des intervalles-précision sont plus
probables que les valeurs ds extrémités, on utilise la loi triangulaire simulée par
7
MP1 Janson de Sailly Calculs d’incertitudes
[Link](a,xm,b)
3. Si l’incertitude-type sur une des grandeurs est fournie (rare) et qu’on pense qu’on
peut utiliser une loi gaussienne, la fonction permettant de simuler cela est :
[Link](xm,sigma)
Exemple de code :
On a prélevé Va mL d’un acide placés dans un becher et on en a réalisé le titrage par une
base de concentration Cb que l’on a mis dans la burette. Le volume équivalent Veq a été mesuré.
On doit donc évaluer :
Veq
Ca = Cb
Va
Les intervalles-précision ont été déterminés : Va : [9,9 ; 10,1] mL, Veq : [9,6 ; 9,8] mL et Cb :
[0,099 ; 0,101] mol/L.
En ce qui concerne Veq on pense que la valeur centrale est plus probable que les valeurs aux
extrémités mais que ce n’est pas le cas pour Cb et Va .
import numpy as np
N = 100000 # nombre d’expériences simulées
L = [] # liste pour contenir les résultats
for i in range(N) :
Cb = [Link](0.099,0.101)
Va = [Link](9.9,10.1)
Veq = [Link](9.6,9.7,9.8)
Ca = Cb*Veq/Va
[Link](Ca)
ECa = [Link](L) # calcul de la valeur moyenne statistique (espérance)
uCa = [Link](L,ddof = 1) # incertitude-type
print("concentration Ca :", ECa)
print("incertitude-type :", uCa)
concentration Ca : 0.09700435317641823
incertitude-type : 0.0008921612879395076
Conclusion :
On écrit le résultat en ne retenant qu’un seul (deux au maximum !) chiffres significatifs pour
l’incertitude-type. On aura donc :
Ca = ( 0,0970 ± 0,0009 ) mol/L
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗∗
Il existe cependant deux cas qu’il faut connaître où on peut calculer directement l’espérance
et l’incertitude-type sur Z si on connait les espérances et incertitudes-types sur X et sur Y . Les
deux lois qui suivent sont tirées de théorèmes sur les variables aléatoires indiépendantes dont
nous ne parlerons pas ici.
8
MP1 Janson de Sailly Calculs d’incertitudes
2) Cas d’une combinaison linéaire
Dans le cas où la grandeur à évaluer Z s’exprime sous la forme d’une combinaison linéaire
c’est à dire :
Z = αX + βY
où α et β sont des coefficients numériques parfaitement connus (par exemple des entiers ou bien
π dont on peut donner autant de chiffres significatifs qu’on veut), avec comme cas particuliers
la somme Z = X + Y ou la différence Z = X − Y . On a 2 :
»
E(Z) = α E(X) + β E(Y ) et u(Z) = α2 (u(X))2 + β 2 (u(Y ))2
Exemple : on souhaite mesurer une distance D = d1 + d2 . On a estimé par mesure directe :
d1 = 10,3 ± 0,6 mm et d2 = 9,7 ± 0,8 mm. On en déduit :
»
u(D) = (0,6)2 + (0,8)2 = 1 mm
et donc D = (20 ± 1) mm.
3) Cas d’un produit de puissances
Dans le cas où la grandeur à évaluer Z s’exprime sous la forme suivante :
Z = k Xα × Y β
où k, α et β sont des coefficients numériques parfaitement connus, avec comme cas particulier
un simple produit Z = X × Y ou un quotient Z = X/Y . La loi s’écrit 3 :
s
Å ã2 Å ã2
u(Z) u(X) u(Y )
E(Z) = k E(X)α × E(Y )β et = α2 + β2
E(Z) E(X) E(Y )
Exemple : on souhaite mesurer la vitesse des ultrasons dans l’air à l’aide de la relation c = λf .
On a estimé par mesure directe : λ = (8,3 ± 0,6) mm et f = (40.103 ± 58) Hz.
On en déduit E(c) = 8,3.10−3 × 40.103 = 332 m.s−1 et :
Å ã2 Å ã2
0,6 58
u(c) = 332 × + = 23,44 m.s−1
8,5 40.103
et donc c = (332 ± 24) m.s−1 .
Remarque :
Les physiciens n’écrivent jamais E(c) = 332 m.s−1 ou E(λ) = 8,3 mm. Au lieu de cela ils
écrivent de façon plus naturelle (mais moins précise quant à l’objet mathématique manipulé)
c = 332 m.s−1 ou bien λ = 8,3 mm
2. La généralisation de ce résultat à une combinaison linéaire de plus de deux termes est immédiate.
3. idem.
9
MP1 Janson de Sailly Calculs d’incertitudes
IV. Évaluation des incertitudes dans le cas d’un tracé de courbe
1) Validation d’un modèle
Exemple 1 :
Supposons que nous souhaitions mesurer l’accélération de la pesanteur g à l’aide d’une
expérience de chute libre. On laisse tomber un objet d’une hauteur h et on enregistre une vidéo
de la chute.
z
h
•
→
−
v
En supposant une vitesse initiale v0 non nulle (même si on s’arrange pour qu’elle soit très
petite) l’équation horaire du mouvement s’écrit :
gt2
z(t) = − + v0 t + h (∗)
2
Un pointage de la vidéo a donné les résultats suivants :
z (cm) 200 197 190 177 160 137 110 77,0
t (ms) 0 72 143 214 286 357 429 500
Comment valider le modèle théorique (*) à l’aide de cette série de mesures ?
Utilisation de la fonction polyfit de la bibliothèque numpy
Pour commencer, la fonction polyfit permet de récupérer les valeurs des coefficients d’un
polynôme de degré n quelconque z = p0 tn + p1 tn−1 + ... + pn−1 t + pn qui modélise au mieux
deux séries de données expérimentales sous la forme de listes (ou de vecteurs numpy) T et Z.
Sa signature est (on suppose qu’on a écrit import numpy as np) :
[Link](T:[Link], Z:[Link], n:int) −→ [Link]
où n est le degré du polynôme. La valeur renvoyée est un tableau p de longueur n dont les
valeurs p[i] sont les coefficients du polynôme qui modélise au mieux la série de données 4 .
4. Attention : p[0] est le coefficient de tn , monôme de degré le plus élevé du polynôme.
10
MP1 Janson de Sailly Calculs d’incertitudes
Exemple de code :
import numpy as np
import [Link] as plt
T = [Link]([0,72e-3,143e-3,214e-3,286e-3,357e-3,429e-3,500e-3])
Z = [Link]([2.00,1.97,1.90,1.77,1.60,1.37,1.10,0.77])
p = [Link](T,Z,2) # modélisation par polynôme degré 2
print(p[0])
print(p[1])
print(p[2])
print("g = ",-2*p[0])
Zmodele = p[0]*(T**2) + p[1]*T + p[2] # polynôme modèle de degré 2
# Représentation graphique des résultats
[Link]()
[Link](T,Z,"ko") # résultats expérimentaux : points noirs
[Link](T,Zmodele, "red") # polynôme modèle en rouge
[Link]("temps")
[Link]("altitude")
[Link]()
-4.902383533467539
-0.004596653619921438
1.9985998764592394
g = 9.804767066935078
Exemple 2 :
Le monoxyde d’azote est oxydé selon l’équation-bilan : 2 NO + O2 = 2 NO2
Il s’agit d’une réaction totale dans les conditions de l’expérience et on a relevé les résultats
suivants en suivant une méthode de dégénérescence de l’ordre : [NO] [O2 ] :
t (en s) 10 20 30 60 120 340 360
[O2 ] (en mol.L−1 ) 9,3.10−6 8,6.10−6 8,0.10−6 6,4.10−6 4,1.10−6 1,7.10−6 0,70.10−6
On veut montrer que l’ordre partiel par rapport à O2 vaut 1. Il faut donc montrer que :
ln([O2 ] = −kapp t + ln([O2 ]0 )
11
MP1 Janson de Sailly Calculs d’incertitudes
import numpy as np
import [Link] as plt
T = [Link]([10,20,30,50,60,120,240,360])
C = [Link]([9.3e-6,8.6e-6,8.0e-6,6.4e-6,4.1e-6,1.7e-6,0.70e-6])
lnC = [Link](C) # logarithme des concentrations
p = [Link](T,lnC,1) # polynôme modèle de degré 1
print(p[0])
print(p[1])
print("kapp = ",-p[0])
lnCmodele = p[0]*T + p[1] # droite modèle
# Représentation graphique des résultats
[Link]()
[Link](T,lnC,"ko") # résultats expérimentaux : points noirs
[Link](T,lnCsim, "red") # droite modèle en rouge
[Link]("temps")
[Link]("log concentration")
[Link]()
-0.007381210008831938
-11.515128726004752
kapp = 0.007381210008831938
2) Calcul de l’espérance et de l’incertitude par une méthode de Monte Carlo
Reprenons l’exemple 1. La représentation graphique nous indique que le modèle est bon,
mais cela ne nous renseigne pas sur les incertitudes. Supposons que la précision sur le temps
(demi-étendue) vale ∆t = 1 ms et que celle sur z soit ∆z = 2 mm. Quelle est alors l’incertitude-
type sur g et quelle est l’espérance E(g) ?
Pour cela il faut élargir l’utilisation de la fonction [Link] (ou de [Link]).
Un paramètre supplémentaire de la fonction est size Par défaut la fonction ne renvoie qu’une
seule valeur. Si on met size = n alors la fonction renvoie un vecteur numpy ayant n compo-
santes, toutes tirées au sort selon la loi uniforme (ou triangulaire).
12
MP1 Janson de Sailly Calculs d’incertitudes
La démarche est donc la suivante :
• L’expérience nous a donné K couples de valeurs (tk , zk ) avec leurs demi-étendues ∆t et
∆z .
• On tire alors au hasard K valeurs appartenant aux domaines :
[tk − ∆t , tk + ∆t ] × [zk − ∆z , zk + ∆z ]
• On utilise la fonction [Link] avec ces K valeurs, ce qui nous renvoie un vecteur p.
• On stocke -2*p[0] (ce qui est censé donner g) dans une liste L et on recommence N fois
avec N = 10 000 ou 100 000 (cela dépend de la rapidité de votre ordinateur).
• On calcule [Link](L) et [Link](L,ddof = 1)
Exemple de code :
import numpy as np
T = [Link]([0,72e-3,143e-3,214e-3,286e-3,357e-3,429e-3,500e-3])
Z = [Link]([2.00,1.97,1.90,1.77,1.60,1.37,1.10,0.77])
Delta_t = 1e-3 # précision sur le temps
Delta_z = 2e-3 # précision sur l’altitude
N = 10000
L = []
nbExp = len(T) # nombre de points de mesure: len(T) == len(Z)
for i in range(N) :
Tsim = T + Delta_t * [Link](-1,+1,size = nbExp)
Zsim = Z + Delta_z * [Link](-1,+1,size = nbExp)
p = [Link](Tsim,Zsim,2)
[Link](-2*p[0]) # stocker la valeur de g
Eg = [Link](L)
ug = [Link](L, ddof = 1)
print("accélération pesanteur : ",Eg)
print("incertitude type : ",ug)
accélération pesanteur : 9.793070571658339
incertitude type : 0.11375554355244688
On a donc : g = ( 9,79 ± 0,12 ) m.s−2
3) Utilisation d’une régression linéaire : coefficient de corrélation linéaire
Reprenons l’exemple 2. On a vu qu’on obtenait une droite en représentant ln([O2 ]) en
fonction de t, ce qui valide l’ordre 1 pour le réactif O2 . Un argument supplémentaire en faveur
de cela est de calculer le coefficient de corrélation |r| (sa valeur absolue) de la droite obtenue
(méthode de régression linéaire).
Avec numpy cela se fait avec la fonction [Link] dont la signature est :
[Link](X: [Link], Y : [Link]) −→ [Link]
Cette fonction prend en argument deux tableaux numpy (ou deux listes) X et Y qui repré-
sentent les valeurs expérimentales (xi , yi ) dont on veut s’assurer qu’elles sont alignées sur une
droite.
13
MP1 Janson de Sailly Calculs d’incertitudes
Elle renvoie une matrice carrée 2 × 2, appelée matrice covariance qui est symétrique et
dont les élément non-diagonaux sont justement le coefficient de corrélation cherché.
Exemple de code :
import numpy as np
T = [Link]([10,20,30,50,60,120,240,360])
C = [Link]([9.3e-6,8.6e-6,8.0e-6,6.4e-6,4.1e-6,1.7e-6,0.70e-6])
lnC = [Link](C) # logarithme des concentrations
M = [Link](T,lnC) # matrice covariance
print(M)
print("coefficient de corrélation : ", M[0,1])
print("coefficient de corrélation : ", M[1,0])
[[ 1. -0.99999732]
[-0.99999732 1. ]]
coefficient de corrélation : -0.9999973163644661
coefficient de corrélation : -0.9999973163644661
Bilan :
Le calcul du coefficient de corrélation vient renforcer l’argumentation d’une relation affine
entre deux grandeurs X et Y . Il se fait après avoir tracé la courbe de Y en fonction de X, tracé
qui doit montrer qu’une loi linéaire (affine) est un bon modèle. Il ne peut pas se substituer
au tracé de cette courbe (certaines courbes qui ne sont manifestement pas des droites donnent
aussi un très bon coefficient de corrélation).
Enfin, le calcul du coefficient de corrélation valide un modèle de relation affine entre X et
Y ). Cela n’a rien à voir avec les calculs d’incertitude.
14