REPUBLIQUE DU CAMEROUN REPUBLIC OF CAMEROON
Paix – Travail -Patrie Peace – Work – Fatherland
******* *******
UNIVERSITE DE YAOUNDE I UNIVERSITY OF YAOUNDE I
FACULTÉ DES SCIENCES FACULTY OF SCIENCE
DEPARTEMENT D’INFORMATIQUE DEPARTMENT OF COMPUTER SCIENCE
BP.812 Yaoundé, Tel/fax : 222 234 496 P.O.Box : 812 Yaoundé, Tel/fax: 222 234 496
RAPPORT :
Régression Linéaire Simple
Groupe 20
Matricules Noms et Prénoms Participation en
%
21T2488 ABAKAR OUMAR ABAKAR 100%
21T2686 FOGANG NGOULA ALLIANCE 100%
21T2634 LAYIBE YAYIBE NARCISSE 100%
21T2397 SALLA MBARGA MARC NARCISSE 95%
SACHAMART
Responsables de l’UE :
Dr NZEKON Armel
Dr MAKEMBE Fritz
ANNEE ACADEMIQUE 2022-2023
1
SOMMAIRE
1-A QUOI SERVENT LES LOIS SUIVANTES:.........................................................................2
a- L a Loi de Khi-2 encore appelle la loi de Chi-2 ou X2.........................................................2
b-La loi de Student....................................................................................................................2
c-la loi de Fisher........................................................................................................................2
2- Décrire comment les utiliser.....................................................................................................3
a-Utilisation de la loi de Khi-2..................................................................................................3
b-Utilisation de loi de Student.................................................................................................3
c- Utilisation de la Loi de Fisher...............................................................................................4
3- Dire pourquoi et comment ces lois sont utilisées dans le cas de la régression linéaire:...........5
I- Pourquoi et Comment utiliser de la loi de Khi-2 En régression linéaire Simple..................5
b-Utilisation de la loi de Khi-2 En régression linéaire Simple.................................................5
II-Pourquoi et Comment utiliser de la loi de Student En régression linéaire Simple...................6
a- Pourquoi?..............................................................................................................................6
b-Comment?..............................................................................................................................6
III- Pourquoi et Comment utiliser de la loi de Fisher En régression linéaire Simple...............7
a- Pourqoui?..............................................................................................................................7
b-Comment?..............................................................................................................................7
4-application des différentes lois sur l’exercice de la Fiche de TD..............................................8
a- Loi de Khi-deux avec les deux stagiaires.............................................................................8
b- Loi de Khi-deux sans les deux stagiaires.............................................................................9
c- Test de Fisher avec les deux stagiaires...............................................................................10
d Test de Fisher sans les deux stagiaires.................................................................................11
e- Test de Student sans les deux stagiaires..............................................................................12
References:..................................................................................................................................13
1
1-A QUOI SERVENT LES LOIS SUIVANTES:
a- L a Loi de Khi-2 encore appelle la loi de Chi-2 ou X2
La loi de Chi-2 (ou khi-2) est une loi statistique utilisée pour tester si les données
observées d'une expérience ou d'une enquête sont conformes à une distribution théorique
prédéfinie.La loi de Khi-2 est utilisée pour tester l'hypothèse nulle selon laquelle il n'y a pas de
relation significative entre deux variables catégorielles. Elle est souvent utilisée dans les études
de recherche pour déterminer si une différence observée entre deux groupes est statistiquement
significative ou simplement due au hasard. La loi de Khi-2 est également utilisée dans l'analyse
de données pour évaluer la qualité de l'ajustement d'un modèle à des données observées. Enfin,
elle peut être utilisée pour comparer les proportions observées dans un échantillon avec les
proportions attendues dans une population donnée.
b-La loi de Student
La loi de Student est utilisée pour tester l'hypothèse nulle selon laquelle il n'y a pas de
différence significative entre deux moyennes d'échantillons indépendants. Elle est souvent
utilisée dans les études de recherche pour déterminer si une différence observée entre deux
groupes est statistiquement significative ou simplement due au hasard. La loi de Student est
également utilisée dans l'analyse de données pour estimer l'incertitude dans les échantillons de
petite taille. Enfin, elle peut être utilisée pour construire des intervalles de confiance pour les
moyennes d'une population donnée.
c-la loi de Fisher
La loi de Fisher, également appelée distribution F de Snedecor ou distribution F-
Snedecor, est une loi statistique qui est utilisée pour comparer la variance de deux échantillons
indépendants et pour tester l'égalité des variances.
La loi de Fisher est utile dans de nombreuses applications statistiques, notamment dans
l'analyse de variance (ANOVA), la régression linéaire et l'analyse de covariance. Elle permet
de déterminer si la variance d'un échantillon est significativement différente de la variance d'un
autre échantillon, et elle est utilisée pour tester l'hypothèse nulle selon laquelle les variances
des deux échantillons sont égales.
La loi de Fisher est définie par deux degrés de liberté, appelés degrés de liberté du
numérateur et du dénominateur. Le degré de liberté du numérateur correspond au nombre
d'échantillons moins un, tandis que le degré de liberté du dénominateur correspond à la somme
des degrés de liberté des deux échantillons moins deux.
Pour utiliser la loi de Fisher, vous devez d'abord calculer la variance de chaque
échantillon, puis diviser la variance de l'échantillon avec la plus grande variance par la variance
de l'échantillon avec la plus petite variance. Le résultat est la valeur F, qui suit une distribution
F de Fisher. Ensuite, vous pouvez comparer la valeur F avec une valeur critique de F à partir
2
d'une table de distribution de Fisher pour déterminer si les variances des deux échantillons sont
significativement différentes.
La loi de Fisher, également connue sous le nom de test F, est utilisée pour tester la
significativité de la régression dans la régression linéaire simple.
En résumé, la loi de Fisher est utilisée pour comparer la variance de deux échantillons
indépendants et pour tester l'égalité des variances. Elle est utile dans de nombreuses
applications statistiques, notamment dans l'analyse de variance (ANOVA), la régression
linéaire et l'analyse de covariance. Elle permet de déterminer si la variance d'un échantillon est
significativement différente de la variance d'un autre échantillon, et elle est utilisée pour tester
l'hypothèse nulle selon laquelle les variances des deux échantillons sont égales.
2- Décrire comment les utiliser.
a-Utilisation de la loi de Khi-2
La loi du khi-deux (ou chi-deux) est une loi statistique qui est utilisée pour tester
l'hypothèse nulle selon laquelle les données observées suivent une certaine distribution
théorique. Elle est utilisée pour comparer les fréquences observées dans un échantillon
avec les fréquences attendues dans une distribution théorique.
Voici les étapes pour utiliser la loi du khi-deux:
1. Formulez vos hypothèses: Vous devez formuler une hypothèse nulle (H0) et une hypothèse
alternative (H1) qui représente ce que vous voulez prouver.
2. Collectez vos données: Vous devez collecter des données pour votre étude.
3. Calculez la statistique de test: Pour calculer la statistique de test, vous devez soustraire
chaque fréquence observée de la fréquence attendue, élever ce résultat au carré, diviser le tout
par la fréquence attendue, puis additionner tous les résultats. Cette somme est votre statistique
de test.
4. Déterminez la valeur critique: Vous devez déterminer la valeur critique de la loi du khi-deux
pour votre niveau de confiance et vos degrés de liberté.
5. Comparez la statistique de test à la valeur critique: Si la statistique de test est supérieure à la
valeur critique, vous pouvez rejeter l'hypothèse nulle.
Il est important de noter que la loi du khi-deux est utilisée pour comparer des
fréquences, et non des moyennes comme dans le cas de la loi de Student ou de la loi de Fisher.
De plus, cette loi est souvent utilisée en conjonction avec d'autres tests statistiques pour fournir
des résultats plus complets et précis.
3
b-Utilisation de loi de Student
La loi de Student est utilisée en statistiques pour tester des hypothèses sur les moyennes de
deux échantillons indépendants, lorsque la taille de l'échantillon est petite (généralement
inférieure à 30) ou lorsque l'écart type de la population n'est pas connu. Elle permet de
déterminer si une différence observée entre deux échantillons est statistiquement significative
ou simplement due au hasard.
Pour utiliser la loi de Student, vous devez suivre les étapes suivantes :
1. Formulez votre hypothèse nulle (H0) et votre hypothèse alternative (H1). L'hypothèse nulle
est généralement l'affirmation selon laquelle il n'y a pas de différence entre les moyennes des
deux échantillons, tandis que l'hypothèse alternative est l'affirmation selon laquelle il y a une
différence.
2. Calculez la différence entre les moyennes des deux échantillons.
3. Calculez l'écart type des différences entre les deux échantillons. Si l'écart type de la
population est connu, vous pouvez l'utiliser. Sinon, vous devez estimer l'écart type en utilisant
l'écart type des échantillons.
4. Calculez la valeur t en utilisant la formule suivante :
t = (m1 - m2) / (s / sqrt(n))
où m1 et m2 sont les moyennes des deux échantillons, s est l'écart type des différences et n est
la taille de l'échantillon.
5. Comparez la valeur t calculée avec la valeur critique de t à l'aide d'une table de distribution
de Student ou d'un logiciel statistique. Si la valeur t calculée est supérieure à la valeur critique
de t, vous pouvez rejeter l'hypothèse nulle et conclure qu'il y a une différence statistiquement
significative entre les moyennes des deux échantillons. Sinon, vous ne pouvez pas rejeter
l'hypothèse nulle et conclure qu'il n'y a pas de différence statistiquement significative.
En résumé, pour utiliser la loi de Student, vous devez formuler vos hypothèses, calculer
la différence entre les moyennes des échantillons, estimer l'écart type des différences, calculer
la valeur t et comparer la valeur t avec la valeur critique de t pour déterminer si la différence
observée est statistiquement significative.
c- Utilisation de la Loi de Fisher
Pour utiliser la loi de Fisher, vous devez tout d'abord formuler vos hypothèses.
L'hypothèse nulle (H0) est que les deux échantillons ont des variances égales, tandis que
l'hypothèse alternative (H1) est que les deux échantillons ont des variances différentes.
4
Ensuite, vous devez collecter vos données pour chaque échantillon. Vous devez ensuite
calculer la variance de chaque échantillon en utilisant la formule de la variance. La variance est
une mesure de la dispersion des données autour de la moyenne. Plus la variance est élevée, plus
les données sont dispersées.
Une fois que vous avez calculé la variance de chaque échantillon, vous devez calculer
la statistique de test F en divisant la variance de l'échantillon avec la plus grande variance par
la variance de l'échantillon avec la plus petite variance.
Ensuite, vous devez déterminer la valeur critique de la loi de Fisher pour votre niveau
de confiance et vos degrés de liberté. La valeur critique est la valeur de la statistique de test à
partir de laquelle vous pouvez rejeter l'hypothèse nulle.
Enfin, vous devez comparer la statistique de test F à la valeur critique. Si la statistique
de test est supérieure à la valeur critique, vous pouvez rejeter l'hypothèse nulle et conclure que
les variances des deux échantillons sont significativement différentes.
Il est important de noter que la loi de Fisher est souvent utilisée en conjonction avec
d'autres tests statistiques pour fournir des résultats plus complets et précis. Elle est également
utilisée dans l'analyse de la variance (ANOVA) pour tester si les moyennes de trois groupes ou
plus sont significativement différentes.
3- Dire pourquoi et comment ces lois sont utilisées dans le cas de la régression linéaire:
I- Pourquoi et Comment utiliser de la loi de Khi-2 En régression linéaire Simple
a- Pourquoi utilise la loi de Khi-2 en régression linéaire Simple
La loi du khi-deux est utilisée pour tester si la distribution des résidus (c'est-à-dire les
différences entre les valeurs observées et les valeurs prédites de la variable dépendante) suit
une distribution normale. Si la distribution des résidus n'est pas normale, cela peut indiquer que
le modèle de régression n'est pas adéquat pour les données.
b-Utilisation de la loi de Khi-2 En régression linéaire Simple
Voici les étapes à suivre pour utiliser la loi de khi-2 en régression linéaire simple :
Étape 1 : Formuler l'hypothèse nulle et alternative. L'hypothèse nulle (H0) stipule que la
relation entre la variable indépendante et la variable dépendante est linéaire, tandis que
l'hypothèse alternative (Ha) stipule qu'il n'y a pas de relation linéaire entre les deux variables.
Étape 2 : Collecter les données et estimer les paramètres de la régression, à savoir
la pente (b) et l'ordonnée à l'origine (a) de la ligne de régression.
Étape 3 : Calculer la valeur observée de la statistique de test, qui est donnée par la
formule :
5
χ2 = Σ(yi - a - bxi)^2 / σ^2
où yi est la valeur observée de la variable dépendante, xi est la valeur observée de la variable
indépendante, a et b sont les paramètres de la régression, et σ^2 est la variance de l'erreur de
régression.
Étape 4 : Déterminer les degrés de liberté (df) pour la loi de khi-2. Le nombre de degrés de
liberté est égal au nombre d'observations moins le nombre de paramètres estimés de la
régression (c'est-à-dire deux dans ce cas).
Étape 5 : Trouver la valeur critique de la loi de khi-2 pour le niveau de signification choisi et
les degrés de liberté correspondants. Le tableau de la loi de khi-2 peut être utilisé pour trouver
cette valeur.
Étape 6 : Comparez la valeur observée de la statistique de test à la valeur critique de la loi de
khi-2. Si la valeur observée est supérieure à la valeur critique, alors l'hypothèse nulle est rejetée
et il y a suffisamment de preuves pour suggérer que la relation entre les variables n'est pas
linéaire. Si la valeur observée est inférieure à la valeur critique, alors l'hypothèse nulle est
acceptée et il n'y a pas suffisamment de preuves pour suggérer que la relation entre les
variables n'est pas linéaire.
En conclusion, la loi de khi-2 peut être utilisée pour tester l'hypothèse de linéarité en régression
linéaire simple en comparant la valeur observée de la statistique de test à la valeur critique de la
loi de khi-2.
II-Pourquoi et Comment utiliser de la loi de Student En régression linéaire Simple
a- Pourquoi?
La loi de Student est utilisée pour tester si la pente de la droite de régression est
significativement différente de zéro. La pente de la droite de régression représente la relation
entre les variables indépendantes et la variable dépendante. Si la pente est significativement
différente de zéro, cela indique qu'il y a une relation linéaire significative entre les variables.
b-Comment?
La loi de Student est souvent utilisée pour estimer la significativité statistique des coefficients
de régression dans un modèle de régression linéaire simple. Voici les étapes à suivre pour
utiliser la loi de Student :
Étape 1. Formuler le modèle de régression linéaire simple en utilisant la variable dépendante et
la variable indépendante.
y = β0 + β1x + ε
Avec ε l’erreur
β1 et β0 sont les paramètres de la droite de régression
Étape 2. Collectez les données sur les variables dépendantes et indépendantes pour chaque
observation.
6
Étape 3. Calculez la pente et l'ordonnée à l'origine de la ligne de régression en utilisant la
formule :
β1 = Σ(xi - x̅ )(yi - y̅ ) / Σ(xi – x̅ )² avec Σ(xi - x̅ )(yi – y̅ ) =la Covariance de x,y et Σ(xi – x̅ )²=la
variance de x
β0 = y̅ - β1x̅
Étape 4. Calculez l'erreur résiduelle pour chaque observation en utilisant la formule :
εi = yi - y^i
Étape 5. Calculez l'estimateur de la variance de l'erreur de régression en utilisant la formule :
s² = Σ(εi - ε̅)^2 / (n - 2)
Étape 6. Calculez la valeur de la statistique de test T pour le coefficient β1 en utilisant la
formule :
T = (β1 - 0) / (s / √ Σ(xi - x̅ )^2) avec S= la variance de β1.
Étape 7. Recherchez la table de distribution T de Student pour trouver la valeur critique de T en
fonction du niveau de confiance et des degrés de liberté (n - 2).
Étape 8. Comparez la valeur T calculée à la valeur critique de T. Si la valeur T calculée est
supérieure à la valeur critique T, alors le coefficient β1 est statistiquement significatif.
En résumé, la loi de Student est utilisée pour déterminer si la relation entre les variables
indépendantes et dépendantes est significative, ou pour évaluer si les coefficients de régression
sont significativement différents de zéro.
III- Pourquoi et Comment utiliser de la loi de Fisher En régression linéaire Simple
a- Pourqoui?
La loi de Fisher est utilisée pour tester si l'inclusion d'une ou plusieurs variables
indépendantes dans le modèle de régression améliore significativement la qualité de
l'ajustement. La qualité de l'ajustement est mesurée par le carré du coefficient de corrélation
(R²). Si l'inclusion d'une ou plusieurs variables indépendantes améliore significativement la
qualité de l'ajustement, cela indique que ces variables sont importantes pour expliquer la
variance de la variable dépendante.
b-Comment?
Voici les étapes pour utiliser la loi de Fisher en régression linéaire simple :
1. Définir les hypothèses :
- L'hypothèse nulle (H0) : la variable indépendante X n'a pas d'effet sur la variable dépendante
Y.
- L'hypothèse alternative (H1) : la variable indépendante X a un effet significatif sur la variable
dépendante Y.
2. Calculer le rapport F :
- F = SCR / SCE
7
où SCR est la somme des carrés de la régression, et SCE est la somme des carrés des résidus.
3. Déterminer la valeur critique :
- La valeur critique dépend du niveau de confiance et des degrés de liberté de la régression et
des résidus. Elle peut être trouvée dans les tables de distribution F.
4. Comparer le rapport F avec la valeur critique :
- Si le rapport F est supérieur à la valeur critique, alors l'hypothèse nulle est rejetée au niveau
de confiance choisi. Cela signifie que la régression est significative et que la variable
indépendante X a un effet significatif sur la variable dépendante Y.
- Si le rapport F est inférieur ou égal à la valeur critique, alors l'hypothèse nulle n'est pas
rejetée. Cela signifie que la régression n'est pas significative et que la variable indépendante X
n'a pas d'effet significatif sur la variable dépendante Y.
En conclusion, la loi de Fisher est un outil statistique important pour tester la significativité de
la régression en régression linéaire simple.
4-application des différentes lois sur l’exercice de la Fiche de TD
Épreuve A 3 4 6 7 9 10 9 11 12 13 15 4
Épreuve B 8 9 10 13 15 14 13 16 13 19 6 19
a- Loi de Khi-deux avec les deux stagiaires
Les Hypothèses
H0: Les deux variable sont indépendantes
H1:Les deux variables ont une liaison
Tableau augmente
Épreuve 3 4 6 7 9 10 9 11 12 13 15 4 103
A
Épreuve 8 9 10 13 15 14 13 16 13 19 6 19 155
B
∑ 11 13 16 20 24 24 22 27 25 32 21 23 258
Tableau de khi-deux
T Colonne ∗T ligne
E ij❑= ❑
8
Épreuve 4,39 5,18 6,39 7,98 9,95 9,58 8,78 10,80 9,98 12,77 8,38 9,18
A
Épreuve 6,60 7,81 9,61 12,02 14,42 14,42 13,22 16,22 15,02 19,22 12,63 13,82
B
^❑ ij−Nij)2
(N
khi-2=X =∑ ❑
2
^ ❑
i, j N ij
1 1 1 1 1 1
X2= (3-4,39)2 + (4-5,18)2 + (6-6,39)2 + (7-7,98)2 + (9-9,95)2+
4 ,39 5 ,18 6 , 39 7 , 98 9 , 95 9 ,58
1
(10-9,58)2+ …………..+ (19-13,82)2
13 ,52
X2=15,78
-Degré de liberté est égale a (nombre ligne -1)(nombre colonne -1)=(12-1)(2-1)=11
-Avec une seuil de Signification de 5% (a=0,05)
X2critique=19,67 (voir table de khi-deux)
On a X2 <X2critique .Dans ce cas,on ne peut pas rejeté l’hypothèse
H0,alors il n’existe pas un lien entre l’épreuve A et l’épreuve B
• Deuxième Méthode de Calcul de X2
Si on se référé a la formule utilisée dans le cours,
2
(n−2) Sn−2
∼ χ2n−2 or σ2 est la variance exacte des erreurs et elle
σ2
est inconnue.Si on considère la variance estimée des erreurs ,on
X2=(n-2) =10 <X2critique=19,67
Donc cela revient au même résultat de l’hypothèse selon
laquelle il n’exige pas de lien entre les deux Épreuves.
b- Loi de Khi-deux sans les deux stagiaires
Épreuve 3 4 6 7 9 10 9 11 12 13 84
A
Épreuve 8 9 10 13 15 14 13 16 13 19 130
B
∑ 11 13 16 20 24 24 22 27 25 32 214
Épreuve 4,31 5,10 6,28 7,85 9,42 9,42 8,63 10,59 9,81 12,56
9
A
Épreuve 6,68 7,89 9,72 12,15 14,58 14,58 13,36 16,40 15,18 19,43
B
X2=2,19
Degré de liberté est égale a (nombre ligne -1)(nombre colonne -1)=(10-1)(2-1)=9
X2critique=16,92 (voir table de khi-deux)
On a X2 <X2critique .Dans ce cas,on ne peut pas rejeté l’hypothèse
H0,alors il n’existe pas un lien entre l’épreuve A et l’épreuve B.
• Deuxième Méthode de Calcul de X2
Si on se référé a la formule utilisée dans le cours,
2
(n−2) Sn−2
∼ χ2n−2 or σ2 est la variance exacte des erreurs et elle
σ2
est inconnue.Si on considère la variance estimée des erreurs ,on
X2=(n-2) =8 <X2critique=16,92
Donc cela revient au même résultat de l’hypothèse selon
laquelle il n’exige pas de lien entre les deux Épreuves.
Conclusion:Selon le test de Khi-deux,l’Épreuve A n’a pas
d’influence significative sur l’épreuve B
c- Test de Fisher avec les deux stagiaires
• L'hypothèse nulle (H0) : la variable indépendante X n'a pas d'effet sur la
variable dépendante Y.
• L'hypothèse alternative (H1) : la variable indépendante X a un
effet significatif sur la variable dépendante Y.
On a la formule:
2
R
F=(n−2) 2
1−R
2 SCE
Avec n-2 le degré de liberté ddl et R=
SCT
On a n-2 =12-2 =10
10
R2=0,01
F(1,10)=10*(0,01/(1-0,01)=0,10
F(1,10)critique=4,96>0,10 ,Donc on accepte H0 ,Cela signifie que la
régression n'est pas significative et que la variable indépendante
X n'a pas d'effet significatif sur la variable dépendante Y.
d Test de Fisher sans les deux stagiaires
2
R
F=(n−2) 2
1−R
2 SCE
Avec n-2 le degré de liberté ddl et R =
SCT
on a n-2=10-2=8
R2=0,81
F(1,8)=10*(0,81/(1-0,81)=34,10
F(1,8)critique=5,32 <34,10 .le rapport F(1,8) est supérieur à la valeur critique, alors l'hypothèse
nulle est rejetée au niveau de confiance 5%. Cela signifie que la régression est significative et
que la variable indépendante X a un effet significatif sur la variable dépendante Y.
3.a- Test de Student avec les deux stagiaires
H0 : b1 = 0, contre H1 : b1 ≠ 0
H0 : b0 = 0, contre H1 : b0 ≠ 0
Pour une droite de régression linéaire Y=b0+b1X.La statistique T de student est défini par la
formule, pour j=0,1:
b^j
T= avec
σ^b^
j
-Pour j=0 ,H0 : b0 = 0, contre H1 : b0 ≠ 0
∑ ❑ xi n
1
) ∑ ❑( y i− ^
2 2 i=0
σ^^b =σ^ = σ^ ( n
) et on a σ^ 2=( yi)2 et b 0= y−b1 x
j
n−2 i =0
n ∑ ( x i−x )
2
i=0
11
2 182 , 89
σ^ = =18,289 b 0=11, 99
10
11, 99
T=
0 , 98 T=12,23
Le degre de liberte est (n-2)=10 et le niveau de signifiaction est 5% ,T(10)critique=2,228 .T>
Tcritique on rejete H0 ,donc ici b0 n’est pas null ,elle est significatif.
-Pour j=1 , H0 : b1 = 0, contre H1 : b1 ≠ 0
b1=0,11
0 , 11
T=
0 ,32 T=0,34
Le degre de liberte est (n-2)=10 et le niveau de signifiaction est
5% ,T(10)critique=2,228 .T< Tcritique on accepte H0 selon laquelle b1 est
nulle.
Conclusion:Selon le test de Student,il n’y a pas une relation
significative entre les deux Epreuves avec les deux
Stagiaires(outliers).
e- Test de Student sans les deux stagiaires
H0 : b1 = 0, contre H1 : b1 ≠ 0
H0 : b0 = 0, contre H1 : b0 ≠ 0
Pour une droite de régression linéaire Y=b0+b1X .La statistique T de student est défini par la
formule, pour j=0,1:
b^j
T=
σ^b^ j
-Pour j=0 ,H0 : b0 = 0, contre H1 : b0 ≠ 0
∑ ❑ xi n
1
) ∑ ❑( y i− ^
2 2 i=0
σ^^b =σ^ = σ^ ( n
) et on a σ^ 2=( yi)2 et b 0= y−b1 x
j
n−2 i =0
n ∑ ( x i−x )
2
i=0
12
2 19 , 27
σ^ = =2 , 40 b 0=5 , 47
8
5 , 47
T=
0,449 T=12,18
Le degre de liberte est (n-2)=8 et le niveau de signifiaction est 5% ,T(8)critique=2,306 .T> Tcritique
on rejete H0 ,donc ici b0 n’est pas null ,elle est significatif.
-Pour j=1 , H0 : b1 = 0, contre H1 : b1 ≠ 0
b1=0,898
0,898
T=
0,155 T=5,79
Le degre de liberte est (n-2)=8 et le niveau de signifiaction est 5% ,T(10)critique=2,306 .T>Tcritique
on rejette H0 selon laquelle b1 est nulle.b1 est significatif.
Conclusion:Selon le test de Student,il y a une relation significative entre les deux Epreuves
sans les deux Stagiaires(outliers).
References:
-wikipedia https://fr.wikipedia.org/wiki/Loi_du_%CF
%87%C2B2?wprov=sfla1
-Cours Introduction à la Régression Linéaire,Olivier Martin,INRA
Avignon, BioSP
-Livre Exercices Corriges Statistiques et Probabilites,Faculte des
Sciences D’Agadir(STU 3)
13
Table de Khi-2 Critique
14
Table Students Critique
Table de Fisher Critique
15