0% ont trouvé ce document utile (0 vote)
37 vues37 pages

01 RN Modele Lineaire

Le document présente une introduction aux réseaux de neurones artificiels et à la régression linéaire, en expliquant les étapes d'apprentissage et de validation des modèles. Il décrit également les ensembles de données utilisés pour l'apprentissage, la validation et le test, ainsi que les applications de classification et de régression en apprentissage supervisé. Enfin, il aborde l'estimation des paramètres par la méthode des moindres carrés et fournit des exemples pratiques de régression linéaire.

Transféré par

AZIL AMIN
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • Prédiction,
  • Erreurs de prédiction,
  • Ensemble de validation,
  • Estimation des paramètres,
  • Variables dépendantes,
  • Réseaux de neurones,
  • Régression,
  • Comparaison de modèles,
  • Coefficient de régression,
  • Précision du modèle
0% ont trouvé ce document utile (0 vote)
37 vues37 pages

01 RN Modele Lineaire

Le document présente une introduction aux réseaux de neurones artificiels et à la régression linéaire, en expliquant les étapes d'apprentissage et de validation des modèles. Il décrit également les ensembles de données utilisés pour l'apprentissage, la validation et le test, ainsi que les applications de classification et de régression en apprentissage supervisé. Enfin, il aborde l'estimation des paramètres par la méthode des moindres carrés et fournit des exemples pratiques de régression linéaire.

Transféré par

AZIL AMIN
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • Prédiction,
  • Erreurs de prédiction,
  • Ensemble de validation,
  • Estimation des paramètres,
  • Variables dépendantes,
  • Réseaux de neurones,
  • Régression,
  • Comparaison de modèles,
  • Coefficient de régression,
  • Précision du modèle

Réseaux de neurones artificiels

Pr. Nabil Benoudjit

Université de Batna -2-


Email: [email protected]

-1
Modèle linéaire
(Régression linéaire
simple et Multiple)

-2
Comment construire et évaluer un modèle?

Etapes d’apprentissage et de validation Etape de test

Variables indépendantes Nouvelle variables


mesurées (capteur)
Modélisation indépendantes mesurées
Calcul
(linéaire/non-linéaire) (capteur) de Prédiction

Paramètres du
Variables dépendantes
Paramètres du Modèle sélectionné
mesurées (expert)
Modèle sélectionné
Estimation de la
variable dépendante
Human expert

Remarque: Pour le modèle linéaire on a besoin seulement de deux étapes


• Apprentissage (Estimation des paramètres du modèle)
• Test (Tester les performances du modèle) -3

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Apprentissage automatique?
 But:
 Trouver la relation entre les variables indépendants et la
variable dépendante en utilisant l’apprentissage automatique.
 L'apprentissage automatique est une technique de modélisation qui
implique des données.
 L'apprentissage automatique est une technique qui permet
d'élaborer un "modèle" à partir de "données".
 Les données signifient littéralement des informations telles que
documents, audio, images, etc.
 Le "modèle" est le produit final de l'apprentissage automatique.
 Le mot « apprentissage" reflète le fait que la technique analyse les
données et trouve le modèle par elle-même plutôt que de demander
à un humain de le faire.
 Nous l'appelons "apprentissage" parce que le processus ressemble
à un entraînement avec les données pour résoudre le problème de
la recherche d'un modèle. Par conséquent, les données que
l'apprentissage automatique utilise dans le processus de -4
modélisation sont appelées données "d’apprentissage".
Base de données (Datasets) (1)
 Avant de construire un modèle, les échantillons sont souvent
subdivisés en ensembles de données d’apprentissage, de
validation et de test. Les distinctions entre ces ensembles sont
cruciales, mais les termes d’ensemble de données de validation et
d’ensemble de données de test sont souvent confondus dans la
littérature.
 Ensemble d’apprentissage (Training set):

 L'ensemble de données d’apprentissage est utilisé pour


apprendre ou construire un modèle. Par exemple, dans la
régression linéaire, l'ensemble de données d'apprentissage est
utilisée pour ajuster le modèle de régression linéaire, à savoir
pour calculer les coefficients de régression. Dans un modèle non
linéaire tel que un réseau neuronal, l'ensemble de données
d'apprentissage est utilisée pour estimer les poids de réseau.

-5
Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE
Base de données (Datasets) (2)
 Validation dataset:
 Une fois qu'un modèle est construit sur des données d’apprentissage,
nous devons trouver la précision du modèle sur les données inconnues.
A cet effet, le modèle doit être utilisé sur un ensemble de données qui
n'a pas été utilisé dans le processus d’apprentissage. Si nous devions
utiliser les mêmes données d’apprentissage pour calculer la précision
de l'ajustement du modèle, nous obtenons une estimation trop optimiste
de la précision du modèle. En effet, le processus d’apprentissage
garantit que la précision du modèle sur les données d'apprentissage
est aussi élevée que possible - le modèle est spécifiquement adapté
aux données d'apprentissage. Pour obtenir une estimation plus réaliste
de la façon dont le modèle se comporte avec des données inconnues,
nous avons besoin de mettre de côté une partie des données d'origine
et de ne pas l'utiliser dans le processus d’apprentissage. Cette base de
données est connu sous le nom d'ensemble de données de validation.
Après ajustement du modèle sur l'ensemble de données
d’apprentissage, nous devrions tester ses performances sur cet
ensemble.
-6

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Base de données (Datasets) (3)
 Test dataset:

 L'ensemble de validation est souvent utilisé pour trouver le


meilleur modèle non linéaire. Par exemple, nous pourrions
essayer différents modèles de réseaux neuronaux avec diverses
architectures (par exemple avec différent nombre de neurones
dans la couche cachée du RBF) et de tester la précision de
chacun sur l'ensemble de données de validation pour choisir la
meilleure architecture (les meilleurs paramètres).
 Ainsi, nous avons besoin de mettre de côté une autre partie des
données, qui n’est pas utilisé ni en apprentissage, ni dans la
validation. Cet ensemble est connu sous le nom d’ensemble de
données de test. La précision du modèle sur les données de test
donne une estimation réaliste de la performance du modèle sur
des données complètement inconnus.

-7
Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE
Base de données (Datasets) (4)

-8

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Classification et régression

 Les deux types d'application les plus courants de l'apprentissage


supervisé sont la classification et la régression.
 La classification est l'application la plus courante de l'apprentissage
automatique.
 Le problème de la classification consiste à trouver littéralement les
classes auxquelles les données appartiennent. Quelques exemples
peuvent être utiles.
 Service de filtrage des emails spams ➔ Classe les emails selon
qu'ils sont normaux ou spams.
 Service de reconnaissance de chiffres ➔ Classifie l'image du
chiffre dans l'une des catégories 0-9.
 Service de reconnaissance faciale ➔ Classe l'image du visage
dans l'une des catégories d'utilisateurs enregistrés.

-9

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Exemple de base de données pour un
problème de classification

- 10

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Exemple de base de données pour un
problème de régression
 En revanche, la régression ne détermine pas la classe. Elle estime
plutôt une valeur. Par exemple, si vous disposez d'ensembles de
données sur l'âge et le revenu et que vous souhaitez trouver le
modèle qui estime le revenu en fonction de l'âge, il s'agit d'un
problème de régression.

Remarque : La classification et la régression font toutes deux partie de l'apprentissage supervisé. Par
conséquent, leurs données d’apprentissage se présentent également sous la forme de {entrée, sortie correcte}.
La seule différence réside dans le type de sorties correctes : la classification utilise des classes, tandis que la
- 11
régression requiert des valeurs.
Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE
Régression Linéaire simple (1)
Liaison linéaire entre X et Y
 Avant d’estimer la droite de régression, il faut vérifier:
 empiriquement (graphiquement) que la liaison entre les 2
variables est de nature linéaire.
 A défaut, l’interprétation du test de la pente de la droite de
régression peut être erronée.

Cas 1:
y
* La nature de la liaison est linéaire (le nuage de
points est résumé au mieux par une droite
horizontale d’équation y = b)
* La condition d’application est vérifiée
* Il est possible d’utiliser la régression linéaire
simple pour quantifier la liaison entre les 2
variables. x
(Conclusion : X et Y sont indépendants [Y
constant quelle que soit la valeur de X]).

- 12

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Régression Linéaire simple (2)
Cas 2:

* Le nuage de points n’est pas résumé au mieux par une droite mais plutôt par une fonction
quadratique.

La condition d’application n’est pas vérifiée.

(Conclusion: Il ne faut pas utiliser la régression linéaire simple pour quantifier la liaison entre
les 2 variables x et y)

- 13

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Régression Linéaire simple (3)
Cas 3:
y

• La nature de la liaison est linéaire (le nuage de points est résumé au mieux par une droite
d’équation y = a*x + b ).
• La condition d’application est vérifiée.
• Il est possible d’utiliser la régression linéaire simple pour quantifier la liaison entre les 2
variables.

(Conclusion : il existe une liaison linéaire entre X et Y)

- 14

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Régression Linéaire simple (4)

 La régression s’adresse à un type de problème où les 2 variables


quantitatives continues x et y ont un rôle asymétrique : la variable y dépend
de la variable x.
 La liaison entre la variable y dépendante (dite expliquée) et la variable x
indépendante (dite explicative) peut être modélisée par une fonction de
type y = a*x + b, représentée graphiquement par une droite.
 La variable x, peut être soit aléatoire, soit contrôlée c'est-à-dire qu'elles est
connue sans erreur.
y

- 15

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Estimation des paramètres par la méthode des moindres carrés (1)

* Chaque échantillon (individu) i est caractérisé par un couple de


coordonnées (xi, yi) et est représenté par un point sur le graphique.
• L’ensemble des individus forme un nuage de points.
• (x1, y1), (x2, y2), …………..(xn, yn).
• L’objectif de trouver y = f(x) où f fonction linéaire donc y = a*x + b

- 16

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Estimation des paramètres par la méthode des moindres carrés (2)

y
Mi(xi,b+a*xi)
yi

ei= (yi – (a*xi+b)) b + a*xi G

Pi(xi, b+a*xi)

x
xi

- 17

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Estimation des paramètres par la méthode des moindres carrés (3)
y
Mi(xi,b+a*xi)
yi

ei= (yi – (a*xi+b)) b + a*xi G


Pi(xi, b+a*xi)

x
xi

- 18

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Estimation des paramètres par la méthode des moindres carrés (4)

- 19

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Estimation des paramètres par la méthode des moindres carrés (5)

- 20

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Estimation des paramètres par la méthode des moindres carrés (6)

- 21

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Estimation des paramètres par la méthode des moindres carrés (7)

- 22

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Estimation des paramètres par la méthode des moindres carrés (8)

 En statistique on peut écrire ceci:

- 23

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Sous la forme matricielle

- 24

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Critères de performances:

- 25

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Exemple 1 Régression linéaire (1)
 L’analyse de la température de fonctionnement d’un procédé
chimique sur le rendement du produit a donné les valeurs suivante
pour la température xi et le rendement correspondant yi.
Température °C [100 110 120 130 140 150 160 170 180 190]
Rendement % [49 55 54 64 69 70 73 76 85 89]
100

90

80
Rendement en %

La figure suivante représente 70


le nuage de points pour ces
données et suggère une 60
relation linéaire
50

40
80 100 120 140 160 180 - 26 200
Température en °C
Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE
Exemple 1 Régression linéaire (2)
 Donc le modèle de la droite est : y = a *x + b
 En utilisant les deux équations ci-dessous on estime la meilleure
droite de régression
100
Nuage de points
Le point G
90 droite de regression

80

Rendement en %
70

60

50
Après calcul:
Y = a*x + b = 0,4291*x + 6,1818
40
80 100 120 140 160 180 200
Température en °C
Avec : R2 = 0,9710 et MSE = 4,5418 - 27

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Exemple 2 Régression linéaire (1)
 Trouver la meilleure droite à travers les couples de points suivants:
X = [0 1 2 3 4 5]
Y= [0 1.4 2 2.55 4.7 5.7]

Y 3

2
La figure suivante représente
le nuage de points pour ces 1

données et suggère une


relation linéaire 0

-1
-1 0 1 2 3 4 5 6
X

- 28

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Exemple 2 Régression linéaire (2)

6
Nuage de points
5 Le point G
droite de regression

3
Y

Après calcul:
0
Y = a*x + b = 1,1129*x – 0,0571
-1
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Avec : R2 = 0,96 et MSE = 0,1360 X
- 29

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Régression Linéaire Multiple (MLR) (1)

 La régression linéaire multiple est une méthode d'analyse de


données quantitatives. Elle a pour but de mettre en évidence la
liaison pouvant exister entre une variable dite expliquée, que l'on
notera Y et plusieurs autres variables dites explicatives que l'on
notera X1, X2, ... , Xk.

 Les k variables Xi, i = 1, ... , k peuvent être soit aléatoires, soit


contrôlées c'est-à-dire qu'elles sont connues sans erreur. Nous
supposerons dans la suite que les variables Xi, i = 1, ... , k sont
contrôlées. Nous nous intéressons aux modèles dit linéaires, c'est-
à-dire aux modèles du type :

Y = a0 +a1X1 + a2X2 + ... +akXk

- 30

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Régression Linéaire Multiple (MLR) (2)

 dans lequel a0, a1, ... , ak sont des réels appelés coefficients
du modèle.
 Le modèle de la Régression Linéaire Multiple (MLR) sous la forme
matricielle est sous la forme suivante:

y =Xb + e

 L’estimation des coefficients du modèle inconnus constitué par le


vecteur b est réalisée en minimisant une fonction coût, par exemple
la somme des carrés résiduels:

- 31

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Régression Linéaire Multiple (MLR) (3)

 Quand m = n+1, (m est le nombre d’échantillons (observations) et n


est le nombre de variables)

 quand m > n+1

- 32

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Régression Linéaire Multiple (MLR) (4)

 Quand m < n+1

 NB: Souvent dans la pratique la matrice X comprend plus de


variables que d’échantillons, alors la colinéarité est garantie.

- 33

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Exemple 1: Régression linéaire Multiple (1)
 Trouver la régression linéaire multiple liant les variables explicatives
x1 et x2 avec la variable expliquée y.
y = a1*x1 + a2*x2 + b
Y désirés
x1 = [1 3 4 7 9 9] Y estimés

x2 = [9 9 6 3 1 2] 10

Y = [3 5 6 8 7 10] 8

[ y-désiré y-estimé erreur]


6

Y
3 3,2734 0,0748
5 5,4714 0,2222 4

6 5,2812 0,5166 2
10
8 7,2891 0,5054 10
7 8,6276 2,6491 5
5
10 9,0573 0,8887 X2 0 0 X1

Après calcul: R2 = 0,8354


- 34
Y = a1*x1 + a2*x2 + b = 1,0990*x1 + 0,4297*x2 – 1,6227
Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE
Exemple 1: Régression linéaire Multiple (2)
 Les données sont centrés === b = 0
 Le modèle de la régression linéaire multiple liant les variables
explicatives x1 et x2 avec la variable expliquée y.
y = a1*x1 + a2*x2 Yd
Ye
x1 = [-4,5 -2,5 -1,5 1,5 3,5 3,5]
4
x2 = [ 4 4 1 -2 -4 -3]
y = [-3,5 -1,5 -0,5 1,5 0,5 3,5] 2

[ y-désiré y-estimé erreur]

Y-centre
0
-3,5 -3,2266 0,0748
-2
-1,5 -1,0286 0,2222
-0,5 -1,2187 0,5166 -4
4
1,5 0,7891 0,5054 2 5

0,5 2,1276 2,6491 0


0
-2
3,5 2,5573 0,8887 X2-crentre -4 -5 X1-centre

Après calcul: R2 = 0,8354


- 35
Y = a1*x1 + a2*x2 = 1,0990*x1 + 0,4297*x2
Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE
Comparaison entre modèle linéaire et
modèle non linéaire
 Nombre de paramètres fixe
 Nombre de paramètres Variable

 Petit nombre de paramètres


 Grand nombre de paramètres

 Apprentissage direct
 Apprentissage adaptatif

 Pas de minima locaux


 Présence de minima locaux

 Réservé aux problème linéaire


 Valide pour n’importe quel problème

- 36

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE


Merci pour votre attention

- 37

Pr. N. BENOUDJIT Matière : Intelligence artificielle M1: ESE

Vous aimerez peut-être aussi