0% ont trouvé ce document utile (0 vote)
28 vues5 pages

Classification et évaluation des modèles

Le chapitre 3 traite de la classification, en utilisant le jeu de données MNIST pour former des classificateurs, notamment un classificateur binaire basé sur la descente stochastique. Il aborde les mesures de performance, telles que la validation croisée, les matrices de confusion, ainsi que des concepts comme la précision, le rappel et le compromis entre les deux. Enfin, il explore des techniques avancées comme la classification multi-classe, multi-label et l'analyse des erreurs.

Transféré par

Teophile Mbolo
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
28 vues5 pages

Classification et évaluation des modèles

Le chapitre 3 traite de la classification, en utilisant le jeu de données MNIST pour former des classificateurs, notamment un classificateur binaire basé sur la descente stochastique. Il aborde les mesures de performance, telles que la validation croisée, les matrices de confusion, ainsi que des concepts comme la précision, le rappel et le compromis entre les deux. Enfin, il explore des techniques avancées comme la classification multi-classe, multi-label et l'analyse des erreurs.

Transféré par

Teophile Mbolo
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

CHAPITRE 3

CLASSIFICATION
I- MNIST
II- Formation d'un classificateur binaire
III- Mesures de performance
1) Mesurer la précision à l'aide de la validation croisée
2) Matrices de confusion
3) Précision et rappel
4) Le compromis précision/rappel
5) La courbe ROC
IV- Classification multi-classe
V- Analyse des erreurs
VI- Classification multi-label
VII- Classification des sorties multiples

I- MNIST
Nous utiliserons le jeu de données MNIST, qui est un ensemble de 70 000 petites images
de chiffres écrits à la main par des lycéens et des employés du bureau de recensement
américain. Chaque image est étiquetée avec le chiffre qu'elle représente.

II- Formation d'un classificateur binaire

Choisissons maintenant un classificateur et entraînons-le. Un bon point de départ est un


classificateur de descente stochastique (SGD, ou GD stochastique), utilisant la classe
SGDClassifier de Scikit-Learn. Ce classificateur est capable de traiter efficacement de très
grands ensembles de données. Cela s'explique en partie par le fait que SGD traite les
instances d'apprentissage de manière indépendante, une à la fois, ce qui rend SGD bien
adapté à l'apprentissage en ligne,

III- Mesures de performance

L'évaluation d'un classificateur est souvent beaucoup plus délicate que l'évaluation d'un
régresseur. Il existe de nombreuses mesures de performance.

6) Mesurer la précision à l'aide de la validation croisée

La séparation d’un jeu de données en un jeu d’entraînement et un jeu de test est


nécessairement arbitraire. Nous risquons ainsi d’avoir, par hasard, créé des jeux de
données qui ne sont pas représentatifs. Pour éviter cet écueil, il est souhaitable de
reproduire plusieurs fois la procédure, puis de moyenner les résultats obtenus afin de
moyenner ces effets aléatoires. Le cadre le plus classique pour ce faire est celui de la
validation croisée,
la précision n'est généralement pas la mesure de performance préférée pour les
classificateurs, en particulier lorsqu'il s'agit d'ensembles de données biaisées (c'est- à-dire
lorsque certaines classes sont beaucoup plus fréquentes que les autres). Une bien
meilleure façon d'évaluer les performances d'un classificateur est d'examiner la matrice
de confusion (CM).

7) Matrices de confusion

Comme nous l’avons vu, le nombre d’erreurs de classification permet d’évaluer la qualité
d’un modèle prédictif. Notons que l’on préférera généralement décrire le nombre
d’erreurs comme une fraction du nombre d’exemples : un taux d’erreur de 1 % est plus
parlant qu’un nombre absolu d’erreurs.

Mais toutes les erreurs ne se valent pas nécessairement. Prenons l’exemple d’un modèle
qui prédise si oui ou non une radiographie présente une tumeur inquiétante : une fausse
alerte, qui sera ensuite infirmée par des examens complémentaires, est moins
problématique que de ne pas déceler la tumeur et de ne pas traiter la personne
concernée. Les performances d’un modèle de classification, binaire comme multiclasse,
peuvent être résumée dans une matrice de confusion.

8) Précision et rappel

Il est possible de dériver de nombreux critères d’évaluation à partir de la matrice de


confusion. En voici quelques exemples :

Il est cependant très facile d’avoir un bon rappel en prédisant que tous les exemples sont
positifs. Ainsi, ce critère ne peut pas être utilisé seul. On lui adjoint ainsi souvent la
précision :
De même que l’on peut facilement avoir un très bon rappel au détriment de la précision,
il est aisé d’obtenir une bonne précision (au détriment du rappel) en faisant très peu de
prédictions positives (ce qui réduit le risque qu’elles soient erronées)

9) Le compromis précision/rappel
10)La courbe ROC
IV- Classification multi-classe
V- Analyse des erreurs
VI- Classification multi-label
VII- Classification des sorties multiples

Vous aimerez peut-être aussi