0% ont trouvé ce document utile (0 vote)
32 vues36 pages

Cours Application IA

Le document présente les différentes tâches de machine learning, notamment la régression, la classification, le clustering, et les systèmes de recommandation, ainsi que leurs applications pratiques. Il décrit également les principales familles d'algorithmes associés à chaque tâche, tels que les arbres de décision, les réseaux de neurones, et les modèles de régression. Enfin, des exemples d'application illustrent comment ces algorithmes peuvent être utilisés dans divers domaines, comme la détection de fraude ou la prévision des ventes.

Transféré par

aminatakimbiri
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
32 vues36 pages

Cours Application IA

Le document présente les différentes tâches de machine learning, notamment la régression, la classification, le clustering, et les systèmes de recommandation, ainsi que leurs applications pratiques. Il décrit également les principales familles d'algorithmes associés à chaque tâche, tels que les arbres de décision, les réseaux de neurones, et les modèles de régression. Enfin, des exemples d'application illustrent comment ces algorithmes peuvent être utilisés dans divers domaines, comme la détection de fraude ou la prévision des ventes.

Transféré par

aminatakimbiri
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

16/03/2025

APPLICATIONS DE
L'INTELLIGENCE ARTIFICIELLE

Présenté par : Mme Sara BOURAYA


Encadré par : M. BELANGOUR Abdessamad

1 Tâches de machine learning

1
16/03/2025

Tâches de machine learning


Dans le domaine de la data science et du
Machine Learning, on distingue plusieurs
types de tâches ou de méthodes.

Tâches de machine learning


Régression
•Définition :
La régression vise à prédire une valeur numérique (quantitative) à partir
de données d’entrée.
•Exemples d’utilisation :
• Estimer le prix d’un bien immobilier (surface, localisation, état, etc.).
• Prévoir la consommation énergétique ou la température.
• Anticiper le chiffre d’affaires futur d’une entreprise.

2
16/03/2025

Tâches de machine learning


Classification
•Définition : La classification consiste à attribuer une étiquette
(catégorie, classe) à un ensemble de données à partir d’exemples
préalablement étiquetés.
•Objectif : Prédire la catégorie à laquelle appartient une nouvelle
donnée sur la base d’un modèle entraîné.
•Exemples d’utilisation :
• Détection d’emails indésirables (spam vs. non-spam).
• Diagnostic médical (malade vs. non malade, type de pathologie).
• Reconnaissance d’images (identifier un chat, un chien, une voiture, etc.).

Tâches de machine learning


Association (Règles d’association)
•Définition : L’extraction de règles d’association consiste à identifier des
relations ou des cooccurrences entre différents attributs d’un ensemble
de données.
•Objectif : Trouver des liens du type « si X alors Y » (par exemple, “les
clients qui achètent le produit A achètent souvent aussi le produit B”).
•Exemples d’utilisation :
• Analyse de paniers d’achats dans la grande distribution (association de
produits).
• Recommandation de contenus (si un utilisateur regarde tel type de film,
il est susceptible d’aimer tel autre type).
• Détection de schémas récurrents dans les logs ou les événements d’un
système.

3
16/03/2025

Tâches de machine learning


Clustering (Regroupement)
•Définition : Le clustering consiste à regrouper des données non
étiquetées en différents clusters ou « groupes » selon leurs similarités.
•Objectif : Découvrir des structures sous-jacentes dans les données et
segmenter la population en groupes homogènes.
•Exemples d’utilisation :
• Segmenter la clientèle en marketing (groupes de clients ayant des
comportements d’achat similaires).
• Détecter des anomalies ou des fraudes en repérant des points de
données qui ne correspondent à aucun groupe existant.
• Analyser des images pour identifier des objets ou des formes
récurrentes.

Tâches de machine learning


Réduction de dimensions (Dimensionality Reduction)
•Définition :
Il s’agit de techniques qui visent à projeter ou compresser les données
dans un espace de plus faible dimension, tout en conservant au
maximum les informations importantes.
•Exemples d’utilisation :
• PCA (Analyse en Composantes Principales) : Réduit la dimensionnalité
pour faciliter la visualisation et l’analyse.
• t-SNE : Souvent utilisé pour représenter graphiquement des données
complexes (images, textes) en 2D ou 3D.
• Simplification de modèles : Diminue le risque de surapprentissage et le
temps de calcul.

4
16/03/2025

Tâches de machine learning


Recommandation (Recommendation Systems)
•Définition :
Les systèmes de recommandation proposent des items (produits, films,
musiques, etc.) susceptibles d’intéresser un utilisateur, en se basant sur
l’historique et le comportement de l’ensemble des utilisateurs.
•Exemples d’utilisation :
• Suggestion de vidéos sur YouTube ou de séries sur Netflix.
• Propositions d’achats complémentaires sur un site e-commerce (ex.
Amazon).
• Recommandation de contacts ou d’offres d’emploi sur LinkedIn.

Tâches de machine learning


Apprentissage par renforcement (Reinforcement Learning)
•Définition :
Un agent interagit avec un environnement et apprend une stratégie
d’action (policy) basée sur un système de récompenses ou de pénalités.
•Exemples d’utilisation :
• Jeux (Go, échecs, jeux vidéo) où l’agent apprend à maximiser ses points
ou ses victoires.
• Robots autonomes qui apprennent à se déplacer ou à manipuler des
objets.
• Optimisation de la gestion de stocks, de la logistique ou de la
consommation d’énergie.

5
16/03/2025

Tâches de machine learning


Recommandation (Recommendation Systems)
•Définition :
Les systèmes de recommandation proposent des items (produits, films,
musiques, etc.) susceptibles d’intéresser un utilisateur, en se basant sur
l’historique et le comportement de l’ensemble des utilisateurs.
•Exemples d’utilisation :
• Suggestion de vidéos sur YouTube ou de séries sur Netflix.
• Propositions d’achats complémentaires sur un site e-commerce (ex.
Amazon).
• Recommandation de contacts ou d’offres d’emploi sur LinkedIn.

Tâches de machine learning


Traitement du langage naturel et génération (NLP / IA générative)
•Définition :
• NLP : Analyse, compréhension et génération de texte.
• IA générative : Création de nouveaux contenus (texte, images, sons) à
partir de modèles entraînés.

•Exemples d’utilisation :
• Chatbots, traduction automatique, analyse de sentiments.
• Génération de textes (articles, résumés, etc.) ou d’images (ex. DALL·E,
Midjourney).
• Systèmes de question-réponse et assistants virtuels (ex. GPT).

6
16/03/2025

Tâches de machine learning


Traitement du langage naturel et génération (NLP / IA générative)
•Définition :
• NLP : Analyse, compréhension et génération de texte.
• IA générative : Création de nouveaux contenus (texte, images, sons) à
partir de modèles entraînés.

•Exemples d’utilisation :
• Chatbots, traduction automatique, analyse de sentiments.
• Génération de textes (articles, résumés, etc.) ou d’images (ex. DALL·E,
Midjourney).
• Systèmes de question-réponse et assistants virtuels (ex. GPT).

Tâches de machine learning


Prédiction de séries temporelles (Time Series Forecasting)
•Définition :
Méthodes qui analysent l’évolution d’une variable dans le temps pour
anticiper sa valeur future.
•Exemples d’utilisation :
• Prévisions de ventes, de cours boursiers ou de demandes énergétiques.
• Analyse de capteurs industriels (température, pression, etc.) pour
anticiper des variations critiques.
• Prévision du trafic routier ou de la fréquentation d’un site web.

7
16/03/2025

Résumé
•La régression pour prédire une variable continue.
•La réduction de dimensions pour simplifier ou visualiser des
données complexes.
•La détection d’anomalies pour repérer des comportements
inhabituels.
•Les systèmes de recommandation pour suggérer du contenu,
•L’apprentissage par renforcement pour apprendre via essais-
erreurs.
•Le NLP et l’IA générative pour comprendre et créer du contenu
textuel (ou visuel).
•La prédiction de séries temporelles pour prévoir l’évolution
dans le temps.

2 Principales familles d’algorithmes

8
16/03/2025

Algorithmes de Machine
Learning - Classification
•Arbres de décision (Decision Trees)
•Forêts aléatoires (Random Forest)
•Machines à vecteurs de support (SVM : Support Vector Machines)
•k-plus proches voisins (k-Nearest Neighbors)
•Naive Bayes
•Réseaux de neurones (Perceptron multicouche, CNN, etc.)
•Boosting (XGBoost, LightGBM, CatBoost)
But : prédire une catégorie (par exemple : spam / non spam, malade /
sain).

Algorithmes de Machine
Learning - Régression
•Régression linéaire (Lineaire, Multiple, Polynomiale)
•Support Vector Regression (SVR)
•Arbres de décision pour la régression (Random Forest Regressor)
•Réseaux de neurones (pour sortie continue)
•Modèles de régression réguliers (Ridge, Lasso, ElasticNet)
But : prédire une valeur numérique (par exemple : prix d’un bien,
consommation énergétique).

9
16/03/2025

Algorithmes de Machine Learning –


Clustering (Regroupement non supervisé)
•k-Means
•DBSCAN
•Clustering hiérarchique (Agglomerative / Divisive)
•Gaussian Mixture Models (GMM)
•Spectral Clustering
But : regrouper les données en clusters de manière à ce que les
éléments d’un même groupe se ressemblent davantage entre eux
qu’avec ceux des autres groupes.

Algorithmes de Machine Learning


- Association (Règles d’association)
•Apriori
•FP-Growth
•Eclat
But : découvrir des règles du type “si X alors Y” (par exemple : “Les
clients qui achètent du café achètent souvent du sucre”).

10
16/03/2025

Algorithmes de Machine Learning


- Systèmes de recommandation
•Filtrage collaboratif (User-based, Item-based)
•Filtrage basé sur le contenu (Content-based)
•Factorisation de matrices (Matrix Factorization, SVD)
•Approches hybrides (combinaison collaboratif + contenu)
But : suggérer à l’utilisateur des produits ou contenus susceptibles de
l’intéresser (films, musiques, articles, etc.).

Algorithmes de Machine Learning


- Réduction de dimensions
•PCA (Analyse en Composantes Principales)
•t-SNE (t-Distributed Stochastic Neighbor Embedding)
•UMAP (Uniform Manifold Approximation and Projection)
•LDA (Linear Discriminant Analysis)
But : projeter des données de haute dimension dans un espace de
dimension plus faible tout en préservant au mieux la structure ou la
variance.

11
16/03/2025

Algorithmes de Machine Learning


- Apprentissage par renforcement
(Reinforcement Learning)
•Q-learning
•SARSA
•Deep Q-Network (DQN)
•Policy Gradients (REINFORCE, PPO, A2C/A3C, etc.)
But : apprendre à un agent (un programme) à agir dans un
environnement en maximisant une récompense (par essais-erreurs).

Algorithmes de Machine Learning


- Traitement du langage naturel
(NLP) et IA générative
•Réseaux de neurones récurrents (RNN, LSTM, GRU)
•Transformers (BERT, GPT, etc.)
•Word Embeddings (Word2Vec, GloVe, FastText)
•Modèles séquence-à-séquence (Seq2Seq)
•GAN (Generative Adversarial Networks) et VAE (Variational
Autoencoders) pour la génération de contenus
•Diffusion Models (pour la génération d’images, de sons, etc.)
But : comprendre et générer du langage humain (traduction, résumé,
conversation) ou créer des contenus (images, texte, audio).

12
16/03/2025

Algorithmes de Machine Learning


- Prédiction de séries temporelles
•ARIMA (AutoRegressive Integrated Moving Average)
•SARIMA (Seasonal ARIMA)
•Prophet (développé par Facebook)
•Réseaux de neurones (LSTM, GRU, Transformers spécialisés)
•Modèles hybrides (combinaison statistique + Deep Learning)
But : prédire l’évolution d’une variable dans le temps (cours boursiers,
ventes, trafic, météo, etc.).

Résumé
Chaque catégorie de tâches (classification, régression, clustering,
association, etc.) peut être abordée par plusieurs familles
d’algorithmes. Le choix d’un algorithme dépend notamment :
•Du type de données (numériques, catégorielles, textuelles, images,
séries temporelles…).
•Du volume de données et de la puissance de calcul disponible.
•Des objectifs (précision, interprétabilité, rapidité, robustesse aux
outliers, etc.).

13
16/03/2025

3 Examples d’application

Example d’application-
Classification
Arbre de décision (Decision Tree)

• Exemple : Classification d’emails en spam ou non spam, en se basant sur la présence de certains mots-clés, la longueur du mail, ou encore l’adresse de
l’expéditeur.

Forêt aléatoire (Random Forest)

• Exemple : Détection de fraude dans des transactions bancaires. Chaque arbre vote pour « fraude » ou « non fraude » et la forêt agrège les résultats pour plus
de robustesse.

Machine à vecteurs de support (SVM)

• Exemple : Diagnostic médical : distinguer des tumeurs bénignes et malignes à partir de caractéristiques biométriques (taille de la tumeur, texture, etc.).

k-plus proches voisins (k-NN)

• Exemple : Classification des fleurs Iris (setosa, versicolor, virginica) en se basant sur la longueur et la largeur des pétales et sépales.

Naive Bayes

• Exemple : Filtrage d’emails en identifiant la probabilité qu’un message contienne du spam, selon la fréquence de certains mots.

Réseaux de neurones (Perceptron multicouche, CNN, etc.)

• Exemple : Reconnaissance de chiffres manuscrits (base MNIST). Le réseau apprend à classer chaque image (0 à 9).

Boosting (XGBoost, LightGBM, CatBoost)

• Exemple : Prédiction du risque de churn (résiliation) d’abonnés à un service télécom, en combinant plusieurs « classifieurs faibles » pour obtenir un modèle
très performant.

14
16/03/2025

Example d’application-
Régression
Régression linéaire (simple, multiple, polynomiale)
• Exemple : Prévoir le prix de vente d’une maison en fonction de sa surface, du nombre de pièces,
de son emplacement, etc.
Support Vector Regression (SVR)
• Exemple : Estimer la valeur d’un véhicule d’occasion en tenant compte du kilométrage, de l’âge
et de la marque.
Arbres de décision pour la régression (Random Forest Regressor)
• Exemple : Prédire la consommation énergétique journalière d’un bâtiment selon la météo et
l’historique de consommation.
Réseaux de neurones (pour sortie continue)
• Exemple : Anticiper le chiffre d’affaires quotidien d’une boutique en ligne (features :
promotions, saison, trafic web).
Modèles de régression réguliers (Ridge, Lasso, ElasticNet)
• Exemple : Évaluer la dépense calorique d’une personne à partir de son poids, de sa taille, de son
âge et de son niveau d’activité, en contrôlant la complexité du modèle.

Example d’application- Clustering


(Regroupement non supervisé)
k-Means
• Exemple : Segmenter la clientèle d’une grande surface en groupes selon leur fréquence d’achat,
leur panier moyen, etc.
DBSCAN
• Exemple : Identifier des formations stellaires denses dans des données astronomiques (points
représentant des étoiles) et isoler les étoiles « solitaires » comme anomalies.
Clustering hiérarchique (Agglomerative / Divisive)
• Exemple : Regrouper des espèces animales selon la similarité de leur ADN et obtenir un
dendrogramme montrant la hiérarchie de regroupement.
Gaussian Mixture Models (GMM)
• Exemple : Modéliser la distribution des pixels dans une image pour en séparer différents
segments (par exemple, ciel, végétation, bâtiments).
Spectral Clustering
• Exemple : Détecter des communautés dans un réseau social en traitant les connexions (graphe)
via des méthodes spectrales.

15
16/03/2025

Example d’application- Association


(Règles d’association)
Apriori
•Exemple : Analyser les tickets de caisse d’un supermarché pour trouver
des associations du type « les clients qui achètent du lait achètent aussi
souvent du pain ».
FP-Growth
•Exemple : Extraire rapidement des règles d’association dans une très
grande base de données de transactions en ligne (ex. Amazon).
Eclat
•Exemple : Identifier des ensembles de produits récurrents dans un
entrepôt de vente en gros pour optimiser les emplacements de
stockage.

Example d’application-
Systèmes de recommandation
Filtrage collaboratif (User-based, Item-based)
•Exemple : Recommander des films sur Netflix en fonction des notes attribuées
par d’autres utilisateurs ayant des goûts similaires.
Filtrage basé sur le contenu (Content-based)
•Exemple : Proposer des articles de presse selon les mots-clés présents dans les
articles déjà lus par l’utilisateur.
Factorisation de matrices (Matrix Factorization, SVD)
•Exemple : Personnaliser les suggestions de produits sur un site e-commerce
(Amazon) en modélisant l’interaction entre utilisateurs et items.
Approches hybrides
•Exemple : Combiner filtrage collaboratif et basé sur le contenu pour
recommander des restaurants sur Yelp (prendre en compte à la fois les avis
d’utilisateurs et la catégorie culinaire).

16
16/03/2025

Example d’application-
Réduction de dimensions
PCA (Analyse en Composantes Principales)

• Exemple : Visualiser en 2D un jeu de données initialement constitué de dizaines de variables


(caractéristiques produits, par exemple) pour repérer des tendances ou clusters.

t-SNE

• Exemple : Représenter en 2D des images de visages (hautement dimensionnelles) afin d’identifier des
groupes de personnes similaires.

UMAP

• Exemple : Analyser et regrouper des documents textuels (comptes rendus, articles) pour repérer des
thématiques communes.

LDA (Linear Discriminant Analysis)

• Exemple : Réduire la dimension d’un dataset de classification tout en maximisant la séparation entre
les classes (ex. reconnaissance d’espèces de fleurs).

Example d’application-
Apprentissage par renforcement
(Reinforcement Learning)
Q-learning
•Exemple : Apprendre à un agent virtuel à trouver la sortie d’un labyrinthe en recevant des
récompenses positives pour chaque progression.
SARSA
•Exemple : Former un petit robot à se déplacer sans heurter les obstacles, en tenant
compte des actions prévues par la politique actuelle.
Deep Q-Network (DQN)
•Exemple : Apprendre à jouer à des jeux Atari (Breakout, Pong) en prenant pour entrée
l’image de l’écran et en optimisant le score.
Policy Gradients (REINFORCE, PPO, A2C/A3C, etc.)
•Exemple : Permettre à un robot bipède de marcher et de maintenir son équilibre dans un
environnement simulé, en ajustant sa politique de mouvement.

17
16/03/2025

Example d’application- Traitement


du langage naturel (NLP) et IA
générative
RNN, LSTM, GRU

• Exemple : Générer automatiquement des textes courts (poèmes) ou prédire le mot suivant dans une phrase.

Transformers (BERT, GPT, etc.)

• Exemple : Traduction automatique multilingue ou réponse à des questions complexes (type assistant conversationnel).

Word Embeddings (Word2Vec, GloVe, FastText)

• Exemple : Analyser la similarité sémantique entre des mots (ex. “roi” est plus proche de “reine” que de “voiture”).

Seq2Seq

• Exemple : Créer un système de traduction automatique (français anglais) ou de résumé automatique de textes.

GAN (Generative Adversarial Networks)

• Exemple : Générer des images de visages humains inexistants (deepfakes) ou des illustrations artistiques.

VAE (Variational Autoencoders)

• Exemple : Produire de nouvelles écritures manuscrites ou générer des prototypes de pièces mécaniques.

Diffusion Models

• Exemple : Générer des images réalistes ou artistiques à partir d’un prompt textuel (ex. Stable Diffusion, DALL·E).

Example d’application- Prédiction


de séries temporelles
ARIMA

• Exemple : Prévoir la demande de produits saisonniers (ex. glaces) en se basant sur l’historique de ventes.

SARIMA

• Exemple : Modéliser la consommation d’électricité avec une saisonnalité hebdomadaire et mensuelle.

Prophet (Facebook Prophet)

• Exemple : Anticiper l’évolution du trafic sur un site web (pics saisonniers, jours fériés, campagnes marketing).

LSTM, GRU (Réseaux récurrents)

• Exemple : Prédire l’évolution du cours d’une action boursière en tenant compte de l’historique des prix.

Transformers (adaptés aux séries temporelles)

• Exemple : Gérer plusieurs flux de capteurs IoT simultanément pour prévoir des anomalies dans un processus
industriel.

Modèles hybrides (statistique + deep learning)

• Exemple : Combiner ARIMA et un réseau LSTM pour prévoir la qualité de l’air (pollution) en tenant compte de
multiples variables (météo, trafic, saison).

18
16/03/2025

4 Travaux Pratiques

TP 1:
Voici une proposition de Travaux Pratiques (TP) autour de la
classification d’emails en spam ou non spam à l’aide d’un arbre de
décision. L’objectif est de mettre en œuvre les différentes étapes d’un
projet de Machine Learning, depuis la préparation des données
textuelles jusqu’à l’évaluation du modèle.

19
16/03/2025

TP 1: Objectifs du TP
1.Découvrir les étapes clés d’un projet de classification supervisée.
[Link] un jeu de données textuelles (emails).
[Link] en place un pipeline de transformation des données (vectorisation du
texte) et d’entraînement d’un modèle (arbre de décision).
4.Évaluer les performances du modèle (métriques, matrice de confusion).
5.(Optionnel) Améliorer le modèle via la recherche d’hyperparamètres.

TP 1: Prérequis
• Connaissances de base en Python et bibliothèques courantes (pandas, NumPy).

• Familiarité avec scikit-learn (classification, métriques).

• Notions de traitement du langage naturel (vectorisation de texte).

• Packages: (Jupyter/ Colab)

pip install numpy pandas scikit-learn matplotlib

20
16/03/2025

TP 1: Prérequis

TP 1: Présentation du jeu
de données
Pour ce TP, nous allons considérer un jeu de données d’emails étiquetés
en « spam » ou « ham » (non spam). Plusieurs options s’offrent à vous :
•Dataset SMS Spam (souvent utilisé pour la classification de courts
messages) :
• Disponible sur Kaggle ou UCI Machine Learning Repository.

•Emails spam (Enron spam dataset, SpamAssassin, etc.) :


• Exemples disponibles sur Kaggle.

21
16/03/2025

TP 1: Importation et exploration
du jeu de données
•Chargement du fichier (CSV ou autre).
•Inspection des premières lignes (vérifier la présence des colonnes text
et label).
•Vérification du nombre de spams vs. non spams (distribution des
classes).

TP 1: Présentation du jeu
de données

22
16/03/2025

TP 1: Prétraitement du texte
•Nettoyage éventuel (caractères spéciaux, ponctuation, minuscules).
•Séparation des données en features (text) et labels (label).

TP 1: Division du dataset
•Séparer en train (70-80%) et test (20-30%).
•Optionnel : ajouter un jeu de validation ou utiliser la cross-validation.

23
16/03/2025

TP 1: Division du dataset

TP 1: Vectorisation du texte
•Utilisation d’un CountVectorizer ou TfidfVectorizer (scikit-learn).
•Paramètres à expérimenter (min_df, ngram_range, etc.).

24
16/03/2025

TP 1: Vectorisation du texte

TP 1: Training
•Entraînement d’un modèle d’arbre de décisionChoix d’un algorithme de
décision (DecisionTreeClassifier).
•Ajustement des hyperparamètres (profondeur max, critère « gini » ou
« entropy », etc.).

25
16/03/2025

TP 1: Training

TP 1: Évaluation
•Évaluation du modèlePrédiction sur le jeu de test.
•Calcul des métriques : accuracy, precision, recall, f1-score.
•Visualisation de la matrice de confusion.

26
16/03/2025

TP 1: Évaluation

TP 1: Visualisation

27
16/03/2025

TP 2:
Voici un Travaux Pratiques (TP) illustrant l’utilisation de l’algorithme k-plus
proches voisins (k-NN) pour la classification des fleurs du dataset Iris.
L’objectif est de comprendre comment fonctionne l’algorithme k-NN et
d’appliquer les étapes classiques d’un projet de Machine Learning sur un jeu
de données très connu.

TP 2: Objectifs du TP
1.Découvrir le dataset Iris et ses particularités.

[Link] en place un algorithme de classification k-NN pour prédire l’espèce d’une fleur en
fonction de mesures de pétales et de sépales.
3.Évaluer la performance du modèle à l’aide de métriques (accuracy, matrice de confusion).

[Link]érimenter différents hyperparamètres (valeur de k, distance, etc.).

28
16/03/2025

TP 2: Objectifs du TP
[Link]ésentation du dataset Iris
[Link] dataset Iris est un ensemble de données classique en Machine Learning.
3. Il comporte 150 échantillons de fleurs Iris, réparties en 3 espèces :
❖Iris setosaIris
❖versicolorIris
❖virginica

TP 2: Objectifs du TP
Pour chaque fleur, on dispose de 4 caractéristiques :
1.sepal_length (longueur du sépale)
2.sepal_width (largeur du sépale)
3.petal_length (longueur du pétale)
4.petal_width (largeur du pétale)

29
16/03/2025

TP 2: Objectifs du TP
Pour chaque fleur, on dispose de 4 caractéristiques :
1.sepal_length (longueur du sépale)
2.sepal_width (largeur du sépale)
3.petal_length (longueur du pétale)
4.petal_width (largeur du pétale)

TP 2: Chargement du dataset
On utilisera le module datasets de scikit-learn ou on
chargera un CSV si besoin.

30
16/03/2025

TP 2: Chargement du dataset

TP 2: Exploration
Afficher la forme des données, les noms des features, la
distribution des espèces.

31
16/03/2025

TP 2: Exploration

TP 2: Séparation en jeu
d’entraînement et de test.
Afficher la forme des données, les noms des features, la
distribution des espèces.

32
16/03/2025

TP 2: Séparation en jeu
d’entraînement et de test.

TP 2: Entraînement du
classifieur k-NN
Choisir la valeur de k (ex. 3, 5, 7).
Choisir la métrique de distance (euclidienne par défaut).

33
16/03/2025

TP 2: Évaluation
Prédiction sur le jeu de test.
Calcul de l’accuracy, visualisation de la matrice de
confusion.

TP 2: Évaluation

34
16/03/2025

TP 2: Évaluation

TP 2: Évaluation

35
16/03/2025

TP 2: Améliorations / variantes
1. Tester différentes valeurs de k.
2. Tester le scaling (normalisation ou standardisation) des
données.
3. Éventuellement utiliser la validation croisée pour choisir
le meilleur k.

TP 2: Améliorations / variantes

36

Vous aimerez peut-être aussi