0% ont trouvé ce document utile (0 vote)
163 vues2 pages

KNN : Classification et Régression en IA

L'algorithme KNN est une méthode de classification et de régression supervisée basée sur la similarité des échantillons, tandis que K-means est une méthode de clustering non supervisée qui regroupe les données en k clusters en fonction de la distance entre les échantillons et les centres des clusters.

Transféré par

ZEINEB DALY
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
163 vues2 pages

KNN : Classification et Régression en IA

L'algorithme KNN est une méthode de classification et de régression supervisée basée sur la similarité des échantillons, tandis que K-means est une méthode de clustering non supervisée qui regroupe les données en k clusters en fonction de la distance entre les échantillons et les centres des clusters.

Transféré par

ZEINEB DALY
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

KNN : classification et la régression(estimation)

apprentissage supervisé

LA DEFINITION :

L'algorithme des k plus proches voisins (k-NN) est une méthode utilisée en apprentissage
supervisé pour la classification et la régression. En classification, il s'agit de prédire la classe
d'un nouvel échantillon en se basant sur les classes des échantillons voisins les plus proches
dans l'espace des caractéristiques. En régression, il prédit la valeur d'un attribut cible en
prenant la moyenne des valeurs des k voisins les plus proches. L'algorithme repose sur le
principe que des échantillons similaires sont susceptibles d'appartenir à la même classe ou
d'avoir des valeurs similaires.

LES ETAPES :

1. Choix de k : Sélectionnez un nombre impair k de voisins à considérer.


2. Calcul des distances : Calculez la distance entre le point à prédire et tous les autres
points de données. La distance euclidienne est souvent utilisée.
3. Sélection des k voisins les plus proches : Sélectionnez les k points de données les
plus proches du point à prédire en fonction de la distance calculée.
4. Vote majoritaire (classification) : Pour une classification, attribuez la classe la plus
fréquente parmi les k voisins les plus proches au point à prédire.
5. Calcul de la moyenne (régression) : Pour une régression, calculez la moyenne des
valeurs cibles des k voisins les plus proches pour prédire la valeur du point à prédire.

K means :

DEFINITION :

L'algorithme k-means est une méthode de clustering largement utilisée en analyse des
données pour regrouper des données non étiquetées en k groupes distincts, où k est un
nombre prédéfini. L'objectif est de partitionner les données en clusters de telle manière que
les points à l'intérieur d'un même cluster soient similaires entre eux, tandis que les points de
clusters différents sont différents.

apprentissage non supervisé

LES ETAPES :

1. Initialisation : Choisir aléatoirement k centres de clusters parmi les points de


données.
2. Assignation des points au cluster le plus proche : Pour chaque point de données,
calculer la distance par rapport à chaque centre de cluster et assigner le point au
cluster dont le centre est le plus proche.
3. Mise à jour des centres des clusters : Recalculer les centres de clusters en prenant la
moyenne des points qui leur sont assignés.
4. Répéter les étapes 2 et 3 jusqu'à ce qu'il n'y ait plus de changement dans
l'assignation des points aux clusters ou jusqu'à ce qu'un nombre maximum
d'itérations soit atteint.
5. Fin de l'algorithme : Les centres des clusters finaux représentent les centres des
clusters optimaux, et chaque point est assigné à un cluster spécifique

Vous aimerez peut-être aussi