0% ont trouvé ce document utile (0 vote)
20 vues5 pages

Introduction Aux SVM: Hyperplan Optimal

Les SVM (Support Vector Machines) sont des algorithmes supervisés qui visent à séparer des classes de données en trouvant un hyperplan optimal avec une marge maximale. Ils utilisent des vecteurs de support pour définir cette marge, et peuvent être appliqués à des problèmes de classification binaire ou multi-classes. En cas de séparation non linéaire, des fonctions noyau sont utilisées pour transformer l'espace des données et faciliter la séparation.

Transféré par

wiembenamor001
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
20 vues5 pages

Introduction Aux SVM: Hyperplan Optimal

Les SVM (Support Vector Machines) sont des algorithmes supervisés qui visent à séparer des classes de données en trouvant un hyperplan optimal avec une marge maximale. Ils utilisent des vecteurs de support pour définir cette marge, et peuvent être appliqués à des problèmes de classification binaire ou multi-classes. En cas de séparation non linéaire, des fonctions noyau sont utilisées pour transformer l'espace des données et faciliter la séparation.

Transféré par

wiembenamor001
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Introduction aux SVM

●​ Les SVM sont des algorithmes supervisés utilisés pour séparer des données en
classes. Leur objectif principal est de trouver un hyperplan optimal qui sépare les
classes avec une marge maximale.
●​ ya3ni ta3tih training data avec les classes, ouwa ye9semhom b hyperplan li fiha
marge kbira entre les classes.

2. Séparation linéaire

●​ Français :​
Pour deux classes, les SVM cherchent à tracer une ligne (ou un plan en dimension
3) qui les sépare.

○​

3. Marges et vecteurs de support

●​ La marge est la distance entre l’hyperplan et les points les plus proches des deux
classes. Les points qui touchent cette marge sont appelés vecteurs de support.​
Plus la marge est grande, meilleure est la séparation.

○​
○​ ​
Marge hiya distance bin l'hyperplan w les points les plus proches. Les points li
yelmesou cette marge tetsammaw vecteurs de support. L'objectif houwa
nkabrou marge bech separation ykoun mlih.

lahmer howa lhyperplan les gris houma wehed apartir mennou tbda lclasse loula wwehed
apartir mennou tbda lclasse thenya les points elli ybdew 3la les gris houma les vecteurs de
support
ya3ni cest un systeme : fonction objectif heya maximiser marge (2) sous la condition (1)

4. Problème de classification binaire


Cela signifie que chaque point est du bon côté de l’hyperplan.

5. Problème multi-classes​
Pour plusieurs classes, on utilise :
One-vs-All : un hyperplan par classe contre toutes les autres.
One-vs-One : un hyperplan pour chaque paire de classes.

Problème linéairement non séparable


Ki les classes (par exemple points bleus w verts) ma t7elhomch b ligne droite. Hné
on7awlou solution li heya kernel function li tbadel l’espace ta3 data w t5alli separation ‫ممكنة‬
f dimension kbira.

Fonction noyau (Kernel Function)

Les fonctions noyau permettent de calculer la similarité entre deux points dans un espace
transformé sans avoir à transformer explicitement les données.

(exple fct noyau f taswira)


6. Exemple :

Vous aimerez peut-être aussi