Introduction aux SVM
● Les SVM sont des algorithmes supervisés utilisés pour séparer des données en
classes. Leur objectif principal est de trouver un hyperplan optimal qui sépare les
classes avec une marge maximale.
● ya3ni ta3tih training data avec les classes, ouwa ye9semhom b hyperplan li fiha
marge kbira entre les classes.
2. Séparation linéaire
● Français :
Pour deux classes, les SVM cherchent à tracer une ligne (ou un plan en dimension
3) qui les sépare.
○
3. Marges et vecteurs de support
● La marge est la distance entre l’hyperplan et les points les plus proches des deux
classes. Les points qui touchent cette marge sont appelés vecteurs de support.
Plus la marge est grande, meilleure est la séparation.
○
○
Marge hiya distance bin l'hyperplan w les points les plus proches. Les points li
yelmesou cette marge tetsammaw vecteurs de support. L'objectif houwa
nkabrou marge bech separation ykoun mlih.
lahmer howa lhyperplan les gris houma wehed apartir mennou tbda lclasse loula wwehed
apartir mennou tbda lclasse thenya les points elli ybdew 3la les gris houma les vecteurs de
support
ya3ni cest un systeme : fonction objectif heya maximiser marge (2) sous la condition (1)
4. Problème de classification binaire
Cela signifie que chaque point est du bon côté de l’hyperplan.
5. Problème multi-classes
Pour plusieurs classes, on utilise :
One-vs-All : un hyperplan par classe contre toutes les autres.
One-vs-One : un hyperplan pour chaque paire de classes.
Problème linéairement non séparable
Ki les classes (par exemple points bleus w verts) ma t7elhomch b ligne droite. Hné
on7awlou solution li heya kernel function li tbadel l’espace ta3 data w t5alli separation ممكنة
f dimension kbira.
Fonction noyau (Kernel Function)
Les fonctions noyau permettent de calculer la similarité entre deux points dans un espace
transformé sans avoir à transformer explicitement les données.
(exple fct noyau f taswira)
6. Exemple :