0% ont trouvé ce document utile (0 vote)
408 vues6 pages

Introduction aux SVM et Noyaux

Ce document présente des exercices sur les machines à vecteurs de support (SVM). Il introduit la marge et la formulation du problème d'optimisation du SVM. Il aborde ensuite la formulation duale, les noyaux et leur propriétés ainsi que des exemples de noyaux sur les chaînes de caractères.

Transféré par

N T
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
408 vues6 pages

Introduction aux SVM et Noyaux

Ce document présente des exercices sur les machines à vecteurs de support (SVM). Il introduit la marge et la formulation du problème d'optimisation du SVM. Il aborde ensuite la formulation duale, les noyaux et leur propriétés ainsi que des exemples de noyaux sur les chaînes de caractères.

Transféré par

N T
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Machine Learning – Machine Learning– 2023fev année 2022-2023

TD 5 : SVM

Exercice 1 – Support Vector Machine

On considère ici un problème de classification binaire vers Y = { 1, +1} de données dans un espace de
description X 2 Rd . On note {(xi , y i ) 2 (X, Y )}, i 2 {1, . . . , n} l’ensemble d’apprentissage considéré.
La fonction de décision du classifieur considéré est donnée par : fw,b (x) = sign(wT x + b).
On considère dans un premier temps un ensemble de données linéairement séparable. Cet ensemble de
données et la frontière de décision sont représentés (en 2D) sur la figure 1.

Figure 1 – Ensemble de données linéairement séparables

Q 1.1 Marge
Sur cette figure, l’échantillon xi et de label y i est représenté par le point A. On s’intéresse à sa distance
signée i à la frontière de decision (dont le point le plus proche est représenté en B sur la figure).
Q 1.1.1 Sachant que w/||w|| est un vecteur unitaire orthogonal à la frontière de décision, donner
l’expression de i en fonction de xi , y i , w et b.
Q 1.1.2 Montrer que la distance et la solution ne change pas en multipliant la solution par un scalaire,
i.e. pour (↵w, ↵b). Que cela implique-t-il si l’on souhaite éloigner au maximum (au sens géométrique)
les points de la frontière de décision ?
Q 1.2 Formulation du SVM
On considère alors le problème d’optimisation sous contraintes suivant :
1
min ||w||2
w,b 2

s.t. y i (wT xi + b) 1, 8i 2 {1, . . . , n}

Q 1.2.1 Pourquoi choisit-on la contrainte 1 plutôt que 0 ? Pourquoi 1 ?


Q 1.2.2 Poser le Lagrangien à considérer pour optimiser ce problème sous contraintes
Q 1.2.3 Donner la solution analytique de la minimisation de ce Lagrangien selon w et b
EI
Exa
y Wxitb XA XB 8
aw Xi tbs
XiYi
wixistbat
y Yg s.cn YiI Fow
yi
Fwpt yikwixistbzlew.fi te tb

à optimiser argmin lait


1 giga b e 0 seul solutionpos

È én'introduisant
dictyicw.xis byiz
o.diso yipw.is
D 71 2947 9

Fête
Éptimiser
zmwp.IE xi lf ykw.xis bgi yo en introduisant
Lagrangien
arymiyargman
Ew w Éxyigxi o w Édigixi
Ï Édigio
IHÉdigixillayÉdictyiewixis byi
xiIIKigigExys I xD Étriby
ECEYIcaiyixi.gg s E
ÉTÉ cyyixixiy
Écaiylib
I
D
EEtixigiayscxt.gs
ix SVM
ne dépendque des points à support

1.2.9 Choisir un noyau CX x KIX apex x

t yiewxistbyistgi argminuwHKEYi
Kw
Ï KITT condition
aill Gr yilwxitb 0 Bigi O il faut
à résoudre K xitp
Le ÉÉN Épi ltgi yicwtxitbD Epigi.tkEjidiso pro
di pitkeo Kaitfi
Fw w Éagigxi a

Ï É digi o

Lie JOKE
t yiewixis by 0 25 0
points bien classé
tyicw.xiz P Si 0 bien classe
byiko
profiai
o mal classé non sur la marge
ai o 0 fr 0 point sur la marge
fi

qu'ex ew b

ÉTÉ Liyicxix b à partir de noyau

ÉÉdigikyi
kcx.ME qui xD

ok ix y ecfixl.de et.IM
cxh
Teq y
KIK Xcx qu'D
ktkx.gs fenidysted'exifin

qqit.fi ha
Klx g t'ix y
Glx pays fix y
Équieinfeysej Éidiexsei Élyse
Épicxificy
IEficxspicy
ÉÉ fixinguyspicxifigs
ÉTÉ enjoy dicageys

quali d
2 Hex 7 est un noyau

ex XD Yax j x

Este noyau
Q I
id 91 02 noyau d'après a 1.2
fa
f 927 noyau par récurrence
d'apres

z.
fcn
E NlAl5
t
w ns
Q Wi NIEX
l apparat on pas
dans X X
m'merde
M chose
Si w WE EX noyau à noyon transférer
si c X.x noyanto données
Donc k bien un noyau
2 I ABCDE F 42
2 Bc D Et G 43
Lez
4 GA BC DE
Qc
Machine Learning – Machine Learning– 2023fev page 2

Q 1.2.4 En déduire une nouvelle formulation “duale” de notre problème d’optimisation sous contraintes

Q 1.2.5 Que cette nouvelle formulation permet-elle ?


Q 1.2.6 Quel est le problème du problème d’optimisation que l’on a considéré ? Proposer une nouvelle
formulation qui corrige ce problème
Q 1.2.7 Proposer la formulation duale de ce nouveau problème
Q 1.2.8 Donner la fonction de classification obtenue après optimisation de cette formulation duale
du SVM
Q 1.2.9 D’après les conditions de Karush-Kuhn-Tucker (KKT) concernant les propriétés de la
solution optimale d’un Lagrangien, on a : ai (1 ⇠i y i (wT xi + b)) = 0, 8i 2 {1..N } et i ⇠i = 0, 8i 2
{1..N }. Qu’en déduire pour les paramètres ai obtenus à l’optimum ?
Q 1.2.10 Qu’en déduire pour l’estimation du biais b ?

Exercice 2 – Noyaux

Q 2.1 Montrez que si K et K 0 sont deux noyaux (i.e. il existe et 0 telles que K(x, y) =< (x), (y) >
, K 0 (x, y) =< 0 (x), 0 (y) >) :
Q 2.1.1 cK est un noyau pour c 2 R+
Q 2.1.2 K + K 0 est un noyau ;
Q 2.1.3 KK 0 est un noyau ;
Q 2.1.4 (1+ < x, x0 >)d est un noyau.

Exercice 3 – Noyaux sur les chaînes de caractères

Soit S une séquence de mots sur un alphabet A fini. Montrez que :


1. K(x, x0 ) = nombre de sous-chaînes de longueur 5 que x et x0 ont en commun est un noyau ;
2. K(x, x0 ) = 1 si x et x0 ont au moins une sous-chaîne de longueur 5 en commun, 0 sinon, n’est
pas un noyau (indice : considérez 3 chaînes x,x0 et x00 ).

Vous aimerez peut-être aussi