0% ont trouvé ce document utile (0 vote)
107 vues3 pages

Convexité et Régression en Optimisation

Transféré par

Sofia Sofia
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
107 vues3 pages

Convexité et Régression en Optimisation

Transféré par

Sofia Sofia
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ENSA Khouribga 2020 − 2021 Recherche Opérationnelle 2

TD 1

Exercice 1 :
1. Montrer que l’application norme x 7→ ||x||p est convexe.
2. Pour toute fonction convexe f : y ∈ Rm 7→ f (y), montrer que g : x ∈ Rd 7→ f (Ax−b)
est une fonction convexe avec A ∈ Rn×d et b ∈ Rn .
3. pour i = 1, ..., m soit yi ∈ R et ai ∈ Rd , prouvez que la fonction de régression
logistique f (x) = n1 ni=1 ln 1 + e−yi hx,ai i est convexe.
P 

4. on dit qu’une fonction f est µ−fortement convexe si et seulement si


µ
f (y) ≥ f (x) + h∇f (x), y − xi + ky − xk22 , ∀x, y ∈ Rd
2
Montrer que f vérifie la condition de Polyak-Lojasiewicz :

k∇f (x)k22 ≥ 2µ (f (x) − f (x∗ ) , ∀x

5. Calculer la dérivées de la fonction quadratique f (x) =< Ax, x > − < b, x > avec
x, b ∈ Rn et A ∈ Rn×n .

Exercice 2 : La régression Ridge est peut-être l’exemple le plus simple d’un problème
d’apprentissage automatique. Considérez la tâche d’apprentissage qui permet de trouver la
relation entre un vecteur de caractéristiques x ∈ Rd et un vecteur d’observation y ∈ R. De
plus, vous disposez d’un ensemble d’observations étiquetées (xi , yi ) pour i = 1, ..., n. Nous
désirons résoudre le problème :
n
∗ 1X1 > 2 λ
w = arg min xi w − yi + kwk22 ,
w n 2 2
i=1

avec λ > 0 en utilisant une méthode de descente à pas fixe.

def X w − y 2 +
1
>
1. Montrer que le problème s’écrit de la manière suivante f (w) = 2n 2
λ
2
kwk22 en précisant la matrice A et le vecteur y.
2. Déduire que la fonction f est convexe.
3. On considère le schéma de descente :

wt+1 = wt − α∇f wt


def 1
avec α = 1
σmax (A)
et A = n
XX > + λI.
(a) calculer le ∇f (w).

1
ENSA Khouribga 2020 − 2021 Recherche Opérationnelle 2

(b) Montrer que A est définie positive.


(c) Montrer que  
w − w∗ ≤
t+1 σmin (A) w − w∗
t
2
1− 2
σmax (A)
Exercice 3 :
Soit A ∈ Mn (R) une matrice symétrique définie positive. On pose
1
f : x ∈ Rn 7→ < Ax, x > − < b, x >
2
et rk = ∇f (xk )
1. Montrer que dk = −∇f (xk ) est une direction de descente. Montrer que A dk est
également un direction de descente.
2. Rappeler l’algorithme du gradient à pas optimale.
hrk ,rk i
3. Montrer que le pas de descente vaut αk = hAr k ,rk i
pour la méthode du gradient à pas
optimale
Exercice 4 :
Soit A ∈ Mn (R) une matrice symétrique définie positive. Résoudre Ax = b est équivalent
à minimiser
1
f : x ∈ Rn 7→ < Ax, x > − < b, x >
2
En effet, le minimum x̄ de f (qui existe et qui est unique puisque f est strictement convexe
et coercice) vérifie ∇f (x̄) = 0. Or ∇f (x) = Ax − b. Une méthode de descente est une
méthode itérative qui approche le minimum de f (et donc la solution de Ax = b ) en
construisant la suite (xk )k∈N :
x0 ∈ R n


xk+1 = xk + αk dk
Dans ce qui précède, pour k ∈ N,
- αk > 0 est le pas de la méthode,
- dk ∈ Rn est une direction de descente, c’est-à-dire un vecteur de Rn tel que

< ∇f (xk ) , dk >≤ 0

Lorsque l’inégalité précédente est stricte, on parle de direction stricte de descente.


- On définira aussi le résidu rk par rk = ∇f (xk ) = Axk − b.
1. Montrer que
hArk , dk−1 i
dk = −rk + dk−1 ,
< Adk−1 , dk−1 >
est une direction de descente avec l’initialisation d0 = −r0 = b − Ax0 .

2
ENSA Khouribga 2020 − 2021 Recherche Opérationnelle 2

2. Trouver en fonction de rk ,dk et A, l’expression du pas optimale :

αk = argminf (xk + αdk )


α>0

3. Montrer que les résidus vérifient la relation de récurrence suivante :

rk+1 = rk + αk Adk , ∀k ≥ 0

H. KHALFI

Vous aimerez peut-être aussi