0% ont trouvé ce document utile (0 vote)
8 vues1 page

TP 02

Ce TP vise à familiariser les étudiants avec les méthodes de Newton et à les comparer aux méthodes de gradient. Les étudiants doivent coder les algorithmes de Newton et BFGS, les valider, et les appliquer à la fonction de Rosenbrock, en utilisant différentes initialisations. Un compte-rendu final doit être soumis en binôme au format PDF.

Transféré par

Daymari Escalante
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
8 vues1 page

TP 02

Ce TP vise à familiariser les étudiants avec les méthodes de Newton et à les comparer aux méthodes de gradient. Les étudiants doivent coder les algorithmes de Newton et BFGS, les valider, et les appliquer à la fonction de Rosenbrock, en utilisant différentes initialisations. Un compte-rendu final doit être soumis en binôme au format PDF.

Transféré par

Daymari Escalante
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Minimisation convexe

TP 2 : Méthodes de Newton

Le but de ce TP est de se familariser avec les méthodes de Newton et de les comparer aux méthodes de
gradient vues dans le TP précédent.

Pour ce faire, vous disposez des deux fichiers [Link] et [Link]. Le premier est un fichier python
précompilé et contient un certain nombres d’algorithmes de gradients. Le second est pré-rempli pour produire
les résultats demandés au cours du TP par les méthodes de gradient. Sans entrer dans des détails techniques,
le fichier [Link] contient la classe gene grad dont un certain nombres d’instance sont créées dans le
fichier [Link]. Pour chaque instance de classe, on dispose des méthodes run() et plot(), pour lancer le
calcul et produire une sortie graphique des résultats, et des attributs xx et res, qui contiennent l’ensemble des
x(k) et des résidus à chaque itération. Ceci pourra être utile pour représenter la convergence de différentes
méthodes sur une même figure.

Pour tout le TP, on prendre un critère de convergence égal à 10−10 et on utilisera la méthode de la section
dorée en guise de recherche linéaire du pas d’avancement. Le travail demandé est le suivant :

1 Coder les algorithmes de Newton, et BFGS, et les valider à partir du cas présenté dans le premier
exercice du TP 1. Comparer les résultats avec ceux obtenus avec une méthode de gradient conjugué. On
initialisera les calculs par x(0) = [4.0, −3.0]T .

2 Utiliser les algorithmes développés à la section 1 pour la recherche du minimum de la fonction de Rosen-
brock en deux dimension et définies par :

f (x, y) = 100(y − x2 )2 + (1 − x)2 (1)


dont python fournit la valeur, le gradient et la hessienne via les fonctions rosen, rosen der et rosen hess du
module [Link]. Cette fonction admet un minimum en [1.0, 1.0]T .

2.1 Dans un premier temps, on initialisera les calculs par x(0) = [−1.0, −1.0]T
2.2 Dans un second temps, on initialisera les calculs par x(0) = [−10.0, −10.0]T
On prendra soin, là encore, de comparer ces méthodes à la méthode du gradient conjugué. Quelle peut être
l’intérêt de la méthode BFGS ?

3 Conclusion : le travail doit être effectué en binôme ; un seul compte-rendu par binôme doit être déposé
sur SAVOIR au format pdf.

Vous aimerez peut-être aussi