0% ont trouvé ce document utile (0 vote)
29 vues6 pages

Compte Rendu

Ce document présente un TP sur l'implémentation de l'algorithme de Newton avec région de confiance pour l'optimisation sans contraintes. Il décrit les étapes de l'algorithme, y compris l'utilisation du gradient conjugué linéaire et les adaptations nécessaires pour le calcul de la région de confiance. Des tests sont réalisés pour valider les implémentations avec des exemples spécifiques.

Transféré par

Midoria Sama
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
29 vues6 pages

Compte Rendu

Ce document présente un TP sur l'implémentation de l'algorithme de Newton avec région de confiance pour l'optimisation sans contraintes. Il décrit les étapes de l'algorithme, y compris l'utilisation du gradient conjugué linéaire et les adaptations nécessaires pour le calcul de la région de confiance. Des tests sont réalisés pour valider les implémentations avec des exemples spécifiques.

Transféré par

Midoria Sama
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

RoyAUME DU MAROC

HAUT CommISSARIAT AU PLAN


INSTITUT NATIONAL DE STATISTIQUE
ET D’ÉcONOMIE APPLIQUÉE

INSEA

TP2 :NewTOn AVEc RÉgIOn de


confIAnce (CAS MUlTIDIMEnsIOnnel)
PNL AlgoRITHMIQUE

Réalisé par : EL BALQUI Meryeme-SE


EL IDRISSI Taha-SE

Scripts sont rendus avec ce fichier PDF


1. Gradient conjugué linéaire 1

Dans ce TP, nous allonz implémenter l’algorithme de Newton avec région de confiance
pour un problème d’optimisation sans contraintes de dimension n. Cet algorithme est dans
l’essentiel exactement le meme que celui que nous avons produit dans le TP1, la différence
étant dans le calcul du minimum du modèle quadratique, maintenant de dimension n par
le gradient conjugué linéaire.

1 Gradient conjugué linéaire

1.1 Gradient simple


On exécute le test1.sce qui reproduit les calculs du tableau de l’exemple de la fonction
f (x, y) = 2x2 − 2xy + y2 + 2x − 2y . Il fonctionne bien et il n’ya pas d’erreurs.
2 1. Gradient conjugué linéaire

1.2 Gradient conjugué linéaire avec matrice


Modifications sur le fichier GC Mat.sci pour qu’il implémente l’algorithme du gradient
conjugué :
2. Région de confiance 3

1.3 Gradient conjugué linéaire sans matrice


En remplaçant partout l’utilisation de la matrice par un appel à la fonction Hv(x,v) qui
retourne le produit d’une matrice et d’un vecteur, la matrice représentant la matrice
hessienne de notre fonction.Comme il est mentionné dans l’énoncé du TP2 , le x est inutile
pour l’instant puisque la matrice hessienne de la fonction q est constante. ,l’exécution de
test2.sce s’est déroulée correctement :

2 Région de confiance

2.1 Adaptation de GC-Hv


Après avoir implémenté la fonction Pasmax dans Gc-Hv nous avons obtenu le résulat
suivant lorsqu’on a exécuté test3.sce
4 2. Région de confiance

Voici une partie de l’exécution :

2.2 Test de l’algorithme


Appliquons l’algorithme de région de confiance en utilisant GC TR.sci sur l’ exemple de
Rosenbrock. On obtient( une partie de l’exécution) :
2. Région de confiance 5

Vous aimerez peut-être aussi