0% ont trouvé ce document utile (0 vote)
146 vues2 pages

Optimisation numérique : Méthodes et exercices

Transféré par

ranimtarhouni
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
146 vues2 pages

Optimisation numérique : Méthodes et exercices

Transféré par

ranimtarhouni
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

École Nationale des Scineces de l’informatique Année universitaire: 2024/2025

de Manouba
Optimisation Numérique Sections: MI1

Série d’exercice N◦2


Optimisation numérique sans contrainte

Exercice 1 :

Soit f (x) = x4 + 4ex + 5

1. Montrer que f admet un unique minimum global, noté x̃.

2. En partant de x0 = 1, calculer x1 , x2 , x3 en utilisant la Méthode du Gradient avec


un pas fixe (Steepest Descent) λ = 0.1 puis λ = 0.01.

3. En partant de x0 = 1, calculer x1 , x2 , x3 selon la Méthode du Gradient à pas


optimal.

4. Écrire un programme en Matlab pour déterminer x∗ avec une approximation ϵ =


10−6 en utiliant Méthode du gradient à pas optimal.

Exercice 2 :

Soit
f (x, y) = x2 + 2y 2 − 2x − 6y + 10

1. Vérifier par deux méthodes que f atteint un minimum en un unique point x̃.

2. En partant de x0 = (0, 0), calculer x1 , x2 , x3 suivant la Méthode du gradient à pas


fixe (Steepest Descent).

3. Calculer l’erreur absolue si on approche x̃ par x3 .

4. Écrire un programme en Matlab pour calculer x1 , . . . , x10 .

Exercice 3 :

Considérons le problème d’optimisation suivant :

(Pgs) min f (x1 , x2 , x3 ) = (x1 − 4)4 + (x2 − 3)2 + 4(x3 + 5)4


(x1 ,x2 ,x3 )∈R3

1. Montrer que (P1) admet une solution unique (x̃1 , x̃2 , x̃3 ).

2. . En utilisant la Méthode du Gradient à pas fixe, trouver une approximation de


(x̃1 , x̃2 , x̃3 ) à 10−6 prés en partant du point (4, 2, −1).

3. Trouver la valeur exacte de (x̃1 , x̃2 , x̃3 ) et calculer l’erreur absolue dans l’approximation
précédente.
Exercice 4 : **Le problème quadratique :**

Examinons le comportement de la méthode de la plus forte pente appliquée à une fonction


quadratique de la forme :
1
f (x) = ⟨Ax, x⟩ − ⟨b, x⟩
2
où A est une matrice symétrique définie positive, et b ∈ Rn . Considérons le problème
d’optimisation quadratique :
(QP) minn f (x)
x∈R

1. . Montrer que (QP) admet une solution unique x̃ ∈ Rn . Notre objectif est d’utiliser
la Méthode de Gradient de la plus forte pente pour construire une suite xn con-
vergeant vers x̃, avec un point de départ arbitraire x0 .

2. Montrer que xn est défini par :





 dn = b − Axn
 ∥dn ∥2
tn =

 ⟨Adn , dn ⟩

x
n+1 = xn + tn dn

 
1
3. Effectuer trois itérations en partant de x0 = si
1
   
2 0 −1
A= , b=
0 1 2

Vous aimerez peut-être aussi