REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE
MINISTERE DE L'ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE
SCIENTIFIQUE
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN « MB »
FACULTE DE GENIE MECANIQUE
DEPARTEMENT DE GENIE MECANIQUE
TP : optimisation
Etudiant : Master 2
Option : Energitique
Réalisé par : Belhadji Abderrahmane
Réalisé par : Bouzekri Youcef
Année universitaire : 2024/2025
1
1.utilisent la méthode du gradient et méthode de newton raphson donne un
programme de Matlab :
1. 1. Programme de gradient :
methode de gradient
4.5
3.5
2.5
1.5
0.5
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
2
Courbe de la méthode gradient
1.2. Programme de méthode de newton raphson :
methode de newton raphson
4.5
3.5
2.5
1.5
0.5
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
3
Courbe de méthode newton raphson
2.1. Méthode de nombre d’or :
methode de nombre d or
4.5
3.5
2.5
y
1.5
0.5
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
x
4
Courbe de méthode nombre d’or
2.2. Méthode de dichotomie :
methode de dichotomie
4.5
3.5
2.5
y
1.5
0.5
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
x
5
3.Comparaison des Méthodes :
Les méthodes d’optimisation comparées ici se distinguent par leurs principes de
fonctionnement, leurs exigences en calcul et leurs performances.
Méthodes basées sur les dérivées
1. Méthode du Gradient
o Utilise uniquement la dérivée première pour orienter la recherche.
o Performante pour des fonctions simples mais peut être lente pour des formes
complexes.
o La convergence dépend du choix du pas de descente.
2. Méthode de Newton-Raphson
o Exploite les dérivées première et seconde pour ajuster la direction et
l'amplitude des pas.
o Très rapide pour des fonctions bien conditionnées grâce à une convergence
quadratique.
o Exige des calculs plus lourds (hessienne) et peut échouer si le point de départ
est mal choisi.
Les programmes MATLAB associés montrent des différences de temps de calcul et de
précision : Newton-Raphson produit des résultats plus précis en moins d'itérations, tandis que
la méthode du Gradient nécessite un réglage fin des paramètres pour atteindre un résultat
équivalent.
Méthodes sans dérivées
1. Méthode du Nombre d’Or
o Divise l’intervalle d’optimisation en appliquant le ratio du nombre d’or.
o Fiable pour des fonctions unimodales et n'exige aucune dérivée.
o Convergence plus rapide que la dichotomie mais reste inférieure aux méthodes
dérivées pour des fonctions complexes.
2. Méthode de Dichotomie
o Réduit systématiquement l'intervalle en deux parties égales.
o Simplicité d’implémentation, mais convergence lente comparée à d'autres
méthodes.
o Peut nécessiter un plus grand nombre d’itérations pour atteindre une précision
comparable.
Les simulations MATLAB montrent que le Nombre d’Or surpasse la Dichotomie en termes
de rapidité, mais les deux obtiennent des résultats similaires en précision après un grand
nombre d'itérations.
6
Conclusion Générale :
Les méthodes se complètent selon les besoins du problème :
Méthodes dérivées (Gradient, Newton-Raphson) : Plus adaptées pour des fonctions
où les dérivées sont calculables, avec une préférence pour Newton-Raphson dans des
contextes où rapidité et précision sont cruciales.
Méthodes sans dérivées (Nombre d’Or, Dichotomie) : Recommandées pour des
fonctions où les dérivées ne sont pas disponibles ou difficiles à calculer, avec une
préférence pour le Nombre d’Or en raison de sa convergence plus rapide.
Les programmes MATLAB illustrent ces différences en termes de performances pratiques :
Newton-Raphson offre les résultats les plus précis en un temps minimal, mais
nécessite une implémentation plus complexe.
Le Nombre d’Or est un compromis intéressant entre simplicité et rapidité.
La méthode de Gradient est une solution accessible mais exige une bonne calibration
pour éviter des convergences trop lentes.
La Dichotomie est robuste mais montre des performances plus modestes.
Le choix de la méthode et du programme MATLAB dépend des contraintes spécifiques du
problème (temps, précision, disponibilité des dérivées).