Chapitre 3 :
Multiplicateur de Lagrange
3.1 Introduction
Nous avons vue auparavant les conditions d’optimalités dans le cas des problèmes d’optimisation
sans contraintes. On rencontre souvent en pratique les problèmes d’optimisation avec contraintes
ces dernières diminuent considérablement le domaine des solutions possibles. A la première vue,
on peut penser que cette diminution du domaine des solutions permettant de simplifier la
procédure de recherche de l’optimum. Cependant au contraire le processus d’optimisation devient
plus compliqué, et les conditions d’optimalité utilisées précédemment (optimisation sans
contrainte) ne peuvent être utilisé en présence des contraintes ainsi, la condition d’existence de
l’optimum au point stationnaire caractérisé par le gradient nul (seule) n’est plus valable.
Exemple
Le minimum de la fonction f(x) = (x – 2)2 se situe au point stationnaire x = 2 si on ajoute la
contrainte x ≥ 4 nous devons trouver un optimum conditionné au point x = 4 ce point n’est pas
stationnaire puisque f’(4) = +4 (1ier dérivée ≠ 0)
3.2 Problème d’optimisation avec contrainte égalité
Considérons le problème d’optimisation possédant des contraintes égalité Min f(x1, x2, …, xn) sous
les contraintes hk (x1, x2, …, xn) = 0 où (k) = 1, 2, 3, …, k
Ce problème peut être en principe résolu comme un problème sans contrainte en éliminant de la
fonction objectif les variables indépendantes à l’aide des égalités donnés. L’existence des
contraintes égalités permet de réduire la diminution du problème de n à n – k variables.
Exemple
Min f (x) = x1 * x2 * x3 contrainte h1(x) = x1 + x2 + x3 – 1 = 0 x3 = 1 – x1 – x2
En éliminant la variable x3 à l’aide de l’équation h1(x) = 0. On obtient un problème d’optimisation à
deux variables sans contraintes : Min f (x) = x1 * x2 * (1 – x1 – x2)
Cette méthode d’élimination des variables est valable seulement lorsque l’équation de la contrainte
peut être résolue par rapport aux variables. Si on est en présence d’un nombre important de
contraintes sous forme d’égalité, le processus d’élimination des variables devient compliqués une
autre situation peut se présenter lorsqu’il n’est pas possible de résoudre l’équation par rapport à une
variable. Par exemple si la contrainte h1(x) = 0 est de la forme : h1(x) = x12 x3 + x2 x32+ x2 x1 = 0
L’obtention des expressions analytiques de l’une des variables par rapport aux autres n’est pas facile.
Ainsi la résolution des problèmes contenant des expressions complexes des contraintes sous formes
d’égalités, il est commande d’utiliser la méthode du multiplicateur de Lagrange.
3.3 Enoncé du multiplicateur de Lagrange
A l’aide de cette méthode, on peut poser les conditions d’optimalité permettant d’identifier les
points optimaux des problèmes d’optimisation avec contraintes. Ainsi, les problèmes est
transformé en un problème équivalent d’optimisation sans contraintes où apparaissent des
paramètres appelés multiplicateurs de Lagrange.
Considérons le problème d’optimisation d’une fonction à n variables avec une seule contrainte
d’égalité :
Min f(x1, x2, …, xn) (1)
Sous contraintes :
h1(x1, x2, …, xn) (2)
en conformité avec la méthode du multiplicateur de Lagrange, ce problème est ramené à un
problème sans contraintes sous la forme :
Min L(x, λ) = f(x) - λh1(x) (3)
La fonction L(x, λ) est dite fonction de Lagrange ou bien le Lagrangien du problème d’optimisation.
λ : est appelé multiplicateur de Lagrange (constant)
si pour une valeur λ = λ*, le minimum est atteint au point x = x* et x* satisfait l’équation h1(x*) = 0,
donc x* minimise la fonction (1) en tenant compte de l’équation (2) et Min L(x, λ) = Min
f(x). Donc, il est évident que la valeur λ = λ* est prise de telle sorte que le point x = x* satisfait
l’équation (2). Cela est possible si λ est considéré comme variable et on cherche le Lin de la
fonction (3) considéré en fonction de λ . Par la suite trouver la valeur de λ pour laquelle l’équation
(2) est satisfaite.
Exemple
Min f(x) = x12 + x22 (1)
Sous contraintes :
h1(x) = 2x1 + x2 -2 = 0 (2)
Solution