Fonctions plusieurs variables
Objet de l’étude
Problèmes : comportement local, extrema libre, extrema liés (optimisation sous contrainte).
Dérivées partielles
Différentielles totales
Dérivées d’ordres supérieurs
Différentielle totale du second ordre
Développement de Taylor !!!!!!!
Extrema libres
Il nous suffit donc de déterminer le type de d2f, étant une forme quadratique, pour connaitre le type de
notre extrema au point 𝐴 = :
2
• Si 𝑑 𝑓 est une forme quadratique définie positive, alors on a un minimum local en A.
Exemple : () = 𝑥 2 + 𝑦 2 ⟹ (0,0) est un minimum local (c’est même global ).
• Si 𝑑2 𝑓 est une forme quadratique définie négative, alors on a un maximum local en A.
Exemple : () = −𝑥 2 − 𝑦 2 ⟹ (0,0) est un maximum local (c’est même global).
• Si 𝑑2 𝑓 est une forme quadratique indéfinie, alors on n’a pas d’extremum, A est un point de selle
(appelé aussi point ‘’col’’ ).
Exemple : () = 𝑥 2 − 𝑦 2 ⟹ (0,0) est un point de selle.
• Si 𝑑2 𝑓 est une forme quadratique semi-définie positive ou négative , alors on ne peut pas conclure.
On distingue ces types avec les dérivées d'ordre supérieur à 2.
Exemple : () = 𝑥 3
Méthode des moindres carrés
L'objet de cette méthode est de fournir un outil d'interprétation de données. Plus précisément,
lorsqu’on dispose de données dépendant de deux paramètres x et y, on peut les représenter
dans le plan muni d'un repère, en marquant x en abscisse et y en ordonnée ; si le nuage de
points" qu'on obtient a l'allure d'une droite, on veut savoir quelle est l'équation de cette droite,
c'est à-dire quelle loi relie les deux paramètres de la mesure. C'est ce que la méthode des
moindres carrés permet d'obtenir.
On a aussi :
∑𝑛
𝑖=1(𝑥𝑖 −𝑥̅ )(𝑦𝑖 −𝑦
̅)
𝑎∗ = ∑𝑛 2
.
𝑖=1(𝑥𝑖 −𝑥̅ )
Extrema Liés
On cherche un maximum ou un minimum de f(x, y) sous la contrainte que (x, y) se
trouvent sur la ligne définie par : 𝑔(x, y) = 0. Une condition nécessaire est que (x, y)
doit être tel que gradf doit être proportionnel au gradg , car cela se produit quand les
tangentes se confondent. On a donc gradf = gradg .
f x' = g x'
On aura trois équations à trois inconnues qui devront être satisfaites : f y' = g 'y
g ( x, y ) = 0
On procède comme suit:
Méthode des multiplicateurs de Lagrange :
On considère la fonction
Cette application est appelée le Lagrangien du problème d’optimisation et va nous permettre
de trouver et d’étudier les extremum de f(x, y) sous la contrainte g(x, y) = 0.
1. On cherche les points critiques (stationnaires) du Lagrangien i.e. on résout:
2. Soit ( x0 , y0 , 0 ) un point critique de Lagrangien
(on supposera que gradg ( x0 , y0 ) 0 )
3. Posons
4. Soit H la matrice Hessienne de ℒ0 au point (𝑥0 , 𝑦0 )
(i) Si H est définie positive, alors (𝑥0 , 𝑦0 ) est un minimum local de f(x, y) sous la
contrainte g(x, y) = 0.
(ii) Si H est définie négative, alors (𝑥0 , 𝑦0 ) est un maximum local de f(x, y) sous la
contrainte g(x, y) = 0.
(iii) Si H est indéfinie, contrairement au cas sans contraintes ou on obtient un point
selle (qui n’est donc ni minimum ni maximum local) ici on doit poursuivre
l’étude. On va regarder la positivité du terme quadratique 𝑈 𝑇 𝐻𝑈 lorsque 𝑈 est
dans le plan tangent à 𝐶 = {(𝑥, 𝑦) ∈ ℝ2 , 𝑔(𝑥, 𝑦) = 0} au point (𝑥0 , 𝑦0 ) : Posons
ℎ 0
Soit 𝑈 = ( ) ≠ ( ) vérifiant 𝑎ℎ + 𝑏𝑘 = 0 .
𝑘 0
On calcul ensuite 𝑈 𝑇 𝐻𝑈 et on a les possibilités suivantes:
• Si 𝑈 𝑇 𝐻𝑈 > 0 on a un minimum local.
• Si 𝑈 𝑇 𝐻𝑈 < 0 on a un maximun local.
• Si 𝑈 𝑇 𝐻𝑈 = 0 on ne peut pas conclure.
Remarque :
Dans le cas plus général n > 2 et sous plusieurs contraintes 𝑔𝑖 (𝑥) = 0 avec 1 ≤ 𝑖 ≤ 𝑝 < 𝑛 on
pose
et on procède comme précédemment pour les points critiques (en regardant les dérivées
du Lagrangien par rapport à toute ses variables).
Méthode de substitution:
Si (1) = 0 entraîne que l'une des variables peut être explicitée en fonction de - 1 autres, alors
l'étude se ramène à la recherche d'extrema d'une fonction de - 1 variables sans contraintes.
Exemple :
On pose 𝑓(𝑥, 𝑦, 𝑧) = 𝑥 2 + 𝑦 2 + 𝑧 2 sous la contrainte + + = 1.
On a + + = 1, donc = 1 - - .
Remarques :
Une partie D de ℝ𝑛 est dite bornée s'il existe 𝑀 > 0 tel que pour tout 𝑋 ∈ ℝ𝑛 , on ait ‖𝑋‖ ≤ 𝑀.
Une partie K de ℝ𝑛 est dite compacte si elle est fermée et bornée.
Un ensemble de la forme 𝐹 = {(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∈ ℝ𝑛 : 𝑔(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = 0} est un exemple de fermé de ℝ𝑛 (si g est
continue). Comme exemple, le cercle 𝐷 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑥 2 + 𝑦 2 = 0} est fermé et borné.
Théorème (Théorème d'optimisation de Weierstrass) :
Si est continue sur un compact K deℝ𝑛 , alors y atteint son maximum et son minimum.
Le théorème de Weierstrass permet d'affirmer lorsque f est continue et que K est fermé et borné que parmi les
points critiques sur K se trouvent au moins un minimum et un maximum global sur K.
Remarque : Si pour tout x dans D : Hf (x) est définie négative (resp. positive), alors
f est strictement concave (resp. convexe) dans D.
Proposition : (Conditions d'existence d'extremums globaux). Si f est convexe
(resp. concave) et admet un point critique (stationnaire) 𝑃0 alors 𝑃0 est un
minimum global (resp. maximum global).
Si f est convexe (resp. concave) sur un voisinage de 𝑃0 alors 𝑃0 est un minimum
local (resp. maximum local).