0% ont trouvé ce document utile (0 vote)
19 vues2 pages

Math1 2019-1s1cor

Le document présente des exercices de mathématiques appliquées pour la Licence Économie-Gestion, abordant des concepts tels que les limites, les extrema locaux et globaux, ainsi que des méthodes d'optimisation. Les exercices incluent l'analyse de fonctions à une et deux variables, l'utilisation de la matrice hessienne et les méthodes de Lagrange et de substitution pour résoudre des problèmes d'optimisation. Les résultats montrent des points critiques et des minima locaux et globaux pour les fonctions étudiées.

Transféré par

ouedraogorihanata18
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
19 vues2 pages

Math1 2019-1s1cor

Le document présente des exercices de mathématiques appliquées pour la Licence Économie-Gestion, abordant des concepts tels que les limites, les extrema locaux et globaux, ainsi que des méthodes d'optimisation. Les exercices incluent l'analyse de fonctions à une et deux variables, l'utilisation de la matrice hessienne et les méthodes de Lagrange et de substitution pour résoudre des problèmes d'optimisation. Les résultats montrent des points critiques et des minima locaux et globaux pour les fonctions étudiées.

Transféré par

ouedraogorihanata18
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ANNÉE UNIVERSITAIRE 2018-2019

1re session 1er semestre

Licence Économie-Gestion – 1re année

Matière : Mathématiques appliquées – Éléments de correction Durée : 2 heures


Enseignant : Vincent Jalby

Exercice I (30 min, 5 points)


x2 + 1
On considère la fonction f (x) = .
x
1) La fonction f (x) est définie si et seulement si x , 0. D’où D f = R∗ = ]−∞, 0[ ∪ ]0, +∞[.
2) On a lim f (x) = −∞ et lim f (x) = +∞
x→−∞ x→+∞
3) On a
x2 + 1 1 1 x2 − 1 2
f (x) = =x+ =⇒ f 0(x) = 1 − 2 = 2
=⇒ f 00(x) = 3
x x x x x
4) Pour déterminer le(s) extremum(s) de f (x), on utilise la CNO puis les CSO :
(
x2 − 1 f 00(−1) = −2 < 0 maximum local
f (x) =
0
= 0 ⇐⇒ x2 = 1 ⇐⇒ x = −1 ou x = +1
x2 f 00(−1) = +2 > 0 minimum local

La fonction f admet donc un maximum local en x = −1 et un minimum local en x = +1.


5)

x −∞ −1 0 +1 +∞

f0 + 0 − − 0 +

−2 +∞ +∞
f
+2
−∞ −∞

f (x)

2
−1
1 x

−2

1/2
6) On voit que les extrémums trouvés ne sont que locaux. Toutefois, sur l’intervalle ]−∞, 0[, la fonction admet un
maximum global en x = −1 et sur ]0, +∞[, la fonction admet un minimum global en x = +1.

Exercice II (30 min, 5 points)


On considère la fonction de deux variables f (x, y) = x2 − x y + 16 y 3 + 6.
1) On a
1 2
f x0 (x, y) = 2x − y f y0 (x, y) = −x + y f x002 (x, y) = 2 f x00y (x, y) = −1 00
f yx (x, y) = −1 f y002 = y
2

2) La matrice hessienne de f et son hessien sont


 
2 −1
H f (x, y) = det H f (x, y) = 2y − 1
−1 y

3) On se propose de résoudre le problème d’optimisation de f (x, y) :


a) Les conditions nécessaires sont :
( ( ( ( (
f x0 (x, y) = 0 2x − y = 0 y = 2x x(2x − 1) = 0 x = 0 ou x = 12
⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒
f y0 (x, y) = 0 −x + 21 y 2 = 0 −x + 2x 2 = 0 y = 2x y = 0 ou y = 1

La fonction f admet donc deux points critiques : (0, 0) et (1/2, 1).


b) En (0, 0), det H f (0, 0) = −1 < 0. Il s’agit donc d’un point col. Pas d’extremum en (0, 0).
En (1/2, 1), det H f (1/2, 1) = 1 > 0 et f x002 (1/2, 1) = 2 > 0. La fonction f admet donc un minimum local au point
(1/2, 1).

Exercice III (45 min, 7 points)


Pour K ∈ R, on considère le problème d’optimisation suivant
(
Optimiser f (x, y) = x 2 + y 2
(P)
sous la contrainte y − 2x = K

1) Méthode de Lagrange
a) La fonction f (x, y) est une fonction convexe sur R2 comme somme des deux fonctions convexes d’une variable :
x 7→ x 2 et y 7→ y 2 .
b) Le lagrangien associé à (P) est L(x, y, λ) = x 2 + y 2 + λ(y − 2x − K). Les CNO sont alors

 L 0 (x, y, λ) = 0  2x − 2λ = 0  x=λ  x = − 25 K
 x

 
 
 

 
 
 

L 0y (x, y, λ) = 0 ⇐⇒ 2y + λ = 0 ⇐⇒ y = − λ2 ⇐⇒ y = 51 K
   
 L 0 (x, y, λ) = 0
  y − 2x − K = 0
  − λ − 2λ = K
 λ = − 2 K

 λ   2  5

Le problème (P) possède donc un unique point candidat (x0 , y 0 ) = (− 25 K, 15 K). Comme la fonction f est convexe et
la fonction contrainte y − 2x − K est affine, le problème (P) admet un minimum global en (x 0 , y 0 ).
2) Méthode de substitution
a) Sous la contrainte y − 2x = K, on a y = 2x + K, d’où

f (x, y) = f (x, 2x + K) = x2 + (2x + K)2 = 5x 2 + 4Kx + K 2 = h(x)

Résoudre (P) revient alors à optimiser h(x).


b) On a h 0(x) = 10x + 4K et h 00(x) = 10. La CNO h 0(x) = 0 donne x = −4K/10 = −2K/5. Comme la fonction
h est convexe (h 00(x) = 10 > 0, ∀x), elle admet donc un minimum global en x 0 = −2K/5. Il en est donc de même du
problème (P) avec y 0 = 2x0 + K = K/5.
3) Lorsque K = 5, le problème (P) possède un minimum global en (x 0 , y 0 ) = (−2, 1). Ce minimum est f (−2, 1) = 5.

2/2

Vous aimerez peut-être aussi