0% ont trouvé ce document utile (0 vote)
17 vues117 pages

Optimisation Mathématique ENIGA

Transféré par

Yosr Rhouma
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
17 vues117 pages

Optimisation Mathématique ENIGA

Transféré par

Yosr Rhouma
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Ministère de l’Enseignement Supérieur et de la Recherche

Scientifique, Université de Gafsa


Ecole Nationale des Ingénieurs de Gafsa

Recherche Opérationnelle
Optimisation Sans Contraintes

Mohamed SALAH

ENIGA 2021/2022
Plan

1. Fonction d’une Variable Réelle  Trace et Déterminant


 Elément d’un intervalle réel  Matrices symétriques

 Ensemble convexe  Forme quadratique

 Fonction convexe / concave  Critère de Sylvester

 Tangente à une courbe  Propriétés déterminant

 Signe ampleur de la Dérivée  Pivot de Gauss

 Formule de Taylor-Young  Rang de matrice

 Extremum local /global  Règle de Cramer

Condition nécessaire d’extremum 3. Fonction de Deux Variables Réelles


Condition suffisante d’extremum
 Gradient et Hessienne
2. Matrices et Déterminants  Point de selle
 Matrice échelonnée/ réduite
 Point critique dégénéré
 Matrice carré/ triangulaire
 Valeurs et vecteurs propres 4. Exercices corrigés 2
Fonction d’Une Variable Réelle

3
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Elément d’un Intervalle Réel : Géométrie: Point d’un segment:


x   x0 , x1 
Elément d’un Intervalle

x
B
 x0  x  x1
 x0  x0  x  x0  x1  x0 M M   AB    0    1 /
A
xM  (1   ) x A   xB
x  x0
0 1 Généralisation:
x1  x0
Quels que soient x0 et x1 éléments
x  x0 0    1
  d’un espace vectoriel E, on appelle
x1  x0  ( x1  x0 )  x  x0 segment [x0, x1] le sous-
   0,1 ensemble de E défini par:

 x  (1   ) x0   x1  x0 , x1   x  E / x  (1   ) x0   x1 ;   0,1

x   x0 , x1      0,1 / x  (1   ) x0   x1 4
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Ensemble Convexe:

Une partie D (ou un ensemble) est dite convexe lorsque, pour tout couple d’éléments
Ensemble Convexe

a et b choisis de D, le segment [a,b] est entièrement inclus dans D.

b b Convexe
Non-Convexe a
a c

a  D
   a, b   D     0,1 ,  (1   ) a   .b   D
b  D

Si toute la droite (a,b) est entièrement inclus dans D, l’ensemble est dit affine:

a  D
  (a, b)  D    IR,  (1   )a   .b   D 5
b  D
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Fonction Convexe / Concave:

Convexe: la courbe de la fonction se situe en dessous de ses cordes


Fonction Convexe

Corde

Concave max
Convexe

min Corde
x0 x1 x0 x1

Épigraphe Conv Hypo-graphe Conv

Convexe: b
l'épigraphe de la
b
fonction est un a
a
ensemble convexe 6
x0 x1 x0 x1
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Fonction Convexe 1/2:

Convexe: la courbe de la fonction se situe en dessous de ses cordes


Fonction Convexe

f ( x1 )  f ( x0 )
f(x1) p
x1  x0

p? ( x0 )  p.x0  (0)


f(x0)
Δ(0)  (0)  ?
( x0 )  f ( x0 )

 (0)  f ( x0 )  p.x0
x0 x1
 ( x)  p( x  x0 )  f ( x0 )
f ( x1 )  f ( x0 )
( x)  ( x  x0 )  f ( x0 )
x1  x0
7
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Fonction Convexe 2/2: Convexe: courbe en dessous des cordes:

f ( x1 )  f ( x0 ) f ( x)  ( x)
( x)  ( x  x0 )  f ( x0 )  f  (1   ) x0   x1   (1   ) f ( x0 )   f ( x1 )
Fonction Convexe

x1  x0
Soit x   x0 , x1 . Alors on a: 0  1

x  (1   ) x0   x1 ; 0    1
f ( x1 )  f ( x0 )
( x)  ((1   ) x0   x1  x0 )  f ( x0 )
x1  x0

f ( x1 )  f ( x0 )
( x)  ( x0   x0   x1  x0 )  f ( x0 )
x1  x0
f ( x1 )  f ( x0 )
( x)   ( x0  x1 )  f ( x0 )
x1  x0
 ( x)    f ( x1 )  f ( x0 )   f ( x0 )

( x)  (1   ) f ( x0 )   f ( x1 ) 8
Optimisation Sans Contraintes
Fonction d’une Variable Réelle

Tangente à une Courbe :

f ( x1 )  f ( x0 )
Tangente à une Courbe

Droite p
x1  x0
tangente au
point (x0, y0)

f(x0)  f ( x1 )  f ( x0 ) 
x1  x0  p  lim    f '( x0 )
x1  x0
 x1  x0 

La dérivée en un point exprime le


coefficient directeur (pente) de la
tangente à la courbe en ce point 9
x10 x1 x1 x1
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Signe de la Dérivée:

Le signe de la dérivée en
Signe de la Dérivée

M2
M1 un point informe sur le f(x2)
f(x1)
sens de croissance de la
f '( x1 )  0 courbe en ce point. f '( x2 )  0

x1 x2
Points
Stationnaires
M3
f(x3)
M4
f(x4)
f '( x0 )  0
f '( x3 )  0 f '( x4 )  0

10
x3 x
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Ampleur de la Dérivée 1/2:


p=g’(x0)
Ampleur de la Dérivée

p=f’(x0)

Cg
g '( x0 )  f '( x0 )
f(x0)=g(x0) Cf

x0

Au point M d’abscisse x0, la fonction « g »


croit plus rapidement que la fonction « f »
11
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Ampleur de la Dérivée 2/2:


Ampleur de la Dérivée

g '( x0 )  f '( x0 )

f(x0)=g(x0) Cf
Cg
p=f’(x0)
x0 p=g’(x0)

Au point M d’abscisse x0, la fonction « g »


décroit plus rapidement que la fonction « f »
12
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Approximation Polynomiale d’une Fonction :


Approximation Polynomiale

Soit la fonction exprimée par: f ( x)  1/ x  f '( x)  1 / x 2  f ''( x)  2 / x3


Au voisinage du point M d’abscisse 1/2, la meilleur approximation linéaire de la courbe
est donnée par la tangente en ce point:
1 1 1
f ( x)  f1 ( x)  f ( )  f '( ).( x  )
x 1/2 2 2 2
1
 f ( x)  f1 ( x)  2  4( x  )
x 1/2 2
Pour une meilleur approximation, on peut
considérer un polynôme d’ordre 2:

f ''(1 / 2) 1
f 2 ( x)  f1 ( x)  .( x  ) 2
2! 2
1 1
 f ( x)  2  4( x  )  8( x  ) 2
x 1/2 2 2 13
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Formule de Taylor Young:


Formule de Taylor Young

Au voisinage d’un point M d’abscisse « a », l’approximation polynomiale d’une


fonction « f » est donnée par son développement limité en « a »:

f ''(a ) f ( n ) (a)
f ( x)  f (a )  f '(a ).( x  a )  .( x  a )  ... 
2
.( x  a ) n  Rn ( x)
2! n!
Rn ( x) n
f ( k ) (a)
lim
x a ( x  a ) n
 0 f ( x )  
k 0 k !
.( x  a ) k
 Rn ( x)

f(x)
Un changement de variable h  x  a  x  a  h donne:
f ''(a ) 2 f ( n ) (a) n
f (a  h)  f (a )  f '(a ).h  .h  ...  .h  Rn (h)
2! n!
Rn (h) n
f ( k ) (a) k
lim n  0 f ( a  h)   .h  Rn (h)
h 0 h k! a
k 0 14
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Extremum Local /Global :


Max global
Extremum Local /Global

Max local
Extremum

Min « m » Max en « M »

x  I , x  I ,
x1 x2
f ( x)  f ( M ) f ( x )  f ( m)

Min local
I=domaine de f  Global

Min global
15
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Condition Nécessaire d’Extremum :


Condition Nécessaire d’Extremum

Lorsque la fonction atteint un extremum (max ou min), la tangente à la courbe en ce


point est horizontale et donc la dérivée (pente) est nécessairement nulle.

"a" est l'abscisse d'un point M extremum  f '(a)  0

Mais attention, sous la condition f’(a)=0, dite de premier ordre, trois cas peuvent avoir
lieu:
f(x) f(x)
Tangente horizontale f(x)
M M M Min
Tangente horizontale Tangente horizontale
Max

a a a
16
Maximum Minimum Max & Min = Inflexion
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

M Extremum  f’(a)=0 (Preuve):


Condition Nécessaire d’Extremum

Lorsque le point M est un minimum, son abscisse « a » vérifie :

f ( x)  f (a )  f ( x)  f (a )  0

En faisant tendre l’abscisse « x » à droite / à gauche de « a », nous aurons :

lim ( x  a )  0 Comme:
x a

lim ( x  a )  0 f ( x)  f (a) f ( x)  f (a )
x a  lim  lim  f '( a)
x a xa x  a xa
Ainsi nous obtenons:
Nous aurons nécessairement: f '(a )  0
 f ( x)  f (a)
lim
 xa  0
xa Si on refait la même démarche pour le max nous

 lim f ( x)  f ( a )  0 obtenons le même résultat.
 xa  xa 17
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Condition Suffisante d’Extremum 1/2:


Condition Suffisante d’Extremum

Un point M d’abscisse « a » est un minimum (resp. maximum) local lorsque la


dérivée première de la fonction est négative (resp. positive) à gauche de « a » et
positive (resp. négative) à sa droite. Ainsi, M est un extremum lorsque la dérivée
s’annule en « a » et change de signe.

Minimum Maximum

f(x)
M M

a a
Convexe 18
Concave
Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Condition Suffisante d’Extremum 2/2:


Condition Suffisante d’Extremum

Un point M d’abscisse « a » est un minimum local (respectivement maximum local)


lorsque la dérivée seconde de la fonction au point « a » est strictement positive
(respectivement négative).

Preuve:
La formule de Taylor-Young à l’ordre 2 donne:
f ''(a )
f ( x)  f (a )  f '(a ).( x  a )  .( x  a ) 2
2!
Si « a » est un point stationnaire, alors: f '(a )  0 .Ainsi, on obtient:

f ''(a)  f ''(a)  0  f ( x)  f (a)  min


f ( x)  f (a)  .( x  a)  
2

2!  f ''(a)  0  f ( x)  f (a)  max 19


Optimisation Sans Contraintes
Fonction d’Une Variable Réelle

Cas de Dérivée Seconde Nulle:


Dérivée Seconde Nulle

Lorsque la dérivée seconde de la fonction au point critique « a » est nulle, il faut


pousser développement limité jusqu’à obtenir la première dérivée non nulle d’ordre
k>2 pour dévoiler la nature de ce point : maximum, minimum, ou point d’inflexion.

La formule de Taylor-Young à l’ordre supérieur 2 donne:


f ''(a) f ( k ) (a)
f ( x)  f (a )  f '(a ).( x  a )  .( x  a ) 2  ...  .( x  a ) k  ...
0 2! k!
0 première valeur  0

f ( k ) (a)
 f ( x)  f (a )  .( x  a ) k
k!
 
 f (k )
(a )  0  min
Pair  ( x  a ) >0  sig  f ( x)  f (a )   sig  f (a )    ( k )
k (k )

k  f (a )  0  max

Impair   f ( x)  f (a )  change de signe  Point d'inflexion
20
Rappel: Matrices et Déterminants

21
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Matrice Echelonnée :
Matrice Echelonnée 1

Une matrice est qualifiée de échelonnée lorsque le nombre de zéros qui


précèdent le pivot croit lorsqu’on passe d’une ligne à la suivante.

Pivot Pivot
2z 0 0 4 1 1 3 0 
2
3z  0 0 0 1 2 2 0 0 
  Pivot
5z  0 0 0 0 0 2 0 5
  Pivot
7z  0 0 0 0 0 0 0 7
5 1 0 4 0 1 1  0 9 3 2 
0 2 2 1 0
  2 2  0 0 2 1
Oui   Non   Oui
0 0 0 3 0 0 2 0 0 0 3
     
0 0 0 0 5 0 0 0 0 0 0 22
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Matrice Echelonnée Réduite:


Matrice Echelonnée 2

Matrice Echelonnée avec des pivots unitaires. De plus, pour chaque colonne
pivot, tous les éléments (autres que le pivot) sont obligatoirement nuls.

2z 0 0 1 0 1 0 30
3z  0 0 0 1 2 0 4 0 
 
5z  0 0 0 0 0 1 0 0
 
7z  0 0 0 0 0 0 0 1
1 0 0 0 0 1 0 0
0 0 1 1
1 2 0 0 0 1
0 0 0 1
  E-R E-NR   N-E
0 0 0 1   0 0 1 0
0 0 0
     
0 0 0 0 0 0 0 0 23
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Matrice Carrée:

Une Matrice carrée est une matrice dont le même nombre de lignes égalise
Matrice Carrée

le nombre de colonne.

 1 / 2 1 3  i 
 
 1 1 3 5 1/ 3 
 i 0 5   M 3 ( IC )
   1
 1 5 2 1 3 
 4 1 
1 4 0 5 3   M 5 ( IR)
 
 1 5 4 1  1   1  M1 ( IR)
 0 0.2 1 2 
 3
A  M n ( IK )
24
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Matrices Triangulaires « L » et « U »:
Matrice Triangulaire

Une matrice triangulaire L: « Low » (resp. U: « Up ») est une matrice carrée dont
tous ses éléments au-dessus (resp. au-dessous) de la diagonale sont nuls.

 a11 0 0 0 0 
a  a11 a12 a13 a14 
0   0 a24 
a22 0 0
 21  a22 a23
 a31 a32 a33 0 0   
   0 0 a33 a34 
 a41 a42 a43 a44 0   
a  0 0 0 a44 
 51 a52 a53 a54 a55 

Triangulaire L 5x5 Triangulaire U 4x4


25
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Valeurs et Vecteurs Propres:

Lors d’une multiplication par un vecteur spécifique (propre), une matrice


Calcul Matriciel

carrée peut être remplacée par une seule valeur dite propre.

Vecteur

Vecteur
Matrice
Valeur
Carrée

A. X  . X
Vecteur
Propre

Matrice Valeur
Carrée Propre 26
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Calcul des Valeurs Propres:

Les valeurs propres annulent le polynôme caractéristique exprimé par :


Calcul Matriciel

 ( )  det  A   I 

i valeur propre   (i )  0

Remarques :
n n


i 1
i  Tr( An )   aii
i 1


i 1
i  det( A)

 ( )  ( ) n  Tr ( A).( ) n1  ...  det( A) 27


Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Cas de matrice Triangulaire / Diagonale:

Les valeurs propres sont les éléments de la diagonale


Calcul Matriciel

 a11 a12 a13 a14 


 0 a24 
n

A
a22 a23
  ( )  (1) n
 (  a )
ii
 0 0 a33 a34  i 1

 
 0 0 0 a44 

Les vecteurs propres sont:

 a11 0 0 0  1 0  0  0


 0 a22 0 0  0 1  0  0
A  X1    ; X 2    ; X 3    ; X 4   
 0 0 a33 0  0  0 1  0
         
 0 0 0 a44   
0  
0  
0 1 28
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Déduction des Vecteurs Propres:

Chercher les vecteurs non nuls qui engendrent les solutions du système :
Calcul Matriciel

 A  I  X  0 ; X 0

Application :

Chercher les valeurs propres et déduire les vecteurs propres de la


matrice A exprimée par:

1 3 3
A   2 11 2 
 
 8 7 6 
 

29
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Trace et Déterminant de A :

1 3 3 1 3 3
A   2 11 2 
Calcul Matriciel

det( A)  2 11 2  ?  
7 1 3 3  8 7 6 
8 6  
2 11 2
Méthode de Sarrus Tr(A)= 1+11+6=18
8 7 6
_ 1 3 3 +
_ +
3x11x8=264 2 11 2 1x11x6=66
_
(-2)x(-7)x1=14 + (-2)x(-7)x3=42
6x3x(-2)=-36 8x3x(-2)=-48

-(264+14-36)= -242 +(66+42-48)= 60

Det(A)= -242+60= -182 30


Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Valeurs Propres: +
1 3 3 1 _  3 3  1  2
A   2 11 2  A   I   +2 11   2  2  7
 
Calcul Matriciel

   8
 8 7 6 
   7 6    3  13
11   2 3 3 3 3
 ( )  (1   )  (2) 8
7 6 7 6   11   2
 ( )  (1   ) (11   )(6   )  14  2 3(6   )  21  8 6  3(11   )

 ( )  (1   ) 66  11  6   2  14   2 18  3  21  8 6  33  3 

 ( )  (1   ) 52  17   2   2 39  3   8 39  3 


 ( )  52  17   2   52  17 2   3   78  6    312  24 

 ( )   3  18 2  51  182  ( )  (  2)(  7)(  13) 31


Optimisation Sans Contraintes
Rappel Matrices et Déterminants

1  2 X1?
1  (2) 3 3 
 A  1I    2 11  (2) 2 
Calcul Matriciel


 8 7 6  (2) 

 3 3 3   x11 
 A  1I  X 1  0   2 13 2   x12   0
 8 7 8  x 
  13 
 x11  x12  x13  0  x11 1
   
 2 x11  13 x12  2 x13  0   x12  0  X 1   0 
8 x  7 x  8 x  0   1
 11 12 13  x13   x1  

32
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

2  7 X 2?

1  (7) 3 3 
Calcul Matriciel

 A  2 I    2 11  (7) 2 
 8 7 6  (7) 

 6 3 3   x21 
 A  2 I  X 2  0   2 4 2   x22   0
 8 7 1  x 
  23 
6 x21  3 x22  3 x23  0
6 x21  3 x22  3 x23  0   x21  1
  1 1   1
 2 x  4 x  2 x  0   x  x  x   x  x  X 
21 22 23 22
2
23
2
21 22 21 2  
8 x  7 x  x  0  x  x  1
 21 22 23
 x23  8 x21  7 x22  23 21  

33
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

3  13 X3?

1  (13) 3 3 
 A  3 I    2 11  (13) 2 
Calcul Matriciel

 8 7 6  (13) 

 12 3 3   x31 
 A  2 I  X 2  0   2 2 2   x32   0
 8 7 7  x 
  33 

12 x31  3 x32  3 x33  0 12 x31  3 x32  3 x33  0  x32 0
   1
 2 x  2 x  2 x  0   x   x  x   x  0  X 
31 32 33 32 33 31 31 3  
8 x  7 x  7 x  0   x33   x32  1
 31 32 33 8
 x33  x31  x32   
 7
34
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Matrices Symétriques :
Matrice Symétrique 1/10

Une matrice carrée est qualifiée de symétrique lorsqu’elle reste inchangée lorsqu’on
la transpose : At = A amn = anm. Elle est symétrique par rapport à la diagonale

 2 1 3 5 0
 1 3 4 1 8
  Toute matrice diagonale est symétrique
3 4 0 5 3
 
5 1 5 7 1
0 8 2 
 3 1 Les valeurs propres d’une matrice
symétrique sont réelles
Symétrique 5x5

35
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Matrice de Passage:

Une matrice carrée B est dite semblable à une matrice carrée A s’il existe
Calcul Matriciel

une matrice inversible P, (de passage), telle que B=P-1.A.P ou A=P.B.P-1

det(A)=det(B)

Cas particulier: semblable diagonale:

Si la matrice semblable B est diagonale, la matrice A est dite


diagonalisable: D=P-1.A.P ou A=P.D.P-1

Toute matrice symétrique (At=A)


An=P.Dn.P-1 est diagonalisable
36
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Caractérisation selon les Valeurs Propres :


Matrice Symétrique 2/10

La nature (semi-définie, définie, ou non-définie) et le signe (positif ou négatif) d’une


matrice symétrique A dépendent des signes de ses valeurs propres (spectre de A).

A définie négative (-A) définie positive

Matrice
Symétrique

Tous i  0 Tous i  0 Tous i  0 Tous i  0


i change de signe
Sp( A)  0 Sp( A)  0 Sp( A)  0 Sp( A)  0

Semi-définie Définie Semi-définie Définie Non


37
positive positive négative négative Définie
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Forme Quadratique :
Matrice Symétrique 3/10

Pour une matrice symétrique « A », d’ordre « n » on peut associer un polynôme


homogène « q » de « n » variables et de degré 2, appelé sa forme quadratique
exprimée par: X  IR n q A ( X )  X T . A. X C’est l’Energie de la matrice A.

 a11 a12 ... a1n   x1 


a x 
a22 ... a2 n  n 1
 Xn   2 
n n
An   12 q An ( X n )   a x  2  aij xi x j
2
 ... ... ... ...   ...  i 1
ii i
i 1 j i 1
   
 a1n a2 n ... ann   xn 
q A 1 ( X 1 )  a11 x12
q A 2 ( X 2 )  a11 x12  a22 x22  2a12 x1 x2
q A 3 ( X 3 )  a11 x12  a22 x22  a33 x32  2a12 x1 x2  2a13 x1 x3  2a23 x2 x3 38
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Matrice Symétrique associée à une Forme Quadratique Positive :


Matrice Symétrique 4/10

Si la forme quadratique est positive (respectivement strictement positive) alors la


matrice symétrique associée est semi-définie (respectivement définie) positive. La
réciproque est aussi vraie.

Preuve (sens 1): q A ( X )  0  X  IR n , X T AX  0

En particulier, cette condition est vraie pour chaque vecteur propre Xp:

q A ( X )  0  X Tp AX p  0  X Tp  X p  0   X Tp X p  0    0  A  0
0
Preuve (sens 2): comme la matrice symétrique A est diagonalisable et du fait que
deux matrices semblables ont le même spectre, on obtient:
A  P.D.PT  X T AX  X T P.D. PT X  Y T .D.Y   i yi2 q A ( X )  0  A  0
q A ( X )  0  A  0 39
Y i

A  0  Sp( A)  0  i  0  X AX  q A ( X )  0
T
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Cas d’une Matrice 2x2 :


Matrice Symétrique 5/10

Considérons une matrice « A » symétrique réelle 2x2 et un vecteur colonne X:

r s  x1 
A  ; X x 
 s t   2

La forme quadratique associée à « A » s’écrit:

 r s   x1 
q A ( X )  X AX   x1 x2  
T
 x 
 s t  2 
x 
 q A ( X )   rx1  sx2 sx1  tx2   1 
 x2 
 q A ( X )  rx12  2sx1 x2  tx22
 s s s 
 q A ( X )  r  x12  2 x1 x2  ( x2 ) 2  ( x2 ) 2   tx22 40
 r r r 
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Matrice 2x2 Définie Positive :

r s
Matrice Symétrique 6/10

s   s2  2
2

q A ( X )  r  x1  x2    t   x2

s t 
r   r 

 x  0
Si X   1  Alors q A ( X )  0; X  0  r  det( A1 )  0  
 x2  0 

 s 
x   x s 2
det( A2 )
Si X   1
r  Alors q A ( X )  0; X  0  t  
2
0
  r det( A1 )
 2 x  0 
Finalement, on obtient :

r  det  A1   0
q A ( X )  0; X  0  
rt  s  det  A2   0
2
41
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Matrice 2x2 Définie Négative :


Matrice Symétrique 7/10

s   s2  2
2

q A ( X )  r  x1  x2    t   x2
 r   r 

 x  0
Si X   1  Alors q A ( X )  0; X  0  r  det( A1 )  0
 x2  0 

 s 
x   x s 2
det( A2 )
Si X   1
r
2  Alors q ( X )  0; X  0  t   0
  A
r det( A2 )
 2 x  0 
Finalement, on obtient :

r  det  A1   0

q A ( X )  0; X  0   s 2
t   0  rt  s  det  A2   0
2
42
 r
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Signe Matrice 2x2 (1/2):


Matrice Symétrique 8/10

Résultat issu du signe de la forme quadratique (Théorème de Monge):

r  0  A définie positive
det( A)  rt  s  0  
2

r  0  A définie négative
det( A)  rt  s 2  0  A Non-définie
Résultat issu du signe du spectre de la matrice (valeurs propres) :

r  s
det( A   I )  0   0  ( r   )(t   )  s 2  0
s t 
  2  (r  t )  (rt  s 2 )   2  Tr( A)  det( A)  0    ( r  t ) 2  4 s 2  0
   Tr( A)  ( r  t ) 2  4 s 2 ;   0  Tr( A)  (r  t ) 2  4 s 2
Tr( A)  0

 ( r  t ) 2
 ( r  t ) 2
 4 s 2
 rt  s 2
 det( A)  0 43
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Signe Matrice 2x2 (2/2):


Matrice Symétrique 9/10

Tr( A)  0
A0
det( A)  rt  s  0  rt  s  0  r et t de même signe
2 2

r  t  0
A  0  det( A)  0 et  r0
r et t de même signe

44
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Cas d’une Matrice 3x3 (1/6):


Matrice Symétrique 10/10

Considérons une matrice « A » symétrique réelle 3x3 et un vecteur


colonne X:

a b c  x1 
A  b d e  ; X   x2 
   
c e  x 
 f  3
La forme quadratique associée à « A » s’écrit:
a b c   x1 
q A ( X )   x1 x2 x3   b d e   x2 
  
c e f  
  x3   x1 
 q A ( X )   ax1  bx2  cx3 bx1  dx2  ex3 cx1  ex2  fx3   x2 
 
x 
 3
 q A ( X )  ax12  2bx1 x2  dx22  2ex2 x3  fx32  2cx1 x3 45
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Cas d’une Matrice 3x3 (2/6):


Matrice Symétrique 11/10

Appliquons l’algorithme de réduction de Gauss pour écrire la forme quadratique


comme une combinaison linéaire de carrés de formes linéaires linéairement
indépendantes:

q A ( X )  ax12  2bx1 x2  dx22  2ex2 x3  fx32  2cx1 x3

 b c 
 q A ( X )  a  x12  2 x1  x2  x3    dx22  2ex2 x3  fx32
 a a 
2 2
 b c  b c 
 q A ( X )  a  x1  x2  x3   a  x2  x3   dx22  2ex2 x3  fx32
 a a  a a 
c   b2 2 c2 2 
2
 b bc
 q A ( X )  a  x1  x2  x3    x2  x3  2 x2 x3   dx22  2ex2 x3  fx32
 a a   a a a 
46
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Cas d’une Matrice 3x3 (3/6):


Matrice Symétrique 12/10

c   b2 2 c 2 2 
2
 b bc
q A ( X )  a  x1  x2  x3    x2  x3  2 x2 x3   dx22  2ex2 x3  fx32
 a a   a a a 

c   b2  2  c2  2
2
 b  bc 
 q A ( X )  a  x1  x2  x3    d   x2   f   x3  2  e   x2 x3
 a a   a  a  a 

c   ad  b 2  2  ae  bc   af  c 2  2
2
 b
 q A ( X )  a  x1  x2  x3     x2  2 x2   x3    x3
 a a   a   a   a 

c   ad  b 2   2 ae  bc   af  c 2  2
2
 b
 q A ( X )  a  x1  x2  x3      x2  2 x2 x 
2 3  x3
 a a   a  ad  b   a 
47
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Cas d’une Matrice 3x3 (4/6):


Matrice Symétrique 13/10

c   ad  b 2   2 ae  bc   af  c 2  2
2
 b
q A ( X )  a  x1  x2  x3      x2  2 x2 x 
2 3  x3
 a a   a  ad  b   a 

c   ad  b 2   ae  bc   af  c 2  2
2 2
 b
 q A ( X )  a  x1  x2  x3      x2  x 
2 3  x3
 a a   a  ad  b   a 
 ad  b 2   ae  bc 
2

  2 3
x
 a   ad  b 

c   ad  b 2   ae  bc 
2 2
 b
 q A ( X )  a  x1  x2  x3     2x  x
2 3
 a a   a  ad  b 

1   af  c  ad  b   ae  bc   2
2 2 2

    x3
a
  ad  b 
2
 ad  b  
2
48
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Cas d’une Matrice 3x3 (5/6):


Matrice Symétrique 14/10

c  ad  b 2  ae  bc 
2 2
 b
 q A ( X )  a  x1  x2  x3    2
x  2 3
x
 a a  a  ad  b 
adf  2bce  c 2 d  ae 2  b 2 f 2
 x3
ad  b 2

2
 b c  a b c a b
 q A ( X )  det( A1 )  x1  x2  x3 
 a a  b d e b d
ae  bc 
2
det( A2 )  c e f c e
  x  x
2 3
ad  b
2
det( A1 )   det( A1 )  a
det( A3 ) 2
 x3 det( A2 )  ad  b 2
det( A2 )
det( A3 )  adf  2bce  dc 2  ae2  b 2 f
49
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Cas d’une Matrice 3x3 (6/6):


Matrice Symétrique 15/10

ae  bc  det( A3 ) 2
2 2
 b c  det( A2 ) 
q A ( X )  det( A1 )  x1  x2  x3    x  x 
2 3
x3
ad  b
2
 a a  det( A1 )   det( A2 )

 det( A2 )
 det( A )  0 det( A1 )  0
 
A  0  X  0 ; q A ( X )  0  det( A1 )  0 et   det( A2 )  0
1

 det( A3 )  0 det( A )  0
 det( A2 )  3

 det( A2 )
 det( A )  0 det( A1 )  0
 
A  0  X  0 ; q A ( X )  0  det( A1 )  0 et   det( A2 )  0
1

 det( A3 )  0 det( A )  0
 det( A2 )  3

50
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Généralisation: Critère de Sylvester, Cas de Matrice Définie Positive


Matrice Symétrique 16/10

Pour qu’une matrice symétrique réelle A de taille « n » soit définie positive, il est
nécessaire et suffisant que les « n » mineurs principaux (déterminants des sous
matrices) soient strictement positifs.

 a11 a12 ... a1n  det( A1 )  a11  0

a 
a11 a12
det( A2 )  0
a22 ... a2 n a12 a22
 12  a11 a12 a13
 ... ... ... ...  det( A3 )  a12 a22 a23  0

a  a13 a23 a33

 1n a2 n ... ann  .....det( An )  0 51


Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Généralisation: Critère de Sylvester, Cas de Matrice Définie Négative


Matrice Symétrique 17/10

Pour qu’une matrice symétrique réelle A de taille « n » soit définie négative, il est
nécessaire et suffisant que les « n » mineurs principaux (déterminants des sous
matrices) soient de signes alternés: - + - +… c’est-à-dire (-1)i.det(Ai) >0 pour i: 1 n

 a11 a12 ... a1n  (1)1 det( A1 )  0  det( A1 )  a11  0


a a22 ... a2 n  (1) 2 det( A2 )  0  det( A2 )  0
 12 
 ... ... ... ...  (1)3 det( A3 )  0  det( A3 )  0

a  .....(1) n det( An )  0
 1n a2 n ... ann  52
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Interprétation physique du déterminant:

0’
Calcul Matriciel

N
Ny T
α T
N’
T
My M
α
T
0 Nx Mx

Pour le cas de trois vecteurs, la valeur absolue


du déterminant exprime le volume du
53
parallélépipède.
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Transposée :

Par transposition, le déterminant d’une matrice reste invariant


Calcul Matriciel

  a11 a12 .... a1n     a11 a21 .... an1  


 a   
a22 .... a2 n   a a22 .... an 2  
det  A   21   det  AT   12 
  .... .... .... ....     .... .... .... ....  
     
  an1 an 2 .... ann     a1n a2 n .... ann  
8 4 2 7  8 0 6 5 
    3 1 
 1 9  4
det   det 
0
Exemple:
6 3 j 2  2 1 j 0 
   
 5 1 0 1  7 9 2 1 

Toutes les manipulations relatives aux vecteurs colonnes


sont valables aussi pour les vecteurs lignes 54
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Permutation des vecteurs:

Par permutation de deux vecteurs, le déterminant change de signe


Calcul Matriciel

 a11 .... a1i .... a1n 


.... a1 j  a11 .... a1 j .... a1i.... a1n 
a .... a2i .... a2 j .... a2 n  a .... a2 j .... a2i .... a2 n 
det     det  21 
21

 ....
.... .... .... .... .... ....   .... .... .... .... .... .... .... 
   
 an1.... ani .... anj .... ann   an1 .... anj .... ani .... ann 
8 4 2 7  2 4 8 7
   
Exemple: det 
0  1 9  1  0 9 
  det 
6 3 j 2  j 3 6 2
   
 5 1 0 1  0 1 5 1 

Ci  C j i  det   det 55
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Propriété d’Altération:

Le déterminant d’une matrice qui a deux vecteurs identiques est nul


Calcul Matriciel

 a11 .... a1i .... a1i .... a1n 


a .... a2i .... a2i .... a2 n 
det  21 0
 .... .... .... .... .... .... .... 
 
 an1 .... ani .... ani .... ann 
8 4 2 4
 
 1 
det 
0
Exemple: 0
6 3 j 3 
 
 5 1 0 1

Si une colonne Ci est une combinaison linéaire des autres colonnes,


56
le déterminant est nul.
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Propriété de Multi-linéarité:

Le déterminant est linéaire par rapport à chaque vecteur colonne, les


Calcul Matriciel

autres étant fixés

a11 ..  .a1 j   .a1*j .. a1n a11 .. a1 j .. a1n a11 .. a1*j .. a1n


... .. .......  ....... .. ... ... .. ... .. ... ... .. ... .. ...
ai1 ..  .aij   .aij* .. ain   . ai1 .. aij .. ain   . ai1 .. aij* .. ain
... .. .......  ....... .. ... ... .. ... .. ... ... .. ... .. ...
an1 ..  .anj   .an*j .. ann an1 .. anj .. ann an1 .. anj* .. ann
3 2 43 3 2 2 3 2 1
Exemple: 7 5 6  12  2 7 5 3  3 7 5 4
9 2 10  6 9 2 5 9 2 2
57
L’application Déterminant est une forme multilinéaire
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Conséquence:

Ajouter à une colonne une combinaison linéaire des autres colonnes


Calcul Matriciel

conserve le déterminant.
n
C1 ... Ci ... Cn  C1 ... Ci  
j 1; j i
 j .C j ... Cn
n
Ci  Ci  
j 1; j i
 j .C j  det  det

Exemple:

 3 2 2 3 2 2 3 2 1
det  7 4 3   ?  C3  C3  (1)C1  1.C2  7 4 3  7 4 0
 
9 2 7
  9 2 7 9 2 0
58
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Matrices Particulières:

Le déterminant d’une matrice triangulaire est égal au produit des termes


Calcul Matriciel

diagonaux.

Le déterminant d’une matrice diagonale est égal au produit des termes


diagonaux

59
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Exemple de Calcul de Déterminant:    


4 0 3 1    
4  
2 1 0    
Calcul Matriciel

det  ?
83  
0 3 1 1 Mineur     Cofacteur
 
1 0 2 3
4 0 3 1
4 1 0  4 3 1
4 3 14 3 1
4 2 1 0  
 0 0 1 1  2 0 1 1  3   4 1 0   0 4 1 0
0 3 1 1  1 2 3
1 2 3 1 2 3   0 1 1
1 0 2 3
4 3 1 4 3 1
1 1 3 1 3 1 4 1
0 1 1  4 1  16 4 1 0  4 1  17
2 3 1 1 2 3 1 3
1 2 3 1 2 3
60
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Méthode de Pivot de Gauss:


Idée:
Calcul Matriciel

Pour obtenir l’inverse d’un nombre « a » (non nul), il suffit de permuter les
emplacements de l’élément neutre « 1 » et de « a ».

a inverse 1
a 0a   a  1
1 a
Par analogie, l’inverse d’une matrice carrée « A » (à déterminant non nul) est obtenu
par permutation des emplacements de l’identité « I » et de « A ».

Pivot de Gauss
A'   A I   A'   I A1 

Cette opération peut être réalisée en manipulant la matrice augmentée pour faire
apparaitre la matrice unité à gauche en suivant l’algorithme du pivot de Gauss. 61
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Application:

4 0 3 1 4 0 3 1 0 0 0
1
4 4 2 1 0 0 1 0 0
2 1 0
Calcul Matriciel

A  M. Augmentée  A I    
0 3 1 1 0 3 1 1 0 0 1 0 
   
1 0 2 3 1 0 2 3 0 0 0 1

1 0 0 0 * * * *
But 0 1 0 0 * * * *
    I A1 
0 0 1 0 * * * *  
 
0 0 0 1 * * * *

Il faut maintenant procéder à la construction d’une matrice échelonnée (diagonale


supérieure), puis échelonnée réduite pour faire apparaitre l’identité à gauche. 62
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

On fait apparaitre un pivot unitaire à la première ligne/ première colonne:

4 0 3 11 0 0 0
Calcul Matriciel

L1 L1/4
4 2 1 0 0 1 0 0
 
0 3 1 1 0 0 1 0 
 
1 0 2 3 0 0 0 1

 14 3 1/4
0 3/4 1 0 0 0
1 1/4
4 2 1 00 1 0 0
 
0 3 1 1 0 0 1 0 
 
1 0 2 3 0 0 0 1
63
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

On fait apparaitre des zéros au-dessous du pivot :

1 0 3 / 4 1/ 4 1/ 4 0 0 0 
Calcul Matriciel

4 2 1 0 0 1 0 0  L2 -4L1+L2
 
0 3 1 1 0 0 1 0 ok
 
1 0 2 3 0 0 0 1  L4 -L1+L4

1 0 3 / 4 1/ 4 1/ 4 0 0 0 
 04 2 -2
1 -1
0 0-1 1 00 00 
 
0 3 1 1 0 0 1 0
 
 10 0 2 3 0
0 5/4 11/4 -1/4 0 0 1  64
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

On refait la même chose pour la deuxième ligne/ deuxième colonne :

1 0 0 0
Calcul Matriciel

0 3/ 4 1/ 4 1/ 4
0 2 2 1 1 1 0 0  L2 L2/2L2
 
0 3 1 1 0 0 1 0
 
0 0 5 / 4 11/ 4 1/ 4 0 0 1 

1 0 3/ 4 1/ 4 1/ 4 0 0 0
0 21 -12 -1/2
1 -1/2 1 0 0
1 1/2
0 
0 3 1 1 0 0 1 0
 
0 0 5 / 4 11/ 4 1/ 4 0 0 1 
65
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

De nouveau, on fait apparaitre des zéros au-dessous du pivot :

1 0 3/ 4 1/ 4 1/ 40 0 0
Calcul Matriciel

0 1 1 1/ 2 1/ 2 1/ 2 0 0 
 
0 3 1 1 0 0 1 0  L3 -3L2+L3
 
0 0 5 / 4 11/ 4 1/ 4 0 0 1  ok

1 0 3/ 4 1/ 4 1/ 4 0 0
0
0 1 1 1/ 2 1/ 2 1/ 2 0 0 
 
0 30 14 1/2
1 3/2
0 0 11 00
-3/2
 
0 0 5 / 4 11/ 4 1/ 4 0 0 1 
66
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

On refait la même chose pour la troisième ligne/ troisième colonne :

1 0 3/ 4 1/ 4 1/ 4 0 0
0
Calcul Matriciel

0 1 1 1/ 2 1 / 2 1 / 2 0 0 
 
0 0 4 1/ 2 3 / 2 3 / 2 1 0  L3 L3/4
 
0 0 5 / 4 11/ 4 1/ 4 0 0 1

1 0 3/ 4 1/ 4 1/ 4 00 0
0 1 1 1/ 2 1 / 2 1 / 2 0 0 
 
0 0 41 1/1/8 2 / 2 -3/8
33/8 1 00
3 / 2 1/4
 
0 0 5 / 4 11/ 4 1/ 4 0 0 1
67
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

De nouveau, on fait apparaitre des zéros au-dessous et au dessous du pivot :

1 0 3/ 4 1/ 4 1/ 4 0 0  L1 -3L3/4+L1
0
Calcul Matriciel

0 1 1 1/ 2 1/ 2 1/ 2 0 0  L2 L3+L2


 
0 0 1 1/ 8 3 / 8 3 / 8 1/ 4 0 
 
0 0 5 / 4 11/ 4 1/ 4 0 0 1  L4 -5L3/4+L4

1 0 3 0/ 4 1/ 4
5/32 1/ 4
-1/32 0 0
0 -6/32
9/32
0 1 01 -3/8
1/ 2 -1/8
1/ 2 0 00 
1/82 2/8
1/
 
0 0 1 1/ 8 3 / 8 3 / 8 1/ 4 0 
 
0 0 5 0/ 4 11/
83/32 1/ 4 15/32
4 -23/32 0 1
0 -10/32
68
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Encore, on fait apparaitre « 1 » à la quatrième ligne/ quatrième colonne :

1 0 0 5 / 32 1/ 32 9 / 32 6 / 32
0
Calcul Matriciel

0 1 0 3 / 8 1/ 8 1/ 8 2/8 0
 
0 0 1 1/ 8 3/8 3 / 8 1/ 4 0
 
0 0 0 83 / 32 23 / 32 15 / 32 10 / 32 1  L432L3/83

1 0 0 5 / 32 1/ 32 9 / 32 6 / 32
0
0 1 0 3 / 8 1/ 8 1/ 8 2/8 0
 
0 0 1 1/ 8 3/8 3 / 8 1/ 4 0
 
0 0 0 83 1/ 32 -23/83
23 / 32 15 / 32 -10/83
15/83 1
10 / 32 32/83
69
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Finalement, on fait apparaitre des zéros au-dessous et au dessous du pivot :

1 0 0 5 / 32 1/ 32 9 / 32 6 / 32  L1 -5L4/32+L1


0
Calcul Matriciel

0 1 0 3 / 8 1/ 8 1/ 8 2/8 0  L2 3L4/8+L2


 
0 0 1 1/ 8 3/8 3 / 8 1/ 4 0  L3 -L4/8+L3
 
0 0 0 1 23 / 83 15 / 83 10 / 83 32 / 83 

A-1

1 0 0 5 /032 1/ 32
1/83 921/83
/ 32 6-14/83
/ 32  0
-5/83
0 1 0 30/ 8  1/ 8
-19/83 1/ 8
16/83 217/83
/8 0 
 12/83

0 0 1 1/08 3/8
34/83 3 / 8
-33/83 1/ 4
22/83 0 
-4/83
 
0 0 0 1 23 / 83 15 / 83 10 / 83 32 / 83 
70
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Exemple de Calcul du Rang d’une Matrice:


1 3 2  1 3 2  1 3 2 
A   1 4 1  : L2  L2  L1   0 1 1 : L3  L3  L2   0 1 1
Calcul Matriciel

     
 0 1 1  0 1 1 0 0 0 
     
 rg ( A)  2
 1 3 6 2   1 3 6 2 
   L2  L2  2 L1 
A  2 5 10 3 :   0 1 2 1 
  L  L  3L  
 3 8 17 4   3 3 1  0 1 1 2 
   
 1 3 6 2 
: L3  L3  L2   0 1 2 1
 
 0 0 1 1
 
 rg ( A)  3
71
Optimisation Sans Contraintes
Rappel Matrices et Déterminants

Exemple d’Application de la Règle de Cramer:


 x1  2 x3  6

3 x1  4 x2  6 x3  30
Calcul Matriciel

 x  2 x  3x  8
 1 2 3

1 0 2 1 0 2 1 0
3 4 6 
SARRUS
3 4 6 3 4  (12  12)  (8  12)  44
1 2 3 1 2 3 1 2
6 0 2 1 6 2 1 0 6
30 4 6 3 30 6 3 4 30
8 2 3 10 1 8 3 18 1 2 8 38
x1    ; x2   ;x  
1 0 2 11 1 0 2 11 3 1 0 2 11
3 4 6 3 4 6 3 4 6
1 2 3 1 2 3 1 2 3 72
Fonction de Deux Variables Réelles

73
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Dérivée Première  Vecteur Gradient :


La notion de dérivée première d’une fonction à une variable s’étend pour une
Vecteur Gradient

fonction à deux variables. On parle alors du gradient de la fonction qui est un


vecteur colonne (2x1) dont les composants sont les dérivées partielles de cette
fonction par rapport à chacune des deux variables.

Fonction à une variable: Fonction à deux variable:


Dérivée première
df ( x)  f ( x1 , x2 ) 
f ( x)   f '( x)  x  f x1 
Gradient
dx
f ( x1 , x2 )  f ( x1 , x2 )   
1

 f ( x1 , x2 ) 
Exemple:
 x  f x2 
Exemple:
 2 
f ( x)  x 2  x  3
f ( x1 , x2 )  x12  x1.x23  x2  1
 f '( x)  2 x  1
 2 x1  x23 
 f ( x1 , x2 )   
 3 x .
1 2x 2
 1 
74
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Droite Tangente  Plan Tangent (1/2):


Pour une fonction à une variable, son graphe est une courbe (dans le plan).
Chaque point est repéré par ses coordonnées M(a, f(a)). Dans le cas d’une
Plan Tangent

fonction à deux variables, le graphe est une surface (dans l’espace). Chaque
point est repéré par ses coordonnées (a1,a2,f(a1,a2)).

Droite tangente Plan tangent au


au point M(a) point M(a1, a2)

f(a)
M

a 75
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Droite Tangente  Plan Tangent (2/2):


Pour une fonction à une variable, son graphe est une courbe (dans le plan). Chaque
point est repéré par ses coordonnées M(a, f(a)). L’équation de la droite tangente en
Plan Tangent

ce point est donnée par:

f (a  h)  f (a)  f '(a).h avec h  x  a


Dans le cas d’une fonction à deux variables, le graphe est une surface (dans
l’espace). Chaque point est repéré par ses coordonnées (a1,a2,f(a1,a2)). L’équation
du plan tangent en ce point est donnée par:

f (a1  h1 , a2  h2 )  f (a1 , a2 )  f x1 (a1 , a2 ).h1  f x2 (a1 , a2 ).h2 Matrice Jacobienne

h1  x1  a1  a1   h1 
avec  On pose: a    ; h    Produit Scalaire  J f (a).h
h2  x2  a2  a2   h2 
f (a  h)  f (a)  f x1 (a).h1  f x2 (a).h2  f (a  h)  f ( a)  f (a ), h 76
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Dérivée Seconde  Matrice Hessienne :


La dérivée seconde est effectuée pour chaque composant du vecteur gradient. On
Matrice Hessienne

obtient alors « 2x2 » valeurs organisés sous forme d’une matrice carrée symétrique
conformément au théorème de Schwarz. C’est la Hessienne « H » de la fonction.

Fonction à une variable: Schwarz


 f x12 f x1x2 
H f ( x1 , x2 )   
Dérivée Dérivée
f ( x)  f '( x)  f ''( x)  f x2 x1 f x2 
 1  f x1x2  f x2 x1
Fonction à deux variable: Exemple:
f ( x1 , x2 )  x12  x1.x23  x2  1
 Gradient  f x1x1  f x2
 f x1   1
 2 x1  x23 
Gradient 
  f x1x2  f ( x1 , x2 )   
f ( x1 , x2 )     3 x .
1 2x 2
 1 

 Gradient  f
 x2 x1
 x2
f    2  3 x 2

 H f ( x1 , x2 )  
 f x2 x2  f x22
2
 
 3 x 2
2 6 x 1 2
. x 77
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Formule de Taylor-Young à l’ordre 2 :

Le développement limité d’ordre 2 d’une fonction à deux variables au voisinage


d’un point M d’abscisse (a1,a2) vaut:
Taylor-Young

f (a1  h1 , a2  h2 )  f (a1 , a2 )  f x1 (a1 , a2 ).h1  f x2 (a1 , a2 ).h2


1
 
 f x2 (a1 , a2 ).h12  2 f x1x2 (a1 , a2 ).h1h2  f x2 (a1 , a2 ).h22  R2 (h1 , h2 )
2 1 2

 a1   h1 
On pose: a    ; h   
 a2   h2 
f (a  h)  f (a )  f (a ), h 
1
2 1
 
f x2 (a ).h12  2 f x1x2 (a ).h1h2  f x2 (a ).h22  R2 (h)
2

f (a  h)  f (a )  f (a ), h   h .H f (a ).h   R2 (h) Comme f T (a)  J f (a)


1 T
2
 f (a  h)  f (a )  J f (a ).h   hT .H f (a ).h   R2 (h)
1
78
2
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Point d’inflexion  Point de Selle :

Fonction d’une variable Fonction de deux variables


Point de Selle

Point d’inflexion Point de selle f(x1,x2)

f(x)
M
M

79
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Condition Nécessaire d’Extremum (Points Critiques):

Lorsque la fonction atteint un point stationnaire (ou critique), le plan tangent à la


Points Critiques

surface en ce point est horizontal et donc le gradient est nécessairement nul.

"a" est l'abscisse d'un point M extremum  f (a)  0

Cette condition de premier ordre informe sur : un max, un min ou un point de selle.

Max global
Max local Point de Selle
000

Min global
Min local 80
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Condition Suffisante d’Extremum :


Condition Suffisante d’Extremum

Un point stationnaire M d’abscisse « a » est un minimum (resp. maximum) local


lorsque la Forme Quadratique de la Hessienne de la fonction au point « a » est
strictement positive (resp. négative).

Preuve:
La formule de Taylor-Young à l’ordre 2 donne:
1 T 1
f (a  h)  f (a )  f (a ), h  h H f (a )h  f (a )  f ( a ), h  qH (h)
2 2
Si « a » est un point stationnaire, on a:f ( a )  0 . Ainsi, on obtient:

1 qH (h)  0  f (a  h)  f (a )  min Local


f ( a  h )  f ( a )  qH ( h)  
2 qH (h)  0  f (a  h)  f (a)  m ax Local
81
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Signe de la Forme Quadratique (1/2):


Signe Forme Quadratique

On écrit la matrice Hessienne H sous la forme:

r s
H  
 s t 
Ainsi, la forme quadratique de la Hessienne de la fonction au point critique « a » s’écrit :

qH (h)  hT Hh
 r s   h1 
 qH (h)   h1 h2    h   rh1
2
 2 sh h
1 2  th2
2

 s t  2 
Si on pose x  h1 / h2 la forme quadratique s’exprimera par un trinôme de second degré :

rx 2 h22  2 sxh2 h2  th22   rx 2  2sx  t  h22


 sig( qH ( h))  sig( rx 2  2 sx  t ) 82
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Signe de la Forme Quadratique (2/2):


Signe Forme Quadratique

rx 2  2sx  t  0
  '  s 2  rt   det( H )
r  0  min
Si det( H )  0   '  0  sig( qH ( h))  sig( r )  
r  0  max

Un point stationnaire M d’abscisse « a » est un extremum local lorsque le


Déterminant de la Hessienne de la fonction au point « a » est strictement positif.
C’est un min si r >0 et un max si r<0.

Si det( H )  0   '  0  qH (h) change de signe  Point de selle

Lorsque le Déterminant de la Hessienne de la fonction au point critique « a » est


strictement négatif, il s’agit d’un point de selle. 83
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Point Critique Dégénéré :


Point Critique Dégénéré

Lorsque zéro est valeur propre de la Hessienne H en un point critique de la fonction,


le discriminant Hessien (det(H)) s'annule et le point est dit dégénéré.

2 s
det( H )  0   '  0  qH ( h) est de signe de "r" mais s'annule en
r0
 Le point critique est dégénéré  On ne peut pas conclure directement

Exemple:
 4 x3 
f ( x , y )  x  y  3 y  2  f ( x , y )   2
4 3
  (0,1);(0, 1)
 3y  3
 2 x2 0  0 0 0 0 
H  6   H (0,1)  6   ; H (0, 1)  6    det( H )  0
 0 y 0 1  0 1
84
Les deux points critiques sont dégénérés
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Cas de Forme Quadratique Nulle (1/2):


Forme Quadratique Nulle

Lorsque la Forme Quadratique de la Hessienne de la fonction est nulle au point


critique « a », il faut pousser le développement limité à un ordre k>2 pour dévoiler la
nature de ce point : maximum, minimum, ou point de selle.

Exemple:
f ( x, y )  x 3  y 4  yx 2  xy 2
J f ( x, y )   3 x 2 2 yx  y 2 4 y 3  x 2  2xy   (f )T
 3x  y  x  y 
H f ( x, y )  2  2 
  x  y 6 y 2
 x 
 f (0,0)  0 et H f (0,0)  0  qH (0,0)  0 Il faut passer à l’ordre 3 :

f ( a  h)  f ( a ) 
1
3!

f x3 (a ).h13  3 f x2 y (a ).h12 h2  3 f xy 2 (a ).h1h22  f y3 (a ).h23  85
Optimisation Sans Contraintes
Fonction de Deux Variables Réelles

Cas de Forme Quadratique Nulle (2/2):


Forme Quadratique Nulle

f ( a  h)  f ( a ) 
1
3!
 
f x3 (a ).h13  3 f x2 y (a ).h12 h2  3 f xy 2 (a ).h1h22  f y3 (a ).h23

 3x  y  x  y 
H f ( x, y )  2  2   f x3  6; f x2 y  2; f xy 2  2; f y3 (0,0)  0
  x  y 6 y 2
 x 
f (a  h)  f (a )  h13  h12 h2  h1h22  h1  h12  h1h2  h22 
h1  1
  f ( a  h)  f ( a )  1  0
h2  0
h1  1
  f (a  h)  f (a )  1  0
 2
h  0

Il y a changement de signe  Point de Selle


86
Optimisation Sans Contraintes
Fonction de Plusieurs Variables

Condition de Premier Ordre:


Forme Quadratique Nulle

Lorsque une fonction réelle de plusieurs variables atteint un point stationnaire (ou
critique), son gradient en ce point est nécessairement nul. Toutefois, ce point peut
être un extremum (min ou max), un point de selle ou un point dégénéré.

Condition de Second Ordre: Point Critique = Min Local

Un point stationnaire est un minimum local si la Hessienne H en ce point est


définie positive. C’est-à-dire si l’une des conditions suivantes est réalisée :
- Toutes les valeurs propres de la matrice H sont strictement positifs
- La forme quadratique associée à H est strictement positive
-Tous les mineurs principaux de H sont strictement positifs (Critère de Sylvester)

87
Optimisation Sans Contraintes
Fonction de Plusieurs Variables

Condition de Second Ordre: Point Critique = Max Local


Forme Quadratique Nulle

Un point stationnaire est un maximum local si la Hessienne H en ce point est


définie négative. C’est-à-dire si l’une des conditions suivantes est réalisée :
- Toutes les valeurs propres de la matrice H sont strictement négative
- La forme quadratique associée à H est strictement négative
- Les mineurs principaux de H sont de signes alternés commençant par (« - »)

Condition de Second Ordre: Point Critique = Point de Selle

Un point stationnaire est un point de selle lorsque la Hessienne H en ce point est


non définie. C’est-à-dire si l’une des conditions suivantes est réalisée :
- La forme quadratique associée à H change de signe
- Les valeurs propres de la matrice H sont de signes mixtes (positifs et négatifs)
88
Exercices Corrigés

89
Optimisation Sans Contraintes
Exercices Corrigés

Exercice A1:

Un agriculteur possède un fil de fer barbelé de longueur L . Il veut clôturer trois côtés
Exercices Corrigés

d'un champ rectangulaire (une des longueurs est déjà clôturée). Trouvez les
dimensions du champ de plus grande surface pouvant être clôturée.

Formulation :
2x  y  L  y  L  2x
 S  xy  x( L  2 x)  2 x 2  Lx
Condition de Premier Ordre :
L L
S '( x)  0  4 x  L  0  x0   y0 
4 2
Condition de Second Ordre :
L
S ''( x)  4  0  x0  est un minimum 90
4
Optimisation Sans Contraintes
Exercices Corrigés

Exercice A2:
Exercices Corrigés

Etant donnée une surface métallique de forme rectangulaire de dimensions a et b.


On découpe des morceaux carrés de même taille des 4 coins de la surface. Ainsi en
pliant les côté obtenus, on construit une boite (sans couvercle de dessus) de forme
pavé droit (parallélépipède rectangle). Trouvez les dimensions de la boîte de plus
grand volume qu’on peut construire.

Formulation : x b-2x x
V ( x)  (a  2 x)(b  2 x) x  4 x 3  2(a  b) x 2  abx x

a-2x
Condition de Premier Ordre :
V '( x)  0  12 x 2  4(a  b) x  ab  0
x
(a  b)  a  b  ab
2 2
(a  b)  a  b  ab2 2
 x1  ; x2  91
6 6
Optimisation Sans Contraintes
Exercices Corrigés

Condition de Second Ordre :

V '( x)  0  12 x 2  4( a  b) x  ab  0
Exercices Corrigés

V ''( x)  24 x  4(a  b)  4  6 x  (a  b) 
( a  b)
V ''( x)  0 ssi x 
6
(a  b)  a 2  b 2  ab
 max pour x  x1 
6

92
Optimisation Sans Contraintes
Exercices Corrigés

Exercice A3:

On veut clôturer un terrain rectangulaire de superficie S. Ce terrain est adjacent à


Exercices Corrigés

une rivière. Sachant que la clôture le long de la rivière coûte « a » Dinar le mètre et
la clôture des autres côtés coûte « b » Dinar le mètre, trouvez les dimensions du
champ dont la clôture coûte le moins cher.

Formulation :
C  ax  b( x  2 y )  S 1
  C  ax  b( x  2 )  (a  b) x  2bS y
xy  S  x x x

Condition de Premier Ordre :

1 2bS
C '( x)  0  (a  b)  2bS  0  x 
x2 ( a  b) 93
Optimisation Sans Contraintes
Exercices Corrigés

Condition de Second Ordre :

4bS
C ''( x)   0  min
Exercices Corrigés

3
x

94
Optimisation Sans Contraintes
Exercices Corrigés

Exercice A4:

Un fil rigide de longueur L est coupée en deux morceaux. Un morceau est pliée en
Exercices Corrigés

forme de carré et l'autre en forme de rectangle dont la longueur est égale à 3 fois sa
largeur y. Soit x la longueur du côté du carré. On désigne par A(x), la somme des
aires du carré et du rectangle. Quand A(x) atteint-il son minimum ?

Formulation :
A( x)  x 2   3 y * y   x 2  3 y 2

 L  4x 
2

L  4 x   A( x)  x  3  8 
2

L  4x  2 3 y  y   y    
8 
Condition de Premier Ordre :

 L  4 x  1  3L
A '( x)  0  2 x  6     0  x 
 8  2  28 95
Optimisation Sans Contraintes
Exercices Corrigés

Condition de Second Ordre :

x L
A '( x)  2 x  3  3
Exercices Corrigés

2 8
3
A ''( x)  2   0  min
2

96
Optimisation Sans Contraintes
Exercices Corrigés

Exercice A5:

Soit un terrain rectangulaire de superficie S que l’on veut clôturer et diviser en deux
Exercices Corrigés

moitiés égales. Désignons par « x » la longueur de la clôture de séparation et par


F(x) la longueur totale de la clôture requise. Trouvez la longueur minimale
nécessaire à la clôture.

Formulation :
S 
y  S y
x   F ( x)  3x  2
x
F ( x, y )  3 x  2 y 
x
Condition de Premier Ordre :

S 2
F '( x)  0  3  2 2
 0  x  S
x 3 97
Optimisation Sans Contraintes
Exercices Corrigés

Condition de Second Ordre :

S
F '( x)  3  2
Exercices Corrigés

x2
S
F ''( x)  4 3
 0  min
x

98
Optimisation Sans Contraintes
Exercices Corrigés

Exercice A6:

Un rectangle dont la base est sur l'axe des abscisses « x » et ses sommets
Exercices Corrigés

supérieurs sur la parabole d’équation y = a – x2. Trouvez son aire maximale possible.

Formulation :
S  (2 x) y 
  S ( x )  2 x ( a  x 2
)  2 x 3
 2ax
yax  2

Condition de Premier Ordre :


a y
S '( x)  0  6 x 2  2a  0  x 
3
Condition de Second Ordre :
x
S ''( x)  12 x  0  max 99
Optimisation Sans Contraintes
Exercices Corrigés

Exercice A7:
Exercices Corrigés

Un conteneur rectangulaire à toit ouvert est supposé de volume « V ». De plus, un


côté de la base rectangulaire doit mesurer « a » de long. Si le matériau pour la base
coûte CB par mètre carré et que le matériau pour les côtés coûte CC le mètre carré,
trouvez les dimensions du conteneur afin que le coût du matériau pour le fabriquer
soit minimal.

Formulation :
y
V
V  axy  y 
ax
V x
C  CB ax  CC  2 xy  2ay   C ( x )  CB ax  2CC  x  a  a
ax
2C V 2C V
 C ( x)  aCB x  C  C 100
x a
Optimisation Sans Contraintes
Exercices Corrigés

Condition de Premier Ordre :

2CCV 2CCV VCB


C '( x)  0  aCB     
Exercices Corrigés

x y
x2 aCB 2aCC

Condition de Second Ordre :

4CCV
C ''( x)   0  min
x3

101
Optimisation Sans Contraintes
Exercices Corrigés

Exercice A8:
Exercices Corrigés

On souhaite vendre un certain nombre « n » d'articles. Si on fixe le prix à 1.50DT,


on pourra vendre 5000 articles. Pour chaque tranche de 10% de remise en
dessous de 1.50DT on pourra vendre 1000 autres articles de plus. Supposons que
les coûts fixes (coûts de démarrage) totalisent 2000 DT et que le coût de
production par article (coût marginal) soit de 0.5 DT. Trouvez le prix « x » à fixer
par article et le nombre d'articles « n » vendus afin de maximiser le profit « P » que
l’on déterminera

Formulation :

Le nombre d’articles vendus vaut:


1.5  x
n  5000  1000
10% 102
Optimisation Sans Contraintes
Exercices Corrigés

Le profit vaut:
P ( x)  n.x  2000  0.5n
Exercices Corrigés

1.5  x 1.5  x
 P ( x)  (5000  1000 ) x  2000  0.5(5000  1000 )
10% 10%
 P ( x)  10000 x 2  25000 x  12000
Condition de Premier Ordre :

P '( x)  0  x  1.25

Condition de Second Ordre :

P ''( x)  0  max

103
Optimisation Sans Contraintes
Exercices Corrigés

Exercice B1:

f ( x, y )  x 2  4 y 2  2 x  4 y  3
Exercices Corrigés

Condition de Premier Ordre (Points Critiques) :

 f 
 x  2 x  2   x  1

f    ; f  0   1
 f   y 
 y  8 y  4  2
 

Condition de Second Ordre (Nature des Points Critiques) :

 2x  2 
f    ;
8y  4
1 0
 H f  2  définie positive  Minimum Local
 0 4  104
Optimisation Sans Contraintes
Exercices Corrigés

Exercice B2:
f ( x, y )   x 3  y 4  2 y 2  3 x
Exercices Corrigés

Condition de Premier Ordre (Points Critiques) :

 f 
 x  3 x 2
 3   x  1
f    ; f  0  
 f  4 y 3  4 y   y  0 ou y  1
 y 
 
(1,0)
(1,1)

(1, 1)

(1,0)
(1,1)

(1, 1)
105
Optimisation Sans Contraintes
Exercices Corrigés

Condition de Second Ordre (Nature des Points Critiques) :


6 0 
 3 x 2  3  H f (1,0)    ND  ( 1,0) : Point de Selle
f   3   0 4 
Exercices Corrigés

 4 y  4 y 
6 0
H f (1,1)    >0  (1,1) : Minimum Local
0 8
 6 x 0  6 0
Hf  H f (1, 1)  2   >0  (1, 1) : Minimum Local
2
  0 8
 0 12 y 4 
 6 0 
H f (1,0)    <0  (1,0) : Maximum Local
 0 4 
 6 0 
H f (1,1)    ND  (1,1) : Point de Selle
 0 8
 6 0 
H f (1, 1)    ND  (1, 1) : Point de Selle 106
 0 8
Optimisation Sans Contraintes
Exercices Corrigés

Exercice B3:
1
f ( x, y, z )  x 2  y 2  z 3  xy  xz  yz
3
Exercices Corrigés

Condition de Premier Ordre (Points Critiques) :

 f 
 x  2 x  y  z 
  2 x  y  z  0
f 
f    2 y  x  z  ; f  0   2 y  x  z  0
 y 
  z2  x  y  0

 f  z 2  x  y 
 z 
 y  2x  z y  z
  (0,0,0)
 2(2 x  z )  x  z  0  x  z  x  z 
 z 2  x  y  0  z 2  z  2 z  z  0  z ( z  2)  0 (2, 2, 2)
  107
Optimisation Sans Contraintes
Exercices Corrigés

Condition de Second Ordre (Nature des Points Critiques) :

 2x  y  z   2 1 1
 
Exercices Corrigés

f   2 y  x  z  H f (0,0,0)   1 2 1 
 z2  x  y   
   1 1 0 
 
det( H1 f )  2  0
 2 1 1  2 1
det( H 2 f )  30
H f   1 2 1  1 2
 
 1 1 2 z 
 
2 1 1
2 1 1 1 1 1
det( H 3 f )  1 2 1  2 1 1  6  0
1 0 1 0 2 1
1 1 0
H f (0,0,0) : ND  (0,0,0) : Point de Selle 108
Optimisation Sans Contraintes
Exercices Corrigés

Suite:

 2 1 1   2 1 1
Exercices Corrigés

H f   1 2 1  H f (2, 2, 2)   1 2 1
   
 1 1 2 z   1 1 4 
   
det( H1 f )  2  0
2 1
det( H 2 f )  30
1 2

2 1 1
2 1 1 1 1 1
det( H 3 f )  1 2 1  2 1 1 60
1 4 1 4 2 1
1 1 4
H f (0,0,0)  0  ( 2, 2, 2) : Minimum Local 109
Optimisation Sans Contraintes
Exercices Corrigés

Exercice B4:
f ( x, y )  4 x 2 y  2 x 3  4 xy  2 x  1
Exercices Corrigés

Condition de Premier Ordre (Points Critiques) :

 f 
 x  8 xy  6 x 2
 4 y  2 
f   ;
 f  4 x 2  4 x  4 x( x  1) 
 y 
 
 1
 x  0; y 
f  0   2
 x  1; y  2

110
Optimisation Sans Contraintes
Exercices Corrigés

Condition de Second Ordre (Nature des Points Critiques) :

 8 xy  6 x 2  4 y  2 
Exercices Corrigés

f   2 
 4 x  4 x  4 x ( x  1) 

 8 y  12 x 8 x  4 
Hf  
 8 x  4 0 

1  4 4  1
H f (0, )    ND  (0, ) : Point de Selle
2  4 0 2
 4 4
H f (1, 2)    ND  (1, 2) : Point de Selle
 4 0
111
Optimisation Sans Contraintes
Exercices Corrigés

Exercice B5:
f ( x, y, z )  1  2 y  3 y 2  2 xz  3z 2
Exercices Corrigés

Condition de Premier Ordre (Points Critiques) :

 f 
 x  2 z 
 
f
f    2  6y  ;
 y 
 
 f
 2 x  6 z 
 z 
x  0

f  0   y  1/ 3
z  0
 112
Optimisation Sans Contraintes
Exercices Corrigés

Condition de Second Ordre (Nature des Points Critiques) :

 2z  0 0 2 
Exercices Corrigés

f   2  6 y  H f   0 6 0 
   
 2x  6z   2 0 6 
   

0 0 2  det( H1 )  0

H f (0, ,0)   0 6 0 
1
  det( H 2 )  0
3  2 0 6  det( H )  24  0
   3

 0 2    6  0

0 6   0  0  (6   )(4  6   2 )  0    3  13  0
6   
2 0   3  13  0
1 1
H f (0, ,0)ND  (0, ,0) : Point de Selle 113
3 3
Optimisation Sans Contraintes
Exercices Corrigés

Exercice B6:
f ( x, y )  x 3  x 2 y  y 2  4 y
Exercices Corrigés

Condition de Premier Ordre (Points Critiques) :

 f   3 x
 x  3 x 2
 2 xy  y 
x  0  2
f    ; f  0   ou 
 f  x 2  2 y  4   y  2  x 2  2 3 x  4  0
 y 
   2
 3 x  3 x
 y  y 
 2  2
 x 2  3 x  4  0  x  1; x  4

 3
 x  1; y 
 2
 x  4; y  6 114
Optimisation Sans Contraintes
Exercices Corrigés

Condition de Second Ordre (Nature des Points Critiques) :

 3 x 2  2 xy   6x  2 y 2x 
Exercices Corrigés

f   2  Hf  
 x  2 y  4   2 x 2 

 4 0 
H f (0, 2)    <0  (0, 2) : Maximum Local
 0 2 
3 3 2  3
H f (1,  )    ND  (1,  ) : Point de Selle
2  2 2  2
 12 8 
H f (4,6)    ND  ( 4,6) : Point de Selle
  8  2 

115
Optimisation Sans Contraintes
Exercices Corrigés

Exercice B7:

f ( x, y )  ( x 2  y 2 )e  y
Exercices Corrigés

Condition de Premier Ordre (Points Critiques) :

 f y 
 x  2 xe 
f   ;
 f  ( x 2  y 2 )e  y  2 ye  y 
 y 
 
x  0
f  0   2
 y  2 y  0
(0,0)
 
(0, 2)
116
Optimisation Sans Contraintes
Exercices Corrigés

Condition de Second Ordre (Nature des Points Critiques) :

 2 xe  y   2 2 x 
Exercices Corrigés

y
f   y 
Hf e 
  ( x 2
 y 2
) e y
 2 ye   2 x x 2  y 2  4 y  2 

 2 0
H f (0,0)    >0  (0,0) : Minimum Local
 0 2
2  2 0
H f (0, 2)  e   ND  (0, 2) : Point de Selle
 0 2 

117

Vous aimerez peut-être aussi