0% encontró este documento útil (0 votos)
31 vistas25 páginas

Complemento Clase 16

El documento aborda la optimización restringida, centrándose en la formulación de problemas de optimización con n variables de decisión y m restricciones. Se presenta el método de multiplicadores de Lagrange para encontrar extremos bajo restricciones de igualdad, así como las condiciones necesarias y suficientes para determinar máximos y mínimos. Además, se discuten conceptos de concavidad y convexidad en el contexto de la optimización matemática.

Cargado por

joaquin.29.river
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
31 vistas25 páginas

Complemento Clase 16

El documento aborda la optimización restringida, centrándose en la formulación de problemas de optimización con n variables de decisión y m restricciones. Se presenta el método de multiplicadores de Lagrange para encontrar extremos bajo restricciones de igualdad, así como las condiciones necesarias y suficientes para determinar máximos y mínimos. Además, se discuten conceptos de concavidad y convexidad en el contexto de la optimización matemática.

Cargado por

joaquin.29.river
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Optimización Restringida

(caso n variables de decisión y m


restricciones)
Material complementario
Se deberá acompañar con la siguiente lectura:

Chiang, A. C. & Wainwright, K (2006) Métodos Fundamentales de Economía Matemática, 4º edición. Mc-Graw
Hill Interamericana; capítulo 12

Prof.: Rita Beatriz Morrone


Problemas de optimización

En la formulación de un problema de optimización debe delinearse una función objetivo


en la que la variable dependiente representa el objeto a maximizar o minimizar y en la
que el conjunto de variables independientes indica cuáles son las variables de elección. El
proceso de optimización consiste en hallar el conjunto de valores de las variables de
elección que conducirá al extremo deseado de la función objetivo.

El proceso de optimización empieza con la búsqueda de valores candidatos a


óptimos, es decir aquellos que verifiquen las condiciones necesarias de existencia
de un extremo. El siguiente paso consiste en verificar cuales de esos candidatos
cumplen con las condiciones suficientes para la existencia de un máximo o un
mínimo.
Las condiciones suficientes de segundo orden se relacionan con la forma en la que una
curva, superficie o hipersuperficie se curva alrededor de un punto estacionario. Nos
indican si un punto estacionario es la “cúspide de una colina” o “el fondo de un valle”.

Cuando limitamos la comprobación de la configuración de


colina o valle a una vecindad pequeña del punto estacionario,
podríamos analizar solo los máximos y mínimos relativos

Si la colina o valle pertenece a un subconjunto S del dominio, la función es cóncava o convexa


en S, mientras que, si se da en todo el dominio, la función es cóncava o convexa.
Concavidad/convexidad en todo el dominio → conceptos globales.
Es decir que un extremo de una función cóncava/convexa será un máximo/mínimo absoluto
porque abarcamos todo el dominio. Pero ese extremo absoluto no necesariamente es único,
porque la colina o valle podrían contener una parte superior o inferior horizontal plana. La
última posibilidad se puede descartar solo cuando se especifica concavidad estricta porque solo
entonces la cúspide o valle constará de un solo punto y el extremo absoluto será único.
La formulación del problema comprende las variables de decisión, el conjunto de
factible y la función objetivo.
El problema es tal que se escogen valores para n variables independientes 𝑥1 , 𝑥2 , … , 𝑥𝑛 llamadas de
decisión o de política. Las mismas pueden ser resumidas por el vector columna:
𝒙𝟏
𝒙𝟐
𝑿= … = (𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 )𝒕
𝒙𝒏

llamado vector de decisión. El mismo es un vector en el espacio Euclidiano N-dimensional.


El vector 𝑿 es factible si satisface todas las restricciones del problema.
El conjunto de vectores factibles es el conjunto S de posibles soluciones, un subconjunto de 𝐸 𝑛 .
La función objetivo resume la relación entre la variable dependiente que representa el objeto de
optimización, y las variables independientes:
𝒛 = 𝒇(𝒙𝒊 ) = 𝒇(𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 )

y se supone diferenciable continuamente.


Del problema general de programación matemático pueden distinguirse los
casos de programación clásica, programación no-lineal y programación lineal.

En el problema clásico las restricciones consisten en m igualdades:

g1 (x) = g1 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = b1
g 2 (x) = g 2 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = b2

g 𝑚 (x) = g 𝑚 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = b𝑚

donde las funciones g1 (x) , g 2 (x) ,…, g 𝑚 (x) son diferenciables


continuamente y los parámetros b1 , b2 ,…, b𝑚 son constantes reales.
Se asume que el número de variables n y de restricciones m son finitos y
que n>m, donde n-m son los grados de libertad del problema.
Optimización con restricciones de igualdad, el
método de multiplicadores de Lagrange.
En este caso, la elección óptima de los valores de las variables de decisión se
encuentra sujeta a restricciones de igualdad. El conjunto factible es la
intersección de todas ellas. Estas tienen el efecto de reducir el rango de la función
objetivo (aunque siempre la cantidad de variables debe ser mayor a la de
restricciones para posibilitar alguna decisión) y de generar dependencia entre las
variables de elección.

El método de los multiplicadores de Lagrange convierte un problema de extremo


restringido a una forma tal que sea aplicable la condición de primer orden del
problema de extremo libre. Dicho método consiste en el planteo de la función
lagrangiana, que es una versión modificada de la función objetivo que incorpora
las restricciones del problema. Cada restricción se incorpora a la función
lagrangiana con un multiplicador de Lagrange, de forma tal que habrá uno por
cada restricción y serán tratados como variables adicionales del problema.
Método multiplicadores de Lagrange.
Caso de n variables y m restricciones

Para el caso general de n variables y m restricciones, el problema se


formula:
g1 (x) = g1 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = b1
2 2
Optimizar 𝑓 𝑥1 , 𝑥2 , … , 𝑥𝑛 𝑠. 𝑎 g (x) = g (𝑥1 , 𝑥 2 , … , 𝑥𝑛 ) = b 2
𝑥1 ,𝑥2 ,…,𝑥𝑛 ⋮
g 𝑚 (x) = g 𝑚 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) = b𝑚

Variables de decisión
m Restricciones constantes

Con m<n
Función de Lagrange:
𝑚
𝐿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜆1 , 𝜆2 , … , 𝜆𝑚 ) = 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) + ෍ 𝜆𝑖 [𝑏𝑖 − 𝑔𝑖 (𝑥1 , 𝑥2 , … , 𝑥𝑛 )]
𝑖=1
La condición de primer orden consiste en las siguientes (n+m) ecuaciones
simultáneas:

𝜕𝑓 𝑚 𝜕𝑔𝑘
−෍ 𝜆𝑘 =0 𝑖 = 1,2, … , 𝑛
൞ 𝜕𝑥𝑖 𝑘=1 𝜕𝑥𝑖
𝑏𝑖 − 𝑔𝑖 𝑥1 , 𝑥2 , … , 𝑥𝑛 = 0 𝑖 = 1,2, … , 𝑚

para las n + m incógnitas 𝑥1 , 𝑥2 , … , 𝑥𝑛 ; 𝜆1 , 𝜆2 , … , 𝜆𝑚 .

Los puntos críticos son la solución del sistema de n + m ecuaciones simultáneas


SON CANDIDATOS A EXTREMOS
Condición suficiente de segundo orden

La condición suficiente de segundo orden se puede expresar en forma de determinante como en el


caso del extremo libre. Sin embargo, en lugar del determinante hessiano 𝐻 , en el caso del extremo
restringido encontraremos lo que se conoce como hessiano orlado 𝐻 ഥ.

𝑗 𝜕𝑔𝑗
Donde 𝑔𝑖
= son las derivadas
𝜕𝑥𝑖
parciales de las restricciones y
𝜕2 𝐿
𝐿𝑖𝑗 = las derivadas
𝜕𝑥𝑖 𝜕𝑥𝑗
parciales de segundo orden de la
función lagrangiana.
A partir de 𝐻 ഥ pueden formarse diversos menores principales directores orlados. El que
contiene a 𝐿22 como último elemento de la diagonal principal se denomina 𝐻 ഥ2 . Al
incluir una fila y una columna adicionales, de modo de incluir a 𝐿33 , tendremos 𝐻ഥ3 , etc.

Con esta simbología, es posible establecer la condición suficiente de segundo orden en


términos de los signos de los siguientes (n-m) menores principales directores orlados:
𝐻ഥ𝑚+1 , 𝐻ഥ𝑚+2 , … , 𝐻
ഥ𝑛

Condición suficiente para máximo de L: que alternen de signo𝑚+1


los menores principales
ഥ𝑚+1 igual al de (−1)
directores orlados, siendo el signo de 𝐻

Condición suficiente para mínimo


𝑚
de L: que los menores principales directores orlados
tomen todos el signo de (−1) (si el número de restricciones es par, todos los
determinantes deberán ser positivos para un mínimo mientras que, si es impar,
negativos).
Ejemplo:
𝑥 2 + 𝑦 2 = 25
max 𝑧 𝑥, 𝑦, 𝑧 = 𝑥 + 2𝑦 + 2𝑧 𝑠. 𝑎. ቊ
𝑥+𝑦+𝑧 =0

Paso 1 – Armar la función Lagrangeana

𝐿 𝑥, 𝑦, 𝑧, 𝜆1 , 𝜆2 = 𝑥 + 2𝑦 + 2z + 𝜆1 25 − 𝑥 2 − 𝑦 2 + 𝜆2 −𝑥 − 𝑦 − 𝑧

Paso 2 - Plantear las condiciones de primer orden

De (3) Sustituyendo en (1) y (2) 1


𝐿′𝑥 = 1 − 2𝑥𝜆1 − 𝜆2 = 0 𝑥=
(1) 2 = 𝜆2 −2𝑥𝜆1 = 1 −2𝜆1
−2𝑦𝜆1 = 0 𝑦=0
𝐿′𝑦 = 2 − 2𝑦𝜆1 − 𝜆2 = 0 (2)
𝟏
𝐿′𝑧 = 2 − 𝜆2 = 0 (3) Sustituyendo en (4) 𝑥=5 𝑠𝑖 𝑥 = 5 →→ (𝟓; 𝟎; −𝟓; − ; 𝟐)
25 − 𝑥 2 = 0 𝟏𝟎
(4)
𝐿′𝜆1 = 25 − 𝑥 2 − 𝑦 2 = 0 𝟏
𝑥 = −5 𝑠𝑖 𝑥 = −5 →→ (−𝟓; 𝟎; 𝟓; ; 𝟐)
De (5) 𝟏𝟎
𝐿′𝜆2 = −𝑥 − 𝑦 − 𝑧 = 0 (5)
𝑥 = −𝑧
Paso 3 - Verificar las condiciones de segundo orden
𝟎 𝟎 𝟐𝒙 𝟐𝒚 𝟎
𝐿′′𝑥𝑥 = −2𝜆1 𝐿′′𝑥𝑦 = 𝐿′′𝑦𝑥 = 0 𝟎 𝟎 𝟏 𝟏 𝟏
𝐿′′𝑥𝑧 = 𝐿′′𝑧𝑥 = 0
ഥ=
𝐻 𝟐𝒙 𝟏 −2𝜆1 0 0
𝐿′′𝑦𝑦 = −2𝜆1
𝐿′′𝑦𝑧 = 𝐿′′𝑧𝑦 = 0 𝟐𝒚 𝟏 0 −2𝜆1 0
𝐿′′𝑧𝑧 =0
𝟎 𝟏 0 0 0
N=3 ; m=2 – se evalúa el último menor principal valuado en cada punto crítico

Punto crítico → 𝒙∗ ; 𝒚∗ ; 𝒛∗ = 𝟓; 𝟎; −𝟓 Punto crítico → 𝒙∗ ; 𝒚∗ ; 𝒛∗ = −𝟓; 𝟎; 𝟓


𝟏 𝟏
𝒄𝒐𝒏 𝜆1 = − ; 𝜆 = 𝟐) 𝒄𝒐𝒏 𝜆1 = ; 𝜆 = 𝟐)
𝟏𝟎 2 𝟏𝟎 2

𝟎 𝟎 10 0 𝟎 𝟎 𝟎 −10 0 𝟎
𝟎 𝟎 𝟏 𝟏 𝟏 𝟎 𝟎 𝟏 𝟏 𝟏
ഥ=
𝐻 10 𝟏 1/5 0 0 = 20 > 0 ഥ=
𝐻 −10 𝟏 −1/5 0 0 = −20 < 0
0 𝟏 0 1/5 0 0 𝟏 0 −1/5 0
𝟎 𝟏 0 0 0 𝟎 𝟏 0 0 0

Es un mínimo condicionado Es un máximo condicionado


Notar que el sistema formado por las condiciones de primer orden
constituye un sistema de funciones implícitas 𝜕𝐹1 𝜕𝐹1 𝜕𝐹1 𝜕𝐹1 𝜕𝐹1
𝜕𝜆1 𝜕𝜆2 𝜕𝑥 𝜕𝑦 𝜕𝑧
F3 𝜕𝐹2 𝜕𝐹2 𝜕𝐹2 𝜕𝐹2 𝜕𝐹2
𝜕𝜆1 𝜕𝜆2 𝜕𝑥 𝜕𝑦 𝜕𝑧
F4
𝜕𝐹3 𝜕𝐹3 𝜕𝐹3 𝜕𝐹3 𝜕𝐹3
𝐽 = ≠0
F5 𝜕𝜆1 𝜕𝜆2 𝜕𝑥 𝜕𝑦 𝜕𝑧
𝜕𝐹4 𝜕𝐹4 𝜕𝐹4 𝜕𝐹4 𝜕𝐹4
F1 𝜕𝜆1 𝜕𝜆2 𝜕𝑥 𝜕𝑦 𝜕𝑧
𝜕𝐹5 𝜕𝐹5 𝜕𝐹5 𝜕𝐹5 𝜕𝐹5
F2
𝜕𝜆1 𝜕𝜆2 𝜕𝑥 𝜕𝑦 𝜕𝑧

𝟎 𝟎 𝟐𝒙 𝟐𝒚 𝟎 𝟎 𝟎 −𝟐𝒙 −𝟐𝒚 𝟎
𝟎 𝟎 𝟏 𝟏 𝟏 𝟎 𝟎 −𝟏 −𝟏 −𝟏
ഥ=
𝐻 𝟐𝒙 𝟏 −2𝜆1 0 0 𝐽 = −𝟐𝒙 −𝟏 −2𝜆1 0 0 ≠0
𝟐𝒚 𝟏 0 −2𝜆1 0 −𝟐𝒚 −𝟏 0 −2𝜆1 0
𝟎 𝟏 0 0 0 𝟎 −𝟏 0 0 0

Al verificar la condición de segundo orden también se está comprobando las condiciones del teorema de función implícita
La matriz Hessiana orlada

𝐿′′𝜆1𝜆1 𝐿′′𝜆1𝜆2 𝐿′′𝜆1𝑥 𝐿′′𝜆1𝑦 𝐿′′𝜆1𝑧


𝐿′′𝜆2 𝜆1 𝐿′′𝜆2𝜆2 𝐿′′𝜆2𝑥 𝐿′′𝜆2 𝑦 𝐿′′𝜆2𝑧
𝐿 𝑥, 𝑦, 𝑧, 𝜆1, 𝜆2 = f(x; y; z) + 𝜆1 𝑐1 − 𝑔(𝑥; 𝑦; 𝑧 + 𝜆2 𝑐2 − 𝑔(𝑥; 𝑦; 𝑧
ഥ=
𝐻 𝐿′′𝑥𝜆1 𝐿′′𝑥𝜆2 𝐿′′𝑥𝑥 𝐿′′𝑥𝑦 𝐿′′𝑥𝑧
𝐿′′𝑦𝜆1 𝐿′′𝑦𝜆2 𝐿′′𝑦𝑥 𝐿′′𝑦𝑦 𝐿′′𝑦𝑧
𝐿′′𝑧𝜆1 𝐿′′𝑧𝜆2 𝐿′′𝑧𝑥 𝐿′′𝑧𝑦 𝐿′′𝑧𝑧

Es el diferencial segundo de la función lagrangiana y es una forma cuadrática

𝐿′′𝜆1𝜆1 𝐿′′𝜆1𝜆2 𝐿′′𝜆1 𝑥 𝐿′′𝜆1𝑦 𝐿′′𝜆1𝑧


𝑑𝜆1
𝐿′′𝜆2𝜆1 𝐿′′𝜆2𝜆2 𝐿′′𝜆2𝑥 𝐿′′𝜆2𝑦 𝐿′′𝜆2𝑧 𝑑𝜆2
𝑑𝜆1 𝑑𝜆2 𝑑𝑥 𝑑𝑦 𝑑𝑧 𝐿′′𝑥𝜆1 𝐿′′𝑥𝜆2 𝐿′′𝑥𝑥 𝐿′′𝑥𝑦 𝐿′′𝑥𝑧 𝑑𝑥
𝐿′′𝑦𝜆1 𝐿′′𝑦𝜆2 𝐿′′𝑦𝑥 𝐿′′𝑦𝑦 𝐿′′𝑦𝑧 𝑑𝑦
𝐿′′𝑧𝜆1 𝐿′′𝑧𝜆2 𝐿′′𝑧𝑥 𝐿′′𝑧𝑦 𝐿′′𝑧𝑧 𝑑𝑧
Interpretación del multiplicador Lagrangeano para funciones con n variables independientes y m restricciones

Paso 1 – Identificar los componentes de la función a optimizar

Función objetivo: f ( x1 , x2 ,………,xn) Se tiene n variables independientes

Restricciones : g1( x1, x2,……..,xn)= c1


……………………………….
Se tiene m restricciones
gm(x1,x2,……….,xn)= cm
C1 a cm son constantes, que corresponden
a las restricciones de 1 a m
Paso 2 –Armar el lagrangiano “Z” e identificar sus componentes

El lagrangiano queda en Función objetivo Se agrega la suma de 1 a m términos, ya


función de cada variable que se tiene m restricciones.
independiente y cada  Cada termino se compone de una
(variables accesorias), variable accesoria  multiplicando a cada
se tendrá un  por cada restricción (notar que las restricciones se
restricción, o sea “m”) expresan: “c – g(x1,x2…,xn)”
Paso 3- Plantear las condiciones de primer orden

Se obtiene un sistema de ”n +m” ecuaciones ,ya que se tiene n variables independientes y m terminos ( (c – g(x1,…xn))

Paso 4- Se verifican las condiciones de segundo orden , lo que define implícitamente:


Paso 5 - Armar la función valor

Se sustituye lo obtenido de las


CPO y CSO

En el lagrangiano

¡¡¡¡función valor máximo !!!!

Función valor función objetivo valuada en el óptimo


Paso 6- Diferenciar la función valor con respecto a “c”

Distribuyo

Reexpreso como reordeno


suma

Reordeno y obtengo

= 0 (por las cpo) = 0 (por las cpo)


Paso 7- Simplificar la expresión y sacar concluciones

𝜆∗ mide la variación del valor maximo de la funcion objetivo cuando se relajan las restricciones

Notar que ”c” ,interviene en el problema , a travez de las restricciones , pues no es argumento
de la función objetivo

”O sea , un valor de 𝜆∗ alto dice que un


pequeño cambio en la restricción da un
alto cambio en la función objetivo y
viceversa”
Ejemplo:
Dado el siguiente problema interpretar analíticamente el multiplicador lagrangeano

Paso 1- Armar la función Lagrangeana

Paso 2- Plantear las condiciones de primer orden (necesarias)


Paso 3 – Verificar las condiciones suficientes de 2 orden

Condición suficiente para máximo de L: que alternen de signo


los menores principales directores orlados, siendo el signo de
ഥ𝑚+1 igual al de (−1)𝑚+1
𝐻

Condición suficiente para mínimo de L: que los menores


principales directores orlados tomen todos el signo de (−1)𝑚
(si el número de restricciones es par, todos los determinantes
deberán ser positivos para un mínimo mientras que, si es
impar, negativos).
Si se verifican las condiciones suficientes, se puede definir:

Paso 4- se reemplazan los valores óptimos en la función lagrangiana y se obtiene así la función
valor maximo o función objetivo indirecta:
Paso 5 – se diferencia todo en función de U, y se deduce algebraicamente

Decimos entonces que λ*∗ indica como varía la función objetivo


valuada en el punto óptimo, habiendo relajado la restricción,
ante un cambio en el parámetro U .̄

También podría gustarte