1 Introducción
El problema de optimización consta de encontrar los candidatos a óptimo de
una función. Para encontrar estos candidatos resolveremos problemas de maxi-
mización y minimización segun competa, encontrando (en terminos matemati-
cos) extremos de funciones, que son la solución al problema de optimización.
El enunciado tendrá la forma:
opt z = f (x1 , ...xn )
Donde z no es más que la función objetivo y x1 ...xn son las variables de nue-
stro problema. Por ejemplo, en un ejercicio de microeconomı́a x1 , ...xn podrı́an
ser n bienes a consumir.
1.1 Solución y Clasificación
Ante una función objetivo a maximizar(minimizar) encontraremos solución y la
corroboraremos vı́a una condición necesaria y una condicion necesaria y sufi-
ciente.
Siendo la condición necesaria La Condición de Primer Orden.
Existirá un extremo en un punto cuando la función no varı́e, esto se conoce como
el punto donde la recta tangente es 0. Por lo tanto, decimos que la derivada
primera de z ha de ser 0.
dz = 0
Como planteamos que z tenı́a n variables:
n
X
dz = fx1 dx1 +, ... + fxn dxn = fxi dxi = 0
i=1
Como esto es una condición necesaria mas no suficiente; Encontraremos la
suficiencia de si en el punto en cuestión estamos ante un máximo o mı́nimo
mediante el criterio del diferencial segundo.
n
X
d2 z = fxi dxi dxj donde d2 z > 0 será un minimo. donde d2 z < 0 será un maximo
i,j=1
Véase que si d2 z < 0 decimos que es Definida Negativa; Es cóncava, existe
un máximo.
Véase que si d2 z > 0 decimos que es Definida Positiva; Es convexa, existe
un mı́nimo.
1
Lo último aplica a funciones del tipo y = f (x) en n orden de variables
debemos de tomar un criterio más general. Para eso utilizaremos elementos
topologicos, nos centraremos en el uso de menores principales para clasificar el
signo.
Clasificación:
Dada una función z = f (x1 , ..., xn ) es expresable como forma cuadratica si
la derivamos dos veces;
n
X n
X n
X
d2 z = Zxi dxi + 2 Zxi xj dxi dxj + Zxj dxj
i=1 i,j=1 j=1
Al ser una forma cuadratica lo expresamos como matriz, cuyo nombre es ”Matriz
Hessiana”.
Z x1 x1 · · · Z x1 xn dx1
H = (dx1 , ...dxn )
Zxn x1 · · · Zxn xn dxn
Criterio de signo:
Definido negativo si H1 < 0, H2 > 0, . . . , Hn < 0; será estrictamente
cóncava.
Semidefinido negativo si H1 < 0, H2 > 0, . . . , Hn = 0; será cuasicóncava.
Definido positivo si H1 > 0, H2 > 0, . . . , Hn = 0; será estrictamente convexa.
Semidefinido positivo si H1 > 0, H2 > 0, . . . , Hn = 0; será cuasicóncava.
Indefinido si no cumple alguno de los criterios anteriores.
2
1.2 Ejercicio 2 guı́a
2. f (x, y) = 2x3 − 3x − 4y 3 + 5y + 60
a) Establecer las condiciones necesarias para optimizar F (x, y).
b) Encontrar los candidatos a óptimo.
c) Si x solo toma valores positivos e y solo valores negativos, establecer si
existe un mı́nimo o un máximo.
d) Si x solo toma valores negativos e y solo valores positivos, establecer si
existe un mı́nimo o un máximo.
a. Planteamos las condiciones de primer orden y despejamos
f ′ x = 6x2 − 3 = 0
f ′ y = −12y 2 + 5 = 0
b. Despejando x e y se llega a:
q q
x∗ = 1
2 y ∗
= 5
12
c. Para este debemos armar la matriz Hessiana véase que;
12X 0
0 −24Y
Dado que
q la condiciones
q iniciales son que x > 0 e y < 0 operaremos con
∗ 1 ∗ 5
x = + 2 y = − 12
Por tanto;
H1 > 0 H2 > 0 comprobamos que existe un mı́nimo
3
1.3 Ejemplo 6 guı́a
Dada la siguiente función de producción:
F (K, L) = ln(L) + ln(K)
a. Análisis de Maximización
Utilizando el método de los menores principales o autovalores, se busca com-
probar si el punto crı́tico es un máximo.
b. Maximización de la Función de Beneficios
Se desea maximizar la función de beneficios:
π(K, L) = P (ln(L) + ln(K)) − wL − rK
Para maximizar π(K, L), se calculan las derivadas parciales:
∂π P
= −r
∂K K
∂π P
= −w
∂L L
Los valores óptimos K ∗ y L∗ se obtienen igualando las derivadas a cero:
P
= K∗
r
P
= L∗
w
c. Verificación de Condiciones de Segundo Orden
Para confirmar si el punto crı́tico encontrado en b) es un máximo o un mı́nimo,
se construye la matriz Hessiana H y se evalúa en los óptimos K ∗ y L∗ :
1
− K2 0
H=
0 − L12
Se observa que det(H1 ) < 0 y det(H2 ) > 0, indicando un máximo local en los
óptimos.
d. Análisis de Sensibilidad
Se analiza cómo varı́an las cantidades de trabajo (L) y capital (K) ante una
variación en el precio del trabajo (w).
Para resolver este ejercicio, se siguen los pasos detallados en cada sección y
se utilizan los resultados obtenidos para interpretar el comportamiento óptimo
de K y L en función de los parámetros P , w, y r.
4
1.4 Ejercicio 8 de la guı́a
Sea la función de producción F (K, L) = K α L1−α .
1. Demostración de la Existencia de un Máximo
Para demostrar la existencia de un máximo, planteamos la matriz Hessiana de
F (K, L):
∂F ∂F
= αK α−1 L1−α , = (1 − α)K α L−α
∂K ∂L
∂2F ∂2F α−1 −α ∂2F
= α(α−1)K α−2 1−α
L , = α(1−α)K L , = −α(1−α)K α−1 L−α−1
∂K 2 ∂K∂L ∂L2
La matriz Hessiana H es:
α(α − 1)K α−2 L1−α α(1 − α)K α−1 L−α
H=
α(1 − α)K α−1 L−α −α(1 − α)K α−1 L−α−1
Usando el método de los menores principales, evaluamos H1 y H2 , donde H1 < 0
y H2 = 0. No hay estricta concavidad, por lo tanto, no se garantiza la existencia
de un máximo.
2. Condiciones de Primer Orden de la Función de Beneficio
Dada π = P K α L1−α − wL − rK, las condiciones de primer orden son:
∂π
= αP K α−1 L1−α − r = 0
∂K
∂π
= (1 − α)P K α L−α − w = 0
∂L
Dividiendo ambas expresiones, obtenemos:
α K α−1 L1−α r
− =0
1 − α K α L−α w
Despejando L:
α L r r 1−α
= =⇒ L = K
1−αK w w α
Sustituyendo L en la segunda condición de primer orden:
−α
α r 1−α
(1 − α)P K K −w =0
w α
Esto completa la resolución de las condiciones de primer orden.
5
1.5 Optimización con Restricciones de Igualdad
Los casos anteriores competen a extremos libres, nuestro interés principal a
la hora de trabajar con modelos es el de resolver problemas donde tendremos
restricciones a la hora de maximizar(minimizar) nuestra función objetivo en
cuestión.
g1 (x1 , . . . , xn ) = c1
opt z = f (x1 , ..., xn ) s.a. ..
.
gm (x1 , . . . , xn ) = cm
Al estar restringida la función deberemos usar el metodo de multiplicadores
de lagrange para encontrar las soluciones. El metódo permite que
A. Se acote el dominio de la función objetivo
B. Se genera una nueva variable que tendrá un valor óptimo a encontrar λ
C. Con la nueva variable y por el mismo metodo agregaremos un nivel de
profundidad mayor al modelar
El metódo de resolución es identico al de extremos libres, solo que ahora
planteamos la función langrageana:
m
X
Z = f (x1 , ..., xn ) + λj [cj − gj (x1 , ..., xn )]
j=1
Debemos saber que es una función del tipo L(x1 , ...xn , λ1 , ..., λm ). Lo que
implica que la función Langrageana dependerá de las variables de la función
objetivo (como tantas n haya) y de λ (como tantas restricciones haya). Aquı́
debemos marcar que, en restricciones de igualdad, siempre n > m.
Condición Necesaria:
Al igual que antes plantearemos las CPO para encontrar los valores esta-
cionarios.
n
X m
X m
X
dZ = (fxi − λj gxi )dxi + (cj − gj (x1 , ..., xn )) = 0
i=1 j=1 j=1
Por tanto, nos queda un sistema de n+m ecuaciones, debiendo ser este LI.
Pn Pm
Zxi = i=1 (fxi − j=1 λj gxi ) = 0
Pm
Zλj = j=1 (cj − gj (x1 , ..., xn )) = 0
La solución de este sistema nos deberá de dar los siguientes valores esta-
cionarios; (x∗n ; λ∗n ).
6
Condición Suficiente y Necesaria:
Recordando que las derivadas segundas de una función son una forma
cuadratica, definiremos máximo(minimo) vı́a el criterio de diferencial segundo
de la función Langrageana expresada como una matriz Hessiana Orlada.
n X
X n n X
X m m X
X m
d2 Z = Zxi xk dxi dxk + 2 Zxi λj dxi dλj + Zλj λl dλj dλl
i=1 k=1 i=1 j=1 j=1 l=1
Zλ1 λ1 ··· Zλ1 λm ··· Zλ1 xn dλ1
.. .. .. .. .. ..
.
. . . . .
Zλm λ1 ··· Zλm λm ··· Zλm x1 dλj
d2 Z = [dλ1 ...dλm
dx1 ...dxn ]
Z x1 λ 1
··· Z x1 λ m ··· Zx1 xn dλj
. .. .. .. .. ..
.. . . . . .
Zxn λ1 ··· Zxn λm ··· Z xn xn dλj
Siendo n − m la cantidad de menores principales dominantes que usaremos.
Mı́nimo si:
1. Hi (−1)m . El número de restricciones es impar. Si todos los Hi son nega-
tivos, habrá un mı́nimo.
2. Hi (−1)m . El número de restricciones es par. Si todos los Hi son positivos,
habrá un mı́nimo.
Máximo si:
1. Hi (−1)m+1 . El número de restricciones es impar. Si todos los Hi alternan
de + − +.
2. Hi (−1)m+1 . El número de restricciones es par. Si todos los Hi alternan
de − + −.
7
1.6 Teorema de la Envolvente
El objetivo es interpretar el λ;
optz = f (x1 , ..., xn , φ) s.a g(x1 , ..., xn , φ) = 0
Donde φ no es más que un parametro determinado exogenamente por el modelo.
Armamos el Langrageano;
Z = f (x1 , ..., xn .φ) + λ[0 − g(x1 , ...xn , φ)]
CPO:
n
X
dZ = (f xi − λgxi )dxi + (fφ − λgφ )dφ − g(x1 , ...xn , φ)dλ = 0
i=1
Dado que φ es una constante el sistema de n + m queda de la forma;
(
Zxi = fxi − λgxi = 0
Zλ = −g(x1 , . . . , xn , φ) = 0
Sabiendo que la solución será x∗i = x∗i (φ) y λ∗i = λ∗i (φ) reemplazamos estos
valores en la función objetivo, obteniendo la Función Valor;
V (φ) = f (x1 (φ)∗ , ..., xn (φ)∗ , φ)
Lo relevante de esta función valor es que representa a la función objetivo
maximizada (minimizada) según la variable exogena. Como vemos que la
función valor depende de φ podemos ver que ocurre con la función ante un
cambio en la misma;
dV dx∗ dx∗
= fx1 1 +, ..., +fxn n + fφ
dφ dφ dφ
Dado que estos valores no se anulan debemos incorporar a la función Valor la
restricción tal que;
V (φ) = f (x∗1 (φ), ..., x∗n (φ)) s.a 0 = g(x∗1 (φ), ..., x∗n (φ))
Teniendo el langrageano la forma;
V = f (x∗1 (φ), ..., x∗n (φ)) + λ[0 − g(x∗1 (φ), ..., x∗n (φ)]
Derivando respecto a φ;
dV dx∗ dx∗
= (fx1 − λgx1 ) 1 +, ...., +(fxn − λgxn ) n + fφ − λgφ
dφ dφ dφ
8
Bien sabemos que los dos primeros terminos se anulan;
dV
= fφ − λgφ
dφ
Decimos entonces que las variaciones de la función valor se dan por la variación
de la función langragiana ante variaciones del parametro.
9
1.7 Ejemplo 1
Resumamos todos lo visto hasta ahora mediante el clásico modelo de Teorı́a
del Consumidor.
U = x1 x2 s.a m = p1 x1 + p2 x2
Dado que x1 x2 son los bienes a elegir, m y p1 , p2 el ingreso y precios respec-
tivamente todos serán > 0.
L = x1 · x2 + λ(m − p1 x1 − p2 x2 )
CPO;
∂L
= x2 − λp1 = 0
∂x1
∂L
= x1 − λp2 = 0
∂x2
∂L
= m − p1 x1 − p2 x2 = 0
∂λ
Operando;
x2
x2 = λp1 → λ= p1
x1
x1 = λp2 → λ= p2
λ=λ
x2 x1
p1 = p2
p1 x2
p2 = x1 despejando x2
p1
x2 = p2 · x1 reemplazamos esta expresión en la tercer derivada
m − p1 x1 − p2 ( pp12 )x1 = 0
m = p1 x1 + p2 ( pp12 )x1
m = p1 x1 + p1 x1 → m = 2p1 x1
x∗1 = 2p
m
1
Por tanto sabemos que; x∗2 = m
2p2 y λ∗ = m
2p2 p1
Los valores estacionarios obtenidos de las CPO son entonces;
(x∗1 , x∗2 , λ∗ ) = ( 2p
m
, m, m )
1 2p2 2p1 p2
Siendo que estas son condiciones necesarias más no suficientes. Planteamos la
CSO;
∂2L ∂2L ∂2L
∂λ∂λ ∂λ∂x1 ∂λ∂x2
∂2L ∂2L ∂2L
H = ∂λ∂x1 ∂x1 ∂x1 ∂x1 ∂x2
∂2L ∂2L ∂2L
∂λ∂x2 ∂x2 ∂x1 ∂x2 ∂x2
10
Reemplazando las derivadas segundas llegamos a;
0 −p1 −p2
H = −p1 0 1
−p2 1 0
Mediante el metódo de los n − m menores principales dominantes sabemos que
vemos el ultimo menor principal, por tanto calculando el determinante de H;
H > 0 → se corrobora la existencia de un máximo
Veamos ahora que ocurre con λ usando el teorema de la envolvente;
Dados (x∗1 , x∗2 , λ∗ ) = ( 2p
m
, m , m ) los reemplazamos en L;
1 2p2 2p1 p2
m m m m m
L= · + · (m − p1 − p2 )
2p1 2p2 2p1 p2 2p1 2p2
Claramente el termino que compete a la restricción se anula;
m m m2
L= · →L=
2p1 2p2 4p1 p2
Derivando respecto a m;
∂L 2m · 4p1 p2 ∂L m
= → = = λ∗
∂m (4p1 p2 )2 ∂m 2p1 p2
11