0% encontró este documento útil (0 votos)
170 vistas11 páginas

Optimizacion Multidimensional MSA

El documento presenta métodos de optimización multidimensional como el método del gradiente y el método del simplex. Explica cómo el método del gradiente utiliza una aproximación lineal para encontrar una dirección de descenso y se mueve a lo largo de esta dirección para minimizar una función. También presenta ejemplos numéricos para ilustrar la aplicación del método del gradiente y describe otras funciones de prueba comúnmente utilizadas en optimización como la función de Rosenbrock y la función de Himmelblau.

Cargado por

Melissa Moreno
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
170 vistas11 páginas

Optimizacion Multidimensional MSA

El documento presenta métodos de optimización multidimensional como el método del gradiente y el método del simplex. Explica cómo el método del gradiente utiliza una aproximación lineal para encontrar una dirección de descenso y se mueve a lo largo de esta dirección para minimizar una función. También presenta ejemplos numéricos para ilustrar la aplicación del método del gradiente y describe otras funciones de prueba comúnmente utilizadas en optimización como la función de Rosenbrock y la función de Himmelblau.

Cargado por

Melissa Moreno
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Matemática Superior Aplicada

Matemática
[email protected]

Auxiliares de Cátedra:
Javier Francesconi ([email protected])
Juan Pablo Camponovo ([email protected])
Juan Ignacio Manasaldi ([email protected])

www.modeladoeningenieria.edu.ar
www.frro.utn.edu.ar/~jfrancesconi
Alt+126
Optimización Multidimensional – Método del Gradiente

• Utiliza una aproximación lineal para obtener una


dirección de descenso de f(x).
• Dirección de descenso: El vector d es una dirección
de descenso de una función f(x) si existe un δ > 0
tal que:
f ( x   d )  f ( x )   ( 0,  )
y
f  x + d   f  x 
lim 0
0 
20/11/2009 Matemática Superior Aplicada - UTN - FRRo 2
Optimización Multidimensional – Método del Gradiente

• El método se mueve a lo largo de la dirección d, el


cual minimiza el limite citado anteriormente.
• Si f(x) es diferenciable en x con gradiente no nulo,
la dirección de descenso con mayor pendiente es:

f ( x)
d 
f ( x)

20/11/2009 Matemática Superior Aplicada - UTN - FRRo 3


Algoritmo

20/11/2009 Matemática Superior Aplicada - UTN - FRRo 4


Ejemplo
Problema: Minimizar (x1 – 2)4 + (x1 – 2x2)2 , punto de inicio: (0.00, 3.00).

f  x1 , x2    x1  2    x1  2 x2 
4 2

 f 
 x   4 x  2 3  2 x  2 x 

f   1    1
  1 2

 f   4  x1  2 x2  
 x 
 2

20/11/2009 Matemática Superior Aplicada - UTN - FRRo 5


Ejemplo

20/11/2009 Matemática Superior Aplicada - UTN - FRRo 6


x=[0.5,0.5]; while abs(alpha(i)-alpha(i-1))>1e-6
delta=1; ft=f(i-2:i)';
h=1e-5; at=alpha(i-2:i)';
n=length(x); a=[ones(3,1),at,at.^2];
while delta>1e-4, coeff=a\ft; i=i+1;
for i=1:n alpha(i)=-coeff(2)/2/coeff(3);
ep=zeros(size(x)); f(i)=fex(x+alpha(i)*direc);
ep(i)=h; end
gradf(i)=(fex(x+ep)-fex(x-ep))/2/h; x=x+alpha(i)*direc;
end delta=abs(alpha(i));
direc=-gradf/norm(gradf); end
clear alpha f
alpha(1)=0.1;
alpha(2)=0.2;
alpha(3)=0.3;
f(1)=fex(x+alpha(1)*direc);
f(2)=fex(x+alpha(2)*direc);
f(3)=fex(x+alpha(3)*direc);
i=3;

20/11/2009 Matemática Superior Aplicada - UTN - FRRo 7


  x2  1 
2

f ( x)  exp   x1  1 
2

 4 
 
1.4

1.3

1.2
3.5
1.1
3
1
2.5
0.9

2 0.8

1.5 0.7

0.6
1
2
0.5
1.5 2
1 1.5 0.4
1 0.4 0.5 0.6 0.7 0.8 0.9 1 1.1 1.2 1.3 1.4
0.5 0.5
0 0

20/11/2009 Matemática Superior Aplicada - UTN - FRRo 8


Optimización Multidimensional – Simplex
  x2  1 
2

f ( x)  exp   x1  1 
2

 4 
 
Optimización Multidimensional – Simplex
Función de Rosenbrock ‘banana’ : f  x1 , x2   100  x2  x   1  x1 
2 2 2
1
Optimización Multidimensional – Simplex
  x  x
Función de Himmelblau: f  x1 , x2   x  x2  11  7
2 2 2 2
1 1 2

También podría gustarte