Introduccin El Principio de Optamalidad
Tema 8: Introduccin al Control
ptimo (Parte I)
Virginia Mazzone
Contenidos
Introduccin
El Principio de Optamalidad
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Introduccin
El mtodo de diseo combinado de realimentacin de estados
y observador que vimos es una herramienta fundamental en el
control de sistemas en variable de estados. Sin embargo, no es
siempre el mtodo ms til; tres dificultades obvias:
1. La traduccin de especificaciones de diseo a ubicacin
de polos no es directa, especialmente en sistemas
complejos; cul es la mejor configuracin de polos para
especificaciones dadas?
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Introduccin
El mtodo de diseo combinado de realimentacin de estados
y observador que vimos es una herramienta fundamental en el
control de sistemas en variable de estados. Sin embargo, no es
siempre el mtodo ms til; tres dificultades obvias:
1. La traduccin de especificaciones de diseo a ubicacin
de polos no es directa, especialmente en sistemas
complejos; cul es la mejor configuracin de polos para
especificaciones dadas?
2. Las ganancias de realimentacin en sistemas MIMO no
son nicas; cul es la mejor ganancia para una
configuracin de polos dada?
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Introduccin
El mtodo de diseo combinado de realimentacin de estados
y observador que vimos es una herramienta fundamental en el
control de sistemas en variable de estados. Sin embargo, no es
siempre el mtodo ms til; tres dificultades obvias:
1. La traduccin de especificaciones de diseo a ubicacin
de polos no es directa, especialmente en sistemas
complejos; cul es la mejor configuracin de polos para
especificaciones dadas?
2. Las ganancias de realimentacin en sistemas MIMO no
son nicas; cul es la mejor ganancia para una
configuracin de polos dada?
3. Los autovalores del observador deben elegirse ms
rpidos que los del controlador, pero, tenemos algn
criterio adicional para preferir una configuracin a otra?
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Introduccin
El mtodo de diseo combinado de realimentacin de estados
y observador que vimos es una herramienta fundamental en el
control de sistemas en variable de estados. Sin embargo, no es
siempre el mtodo ms til; tres dificultades obvias:
1. La traduccin de especificaciones de diseo a ubicacin
de polos no es directa, especialmente en sistemas
complejos; cul es la mejor configuracin de polos para
especificaciones dadas?
2. Las ganancias de realimentacin en sistemas MIMO no
son nicas; cul es la mejor ganancia para una
configuracin de polos dada?
3. Los autovalores del observador deben elegirse ms
rpidos que los del controlador, pero, tenemos algn
criterio adicional para preferir una configuracin a otra?
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Los mtodos que introduciremos dan respuestas a stas
preguntas. Veremos que las ganancias de realimentacin de
estados, y del observador pueden elegirse de forma que
minimicen un criterio de optimizacin dado.
Qu significa ptimo?
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Los mtodos que introduciremos dan respuestas a stas
preguntas. Veremos que las ganancias de realimentacin de
estados, y del observador pueden elegirse de forma que
minimicen un criterio de optimizacin dado.
Qu significa ptimo? ptimo significa hacer algo de la mejor
manera posible. Por eso antes de buscar la solucin ptima
debemos
I definir qu es lo que tenemos que hacer,
I establecer una escala matemtica que cuantifique qu
queremos decir con el mejor
I enunciar las posibles alternativas
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Enunciar el problema de control ptimo consiste en
1. una descripcin del sistema a controlar
2. una descripcin de las limitaciones del sistema y las
posibles alternativas
3. una descripcin de la tarea a llevar a cabo
4. una declaracin del criterio para juzgar el desempeo
ptimo
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
El sistema dinmico a ser controlado es descripto en variable
de estado, en tiempo continuo
x(t) = Ax(t) + Bu(t); x(0) = x0y (t) = Cx(t)
o en en tiempo discreto
x[k + 1] = Ax[k] + Bu[k]; x[0] = x0y [k] = Cx[k]
Por ahora supondremos que las variables de estado estn
accesibles, o que el sistema es observable de forma tal que
puede construirse un estimador de estado.
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Las imitaciones del sistema a veces existe en los valores
admisibles de la variables de estado, o las entradas de control.
Por ejemplo, la accin de control puede ser admisible en el
conjunto de vectores continuos a trozos u(t) U tal que
U = {u(t) : u(t) < M} para todo t.
Esta limitacin es muy comn en la prctica, y puede
representar saturacin en los actuadores.
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
La tarea a realizar por lo general toma la forma de agregar
condiciones de contorno en las ecuaciones de estado del
sistema.
Por ejemplo, podramos desear de transferir el estado x(t) de
un conoce el estado inicial x(0) = x0 a un xf estado
especificado final xf (tf ) = xf en un tiempo tf especfico, o en
el tf mnimo posible.
xf
x(t)
x0
Generalmente, la tarea a realizar viene implcita en el criterio
de desempeo.
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
El criterio de desempeo, que se denota J, es una medida de
la calidad del comportamiento del sistema. Por lo general,
tratamos de minimizar o maximizar el criterio de desempeo
mediante la seleccin de la entrada de control. Por cada u(t)
que lleva a cabo la tarea para que se cumplan las restricciones
del sistema, existe una trayectoria x(t).
x0
u(t)
T t x(t) T t
La entrada u(t) genera la trayectoria x(t).
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
El criterio de desempeo, que se denota J, es una medida de
la calidad del comportamiento del sistema. Por lo general,
tratamos de minimizar o maximizar el criterio de desempeo
mediante la seleccin de la entrada de control. Por cada u(t)
que lleva a cabo la tarea para que se cumplan las restricciones
del sistema, existe una trayectoria x(t).
v (t) x0
x(t) + x(t)
u(t)
T t x(t) T t
La entrada u(t) genera la trayectoria x(t).Una variacin v (t)
en u(t) genera una trayectoria diferente x(t) + x(t).
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Uno de los criterios de desempeo utilizado es el de tiempo
mnimo, es decir, buscamos la accin de control u(t) que
produzca la trayectoria tal que el tiempo en alcanzar xf sea el
mnimo posible.
x0
xf
T T T t
En este caso, el criterio de desempeo para reducir al mnimo
puede expresarse matemticamente como
J=T
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Otro criterio de desempeo podra ser el error final en alcanzar
el estado final deseado en un tiempo T , por ejemplo,
J = ||x(T )||2
x0
x(T )
xf
T t
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Otro criterio de desempeo podra ser reducir al mnimo el
rea debbajo de ||x(t)||2 , como una forma de seleccionar el
control que produce transitorios pequeos en la trayectoria
generada entre x0 y el estado final.
Sin embargo, otro criterio de desempeo posible podra ser
reducir al mnimo el rea debajo de ||u(t)||2 , como una forma
de seleccionar el control que utiliza el menor esfuerzo de
control.
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
El criterio particular que veremos es un funcional cuadrtico
del estado y la entrada de control,
Z T T
x ( )Qx( ) + u T ( )Ru( ) d,
J(x(t), u(t)) =
t
donde Q y R son matrices constantes (aunque no
necesariamente) semi-definida y definida positivas
respectivamente.
El control que se obtiene de minimizar este criterio es lineal.
Como el criterio se basa en funcionales cuadrticos, el mtodo
se conoce como lineal-cuadrtico (LQ: linear-quadratic), del
que se obtiene el regulador lineal cuadrtico (LQR).
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Criterios similares de optimizacin se siguen para el diseo de
observadores, slo que el funcional depende del error de
estimacin, y se basa en una caracterizacin estadstica de los
ruidos que afectan al sistema. Este estimador ptimo
lineal-cuadrtico se conoce como el filtro de Kalman.
Cuando se combinan la ganancia de realimentacin de
estados LQ con el filtro de Kalman, obtenemos lo que se
conoce como un controlador lineal-cuadrtico-gaussiano
(LQG). (Lo de gaussiano viene de la caracterizacin
estadstica del ruido empleada.)
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
El Principio de Optimalidad
Para entender la idea de criterio de optimizacin en variable de
estados, la introduciremos con sistemas de tiempo discreto,
que son ms simples.
El estado de un sistema discreto describe una trayectoria
haciendo transiciones discretas de un estado a otro bajo el
efecto de una entrada tambin aplicada en tiempo discreto.
Cuando se asocia un criterio de optimizacin al sistema, cada
transicin de estado tiene asociado un costo o penalidad. Por
ejemplo, pueden penalizarse las transiciones de estado que se
alejan demasiado del estado final deseado, o las acciones de
control de valores demasiado elevados. A medida que el
sistema evoluciona de estado en estado, los costos se suman
hasta acumular un costo total asociado a la trayectoria.
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Ilustramos el concepto con el grafo de la Figura 1, que
representa 8 estados de un sistema discreto con sus
transiciones posibles. El estado inicial es el 1, y el final el 8. El
sistema pasa de un estado a otro en cada tiempo k
determinado por la entrada u[k] y las ecuaciones
x[k + 1] = Ax[k] + Bu[k].
4
2
7
1 8
5
J13 3 6 J68
J35 J56
Figura: Posibles trayectorias de 1 al 8.
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
Las transiciones posibles se representan por los arcos que
conectan el estado inicial al final a travs de los estados
intermedios. El costo asociado a cada transicin se representa
con la letra J; por ejemplo, el costo de moverse del estado 3 al
5 es J35 .
Asumiendo que los costos se acumulan en forma aditiva,
vemos que la trayectoria marcada en rojo, por ejemplo, tiene un
costo total J13 + J35 + J56 + J68 .
Como hay varias rutas alternativas del estado 1 al 8, el costo
total depender de la trayectoria elegida. La seal de control
u [k] que determina la trayectoria de menor costo es la
estrategia ptima. Como ya veremos, en sistemas de tiempo
continuo, la acumulacin de costos se representa mediante
integracin, en vez de suma.
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)
Introduccin El Principio de Optamalidad
La herramienta matemtica que usaremos para determinar la
estrategia ptima es el principio de optimalidad de Bellman.
En cualquier punto intermedio xi en una tra-
yectoria ptima entre x0 y xf , la estrategia
desde xi al punto final xf debe ser en s una
estrategia ptima.
Este obvio principio nos permitir resolver en forma cerrada
nuestros problemas de control ptimo. Tambin se usa en el
cmputo recursivo de las soluciones ptimas en un
procedimiento llamado programacin dinmica.
Virginia Mazzone: Tema 8: Introduccin al Control ptimo (Parte I)