CONTROL MODERNO
1. Transformaciones canónicas:
Se tiene el siguiente sistema dinámico:
𝑥̇ = 𝐴𝑥 + 𝐵𝑢
𝑦̇ = 𝐶𝑥 + 𝐷𝑢
Su transformación canónica sería:
𝑥̅̇ = 𝑇 −1 𝐴𝑇𝑥̅ + 𝑇 −1 𝐵𝑢
𝑦 = 𝐶𝑇𝑥̅ + 𝐷𝑢
Donde:
𝑥 = 𝑇𝑥̅
𝐴̅ = 𝑇 −1 𝐴𝑇
𝐵̅ = 𝑇 −1 𝐵
𝐶̅ = 𝐶𝑇
Ecuación característica (valores propios):
𝑑𝑒𝑡(𝑠𝐼 − 𝐴) = 𝑎𝑛 𝑠 𝑛 + 𝑎𝑛−1 𝑠 𝑛−1 + ⋯ + 𝑎2 𝑠 2
+ 𝑎1 𝑠 + 𝑎0 = 0
Vectores propios:
(𝜆𝑛 𝐼 − 𝐴). 𝑣𝑛 = 0
a) Canónica Modal:
𝑇 = 𝑀𝑎𝑡𝑟𝑖𝑧 𝑑𝑒 𝑣𝑒𝑐𝑡𝑜𝑟𝑒𝑠 𝑝𝑟𝑜𝑝𝑖𝑜𝑠 𝑑𝑒 𝐴
𝜆1 0 0 0
0 𝜆2 0 0
𝐴̅ = [ ]
⋮ ⋮ ⋱ ⋮
0 0 … 𝜆𝑛
Las ventajas de esta transformación son:
-Desacoplamiento de los modos dinámicos.
-Facilitar el diseño de controladores para
sistemas MIMO.
-Análisis de la estabilidad con los autovalores
de A.
b) Canónica controlable:
𝑇 = 𝐶0 ∗ 𝑊
0 1 0 … 0
0 0 1 … 0
𝐴= ⋮ ⋮ ⋮ ⋱ ⋮
0 0 0 … 1
[−𝑎0 −𝑎1 −𝑎2 … −𝑎𝑛−1 ]
0
𝐵 = [⋮]
1
Matriz de controlabilidad:
𝐶0 = [𝐵 𝐴𝐵 𝐴2 𝐵 … 𝐴𝑛−1 𝐵]
Matriz Toepliz:
𝑎1 𝑎2 𝑎3 … 1
⋮ ⋮ ⋮ ⋱ ⋮
𝑊 = 𝑎𝑛−2 𝑎𝑛−1 1 … 0
𝑎𝑛−1 1 0 … 0
[ 1 0 0 … 0]
c) Canónica observable:
𝑇 −1 = 𝑊 ∗ 𝑂𝑏
0 0 … 0 −𝑎0
1 0 … 0 −𝑎1
𝐴 = 0 1 … 0 −𝑎2
⋮ ⋮ ⋱ ⋮ ⋮
[ 0 0 … 1 −𝑎𝑛−1 ]
𝐶 = [0 0 1]
Matriz de observabilidad:
𝐶
𝐶𝐴
𝑂𝑏 = 𝐶𝐴2
⋮
[𝐶𝐴𝑛−1 ]
Matriz Toepliz:
𝑎1 𝑎2 𝑎3 … 1
⋮ ⋮ ⋮ ⋱ ⋮
𝑊 = 𝑎𝑛−2 𝑎𝑛−1 1 … 0
𝑎𝑛−1 1 0 … 0
[ 1 0 0 … 0]
2. Conceptos claves:
a) Estabilidad: Un sistema es estable si su
respuesta ante perturbaciones decae con el
tiempo. En un sistema lineal, se evalúa con los
autovalores de A:
𝑅 (𝜆 𝑖 ) < 0
b) Controlabilidad: Un sistema es controlable si
se puede llevar cualquier estado inicial a
cualquier estado final en tiempo finito. En un
sistema lineal, se evalúa con el criterio de
Kalman:
𝑅𝑎𝑛𝑘(𝐶0 ) = 𝑛
Donde n es orden de la matriz A.
c) Observabilidad: Un sistema es observable si
se puede reconstruir el estado del sistema a
partir de las salidas, es decir, reconstruir x(t) a
partir de y(t). En un sistema lineal, se evalúa
con el criterio de Kalman:
𝑅𝑎𝑛𝑘(𝑂𝑏) = 𝑛
Donde n es orden de la matriz A.
d) Detectabilidad: Un sistema es detectable si
todos los modos no observables son estables.
e) Alcanzabilidad: Un sistema es alcanzable si
un estado puede ser “alcanzado” desde el
origen.
3. Diseño del controlador:
Sea la ley de control:
𝑢 = −𝐾𝑥 + 𝑁𝑟
Donde la matriz K es la matriz de control:
𝐾 = [𝑘1 𝑘2 … 𝑘𝑛 ]
Por la retroalimentación: 𝑢 = −𝐾𝑥
Por la acción de control: 𝑢 = 𝑁𝑟
Para un sistema de control LTI:
𝑥̇ = (𝐴 − 𝐵𝐾 )𝑥 + 𝐵𝑁𝑟
𝑦̇ = 𝐶𝑥
(gr)
Según los polos deseados de control, se tiene el
polinomio deseado:
∆𝑑𝑒𝑠 = (𝑠 − 𝑝1 )(𝑠 − 𝑝2 ) … (𝑠 − 𝑝𝑛 )
Este polinomio se iguala al determinante de la
matriz en forma compañera: det(𝑠𝐼 − (𝐴 −
𝐵𝐾 )). Con ello, se puede hallar los valores de la
matriz K.
La segunda forma es transformar el sistema (antes
del control) en su forma controlable y comparar la
última fila con los coeficientes del polinomio
deseado:
𝐾𝑐 = [𝛼0 − 𝑎0 𝛼1 − 𝑎1 … 𝛼𝑛−1 − 𝑎𝑛−1 ]
Donde:
𝛼𝑛−1 : Son los coeficientes del polinomio
característico de los polos deseados.
𝑎𝑛−1 : Son los coeficientes del polinomio
característico: det(𝑠𝐼 − 𝐴𝑐 )
𝐾𝑐 = 𝐾𝑇 ⇒ 𝐾 = 𝐾𝑐 . 𝑇 −1
La tercera forma es usar la fórmula de Ackermann:
𝐾 = 𝐶0′ (𝛼0 𝐼 + 𝛼1 𝐴 + 𝛼2 𝐴2 + ⋯ + 𝛼𝑛−1 𝐴𝑛−1
+ 𝐴𝑛 )
Donde: 𝐶0′ = [0 … 0 1]𝐶0−1
Controlador con acción integral:
Mejora el seguimiento de referencia y elimina el
error en estado estacionario.
z
𝑡
𝑢𝑐 (𝑡) = −𝑘𝐼 ∫ [𝑦(𝜏) − 𝑟(𝜏)] 𝑑𝜏 = −𝑘𝐼 𝑧(𝑡)
0
⇒ 𝑢 = −𝐾𝑥 − 𝑘𝐼 𝑧
Sistema aumentado:
𝑥̇ 𝐴 0 𝑥 𝐵 0
[ ]=[ ][ ] + [ ]𝑢 + [ ]𝑟
𝑧̇ −𝐶 0 𝑧 0 1
𝑥̇ 𝐴 − 𝐵𝐾 −𝐵𝑘𝐼 𝑥 𝐵 0
[ ]=[ ][ ] + [ ]𝑢 + [ ]𝑟
𝑧̇ −𝐶 0 𝑧 0 1
Además: 𝐶𝐴−1 𝐵 ≠ 0
Ganancia: 𝑔 = 1/𝐺 (0)
4. Diseño del observador completo
(Luenberger):
Los observadores reconstruyen el estado x a
partir de la evolución de la entrada u y la salida
y.
Modelo del Observador:
𝑥̂̇ = 𝐴𝑥̂ + 𝐵𝑢 + 𝐿(𝑦 − 𝐶𝑥̂ )
𝑦̂ = 𝐶𝑥̂
Error de estimación:
𝑥̃ = 𝑥 − 𝑥̂ = 𝑒
𝑦̃ = 𝑦 − 𝑦̂
Por lo tanto:
𝑥̂̇ = 𝐴𝑥̂ + 𝐵𝑢 + 𝐿𝐶 (𝑥̃ )
Matriz L:
𝑙1
𝑙
𝐿 = [ 2]
⋮
𝑙𝑛
Según los polos deseados del observador, se
tiene el polinomio deseado:
∆𝑑𝑒𝑠 = (𝑠 − 𝑝1 )(𝑠 − 𝑝2 ) … (𝑠 − 𝑝𝑛 )
Este polinomio se iguala al determinante de la
matriz: det(𝑠𝐼 − (𝐴 − 𝐿𝐶 )). Con ello, se puede
hallar los valores de la matriz L.
La segunda forma es transformar el sistema
(antes del observador) en su forma observable y
comparar la última fila con los coeficientes del
polinomio deseado:
𝛼0 − 𝑎0
𝛼1 − 𝑎1
𝐿𝐶 = [ ⋮ ]
𝛼𝑛−1 − 𝑎𝑛−1
Donde:
𝛼𝑛−1 : Son los coeficientes del polinomio
característico de los polos deseados.
𝑎𝑛−1 : Son los coeficientes del polinomio
característico: det(𝑠𝐼 − 𝐴𝑜 )
𝐿𝑐 = 𝑇𝐿 ⇒ 𝐿 = 𝑇 −1 . 𝐿𝑐
La tercera forma es usar la fórmula de
Ackermann:
𝐿𝑇 = 𝑂𝑏′(𝛼0 𝐼 + 𝛼1 𝐴 + 𝛼2 𝐴2 + ⋯ + 𝛼𝑛−1 𝐴𝑛−1
+ 𝐴𝑛 )
Donde: 𝑂𝑏′ = [0 … 0 1]𝑂𝑏−1
Error de estimación:
𝑒̇ = (𝐴 − 𝐿𝐶 )𝑒
Sistema aumentado con observador:
𝑥̇ 𝐴 − 𝐵𝐾 𝐵𝐾 𝑥 𝐵
[ ]=[ ][ ]+[ ]𝑤
𝑒̇ 0 𝐴 − 𝐿𝐶 𝑒 0
𝑥
𝑦 = [ 𝐶 0] [ ]
𝑒
L confía más en el modelo que en la medición.
Principio de separación: Los autovalores del
sistema en lazo cerrado se componen de A-BK y
A-LC, permitiendo diseñar ambos de manera
independiente.
5. Diseño del compensador completo:
𝑥̇ 𝐴 −𝐵𝐾 𝑥 𝐵
[ ̇] = [ ][ ]+[ ]𝑢
𝑥̂ 𝐿𝐶 𝐴 − 𝐵𝐾 − 𝐿𝐶 𝑥
̂ 0
𝑥
𝑦 = [ 𝐶 0] [ ]
𝑥̂
𝑥̂̇ = (𝐴 − 𝐵𝐾 − 𝐿𝐶 )𝑥̂ + 𝐿𝑦
𝑢 = −𝐾𝑥̂
Donde:
𝐴𝑐 = 𝐴 − 𝐵𝐾 − 𝐿𝐶
𝐵𝑐 = 𝐿
𝐶𝑐 = 𝐾
Modelo del espacio-estado del compensador:
𝑈 (𝑠 ) −1
𝐺𝑐 (𝑠) = = −𝐾(𝑠𝐼 − (𝐴 − 𝐵𝐾 − 𝐿𝐶 )) 𝐿
𝑌 (𝑠 )
Función de transferencia en lazo cerrado:
𝑌(𝑠) 𝐾𝑠 . 𝛾(𝑠). 𝛽 (𝑠)
𝑇 (𝑠 ) = =
𝑅 (𝑠 ) 𝛼 𝑒 ( 𝑠 ). 𝛼 𝑐 (𝑠 )
Donde:
𝛼𝑒 (𝑠) = det(𝑠𝐼 − (𝐴 − 𝐿𝐶 ))
𝛼𝑐 (𝑠) = det(𝑠𝐼 − (𝐴 − 𝐵𝐾 ))
𝛽 (𝑠) = 𝑃𝑜𝑙𝑖𝑛𝑜𝑚𝑖𝑜 𝑑𝑒 𝑧𝑒𝑟𝑜𝑠 𝑑𝑒 𝑙𝑎 𝑝𝑙𝑎𝑛𝑡𝑎
𝛾(𝑠) = 𝑃𝑜𝑙𝑖𝑛𝑜𝑚𝑖𝑜 𝑑𝑒 𝑧𝑒𝑟𝑜𝑠 𝑑𝑒𝑠𝑒𝑎𝑑𝑜𝑠
𝐾𝑠 = 𝐺𝑎𝑛𝑎𝑛𝑐𝑖𝑎 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒𝑙 𝑠𝑖𝑠𝑡𝑒𝑚𝑎
Para:
Para el observador autónomo:
𝑀 = 𝐵𝑁 ̅
𝑌(𝑠) 𝐾𝑠 𝛽 (𝑠)
𝑇 (𝑠 ) = =
𝑅 (𝑠 ) 𝛼𝑐 (𝑠)
Para el observador basado en el error de
seguimiento:
𝑀 = −𝐿
𝑁̅=0
𝑌(𝑠) 𝐾𝑠 . 𝛾(𝑠). 𝛽 (𝑠)
𝑇 (𝑠 ) = =
𝑅 (𝑠 ) 𝛼 𝑒 ( 𝑠 ). 𝛼 𝑐 (𝑠 )
6. Diseño del observador reducido:
Tenemos:
𝑥̇ = 𝐴𝑥 + 𝐵𝑢
𝑦 = 𝐶𝑥
Siendo:
𝑥: Se divide en dos partes: 𝑥𝑎 (un escalar) y 𝑥𝑏
(un vector de dimensión 𝑛 − 1)
𝑥𝑎 → es igual a la salida (se mide directamente)
𝑥𝑏 → parte no medible del vector de estado
Entonces:
𝑥̇ 𝐴 𝐴𝑎𝑏 𝑥𝑎 𝐵
[ 𝑎 ] = [ 𝑎𝑎 ] [𝑥 ] + [ 𝑎 ] 𝑢
𝑥̇ 𝑏 𝐴𝑏𝑎 𝐴𝑏𝑏 𝑏 𝐵𝑏
𝑥𝑎
𝑦 = [𝐼 0] [ 𝑥 ]
𝑏
Donde:
𝐴𝑎𝑎 → 𝑒𝑠𝑐𝑎𝑙𝑎𝑟
𝐴𝑎𝑏 → 𝑚𝑎𝑡𝑟𝑖𝑧 1 𝑥 (𝑛 − 1)
𝐴𝑏𝑎 → 𝑚𝑎𝑡𝑟𝑖𝑧 (𝑛 − 1) 𝑥 1
𝐴𝑏𝑏 → 𝑚𝑎𝑡𝑟𝑖𝑧 (𝑛 − 1) 𝑥 (𝑛 − 1)
𝐵𝑎 → 𝑒𝑠𝑐𝑎𝑙𝑎𝑟
𝐵𝑏 → 𝑚𝑎𝑡𝑟𝑖𝑧 (𝑛 − 1) 𝑥 1
Observador
Observador
Orden
Orden Reducido
Completo
𝒙̇ 𝒃
Ecuación
𝑥̇ = 𝐴𝑥 + 𝐵𝑢 = 𝑨𝒃𝒃 𝒙𝒃 + 𝑨𝒃𝒂 𝒙𝒂
de estado
+ 𝑩𝒃 𝒖
Ecuación 𝒙̇ 𝒂 − 𝑨𝒂𝒂 𝒙𝒂
𝑦 = 𝐶𝑥
de salida − 𝑩𝒂 𝒖 = 𝑨𝒂𝒃 𝒙𝒃
𝑥̃ = 𝑥 − 𝑥̂
𝑦̃ = 𝑦 − 𝑦̂
Ecuación del observador:
𝑥̂̇𝑏 = 𝐴𝑏𝑏 𝑥̂𝑏 + 𝐴𝑏𝑎 𝑥𝑎 + 𝐵𝑏 𝑢
+ 𝐿𝑟 (𝑥̇ 𝑎 − 𝐴𝑎𝑎 𝑥𝑎 − 𝐵𝑎 𝑢 − 𝐴𝑎𝑏 𝑥̂𝑏 )
𝐶𝑟
Matriz de observabilidad: 𝑂 = [ ]
𝐶𝑟 𝐴𝑟
̃̇ = (𝑨𝒃𝒃 − 𝑳𝒓 𝑨𝒂𝒃 )𝒙
Error de estimación: 𝒙 ̃
0
Cálculo de 𝑳𝒓 : 𝐿𝑟 = 𝑃𝑑𝑒𝑠𝑎𝑑𝑜 (𝐴𝑏𝑏 ). 𝑂−1 . [ ]
1
Además:
𝑧̇ = 𝐹𝑧 + 𝐺𝑢 + 𝐻𝑦
𝑧 = 𝑥̂𝑏 − 𝐿𝑟 𝑦
Donde:
𝐹 = 𝐴𝑏𝑏 − 𝐿𝑟 𝐴𝑎𝑏
𝐺 = 𝐵𝑎 − 𝐿𝑟 𝐵𝑏
𝐻 = (𝐴𝑏𝑏 − 𝐿𝑟 𝐴𝑎𝑏 )𝐿𝑟 + 𝐴𝑏𝑎 − 𝐿𝑟 𝐴𝑎𝑎
7. Diseño del compensador reducido:
𝐿𝑒𝑦 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙: 𝑢 = −𝐾𝑎 𝑦 − 𝐾𝑏 𝑥̂𝑏
𝑈 (𝑠 )
𝐷𝑐𝑟 (𝑠) = = 𝐶𝑟 (𝑠𝐼 − 𝐴𝑟 )−1 𝐵𝑟 + 𝐷𝑟
𝑌 (𝑠 )
Donde:
𝐴𝑟 = 𝐴𝑏𝑏 − 𝐿𝐴𝑎𝑏 − (𝐵𝑏 − 𝐿𝐵𝑎 )𝐾𝑏
𝐵𝑟 = 𝐴𝑟 𝐿 + 𝐴𝑏𝑎 − 𝐿𝐴𝑎𝑎 − (𝐵𝑏 − 𝐿𝐵𝑎 )𝐾𝑎
𝐶𝑟 = −𝐾𝑏
𝐷𝑟 = −𝐾𝑎 − 𝐾𝑏 𝐿
Fase mínima:
Mejora la estabilidad y respuesta dinámica.
Simplifica el diseño y la implementación.
Es robusto frente a incertidumbres.
CONTROL ÓPTIMO
1. Tipos de estabilidad:
a) Estabilidad: El sistema es estable si, ante
pequeñas perturbaciones iniciales, las
trayectorias permanecen cercanas al punto de
equilibrio.
b) Estabilidad en el sentido de Lyapunov: El
punto de equilibrio es estable si todas las
trayectorias que comienzan cerca de él
permanecen cerca para todo t≥0.
c) Estabilidad asintótica: Además de ser estable,
las trayectorias tienden al equilibrio conforme
pasa el tiempo (t→∞).
d) Estabilidad asintótica global: Todas las
trayectorias del sistema, sin importar la
condición inicial, convergen al equilibrio
cuando t→∞.
e) Estabilidad local: La estabilidad (o estabilidad
asintótica) solo se cumple dentro de una
vecindad pequeña alrededor del equilibrio.
f) Inestabilidad: El sistema es inestable si
existen trayectorias que se alejan del punto de
equilibrio ante pequeñas perturbaciones
iniciales.
2. Teorema de la estabilidad de Lyapunov:
Este teorema permite determinar la estabilidad de
un sistema dinámico sin resolver sus ecuaciones.
Para ello, se busca una función escalar V(x) que
actúe como una energía generalizada del sistema.
a) Sistema dinámico:
Sea:
𝑥̇ = 𝑓(𝑥 ), 𝑓 (0) = 0
donde 𝑥 = 0 es el punto de equilibrio a
analizar.
b) Función de Lyapunov:
Se define una función V(x) que cumpla:
• 𝑉 (0) = 0
• 𝑉 (𝑥 ) > 0, para 𝑥 ≠ 0
• Su derivada temporal es:
𝑉̇ (𝑥 ) = ∇𝑉 (𝑥 ). 𝑓(𝑥 )
𝜕𝑉 𝜕𝑉
⇒ ∇𝑉 (𝑥 ) = ( … )
𝜕𝑥1 𝜕𝑥𝑛
Interpretación: Si V(x) decrece, la “energía
del sistema disminuye”.
c) Estabilidad:
• Estabilidad en el sentido de Lyapunov:
Si:
𝑉̇ (𝑥 ) ≤ 0
Entonces el equilibrio 𝑥 = 0 es estable.
• Estabilidad asintótica:
Si:
𝑉̇ (𝑥 ) ≤ 0, para 𝑥≠0
Entonces 𝑥 = 0 es asintóticamente
estable.
• Estabilidad asintótica global:
Si:
𝑉̇ (𝑥 ) ≤ 0
Y, además:
𝑉(𝑥) → ∞
cuando |𝑥 | → ∞ (radialmente no acotada)
Entonces 𝑥=0 es globalmente
asintóticamente estable.
d) Interpretación física:
La energía del sistema está dada por V(x):
• Si la energía no aumenta, el sistema es estable.
• Si la energía disminuye, el sistema es
asintóticamente estable.
• Si además la energía crece sin límite para
estados muy alejados, la estabilidad es global.
e) Condición de Lyapunov:
Tenemos el sistema lineal:
𝑥̇ = 𝐴𝑥
Entonces su función V(x) es:
𝑉 (𝑥 ) = 𝑥 𝑇 𝑃𝑥, con 𝑃 > 0
Derivando:
𝑉̇ (𝑥 ) = 𝑥 𝑇 (𝐴𝑇 𝑃 + 𝑃𝐴)𝑥 < 0
Su condición de Lyapunov es:
𝐴𝑇 𝑃 + 𝑃𝐴 = −𝑄
Para P su diagonal inversa los términos son
iguales.
3. Principio de Invarianza de LaSalle:
a) Conjunto Invariante:
Para el sistema:
𝑥̇ = 𝑓(𝑥 )
Un conjunto M es invariante si:
𝑥(0) ∈ 𝑀 ⇒ 𝑥(𝑡) ∈ 𝑀 para todo 𝑡 ≥ 0
Es decir, si la trayectoria entra a M, nunca sale
de M.
b) Teorema Invarianza de Lasalle:
Sea el sistema:
𝑥̇ = 𝑓(𝑥 )
Sea Ω un conjunto compacto e invariante, y una
función V(x) tal que:
𝑉̇ (𝑥 ) ≤ 0, para todo x∈Ω
Definimos el conjunto donde la energía no
disminuye más:
𝐸 = { 𝑥 ∈ 𝛺 ∣ 𝑉 (𝑥 ) = 0 }
Sea M el subconjunto invariante más grande de
E. Entonces, para cualquier trayectoria con
condición inicial en Ω:
lim 𝑑𝑖𝑠𝑡(𝑥(𝑡), 𝑀) = 0
t→∞
Interpretación: El sistema siempre termina
dentro del conjunto invariante más grande
donde 𝑉̇ (𝑥) = 0. Ese conjunto describe el
comportamiento final del sistema.
c) Lyapunov vs. LaSalle:
Lyapunov exige 𝑉̇ (𝑥 ) < 0, para asegurar
estabilidad asintótica, mientras que LaSalle
permite 𝑉̇ (𝑥) ≤ 0, lo cual es menos estricto.
Aun así, puede concluir estabilidad asintótica,
siempre que el único conjunto invariante dentro
de E sea el punto de equilibrio.
d) Caso típico de orden 2:
En sistemas de dos estados, suele ocurrir que:
𝑉 (𝑥 ) = 0 ⇒ 𝑥1 = 0 o 𝑥2 = 0
Pero LaSalle dice si una trayectoria se queda en
el conjunto donde 𝑉̇ = 0, y dentro de ese
conjunto el único subconjunto invariante es el
origen, entonces la trayectoria debe converger
al origen.
Por lo tanto, aunque 𝑉̇ (𝑥) ≤ 0 no permita usar
directamente Lyapunov, LaSalle sí permite
concluir que el sistema es asintóticamente
estable.
e) Interpretación simple:
Si la energía no aumenta, LaSalle analiza dónde
podría quedarse el sistema a largo plazo. Si la
única posibilidad es el origen, entonces:
𝑥(𝑡) → 0 asintóticamente
4. Péndulo simple amortiguado:
𝑥̇ 1 = 𝑥2
𝑔 𝑐
𝑥̇ 2 = − 𝑠𝑒𝑛(𝑥1 ) − 2 𝑥2
𝑙 𝑚𝑙
Punto de equilibrio:
𝜃 0
𝑥 = [ ̇] = [ ]
𝜃 0
Sea la energía mecánica total:
1
𝑉 (𝑥 ) = 𝑚𝑙2 𝑥22 + 𝑚𝑔𝑙 (1 − cos(𝑥1 )) > 0,
2
excepto en 𝑥 = 0
Definida positiva en: −2𝜋 < 𝑥1 < 2𝜋
Para su derivada:
𝑉̇ (𝑥 ) = −𝑐𝑥22 ≤ 0
En la frontera de 𝑀𝑐 tenemos:
2𝑔(1 + cos(𝑥1 ))
𝑉 (𝑥 ) = 2𝑚𝑔𝑙 → 𝑥2 = √
𝑙
Para 𝑉̇ (𝑥 ) = 0 se requiere que 𝑥2 = 0:
𝑔 𝑐
𝑥̇ 2 = − 𝑠𝑒𝑛(𝑥1 ) − 2 𝑥2 = 0
𝑙 𝑚𝑙
Dentro de 𝑀𝑐 se requiere que 𝑥1 = 0.
El origen es asintóticamente estable.
5. Formulación general del Problema de Control
Óptimo:
a) Sistema dinámico:
𝑥̇ (𝑡) = 𝑓[𝑥(𝑡), 𝑢(𝑡)]
Condiciones iniciales: 𝑥(𝑡0 ) = 𝑥0
Condiciones finales: 𝜓[𝑥 (𝑇)] = 0
b) Índice de comportamiento (funcional de
costo):
𝑡𝑓 =𝑇
𝐽 = 𝜑[𝑥(𝑇)] + ∫ 𝐿(𝑥, 𝑢) 𝑑𝑡
𝑡0
Donde:
𝜑[𝑥(𝑇)]: Penaliza del estado final
𝐿(𝑥, 𝑢): Penaliza la trayectoria del sistema
Nota: u*(t) es la solución del funcional de costo
J.
Objetivo: Minimizar la diferencia entre el
punto de referencia (𝑥𝑠 ) y el valor actual
(𝑥(𝑡)), dentro del tiempo 𝑡0 ≤ 𝑡 ≤ 𝑡𝑓 .
min 𝐽
𝑢(𝑡)
c) Ecuación de Lagrange:
𝐿(𝑥1 , 𝑥2 , 𝜆) = 𝑓(𝑥1 , 𝑥2 ) − 𝜆𝑇 𝑔(𝑥1 , 𝑥2 )
d) Hamiltoniano:
𝐻 (𝑥, 𝑢, 𝜆) = 𝐿(𝑥, 𝑢) + 𝜆𝑇 𝑓 (𝑥, 𝑢)
Donde:
𝐿(𝑥, 𝑢): Función del índice del
comportamiento
𝜆𝑇 : Variable de co-estado de dimensión n
𝑓(𝑥, 𝑢): Dinámica de la función
e) Ecuaciones de Euler-Lagrange:
Ecuación que define las variables de co-estado:
𝜕𝐻 𝑇
𝜆̇(𝑡) = − ( )
𝜕𝑥
Ecuación de la condición estacionaria:
𝜕𝐻 𝑇
( ) =0
𝜕𝑢
Ecuación de frontera:
𝜕𝜑 𝜕𝜓
𝜆(𝑡𝑓 ) = [ + 𝑣𝑇 ]
𝜕𝑥 𝜕𝑥 𝑡=𝑇
En el caso estacionario:
𝜕𝐻 𝜕𝐻 𝜕𝐻 𝜕𝐻
= 𝑥̇ + 𝜆̇ + 𝑢̇
𝜕𝑡 𝜕𝑥 𝜕𝜆 𝜕𝑢
Considerando las condiciones del problema
óptimo:
𝜕𝐻 𝜕𝐻
= 𝑓 𝑇 (𝑥, 𝑢) = 𝑥̇ 𝑇 =0
𝜕𝜆 𝜕𝑢
𝜕𝐻 𝑇
𝜆̇ = −
𝜕𝑥
Reemplazando:
𝜕𝐻
⇒ =0
𝜕𝑡
6. Diseño de un control LQ (Lineal Cuadrático):
a) Modelo del sistema:
𝑥̇ = 𝐴𝑥 + 𝐵𝑢
b) Índice de comportamiento (función de
costo):
𝑡𝑓
1 𝑇
𝐽 = [𝑥 (𝑡𝑓 )𝑃𝑓 𝑥(𝑡𝑓 ) + ∫ (𝑥 𝑇 𝑄𝑥 + 𝑢𝑇 𝑅𝑢) 𝑑𝑡]
2 0
Para tiempo infinito:
1 ∞
𝐽 = ∫ (𝑥 𝑇 𝑄𝑥 + 𝑢𝑇 𝑅𝑢) 𝑑𝑡
2 0
Donde Q penaliza los estados desviados y R, el
esfuerzo de control. Para una solución óptima
se debe cumplir lo siguiente:
𝑃𝑓 = 𝑃𝑓𝑇 ≥ 0
Q = QT ≥ 0
R = RT > 0
Se recomienda un 𝑄 > 𝑅 (menor costo, pero
mayor esfuerzo)
𝑑𝐽
Además: = 0 para valor máximo.
𝑑𝛼
c) Función de Hamilton:
1
𝐻 = (𝑥 𝑇 𝑄𝑥 + 𝑢𝑇 𝑅𝑢) + 𝜆𝑇 (𝐴𝑥 + 𝐵𝑢)
2
d) Ecuaciones de Euler-Lagrange:
- Ecuación de las variables de co-estado:
𝜕𝐻 𝑇
𝜆̇ = − = −𝑄𝑥 − 𝐴𝑇 𝜆
𝜕𝑥
- Ecuación de la condición estacionaria:
𝜕𝐻
= 𝑅𝑢 + 𝐵𝑇 𝜆 = 0
𝜕𝑢
- Ecuación de frontera:
𝜆(𝑡𝐹 ) = 𝑃𝑓 𝑥(𝑡𝑓 )
e) Ecuación dinámica de Riccati:
−𝑃̇ = 𝐴𝑇 𝑃 + 𝑃𝐴 − 𝑃𝐵𝑅 −1 𝐵𝑇 𝑃 + 𝑄
f) Ecuación estacionaria de Riccati:
0 = 𝐴𝑇 𝑃 + 𝑃𝐴 − 𝑃𝐵𝑅 −1 𝐵𝑇 𝑃 + 𝑄
g) Sistema reemplazado:
𝑥̇ 𝑥
[ ̇] = 𝑀 [ ]
𝜆 𝜆
Donde M es la matriz de Hamilton:
𝐴 −𝐵𝑅 −1 𝐵𝑇
𝑀=[ ]
−𝑄 −𝐴𝑇
7. Diseño de un LQR (Regulador Lineal
Cuadrático):
𝑢∗ = −𝐾𝑥
𝑢∗ = −𝜆2
Donde 𝐾 = 𝑅 −1 𝐵𝑇 𝑃 es la ganancia de Kalman
Valor mínimo funcional:
1 𝑇
𝐽∗ = 𝑥 (𝑡0 )𝑃(𝑡0 )𝑥(𝑡0 )
2
Si el control es en la salida, entonces:
1 ∞ 𝑇
𝐽 = ∫ (𝑦 𝑄𝑦 + 𝑢𝑇 𝑅𝑢)𝑑𝑡
2 0
1 ∞
𝐽 = ∫ [𝑥 𝑇 (𝐶 𝑇 𝑄𝐶 )𝑥 + 𝑢𝑇 𝑅𝑢]𝑑𝑡
2 0
0 = 𝐴𝑇 𝑃 + 𝑃𝐴 − 𝑃𝐵𝑅 −1 𝐵𝑇 𝑃 + 𝐶 𝑇 𝑄𝐶
8. Diseño de un LQRI (Regulador Lineal
Cuadrático con Acción Integral):
𝑥̇ = 𝐴𝑥 + 𝐵𝑢 + 𝑑
𝑦 = 𝐶𝑥
Error: 𝑒(𝑡) = 𝑦 𝑠 (𝑡) − 𝑦(𝑡), donde 𝑦 𝑠 (𝑡) es el set
point.
Además:
𝑧̇ (𝑡) = 𝑒(𝑡) = 𝑦 𝑠 (𝑡) − 𝐶𝑥
Entonces:
𝑥̇ 𝐴 0 𝑥 𝐵 𝑑
( )=( ) ( ) + ( ) 𝑢 + ( 𝑠)
𝑧̇ −𝐶 0 𝑧 0 𝑦
Ley de control aumentada:
𝑢∗ = −𝐾1 𝑥 − 𝐾2 𝑧
Estabilidad:
lim 𝑧(𝑡) = lim 𝑒(𝑡) = 0
𝑡→∞ 𝑡→∞
9. Diseño de un LQE (Estimador Lineal
Cuadrático):
a) Modelo del Observador:
𝑥̂̇ = 𝐴𝑥̂ + 𝐵𝑢 + 𝐿(𝑦 − 𝐶𝑥̂ )
Error de estimación: 𝑥̃ = 𝑒 = 𝑥 − 𝑥̂
Además:
𝑒̇ = (𝐴 − 𝐿𝐶 )𝑥̃
𝑥̃ (𝑡) = 𝑥̃ (0) ∗ 𝑒 (𝐴−𝐿𝐶)𝑡
b) Modelo con presencia de ruido estocástico:
𝑥̇ = 𝐴𝑥 + 𝐵𝑢 + 𝐵𝜔 𝜔
𝑦 = 𝐶𝑥 + 𝑣
Donde 𝜔 es el ruido del proceso y 𝑣 es el ruido
de medición. Ambos ruidos son de tipo
estacionarios estocásticos Gaussianos blancos.
Con ello, se aplica el filtro de Kalman Bucy:
𝑥̂̇ = 𝐴𝑥̂ + 𝐵𝑢 + 𝐿𝑓 (𝑦 − 𝐶𝑥̂ )
𝐿𝑓 = 𝑍𝐶 𝑇 𝑉 −1
Donde V es la covarianza del ruido de medición
y W es la covarianza del ruido del proceso.
La variable Z se halla con la siguiente ecuación
de Riccati dual:
0 = 𝐴𝑍 + 𝑍𝐴𝑇 − 𝑍𝐶 𝑇 𝑉 −1 𝐶𝑍 + 𝐵𝜔 𝑊𝐵𝜔𝑇
Para 𝑛 = 1:
2
2𝐴𝑉 𝐵𝜔2 𝑊𝑉
𝑍 − 2 𝑍− =0
𝐶 𝐶2
1
⇒ 𝑍 = 2 [𝐴𝑉 + √(𝐴𝑉 )2 + 𝐵𝜔2 . 𝐶 2 . 𝑊. 𝑉]
𝐶
𝑍𝐶 1 𝐵𝜔2 . 𝐶 2 . 𝑊
⇒𝐿= √ 2
= [𝐴 + 𝐴 + ]
𝑉 𝐶 𝑉
V también es la densidad espectral del ruido del
sensor y W, densidad espectral del ruido del
sistema.
Otra forma:
𝑊
𝐿 = 𝐴 + √ 𝐴2 +
𝑉
2
𝑊 = 𝜎𝑊 , 𝑉 = 𝜎𝑉2
La variación de error de estimación: 𝑆 = 𝐿
Frecuencia natural: 𝐴 + 𝐿𝐶
𝑄𝑑 = 𝐵𝜔 𝑊𝐵𝜔𝑇 , 𝑅𝑑 = 𝑉
10. Diseño de un control LQG (Gaussiano Lineal
Cuadrático): LQR + LQE
Modelo del sistema:
𝑥̇ = 𝐴𝑥 + 𝐵𝑢 + 𝐵𝜔 𝜔
𝑦 = 𝐶𝑥 + 𝑣
a) Índice de costo:
1 𝑇 1 ∞ 𝑇
𝐽 = 𝐸 [ 𝑥 𝐻𝑥 + ∫ 𝑥 𝑄𝑥 + 𝑢𝑇 𝑅𝑢 𝑑𝑡]
2 2 0
E[]: Valor esperado
b) Ley de control:
𝑢 = −𝐾𝑥̂
Donde 𝑥̂ es la salida del filtro de Kalman
c) Ecuación de Riccati algebraica:
𝐴𝑇 𝑃 + 𝑃𝐴 − 𝑃𝐵𝑅 −1 𝐵𝑇 𝑃 + 𝑄 = 0
d) Ganancia óptima:
𝐾 = 𝑅 −1 𝐵𝑇 𝑃
𝐿 = 𝑍𝐶 𝑇 𝑉 −1
e) Hamiltoniano:
𝐻(𝑠) = 𝐾 (𝑠𝐼 − 𝐴 + 𝐿𝐶 + 𝐵𝐾 )−1 𝐿
Además:
𝐺𝑂𝐿𝑙𝑞𝑟 = 𝐾 (𝑠) ∗ 𝐺 (𝑠) = 𝐾 (𝑠𝐼 − 𝐴)−1 𝐵
𝐺𝑂𝐿𝑙𝑞𝑔 = 𝐻 (𝑠) ∗ 𝐺 (𝑠)
𝑈(𝑠) = 𝐺𝑐 (𝑠) 𝑌(𝑠)
𝐺 (𝑠): Función de transferencia de la planta
f) Sistema LQG vs LQGI:
• El integrador acumula el error entre
referencia y salida, y lo compensa
activamente.
• Al incluir la acción integral, se extiende la
capacidad del controlador para manejar
dinámicas no modeladas o variaciones
inesperadas en el sistema.
• Mayor precisión en el seguimiento en
aplicaciones donde se exige que la salida
siga la referencia con alta exactitud.
11. Proceso estocástico: Modelo matemático para
sistemas dinámicos afectados por incertidumbre,
donde las variables de estado evolucionan
aleatoriamente en el tiempo. En los sistemas
óptimos y modernos, se aplica el diseño del
Filtro de Kalman.
12. Función de autocorrelación: Función que
cuantifica las fluctuaciones aleatorias en una
señal estocástica X(t) que se correlacionan
consigo mismas en diferentes tiempos.
Hallar matriz inversa de una matriz de orden 2:
𝑎 𝑏
Si 𝐴 = [ ], entonces su inversa es
𝑐 𝑑
1 𝑑 −𝑏
𝐴−1 = |𝐴| [ ]
−𝑐 𝑎
Control estocástico:
LTR:
𝒀(𝒔)
𝑮(𝒔) = = 𝑪[𝒔𝑰 − 𝑨]−𝟏 𝑩 + 𝑫
𝑼(𝒔)