0% encontró este documento útil (0 votos)
149 vistas19 páginas

Exposicion 2 Control Optimo

Este documento presenta la teoría del control óptimo y sus métodos de aplicación. Explica que el control óptimo busca maximizar o minimizar una función objetivo sujeto a restricciones, utilizando variables de control y estado. También describe cómo formular problemas de control óptimo de forma continua y discreta, y cómo minimizar un índice de comportamiento mediante la determinación de una matriz P que satisfaga una ecuación. Finalmente, propone un ejercicio para minimizar el índice de comportamiento de un sistema de control de lazo abierto de dos estados.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPTX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
149 vistas19 páginas

Exposicion 2 Control Optimo

Este documento presenta la teoría del control óptimo y sus métodos de aplicación. Explica que el control óptimo busca maximizar o minimizar una función objetivo sujeto a restricciones, utilizando variables de control y estado. También describe cómo formular problemas de control óptimo de forma continua y discreta, y cómo minimizar un índice de comportamiento mediante la determinación de una matriz P que satisfaga una ecuación. Finalmente, propone un ejercicio para minimizar el índice de comportamiento de un sistema de control de lazo abierto de dos estados.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPTX, PDF, TXT o lee en línea desde Scribd

INGENIERÍA MECÁNICA AUTOMOTRÍZ

TEORÍA DE CONTROL
REALIZADO POR:

CABRERA EDISSON
GALLEGOS EDWIN
MERCHAN BYRON
PERALTA PAUL
QUINTUÑA JONNTHAN
TORRES FABIAN

TUTOR:
ING. Diego Valladolid

CUENCA-ECUADOR
Control Optimo
INTRODUCCION
El Control Optimo y sus métodos de aplicación junto a su formulación
se basa en la utilización de variables de control que permiten
maximizar o minimizar una función objetivo (índice de
comportamiento) sujeta a restricciones o condiciones dadas.

Las variables de estado son utilizadas como instrumento en la


optimización, estas serán medidas y usadas como una señal de
control, cuando se ha logrado esto, se conocerá la trayectoria optima
de las variables de estado, a partir de la relación que las une.
EL PROBLEMA DE CONTROL ÓPTIMO
En la formulación del problema de control optimo hay dos metodologías:

1. CASO CONTINUO

viene dado por un sistema de ecuaciones diferenciales que cumple las condiciones
de existencia y unicidad de las soluciones.

2. CASO DISCRETO

Viene dado por un sistema de ecuaciones en diferencias:


Un coste funcional que asocia un valor (coste) a cada función de control
admisible. El coste funcional se suele denotar con J y tiene la siguiente forma

1. CASO CONTINUO

2. CASO DISCRETO

En donde el problema de control optimo es encontrar un control que


minimiza el funcional J sobre todos los controles admisibles.
Para hacerlo un poco mas explicable

1. CASO CONTINUO

se trataría de encontrar, si existe una función tal que la solución


del problema de condiciones iniciales con cumpla:

Escribiremos brevemente que es la solución del problema:


2. CASO DISCRETO

el problema de control optimo consiste en encontrar, si existe, una sucesión de


controles tal que la sucesión solución del problema de
condiciones iniciales cumple:

escribiremos que es la solución del problema


PROBLEMA DE LQR PRINCIPIO DE OPTIMALIDAD DE BELLMAN.

el establecimiento del problema requiere de:

1. La descripción del sistema a ser controlado,


2. La descripción de las restricciones y de los objetivos de control,
3. La definición de un criterio que permita juzgar el grado de optimización.

la resolución del problema del regulador optimo LQR consiste en: dado un
modelo del sistema a controlar en variables de estado y un índice de performance
de la forma

encontrar el control que minimiza el citado funcional


Principio de Optimalidad de Bellman.

‘si una trayectoria entre dos estados x(t0) y x(tf ) es óptima, entonces cualquier
tramo de esta trayectoria, definido desde un punto x(ti) (perteneciente a dicha
trayectoria) y el punto x(tf), es en sí una trayectoria optima’
Control Optimo
• El comportamiento de un sistema de control puede representarse
por medidas integrales de comportamiento.
• El diseño de un sistema debe basarse en minimizar un índice de
comportamiento, como la integral de cuadrado del error.
• A los sistemas que se ajustan para proporcionar un índice mínimo de
comportamiento se les conoce como sistemas de control optimo.
Comportamiento de un sistema de control

• Expresado en variables de estados:

𝑡𝑓
𝐽 = න 𝑔 𝑥, 𝑢, 𝑡 𝑑𝑡
0
Donde:
𝑥 = 𝑉𝑒𝑐𝑡𝑜𝑟 𝑑𝑒 𝑒𝑠𝑡𝑎𝑑𝑜.
𝑢 = 𝑉𝑒𝑐𝑡𝑜𝑟 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙.
𝑡𝑓 = 𝑇𝑖𝑒𝑚𝑝𝑜 𝐹𝑖𝑛𝑎𝑙.
Diseño de sistemas óptimos de control

• Variables de estado
• Índices del cuadrado del error para el comportamiento.

• Vector de estado 𝑥𝑑 = 0.
• Error= Valor del vector de estado.
• 𝑥 = 𝑥𝑑 = 0
• Cualquier desviación del equilibrio se considera Error.
• Ecuación diferencial Vectorial
𝑥ሶ = 𝐴𝑥 + 𝐵𝑢
• Regulador de realimentación, donde 𝑢 es una función de variables de
estado 𝑥, por ende:
𝑢 = −𝑘(𝑥)
𝑢1 = −𝑘1 𝑥1 ; 𝑢2 = −𝑘2 𝑥2 ; 𝑢𝑚 = −𝑘𝑚 𝑥𝑚
• La función de realimentación se limita a una función lineal:
𝑢 = −𝐾𝑥

𝑢1 𝑘11 … 𝑘1𝑛 𝑥1
𝑢2 = : … : 𝑥2
𝑢𝑚 𝑘𝑚1 … 𝑘𝑚𝑛 𝑥𝑛
𝑢 = −𝐾𝑥 ≈ 𝑥ሶ = 𝐴𝑥 + 𝐵𝑢
𝑥ሶ = 𝐴𝑥 − 𝐵𝐾𝑥
𝑥ሶ = 𝐻𝑥
• Índice de comportamiento del cuadrado del error:

𝑡𝑓 𝑡𝑓
𝐽=න 𝑥1 𝑡 2 𝑑𝑡
∷ 𝐽 = න (𝑥12 + 𝑥22 )𝑑𝑡
• En operación matricial0es: 0
𝑥1
𝑥2
𝑥 𝑇 𝑥 = 𝑥1 𝑥2 … 𝑥𝑛
:
𝑥𝑛
𝑥 𝑇 𝑥 = (𝑥12 + 𝑥22 + 𝑥32 + ⋯ … + 𝑥𝑛2 )

𝑡𝑓
𝐽 = න (𝑥 𝑇 𝑥)𝑑𝑡
0
• Se considera que el 𝑡𝑓 = ∞, para obtener un valor mínimo de J, se postula
una diferencial exacta:
𝑑 𝑇
𝑥 𝑃𝑥 = −𝑥 𝑇 𝑥
𝑑𝑥
𝑑 𝑇
𝑥 𝑃𝑥 = 𝑥ሶ 𝑇 𝑃𝑥 + 𝑥 𝑇 𝑃𝑥ሶ
𝑑𝑥
𝑑 𝑇
𝑥ሶ = 𝐻𝑥 ≈ 𝑥 𝑃𝑥 = 𝐻𝑥 𝑇 𝑃𝑥 + 𝑥 𝑇 𝑃(𝐻𝑥)
𝑑𝑥
𝑑 𝑇
𝑥 𝑃𝑥 = 𝑥 𝑇 (𝐻 𝑇 𝑃 + 𝑃𝐻)𝑥
𝑑𝑥
Donde:
𝐻𝑥 𝑇 = 𝐻 𝑇 𝑥 𝑇 ≈ 𝐻 𝑇 𝑃 + 𝑃𝐻 = −𝐼
• Sustituyendo las ecuaciones:
𝑡𝑓
𝑑 𝑇
𝑥 𝑃𝑥 = −𝑥 𝑇 𝑥 ∷ 𝐽 = න (𝑥 𝑇 𝑥)𝑑𝑡
𝑑𝑥 0
𝑡𝑓
𝑑 𝑇 ∞
𝐽=න 𝑥 𝑃𝑥 𝑑𝑡 = 𝑥 𝑇 𝑃𝑥 ȁ = 𝑥 𝑇 (0)𝑃𝑥(0)
0 𝑑𝑥
0
𝑡 = ∞; 𝑥 ∞ = 0
• Entonces para minimizar el índice comportamiento J se consideran dos
ecuaciones:
𝑡𝑓
𝐽 = න 𝑥 𝑇 𝑥𝑑𝑡 = 𝑥 𝑇 (0)𝑃𝑥(0)
0
𝐻 𝑇 𝑃 + 𝑃𝐻 = −𝐼
Resumen:
• Determinar una matriz P que satisfaga 𝐻 𝑇 𝑃 + 𝑃𝐻 = −𝐼, donde H es
conocida.
• Minimizar J ajustando uno o mas parámetros no especificados del sistema.
EJERCICIO
Considere el sistema de control de lazo abierto mostrado en la siguiente
Figura. Las variables de estado se identifican como 𝑥1 y 𝑥2 , y la ecuación
diferencial vectorial de este sistema es:

Minimizar el índice de comportamiento y encontrar su ecuación


característica de la forma 𝑆 2 + 2𝛿𝑊𝑛𝑆 + 𝑊𝑛2 , Considerar: la fricción
despreciable para 𝑘1 , y el caso donde cada estado se desplaza
inicialmente una unidad respecto al equilibrio.
CONCLUSIONES
Con este documento trata de promover intuiciones esenciales para la comprensión
de la teoría de control óptimo y presentar los principales teoremas ligados a las
restricciones de desigualdad y de transversalidad. El método de diseño por
realimentación de estados y observador, no obstante ser una herramienta
fundamental en el control de sistemas en E.E., no siempre es el método de diseño
más útil por: El traslado de las especificaciones de diseño (máximo sobre impulso,
etc.), no siempre es directo, particularmente para sistemas complejos; en sistemas
LQR las ganancias de realimentación de estados que logran una configuración de
polos dada y optimización de estados, maquinarias y dispositivos.
GRACIAS.

También podría gustarte