(*)
UNIVERSIDAD MICHOACANA DE SAN NICOLÁS DE HIDALGO
FACULTAD DE INGENIERÍA ELÉCTRICA
DIVISIÓN DE ESTUDIOS DE POSGRADO
CONTROL ÓPTIMO Y ADAPTIVO
No. Hrs. /Semana: 4
Duración en semanas: 16
Total de Horas: 64
Número de Créditos: 8
Conocimientos previos recomendados:
Objetivo: Dar una introducción a la teoría básica del control óptimo y del control adaptivo, haciendo
énfasis especial en el control LQR y sus propiedades, la estimación de parámetros y el control
con modelo de referencia. El tipo de sistemas analizados son principalmente sistemas lineales
continuos, sin embargo se tratan en algunos casos sistemas no lineales y sistemas lineales
discretos.
Programa sintético:
Tema Duración (hrs.)
1. Introducción al control óptimo 4
2. Cálculo de variaciones y control óptimo 10
3. El regulador cuadrático lineal (LQR) 10
4. Propiedades y diseño del LQR 10
5. Introducción al control adaptivo 8
6. Estimación de parámetros 10
7. Sistemas de control adaptivo con modelo de referencia 12
Total de Horas 64
Programa desarrollado:
1. Introducción al control óptimo
1.1. El problema de optimización
1.2. El problema de control óptimo
1.3. El índice de desempeño y las restricciones
1.4. Formulación del problema de control óptimo.
1.5. Revisión histórica
2. Cálculo de variaciones y control óptimo
2.1. Conceptos básicos.
2.1.1. Función y funcional
2.1.2. Incremento, diferencial y variación
2.2. Óptimo de una función y de un funcional
2.3. El problema básico del cálculo variacional
2.3.1. Problema con tiempo final fijo y estado final fijo
2.3.2. Ecuación de Euler-Lagrange
2.4. La segunda variación
2.5. Extremos de funciones con restricciones
2.6. Extremos de funcionales con restricciones
2.7. Enfoque variacional para sistemas de control óptimo
2.7.1. Problema de costo terminal
2.7.2. Diferentes tipos de sistemas
2.7.3. Condición suficiente
2.8. Resumen del procedimiento de Pontryagin y aspectos relevantes.
3. El regulador cuadrático lineal (LQR)
3.1. Formulación del problema. Caso LTV
3.2. Caso de tiempo finito
3.2.1. El sistema Hamiltoniano y la Ecuación diferencial de Riccati
3.2.2. Verificación de optimalidad
3.2.3. Resumen y aspectos relevantes
3.2.4. LQR para un índice de desempeño general
3.3. Solución analítica de la Ecuación diferencial de Riccati
3.4. Caso de tiempo infinito. Caso LTV
3.5. Caso de tiempo infinito. Caso LTI
3.5.1. Interpretación del coeficiente de Riccati
3.5.2. Solución analítica de la ecuación algebraica de Riccati
3.5.3. Resumen y aspectos relevantes
3.5.4. Aspectos de estabilidad
3.5.5. Equivalencia entre el control óptimo de lazo abierto y de lazo cerrado
3.6. Introducción al control lineal cuadrático para seguimiento
4. Propiedades y diseño del LQR
4.1. El regulador desde un punto de vista de ingeniería de control
4.2. Igualdad de la diferencia de retorno
4.3. Sensibilidad y robustez
4.4. Margen de fase, margen de ganancia y tolerancia a retardos
4.5. Selección cuadrática de las matrices Q y R
4.6. Introducción al estimador de estado óptimo (filtro de Kalman-Bucy)
4.7. Introducción al regulador cuadrático Gaussiano (LQG)
4.7.1. Teorema de separación
4.7.2. Diseño del LQG
5. Introducción al control adaptivo.
5.1.1. ¿Qué es el control adaptivo?
5.1.2. Revisión histórica breve
5.1.3. Control robusto de alta ganancia
5.1.4. Variaciones en el proceso y sus efectos
5.1.5. Esquemas de control adaptivo
5.1.6. Planteamiento del problema de control adaptivo
5.1.7. Aplicaciones y abusos del control adaptivo
6. Estimación de parámetros
6.1. Introducción
6.2. Mínimos cuadrados y modelos de regresión
6.2.1. Estimación por mínimos cuadrados
6.2.2. Interpretación geométrica
6.2.3. Interpretación estadística
6.2.4. Mínimos cuadrados, versión recursiva
6.2.5. Parámetros variantes en el tiempo y factor de olvido
6.2.6. Algoritmos simplificados. El algoritmo de proyección
6.2.7. Estimación por mínimos cuadrados en modelos de tiempo continuo.
6.3. Estimación de parámetros para funciones de transferencia
6.3.1. Caso discreto
6.3.2. Caso continuo
6.3.3. Modelos estocásticos
6.4. Estimación de parámetros para modelos no lineales
6.5. Condiciones experimentales
6.5.1. Excitación persistente
6.5.2. Excitación persistente de señales típicas
6.5.3. Interpretación de la excitación persistente en el dominio
6.6. Estimación en lazo cerrado
6.7. Casos de estudio en simulación.
7. Sistemas de control adaptivo con modelo de referencia
7.1. Introducción
7.2. La regla del MIT
7.3. Determinación de la ganancia de adaptación
7.4. Diseño de un sistema de control con modelo de referencia basado en la teoría de Lyapunov
7.5. Retroalimentación de salida con modelo de referencia
7.6. Control adaptivo en sistemas no lineales
7.6.1. Linealización por retroalimentación adaptiva
7.6.2. Backstepping y backstepping adativo
Bibliografía:
[1] Desineni Subbaram Naidu. “Optimal Control Systems”. CRC Press. 2003.
[2] Brian D. O. Anderson, John B. Moore. “Optimal Control: Linear Quadratic Methods”, Dover
Publications, 2007.
[3] Donald E. Kirk. “Optimal Control Theory. An introduction”. Dover Publications Inc., 1970.
[4] Huibert Kwakernaak, Raphael Sivan. “Linear Optimal Control Systems”, John Wiley and Sons
Inc., 1972.
[5] Karl J. Astrom, Bjorn Wittenmark. “Adaptive Control”. Second Edition. Addison Wesley
Publishing Co. 1995.
[6] Petros Ioannou, Baris Fidan. “Adaptive Control Tutorial”. SIAM (Society for Industrial and
Applied Mathematics). 2006
Metodología de enseñanza-aprendizaje:
Revisión de conceptos, análisis y solución de problemas en clase X
Lectura de material fuera de clase X
Ejercicios fuera de clase (tareas) X
Investigación documental X
Elaboración de reportes técnicos o proyectos X
Metodología de evaluación:
Asistencia X
Tareas X
Elaboración de reportes técnicos o proyectos X
Exámenes X
Programa propuesto por: Fernando Ornelas Tellez y José Juan Rincón Pasaye
Fecha de aprobación: 12 de agosto de 2013