UNIVERSIDAD SURCOLOMBIANA
FACULTAD DE INGENIERIA
INGENIERIA ELECTRONICA
CRISTIAN ANDRADE VIDARTE 2005200965
Espacio de Estados
Todo sistema dinámico puede ser repres entado por u na ecuación diferencial
(caso continuo) o por una ecuación de diferencias (caso discreto). En general,
una ecuación diferencial ordinaria de orden n puede tener la forma siguiente
dny d n−1 y dy
= F( n−1 , ..., , y, u, t)
dt n dt dt
Donde
u es una variable “excitadora” o entrada al sistema
y es la salida del sistema
t es el tiempo
F es una función arbitraria de sus argumentos
Sin embargo, el sistema anterior es un Sistema Lineal si la forma específica
de la función F es una combinación lineal de derivadas de la entrada o la
salida. Es decir, si el sistema anterior se puede escribir como
dny dy m
a n (t) n + ... + a 1 (t) + a 0 (t)y = b m (t) d mu + ... + b 1 (t) du + b 0 (t)u
dt dt dt dt
En donde los coeficientes ai(t), bi(t) son funciones continuas del tiempo.
En el caso particular de que dichos coeficientes sean constantes, se tiene un
Sistema Lineal con coeficientes constantes (SLIT) para el cual la teoria está
muy desarrollada y que en la mayoría de los casos será el que se trate aquí.
Es un hecho conocido que el sistema (SLIT) dado por la ecuación anterior
admite bajo condiciones iniciales cero, una representación algebraica mediante
una función racional obtenida aplicando Transformada de Laplace a la
ecuación.
Esta representación es la Función Transferencia del sistema y es simplemente
la relación de la Transformada de Laplace de la salida Y(S) a la Transformada
de Laplace de la entrada U(S) cuando las condiciones iniciales son cero ; como
sigue
Y(S) b m S m + ... + b 1 S + b 0
= G(S) =
U(S) a n S n + ... + a 1 S + a 0
Esta representación también se denomina Entrada - Salida o representación
externa y justifica la representación de una SLIT como un bloque
multiplicativo como se muestra en la siguiente figura
U(S) Y(S)
G(S)
La cual es una representación gráfica de la “operación” que realiza el sistema
sobre al entrada U(S) para producir la salida Y(S) ; es decir, Y(S) = G(S)U(S)
Aunque en lo anterior se ha supuesto que sólo hay una entrada y una salida,
en general, U(S) puede representar un vector de p entradas y Y(S) un vector
de q salidas, en tal caso G(S) resulta un función matricial o matriz de
transferencia de dimensión q × p cuyos elementos son funciones racionales
de S.
@ Ejemplo
Considerando el circuito RLC de la siguiente figura, obtendremos su
representación en función transferencia.
Considerar el vector de entradas u(t)=[u1(t) u2(t)]T = [e1(t) e2(t)]T
y el vector de salidas y(t) = [y1(t) y2(t)]T = [i1(t) i2(t)]T
iL VC
+ -
+
L C +
e1 ~ y1 y2 ~ e2
-
R
-
Las ecuaciones de las mallas del circuito son
*
L y 1 (t) + R[y 1 (t) − y 2 (t)] = u 1 (t)
1 t
C
° −º y 2 (t)dt + R[y 2 (t) − y 1 (t)] = −u 2 (t)
Aplicando Transformada de Laplace con condiciones iniciales cero a ambas
ecuaciones obtenemos el sistema de ecuaciones algebraicas
LS −R Y 1 (S) U 1 (S)
1 =
−R R + CS Y 2 (S) −U 2 (S)
Despejando el vector de corrientes, obtenemos
RCS+1 RCS
Y 1 (S) RLCS 2 +LS+R RLCS 2 +LS+R U 1 (S)
= RCS LCS 2 +RCS
Y 2 (S) RLCS +LS+R RLCS 2 +LS+R
2 −U 2 (S)
En el caso de sistemas lineales, la función transferencia nos proporciona un
modelado del comportamiento entrada - salida del sistema, ¿porqué buscar
otra alternativa de modelado?. El siguiente analisis está orientado a dar alguna
justificación al respecto.
Análisis de la estabilización por cancelación de polos
Consideremos el sistema de primer orden modelado por la siguiente función
transferencia:
G(S) = 1
s−1
El cual corresponde a la ecuación diferencial
dy(t)
dt − y(t) = u(t)
donde u(t) es la entrada y y(t) es la salida del sistema.
El sist ema anterior es inestable, ya que su único polo s=1 (raíz del polinomio
característico s-1= 0 ) está ubicado en el semiplano complejo derecho ( tiene
parte real positiva). Para estabilizar el sistemas propone manejar su entrada
mediante un compensador en serie Gc(s) como se muestra en la figura
siguiente
S -1 1
v u y
S+1 S-1
Gc(S) G(S)
Con esto se espera que la función transferencia del sistema completo se
convierta en
Gc(S) G(S) = S − 1 1 = 1 ,
S+1 S−1 S+1
¡con lo cual se tendría un comportamiento estable!
El razonamiento anterior parece un resultado muy atractivo para estabilizar un
sistema inestable, sin embargo no funciona: Después de un rato de operar el
sistema construido con esta idea éste comenzará a saturarse. Para ver porque,
consideremos la siguiente simulación en una computadora analógica
o o
+ x1 x1 + + x2 x2
v
-2 ∫ + u +
∫ y
-
Gc(S) G(S)
Para analizar el comportamiento de la realización anterior, consideremos la
evolución de las principales variables de la realización las cuales son
claramente las salidas de los integradores , es decir, x 1, x2.
De la figura anterior podemos obtener las ecuaciones siguientes
o
x 1 = − x 1 − 2v
o
x2 = x1 + x2 + v
y = x1
Estas ecuaciones se conocen como las ecuaciones de espacio de estado del
sistema y a las variables x1 y x2 se les llama variables de estado o estados del
sistema.
Las ecuaciones anteriores se pueden resolver con las condiciones iniciales
arbitrarias x1(0) = x10 y x2(0) = x20. Obteniendo para la primera
x1(t) = e-t x10 -2e-t * v
donde el símbolo * denota convolución en el tiempo.
La segunda ecuación puede ser resuelta empleando transformada de Laplace
como sigue
x x 10 V(S)
Y(S) = X 2 (S) = 20 + +
S − 1 (S − 1)(S + 1) S + 1
es decir,
y(t) = etx20 + 1/2(et-e-t)x10 + e-t*v
De acuerdo a la ecuación anterior se ve que la salida y(t) crecerá sin cota
definida conforme el tiempo crece a menos que las condiciones iniciales sean
ambas cero (x10 = x20 = 0).
Una razón com únmente dada al hecho de que el sistema anterior no es estable
es que por pequeños errores en los pará metros de G(S) la cancelación exacta
de polo no se puede tener, sin embargo, la razón es mucho más profunda, ya
que de acuerdo a lo anterior, inclusive en el caso en que haya cancelación
exacta la inestabilidad de hecho se presenta para cualquier condición inicial
diferente de cero (excepto para x10 = -2x20)
Entonces, con la representación en espacio de estado tenemos una
descripción del comportamiento interno que no tenemos con la función
transferencia
Obtención de las ecuaciones de estado (Realizaciones canónicas)
Varias realizaciones pueden obtenerse considerando el problema de como
simular una función transferencia de un sistema continuo o discreto. Ambos
problemas (el continuo y el discreto son análogos, se tratará aquí el continuo
solamente).
Consideraciones sobre simulación analógica
Una de las primeras “tentaciones” al tratar de simular una ecuación diferencial
de la forma general
.
y (n) = F(y (n−1) , ..., y, y, u, t)
es el usar n derivadores para obtener las derivadas de y a partir de la señal y
Por ejemplo, para simular la ecuación diferencial
..
y +5y = u
podría pensarse en el siguiente diagrama de simulación
. ..
y y y
d d
dt dt
-
u
+
1
5
sin embargo,
los diferenciadores no son una opción operativa, ya que todas las señales
físicas inevitablemente están contaminadas por ruido normalmente de alta
frecuencia, por esto, aunque la magnitud del ruido sea muy pequeña, su
derivada puede tener una magnitud tan grande que sature a los derivadores.
William Thomson (Lord Kelvin) propuso el uso de integradores e lugar de
diferenciadores como bloque básico de los diagramas de simulación analógica,
así, la ecuación diferencial general planteada al inicio de esta secció n se puede
simular mediante el esquema de Kelvin como sigue
(n-1) (n-2)
y(0) y (0) y (0)
(n) (n-1) (n-2) .
y y y ... y y
∫ ∫ ∫
Dispositivo cuya
salida es
(n-1) .
F( y, ... ,y,u,t )
u
El esquema de Kelvin tiene la ventaja de usar solamente integradores en su
construcción, por lo cual es físicamente realizable, además provee la manera de
establecer condiciones iniciales en cada bloque integrador para cada salida
correspondiente.
Sin embargo, la principal idea de incluir estos esquemas aquí es que en estos
términos, el proceso de obtención de algunas realizacione s y sus d iagramas de
bloques estándar es sencillo.
Cuatro realizaciones canónicas
Al considerar sistemas lineales (ecuaciones diferenciales) que en general
pueden contener derivadas de la entrada, por ejemplo
.
ÿ + 5y = u + 2 u
debemos ir más allá del método de Kelvin para evitar el uso de derivadores, a
continuación se trata un enfoque basado en superposición
Consideremos el siguiente sistema de tercer orden (el caso general de órdenes
mayores sólo es más complicado en notación)
... .. . . ..
y +a 1 y +a 2 y +a 3 y = b 3 u + b 2 u +b 1 u (1)
Primero consideremos el sistema relacionado
... .. .
q +a 1 q +a 2 q +a 3 q = u (2)
Entonces, por linealidad (considerando condiciones iniciales cero)
. ..
y = b 3 q + b 2 q +b 1 q (3)
Un diagrama de simulación se puede obtener para el sistema así planteado, si
aplicamos el método de Kelvin a la ecuación (2) con entrada u y salida q, y
posteriormente usamos diferenciadores para obtener y a partir de q como se
muestra en la figura 2.1
Además, los diferenciadores se pueden eliminar observando simplemente que
se tienen integradores y diferenciadores en serie, o bien, usando el hecho de
.
que si q aparece a la salida de un integrador, la entrada de éste debe ser q esto
se muestra en la figura 2.2
d d
b1
dt dt
d b2
dt + y
.. .
u q q q q
+ ∫ ∫ ∫ b3
-a1
-a2
-a3
Figura 2.1 Implementación de (1) usando diferenciadores
b1
b2 + y
... .. .
u q q q q
+ ∫ ∫ ∫ b3
-a1
-a2
-a3
Figura 2.2 Implementación usando sólo integradores
Representación matricial
El diagrama de la figura 2.2 se conoce como la forma canónica controlador
y al igual que cualquier diagrama de simulación, puede representarse como un
con junto de ecuaciones de estado de primer orden . Para ello, tomemos como
variables de estado las salidas de cada integrador, es decir
.. .
x 1c =q, x 2c =q, x 3c =q
Del diagrama de simulación o equivalentemente, de las ecuaciones (2) y (3) es
fácil obtener:
.
x 1c = −a 1 x 1c − a 2 x 2c − a 3 x 3c + u
.
x 2c = x 1c
.
x 3c = x 2c
y = b 1 x 1c + b 2 x 2c + b 3 x 3c
el conjunto de ecuaciones anterior se puede escribir de manera compacta en
forma matricial como sigue
.
x c =A c x+b c u, y=c c x c (4)
En donde xc=[ x1c x2c x3c ]T,
−a 1 −a 2 −a 3 1
A c = 1 0 0 , b c = 0 , c c =[b 1 b 2 b 3 ] (5)
0 1 0 0
Otro enfoque
Usando transformada de Laplace (considerando condiciones iniciales cero) en
la ecuación (1), obtenemos
(s3+a1s2+a2s+a3) Y(s) = (b1s2+b2s+b3) U(s)
Es decir,
b(s) (b 1 s 2 + b 2 s + b 3 )
Y(s) = a(s) 3 U(s) (6)
(s + a 1 s 2 + a 2 s + a 3 )
lo cual puede ser escrito como
Y(s) = b(s)a-1(s)U(s) = b(S)Q(s) (7)
En donde
a(s) Q(s) = U(s) (8)
el razonamiento anterior es equivalente al de las ecuaciones (1), (2), (3).
Por otro lado, es natural investigar que pasa si escribimos las cosas en orden
inverso, es decir
Y(s) = a-1(s)b(s)U(s) (9)
. ..
Si ahora definimos m(t) = b 3 u(t)+b 2 u(t)+b 1 u(t) e implementamos la
ecuación
a(s)Y(s) = M(s) (10)
obtenemos el siguiente diagrama de simulación
d d
b1
dt dt
... .. .
m y y y y
d
dt
b2 + + ∫ ∫ ∫
u b3 -a1
-a2
-a3
Figura 2.3
El diagrama anterior puede ser transformado usando sólo integradores en el
siguiente
u
b1 b2 b3
x 3ob x 2ob x 1ob
+ ∫ + ∫ + ∫ y
-a1
-a2
-a3
figura 2.4
En donde
b 1 = b1
b 2 = b2 - a 1 b 1
b 3 = b3 - a 1 b 2 - a 2 b 1 + a 1 2 b 1
lo cual puede ser expresado en forma matricial como
−1
b1 1 0 0 b1
b2 = a1 1 0 b2 (11)
b3 a2 a1 1 b3
A la implementación de la figura 2.4 se le llama la forma canónica de
observabilidad
De acuerdo al diagrama de simulación y eligiendo como variables de estado las
salidas de cada integrador, es decir, xob=[x1ob x2ob x3ob ] T obtenemos las
siguientes ecuaciones de estado para esta forma canónica
.
x ob =A ob x ob +b ob u, y=c ob x ob (12)
En donde
0 1 0 b1
A ob = 0 0 1 , b ob = b 2 , c ob =[1 0 0] (13)
−a 3 −a 2 −a 1 b3
Otra manera de ver el proceso anterior es obtener un desarrollo en serie de
potencias de s-1 para la función racional b(s)/a(s), es decir
º
b(s)
a(s) = H(S) = S
i=1
h i s −i (14)
En donde los coeficientes hi se denominan parámetros de Markov puede
demostrarse que
h i = b i, i=1, 2, 3, ..., n (15)
Otro par de realizaciones pueden ser obtenidas con razonamientos similares:
La Forma canónica observador toma como variables de estado las salidas de
los integradores en la figura 2.5, es decir, xo =[ x01 x02 xo3]T
u
b3 b2 b1
x 3o x2o x1o
+ ∫ + ∫ + ∫ y
∫ ∫ ∫
-a 3 -a2 -a1
Figura 2.5 Forma canónica observador
y sus ecuaciones de estado son
.
x o = A o x o +b o u, y=c o x o (16)
En donde
−a 1 1 0 b1
A o = −a 2 0 1 , b o = b 2 , c o =[1 0 0 ] (17)
−a 3 0 0 b3
La Forma canónica de controlabilidad tiene las siguientes ecuaciones de
estado
.
x co = A co x co +b co u, y=c co x co (16)
En donde
0 0 −a 3 1
A co = 1 0 −a 2 , b co = 0 , c o =[ b 1 b 2 b 3 ]
(17)
0 1 −a 1 0
Estas ecuaciones corresponden al diagrama de simulación siguiente
β3
y
β2 +
u x3co β1
+ ∫ x1co + ∫ x2co + ∫
∫ ∫ ∫
-a 3 -a2 -a1
Figura 2.6 Forma canónica de controlabilidad
Dualidad
Las formas canónicas controlador y observador se dicen duales en el sentido
de que Ao = AcT, bo= ccT, co = bcT
En forma similar, las formas de controlabilidad y de observabilidad son duales
en el sentido de que Aob = AcoT, bob= ccoT, cob = bcoT
Realizaciones en paralelo o diagonales
Una de las realizaciones más compactas se puede obtener observando que la
función racional (propia) b(s)/a(s), en el caso en que el denominador a(s) tenga
todas sus raíces diferentes, es decir,
a(s) = (s-λ1)(s-λ2)...(s-λn) (18)
podemos expandir el cociente en fracciones parciales de la siguiente manera
n
b(s) gi
a(s) = S
i=1 s − ki
(19)
El diagrama de simulación correspondiente a la expresión anterior es
b1 c1
+ ∫
∫
λ1
b2 c2
+ ∫
∫
λ2
y
u
bi c i= g i +
bn cn
+ ∫
∫
λn
Figura 2.7 Forma diagonal
Del diagrama anterior podemos obtener las correspondientes ecuaciones de
estado
.
x d =A d x d +b d u, y=c d u (21)
En donde (para n=3)
k1 0 0 b1
A d = 0 k 2 0 , b d = b 2 , c d =[ c 1 c 2 c 3 ]
(22)
0 0 k3 b3
y las variables de estado son las salidas de cada integrador en la figura 2.7.
La forma diagonal es de las realizaciones más sencillas, sin embargo, cuando
las raíces de a(s) son repetidas no siempre es posible obtenerla, en tal caso la
matriz A d en general puede ser una matriz diagonal por bloques del tipo
canónico de Jordan. Los cálculos requeridos para obtener una forma de Jordan
son numéricamente inestables y no se tratarán en estas notas.
No unicidad de las realizaciones en espacio de estado
De la discusión anterior se puede ver que una misma ecuación diferencial
puede ser implementada mediante diversos diagramas de simulación, y cada
uno de estos correspondiendo a una representación diferente en espacio de
estado. De acuerdo con esto no tiene mucho sentido hablar de los estados de
un sistema, sino más bien de los estados de una realización determinada.
En general la relación entre una realización y otra puede establecerse como un
cambio de variables de estado relacionadas por una transformación lineal
definida por una matriz de transformación T, de la forma
variables viejas = T . variables nuevas
o bien, si las variables viejas son x(t) y las nuevas son x (t) entonces
x(t) = Tx(t), con det T !0 (23)
-
Entonces .
x (t) = Ax(t) + bu(t) (24)
con y(t) = cx(t) (25)
En donde A = T −1 AT, b = T −1 b, c = cT (27)
Como hay una infinidad de matrices invertibles T, es claro que hay una
infinidad de realizaciones
Las matrices A yA se denominan matrices similares y la transformación
definida por (27) se denomina transformación de similaridad.
De esta manera cuando buscamos una realización determinada, el problema se
resuelve encontrando la matriz T que logra la transformación deseada. Es
importante enfatizar que este problema NO siempre tien e solución, es decir, no
siempre es posible obtener una realización deseada del mismo orden que la
original mediante una transformación de similaridad.