0% encontró este documento útil (0 votos)
28 vistas12 páginas

Fundamentos de Sistemas Dinámicos

La Teoría de Sistemas Dinámicos estudia la evolución de sistemas físicos a lo largo del tiempo, considerando factores determinísticos y aleatorios. Se abordan etapas como la modelización, descripción matemática y análisis de sistemas, centrándose en sistemas lineales tanto en tiempo continuo como discreto. El documento también detalla las ecuaciones que rigen estos sistemas y la importancia de la matriz de transición en el análisis cuantitativo.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
28 vistas12 páginas

Fundamentos de Sistemas Dinámicos

La Teoría de Sistemas Dinámicos estudia la evolución de sistemas físicos a lo largo del tiempo, considerando factores determinísticos y aleatorios. Se abordan etapas como la modelización, descripción matemática y análisis de sistemas, centrándose en sistemas lineales tanto en tiempo continuo como discreto. El documento también detalla las ecuaciones que rigen estos sistemas y la importancia de la matriz de transición en el análisis cuantitativo.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Tema 1: Fundamentos de la teorı́a de

sistemas dinámicos

1. Etapas en el estudio de un sistema dinámico


2. Descripción matemática de un sistema dinámico
3. Sistemas lineales en tiempo continuo
4. Sistemas lineales en tiempo discreto
5. Análisis cualitativo de sistemas lineales

El objetivo de la Teorı́a de Sistemas Dinámicos es estudiar la evolución que ex-


perimenta a través del tiempo cualquier sistema fı́sico sometido a la influencia de
diversos factores que actúan externa o internamente sobre dicho sistema. Cuando
todos los factores que afectan el comportamiento de un sistema son determinı́sticos,
su evolución está totalmente determinada si tales factores son conocidos y se conoce
también las condiciones iniciales de las que parte el sistema. Sin embargo, en la gran
mayorı́a de situaciones reales, los factores que influyen en la evolución del sistema
tienen un carácter aleatorio, por lo que la evolución del sistema es también aleatoria.
Estos sistemas se denominan sistemas estocásticos, y uno de los principales proble-
mas que se plantea en su estudio es estimar de alguna manera su evolución en el
tiempo. Antes de tratar el problema de estimación en sistemas estocásticos, objetivo
fundamental de este curso, en este tema presentamos una introducción general de
la Teorı́a de Sistemas, describiendo las distintas etapas que deben considerarse para
el estudio de cualquier sistema fı́sico, y centrándonos principalmente en sistemas
lineales.

1
Tema 1: Fundamentos de la teorı́a de sistemas dinámicos

1 Etapas en el estudio de un sistema dinámico


Las distintas etapas que deben considerarse para el estudio de un sistema dinámico son:

• Modelización.

• Descripción matemática.

• Análisis del modelo.

1.1 Modelización
Para modelizar un sistema fı́sico es preciso definir las variables que intervienen en él, ası́
como explicar las relaciones fı́sicas entre dichas variables. Se distingue esencialmente entre
tres tipos de variables:

• Variables de estado, que describen las caracterı́sticas internas propias del sistema.

• Variables de entrada, que representan los estı́mulos o factores externos a los que está
sometido el sistema.

• Variables de salida u observaciones, que representan la información real que obte-


nemos al observar el sistema.

1.2 Descripción matemática


Una vez definidas las variables y explicadas sus relaciones fı́sicas, la siguiente etapa consiste
en buscar un modelo matemático que describa tales relaciones. La descripción matemática
de un sistema se hará generalmente en función de los objetivos planteados en cada situación
particular y, según esto, existen básicamente dos tipos de descripción:

• Descripción entrada-salida, en la que se especifica exclusivamente el valor de las


variables de salida en función de las entradas, ignorando la estructura interna del
sistema. Se conoce también como descripción externa.

• Descripción interna, que proporciona, además, la relación entre las variables de es-
tado y las entradas al sistema. Se denomina también descripción con variables de
estado.

SISTEMAS ESTOCÁSTICOS. ESTIMACIÓN DE SEÑALES 2


Tema 1: Fundamentos de la teorı́a de sistemas dinámicos

1.3 Análisis
Una vez descrito el modelo matemático del sistema, se plantea el análisis de dicho modelo,
que puede ser de dos tipos:

• Análisis cuantitativo, que consiste en la determinación de la respuesta del sistema


ante diferentes entradas y condiciones iniciales internas del sistema.

• Análisis cualitativo, que se refiere al estudio de propiedades generales del modelo


que, de alguna manera, permitan realizar un análisis cuantitativo más o menos com-
pleto. Entre estas propiedades destacamos las de observabilidad, controlabilidad y
estabilidad, que describiremos en el último apartado de este tema.

2 Descripción matemática de un sistema dinámico

2.1 Descripción entrada-salida


Como ya se ha comentado, se trata de encontrar una relación entre las entradas y las salidas
del sistema, sin tener en cuenta su estructura interna. Ası́, imaginamos el sistema como una
caja negra sobre la que, en cada instante de tiempo t, actúan p entradas, u1 (t), . . . , up (t),
y se producen q salidas, z1 (t), . . . , zq (t):

u1 (t) z1 (t)
−→ −→
.. ..
. .
up (t) zq (t)
−→ −→
Notando u(t) y z(t) a los vectores columna formados por las entradas y las salidas, respec-
tivamente,
u(t) = (u1 (t), . . . , up (t))T z(t) = (z1 (t), . . . , zq (t))T ,
y suponiendo que todas las entradas y salidas son reales, y que el estudio del sistema
comienza en el instante t0 , se definen las funciones

u[t0 ,+∞) : [t0 , +∞) −→ Rp z[t0 ,+∞) : [t0 , +∞) −→ Rq


t 7−→ u(t) t 7−→ z(t)

Entonces, la descripción se realiza mediante un operador funcional Ht0 , que actúa sobre
cada función entrada, u[t0 ,+∞) , determinando unı́vocamente la salida, z[t0 ,+∞) :

z[t0 ,+∞) = Ht0 u[t0 ,+∞) .

SISTEMAS ESTOCÁSTICOS. ESTIMACIÓN DE SEÑALES 3


Tema 1: Fundamentos de la teorı́a de sistemas dinámicos

El gran inconveniente que presenta la descripción entrada-salida es que en la gran mayorı́a


de situaciones reales, las salidas del sistema dependen no sólo de las entradas sino de las
condiciones internas del sistema en cada instante de tiempo. En tales casos, debe recurrirse
a la descripción interna que, al considerar todas las variables que intervienen en el sistema,
proporciona una descripción más real del mismo.

2.2 Descripción con variables de estado


Para realizar esta descripción, comenzamos estableciendo la definición formal de estado del
sistema.

Definición: El estado de un sistema en un instante de tiempo t es la cantidad de infor-


mación necesaria para determinar, junto con las entradas posteriores a t, las salidas futuras
del sistema.

En general, el estado de un sistema estará determinado por un conjunto (finito o infinito)


de variables, denominadas variables de estado, y el vector formado por ellas se denomina
vector de estado. Se representará mediante una función del tiempo, x(t), t ∈ R, y en todo
nuestro estudio lo supondremos de dimensión finita, n:

x : R −→ Rn
t 7−→ x(t).

La descripción con variables de estado incluye dos ecuaciones, denominadas ecuaciones


dinámicas del sistema:

• Ecuación del estado: Describe la evolución del estado en función de las entradas
en cada instante de tiempo; usualmente, esta evolución se describe mediante una
ecuación diferencial ordinaria de primer orden:

dx(t)
= ht (x(t), u(t)).
dt
• Ecuación de observación: Especifica la salida del sistema en cada instante, en función
del estado y de la entrada en dicho instante:

z(t) = gt (x(t), u(t)).

Nota: La descripción de la ecuación del estado mediante una ecuación diferencial es una
suposición que se adecúa perfectamente a gran cantidad de situaciones reales y, aunque
generalmente las ecuaciones que aparecen son de orden superior a uno, se pueden trans-
formar en ecuaciones de primer orden sin más que introducir variables adicionales en el
vector de estado.

SISTEMAS ESTOCÁSTICOS. ESTIMACIÓN DE SEÑALES 4


Tema 1: Fundamentos de la teorı́a de sistemas dinámicos

Cuando las funciones ht y gt que definen las ecuaciones dinámicas son lineales en x(t) y
u(t), el sistema descrito por ellas se denomina un sistema lineal. Por su gran importancia,
nos centramos a continuación en el análisis de tales sistemas.

3 Sistemas lineales en tiempo continuo


Los sistemas lineales son de gran importancia en esta teorı́a ya que son aplicables a una
gran cantidad de situaciones reales y, además, su estudio constituye la base para el estudio
de sistemas no lineales. Como se ha indicado anteriormente, las ecuaciones dinámicas
que describen estos sistemas están definidas mediante funciones lineales del estado y de la
entrada en cada instante:

dx(t)
= A(t)x(t) + B(t)u(t)
dt

z(t) = H(t)x(t) + G(t)u(t)

donde A, B, H y G son funciones matriciales de dimensiones apropiadas.

3.1 Análisis cuantitativo del sistema


Para que estas ecuaciones describan correctamente un sistema dinámico, el estado debe
estar unı́vocamente determinado en cada instante de tiempo y, por lo tanto, la ecuación
del estado debe tener solución única. Esta solución, junto con las entradas, determinará
las salidas del sistema teniendo en cuenta la ecuación de observación.
Nos centramos, por tanto, en la ecuación del estado y, basándonos en la Teorı́a de Ecua-
ciones Diferenciales, obtenemos su solución.
Supongamos que el análisis del sistema comienza en un tiempo arbitrario t0 . Para obtener
la solución de la ecuación del estado se parte de lo que se denomina la matriz fundamental
del sistema, que es la única solución de la ecuación diferencial matricial

dX(t)
= A(t)X(t), t ≥ t0
dt
con condición inicial X(t0 ) = In×n .
La existencia y unicidad de la matriz fundamental está garantizada si la función A es
continua y, además, X(t) es no singular para todo t ≥ t0 . A partir de X, la solución
(única) de la ecuación del estado (supuesto que Bu es continua a trozos) está dada por
∫ t
x(t) = X(t)x(t0 ) + X(t) X −1 (τ )B(τ )u(τ )dτ , t ≥ t0 .
t0

SISTEMAS ESTOCÁSTICOS. ESTIMACIÓN DE SEÑALES 5


Tema 1: Fundamentos de la teorı́a de sistemas dinámicos

Una expresión más práctica de esta solución es a través de la que se denomina matriz de
transición del sistema, que se define en términos de la matriz fundamental:
Φ(t, s) = X(t)X −1 (s), t, s ≥ t0 ,
y que satisface las siguientes propiedades:
∂Φ(t, s)
• = A(t)Φ(t, s); Φ(s, s) = In×n .
∂t
• Φ−1 (t, s) = Φ(s, t).
• Φ(t, r)Φ(r, s) = Φ(t, s).

Entonces, teniendo en cuenta que X(t0 ) = In×n y, por tanto, Φ(t, t0 ) = X(t), la solución
de la ecuación del estado se expresa en términos de la matriz de transición como:
∫ t
x(t) = Φ(t, t0 )x(t0 ) + Φ(t, τ )B(τ )u(τ )dτ , t ≥ t0 .
t0

Una vez obtenido el estado en cualquier instante t a partir del estado inicial, x(t0 ), y las
entradas, u(τ ), t0 ≤ τ ≤ t, la respuesta del sistema a dichas condiciones está dada por:
[ ∫ t ]
z(t) = H(t) Φ(t, t0 )x(t0 ) + Φ(t, τ )B(τ )u(τ )dτ + G(t)u(t), t ≥ t0 .
t0

4 Sistemas lineales en tiempo discreto


A diferencia de los sistemas descritos en el apartado 3, existen muchos sistemas fı́sicos que
sólo experimentan cambios en instantes discretos de tiempo. Suponiendo, sin pérdida de
generalidad, que los instantes en que el sistema cambia están igualmente espaciados, y
notando tales instantes por k, con k ∈ N ∪ {0}, la descripción matemática de un sistema
lineal en tiempo discreto está dada por las ecuaciones:

x(k + 1) = A(k)x(k) + B(k)u(k)

z(k) = H(k)x(k) + G(k)u(k),


donde, como en el caso continuo, x(k), u(k) y z(k) son los vectores estado (n-dimensional),
entrada (p-dimensional) y salida (q-dimensional) en el instante k, respectivamente, y
A, B, H y G son funciones matriciales de dimensiones apropiadas.
Nótese que ahora la ecuación del estado es una ecuación en diferencias en vez de una
ecuación diferencial como en el caso continuo. A continuación, como se ha hecho en tal
caso, obtenemos la solución de dicha ecuación, con objeto de determinar las salidas del
sistema a partir de las entradas y de la condición inicial.

SISTEMAS ESTOCÁSTICOS. ESTIMACIÓN DE SEÑALES 6


Tema 1: Fundamentos de la teorı́a de sistemas dinámicos

4.1 Análisis cuantitativo del sistema


Se define la matriz de transición del sistema como:

- Φ(k, s) = A(k − 1)A(k − 2) · · · A(s), k > s

- Φ(k, k) = In×n .

Entonces, sin más que aplicar sucesivamente la ecuación del estado, se obtiene el estado
en cualquier instante de tiempo en términos del estado en cualquier instante inicial k0 , y
las entradas hasta dicho instante:

k−1
x(k) = Φ(k, k0 )x(k0 ) + Φ(k, i + 1)B(i)u(i), k > k0 .
i=k0

Sustituyendo esta expresión en la ecuación de observación, se obtiene la respuesta del


sistema en un instante arbitrario en función de cualquier estado inicial y las entradas hasta
dicho instante:
[ ]
∑k−1
z(k) = H(k) Φ(k, k0 )x(k0 ) + Φ(k, i + 1)B(i)u(i) + G(k)u(k), k > k0 .
i=k0

4.2 Discretización de un sistema continuo


Además de modelizar muchas situaciones prácticas, los sistemas en tiempo discreto adquie-
ren significado cuando se introduce un procedimiento de muestreo discreto en un sistema
continuo. A veces, fundamentalmente por razones económicas, sólo se dispone de obser-
vaciones de un sistema continuo en instantes de tiempo discretos; además, en muchas
ocasiones, la implementación de los diversos algoritmos para el análisis de los sistemas
se hace en tiempo discreto, por lo que es conveniente disponer de un método que per-
mita aproximar un sistema continuo por uno discreto. A continuación describimos dicho
método.
Consideremos el sistema en tiempo continuo
dx(t)
= A(t)x(t) + B(t)u(t)
dt

z(t) = H(t)x(t) + G(t)u(t),

y supongamos que sólo estamos interesados en el comportamiento del sistema en determi-


nados instantes discretos, tk , k ∈ N ∪ {0}.
Si suponemos que la función entrada, u[t0 ,+∞) , es prácticamente constante en cada intervalo
de integración [tk , tk+1 ), teniendo en cuenta la expresión de la solución de la ecuación del

SISTEMAS ESTOCÁSTICOS. ESTIMACIÓN DE SEÑALES 7


Tema 1: Fundamentos de la teorı́a de sistemas dinámicos

estado dada en el apartado 3.1, el estado x(tk+1 ) se puede expresar (aproximadamente) en


términos de x(tk ) de la siguiente forma:
[∫ tk+1 ]
x(tk+1 ) = Φ(tk+1 , tk )x(tk ) + Φ(tk+1 , τ )B(τ )dτ u(tk ), k ≥ 0,
tk

y las salidas del sistema en los instantes de tiempo considerados son

z(tk ) = H(tk )x(tk ) + G(tk )u(tk ), k ≥ 0.

5 Análisis cualitativo de sistemas lineales


En este apartado exponemos algunas propiedades cualitativas de los sistemas dinámicos y
realizamos un estudio de estas propiedades en sistemas lineales continuos y discretos, de
los tipos considerados en los apartados 3 y 4, respectivamente.

5.1 Observabilidad
La observabilidad de un sistema es una propiedad que se refiere a la posibilidad de deter-
minar la trayectoria del estado en un intervalo de tiempo finito, a partir de las entradas y
las salidas en dicho intervalo.

• Observabilidad en sistemas lineales continuos


Consideremos un sistema lineal en tiempo continuo,

dx(t)
= A(t)x(t) + B(t)u(t)
dt

z(t) = H(t)x(t) + G(t)u(t).

Según se estableció en el apartado 3.1, si A es una función continua y Bu es continua


a trozos, el estado de este sistema en cualquier instante de tiempo puede obtenerse
a partir de cualquier estado anterior y de las entradas hasta dicho instante mediante
la expresión
∫ t
x(t) = Φ(t, t0 )x(t0 ) + Φ(t, τ )B(τ )u(τ )dτ , t ≥ t0 .
t0

Por lo tanto, ya que el objetivo es conocer el estado en un intervalo de tiempo a


partir de las entradas y las salidas en dicho intervalo, basta determinar el estado
inicial, x(t0 ), a partir de ellas. Aparecen ası́ las siguientes definiciones para el tipo
de sistemas considerado:

SISTEMAS ESTOCÁSTICOS. ESTIMACIÓN DE SEÑALES 8


Tema 1: Fundamentos de la teorı́a de sistemas dinámicos

– El sistema es observable en t0 si ∃t1 ≥ t0 tal que x(t0 ) puede determinarse a


partir de u[t0 ,t1 ] y de z[t0 ,t1 ] .
– El sistema es completamente observable si lo es en todo instante t0 .

Exponemos a continuación algunas condiciones para la observabilidad.

Condición suficiente para la observabilidad: Si la dimensión del vector salida


(q) es mayor o igual que la dimensión del vector estado (n) y H(t0 ) tiene rango n, el
sistema es observable en t0 :

x(t0 ) = [H T (t0 )H(t0 )]−1 H T (t0 ) [z(t0 ) − G(t0 )u(t0 )] .

La siguiente condición, necesaria y suficiente para la observabilidad de los sistemas


considerados, se establece en términos de la denominada matriz de observabilidad:
∫ t1
O(t0 , t1 ) = ΦT (t, t0 )H T (t)H(t)Φ(t, t0 )dt, t1 > t0 .
t0

Condición necesaria y suficiente para la observabilidad: El sistema es obser-


vable en t0 si y sólo si ∃t1 ≥ t0 tal que O(t0 , t1 ) es no singular; en tal caso,
∫ t1
−1
x(t0 ) = O (t0 , t1 ) ΦT (t, t0 )H T (t)z(t)dt−
∫t0t1 [ ∫ t ]
−1
O (t0 , t1 ) T T
Φ (t, t0 )H (t) H(t) Φ(t, τ )B(τ )u(τ )dτ − G(t)u(t) dt.
t0 t0

• Observabilidad en sistemas lineales discretos


Consideremos el sistema discreto
x(k + 1) = A(k)x(k) + B(k)u(k)

z(k) = H(k)x(k) + G(k)u(k).

Teniendo en cuenta la expresión del estado en términos de cualquier estado inicial y


de las entradas hasta dicho instante (apartado 4.1),


k−1
x(k) = Φ(k, k0 )x(k0 ) + Φ(k, i + 1)B(i)u(i), k > k0 ,
i=k0

se obtienen, como en el caso continuo, las siguientes definiciones.

– El sistema es observable en k0 si ∃k1 ≥ k0 tal que x(k0 ) puede determinarse a


partir de u(k0 ), . . . , u(k1 ) y de z(k0 ), . . . , z(k1 ).

SISTEMAS ESTOCÁSTICOS. ESTIMACIÓN DE SEÑALES 9


Tema 1: Fundamentos de la teorı́a de sistemas dinámicos

– El sistema es completamente observable si lo es en todo instante k0 .

La matriz de observabilidad se define también de forma similar al caso continuo:



k1
O(k0 , k1 ) = ΦT (i, k0 )H T (i)H(i)Φ(i, k0 ), k1 ≥ k0 ,
i=k0

y se tiene la siguiente condición para la observabilidad.

Condición necesaria y suficiente para la observabilidad: El sistema es obser-


vable en k0 si y sólo si ∃k1 ≥ k0 tal que O(k0 , k1 ) es no singular; en tal caso,

k1
−1
x(k0 ) = O (k0 , k1 ) ΦT (i, k0 )H T (i)z(i)−
i=k0

[ ]

k1 ∑
i−1
O−1 (k0 , k1 ) ΦT (i, k0 )H T (i) H(i) Φ(i, j + 1)B(j)u(j) − G(i)u(i) .
i=k0 j=k0

5.2 Controlabilidad
La propiedad de controlabilidad se refiere a la posibilidad de determinar entradas que
permitan transferir cualquier estado en un instante de tiempo a cualquier otro estado
en un intervalo de tiempo finito. Esta propiedad, por tanto, se refiere exclusivamente a la
ecuación del estado, ya que las salidas no intervienen. Analizamos la propiedad en sistemas
lineales continuos y discretos.

• Controlabilidad en sistemas lineales continuos


Consideremos la ecuación del estado en un sistema lineal en tiempo continuo,
dx(t)
= A(t)x(t) + B(t)u(t).
dt
Dada la linealidad de esta ecuación, el paso de un estado x(t0 ) a cualquier estado x
equivale al paso de x(t0 ) − x al estado 0 y se tienen las siguientes definiciones:

– El sistema es controlable en t0 si para cualquier valor x(t0 ) existe t1 > t0 y u[t0 ,t1 ]
tal que x(t1 ) = 0.
– El sistema es completamente controlable si lo es en todo instante t0 .

La siguiente condición, necesaria y suficiente para la controlabilidad de los sistemas


considerados, se establece en términos de la denominada matriz de controlabilidad :
∫ t1
C(t0 , t1 ) = Φ(t0 , t)B(t)B T (t)ΦT (t0 , t)dt, t1 > t0 .
t0

SISTEMAS ESTOCÁSTICOS. ESTIMACIÓN DE SEÑALES 10


Tema 1: Fundamentos de la teorı́a de sistemas dinámicos

Condición necesaria y suficiente para la controlabilidad: El sistema es contro-


lable en t0 si y sólo si ∃t1 > t0 tal que C(t0 , t1 ) es no singular; en tal caso, introduciendo
en el sistema la entrada

u(t) = −B T (t)ΦT (t0 , t)C −1 (t0 , t1 )x(t0 ), t ∈ [t0 , t1 ],

se transfiere x(t0 ) a x(t1 ) = 0.

• Controlabilidad en sistemas lineales discretos


Consideremos la ecuación del estado de un sistema lineal discreto:

x(k + 1) = A(k)x(k) + B(k)u(k).

– El sistema es controlable en k0 si para cualquier x(k0 ) existe k1 > k0 y existe


u(k0 ), . . . , u(k1 − 1) tal que x(k1 ) = 0.
– El sistema es completamente controlable si lo es en todo k0 .

La matriz de controlabilidad se define también de forma similar al caso continuo:


k∑
1 −1

C(k0 , k1 ) = Φ(k0 , i + 1)B(i)B T (i)ΦT (k0 , i + 1), k1 > k0 ,


i=k0

y se tiene la siguiente condición para la controlabilidad del sistema.

Condición necesaria y suficiente para la controlabilidad: El sistema es con-


trolable en k0 si y sólo si ∃k1 > k0 tal que C(k0 , k1 ) es no singular; en tal caso,
introduciendo en el sistema la entrada

u(j) = −B T (j)ΦT (k0 , j + 1)C −1 (k0 , k1 )x(k0 ), j : k0 , . . . , k1 − 1,

se transfiere cualquier estado x(k0 ) a x(k1 ) = 0.

5.3 Estabilidad
La estabilidad es una propiedad que se refiere al comportamiento del estado de un sistema
cuando se introducen entradas nulas. Es, por lo tanto, una propiedad referida exclusi-
vamente a la ecuación del estado y, de forma genérica, puede decirse que la ecuación es
estable si sus soluciones no tienden a crecer indefinidamente cuando t → +∞.

• Estabilidad en sistemas lineales continuos


Consideremos la ecuación del estado de un sistema lineal continuo con entrada nula:
dx(t)
= A(t)x(t).
dt

SISTEMAS ESTOCÁSTICOS. ESTIMACIÓN DE SEÑALES 11


Tema 1: Fundamentos de la teorı́a de sistemas dinámicos

– El sistema es estable (en el sentido de Lyapunov) si

∀t0 , ∀ϵ > 0 ∃δ(ϵ, t0 ) > 0 / ||x(t0 )|| ≤ δ(ϵ, t0 ) ⇒ ||x(t)|| ≤ ϵ, ∀t ≥ t0 .

O sea, partiendo de un estado x(t0 ) suficientemente próximo a cero, e intro-


duciendo entradas nulas en el sistema, el estado en instantes sucesivos permanece
uniformemente acotado.
– El sistema es asintóticamente estable si es estable y

∀t0 , ∃ρ(t0 ) > 0 / ||x(t0 )|| ≤ ρ(t0 ) ⇒ lim ||x(t)|| = 0.


t→+∞

En este caso, si se introducen entradas nulas, el estado del sistema tiende a cero,
siempre que se parta de una condición inicial suficientemente próxima a cero.

• Estabilidad en sistemas lineales discretos


Las definiciones de estabilidad son totalmente análogas a las del caso continuo. Es-
tablecemos ahora estas definiciones en términos de la matriz de transición.
Consideremos la ecuación del estado de un sistema lineal discreto con entrada nula:

x(k + 1) = A(k)x(k),

cuya matriz de transición viene dada por Φ(k, s) = A(k − 1)A(k − 2) · · · A(s), k > s
(apartado 4.1).

– El sistema es estable si la matriz Φ(k, k0 ) está uniformemente acotada; esto es,

∀k0 / ||Φ(k, k0 )|| ≤ c, k ≥ k0 .

– El sistema es asintóticamente estable si es estable y

lim ||Φ(k, k0 )|| = 0, ∀k0 .


k→+∞

SISTEMAS ESTOCÁSTICOS. ESTIMACIÓN DE SEÑALES 12

También podría gustarte