Sistemas y Ecuaciones Lineales de Orden 2: Propiedades Básicas
Sistemas y Ecuaciones Lineales de Orden 2: Propiedades Básicas
Tendremos una fórmula de variación de las constantes que nos dará las soluciones de
[S] si somos capaces de hallar lo que se llama una matriz fundamental W(t) (formada
por soluciones del sistema homogéneo). Esta matriz sólo sabremos calcularla (utilizando
resultados de álgebra) en el caso de que las funciones , b , c y d sean constantes (enton-
ces W(t) será la exponencial de una matriz). De lo anterior deduciremos resultados para
las ecuaciones de segundo orden:
25
2.1 Propiedades generales
′
= ƒ (t, , y)
Un sistema de 2 ecuaciones de primer orden es: [S]
y ′ = g(t, , y)
Sus soluciones son parejas de funciones (t) , y(t) , definidas y derivables dos veces en un
intervalo común , que convierten cada ecuación de [S] en una identidad. Llamaremos [P]
al problema de valores iniciales formado por [S] y las condiciones iniciales:
(to ) = o , y(to ) = yo
′
x = f(t, x)
ƒ
Utilizando notación vectorial: [P] , con x = y , f = g , xo = y o .
x(to ) = xo o
(t)
Las soluciones x(t) = y(t) se pueden ver entonces como funciones vectoriales de en R2 .
∂ƒ ∂ƒ ∂g ∂g
Si ƒ , g , ∂
, ∂y
, ∂
y ∂y
son continuas en [to , ∞)×R2 o bien existe t1 tal que
Teor 2.
∥x(t)∥ → ∞ cuando t → t1 o bien la solución x(t) de [P] está definida ∀t ≥ to .
(Y si son continuas en un D ⊂ R3 las soluciones llegan hasta la frontera de D ).
Una solución x(t) definida en [to , ∞) es estable si ∀ϵ > 0 ∃δ > 0 tal que toda x∗(t) con
∥x(to )− x∗(to )∥ < δ existe, está definida en [to , ∞) y verifica ∥x(t)− x∗(t)∥ < ϵ ∀t ≥ to .
Si además ∥x(t)− x∗(t)∥ −→ 0 se dice que x(t) es asintóticamente estable.
t→∞
Pero para un sistema podrá ocurrir que ∥x(t)− x∗(t)∥ → 0 si t → ∞ y sin embargo
que no consigamos hacer que ∥x(t)− x∗(t)∥ sea menor que cualquier ϵ prefijado .
Sus soluciones son funciones (t) derivables dos veces en un intervalo que llevadas
a [e] la convierten en una identidad. Llamamos [Pe] al problema de valores iniciales
consistente en hallar la solución de [e] que satisface las dos condiciones:
26
∂g ∂g
g, ∂
y ∂′
continuas en un entorno de (to , o , ′o ) ⇒
Teor 3.
[Pe] tiene solución única definida al menos en un entorno de to .
Por último, se dice que (t) es solución estable o asintóticamente estable de [Pe] si
lo es la solución x(t) del sistema equivalente (y por lo tanto se han de parecer tanto
(t) y ∗ (t) como las derivadas de las dos soluciones).
′ = 3t1/ 3 + ln y
Ej 1. Posee solución con (to ) = o , y(to ) = yo si yo > 0. Única si o ̸= 0.
y ′ = y − t 3
No sabemos, ni sabremos, hallar su solución general, ni ver qué soluciones están definidas ∀t ,
ni precisar su estabilidad (aunque se podrían hallar los valores aproximados para unos datos
iniciales concretos por métodos numéricos). Es trivial comprobar que una solución del sistema es
t3
x(t) = 1 única con (1) = y(1) = 1 , aunque tal vez haya más con (0) = 0 , y(0) = 1 .
Como ƒ , g ∈ C1 en R2 existe solución única para cualquier pareja de datos (to ) = , y(to ) = b .
Sin mirar la solución sabíamos que cualquier (t) está definida ∀t y que cada y(t) no trivial
explota para un t1 < to por la potencia −y 3 .
1 [perdida en
Estudiemos la estabilidad de la solución que satisface (0) = 1 , y(0) = 0 → x = 0 el cálculo].
1+ (− 1)e−t
Las soluciones próximas con (0) = , y(0) = b son x∗= p [definidas ∀t ≥ 0 , claro].
22 t+1
(− 1)e −t
Es claro que ∥x(t)− x∗(t)∥ = p −→ 0 , pero esto no basta en sistemas para ser AE.
22 t+1 t→∞
− 1
Habría que encontrar además un δ tal que se cumpliese ∥x(t)− x∗(t)∥ ≤ ϵ cuando b
<δ .
[ES posible encontrarlo, aunque es complicado hacerlo. Pero en el capítulo 3 veremos formas
fáciles de precisar la estabilidad de las soluciones constantes de un sistema autónomo].
(Escribir las soluciones del sistema equivalente a partir de las de la ecuación es muy sencillo:
basta formar un vector cuyo primer elemento sea la solución de la ecuación y el segundo su
derivada. Y si resolvemos una ecuación a partir del equivalente (poco útil como se ha dicho)
lo que obtendremos es un vector en el que el segundo elemento es la derivada del de arriba,
que es la solución de la ecuación).
27
2.2 Soluciones de sistemas y ecuaciones lineales
′
= (t)+ b(t)y+ ƒ (t)
Sea . O en forma vectorial:
y ′ = c(t)+ d(t)y+ g(t)
b ƒ
[S] x′ = A(t)x+ f(t) , con x = y , A = c d , f = g .
1 (t) 2 (t)
Una matriz W(t) = cuyas columnas x1 = y 1 y x2 = y 2 son soluciones
y1 (t) y2 (t) 1 2
Este teorema dice que [Sh] está resuelto conocida una W(t) (pero no nos dice cómo hallarla):
Es fácil probar que cualquier combinación lineal de soluciones de [Sh] es también solución.
1 0
Probemos que son base de V las soluciones e1 (t) y e2 (t) de valores iniciales 0
y 1
:
Son linealmente independientes:
c1 e1 (t)+ c2 e2 (t) ≡ 0 ⇒ c1 e1 (to )+ c2 e2 (to ) = 0 ⇒ c1 = c2 = 0 .
(t)
Toda solución x(t) = y(t) se puede escribir como combinación lineal de ellas:
z(t) = (to )e1 (t)+ y(to )e2 (t) es solución con z(to ) = x(to ) ⇒ x(t) ≡ z(t) ∀t ∈ .
unicidad
Es claro que W(t)W−1 (to ) es la matriz unidad I en t = to y además el producto de W(t) por
la derecha por cualquier matriz constante no singular sigue siendo fundamental (sus colum-
nas serán combinaciones lineales de soluciones y son, pues, soluciones, y su determinante
sigue siendo no nulo). Que la última expresión satisface x(to ) = xo es evidente.
[Para casi ningún sistema es posible dar una W(t) (ni, por tanto, sus soluciones). Cuando A sea
constante, pronto veremos cómo calcular una, precisamente la canónica). Esto es ya mucho más
complicado Rque en las lineales de primer orden, donde la ‘matriz fundamental’ era simplemente
el escalar e , expresable siempre en términos de primitivas, y si constante la ‘matriz’ es et ].
28
Consideremos ahora el sistema no homogéneo: [S] x′ = A(t)x+ f(t) .
1 2
La exponencial de una matriz B se define: eB = I+ B+ 2
B +· · · , serie convergente
para cualquier B (sus elementos son series numéricas convergentes).
Se tiene que eB es no singular, que su inversa es e−B y que eB+C = eB eC si BC = CB .
Sea A una matriz 2x2 y sean λ1 , λ2 sus autovalores raíces de |A− λ| = 0 .
29
Teor 3. Wc (t) = eA(t−to ) es la matriz fundamental canónica en to de [Ch].
∞ ∞ ∞
d At d X (At)k d (At)k (At)k−1
= = =A = AeAt , admitiendo que se puede
X X
En efecto, dt
e dt k! dt k! (k−1)!
k=0 k=0 k=1
Y eJt es fácil de hallar en las dos posibles situaciones que ofrece Jordan para n = 2 :
eλ1 t 0
λ1 0 λ 0 1 0
a] Si J = , es eJt = . b] Si J = 1 λ , es eJt = t eλt .
0 λ2 0 eλ2 t 1
λ21 t 2
0 eλ1 t
1 0 λ1 t 0 1 0
a] Utilizando la definición: eJt = 0 1
+ 0 λ2 t
+ 2! + · · ·= λ2 t .
0 λ22 t 2 0 e
eλt
0 1 0
λ 0 0 0
b] Como J = 0 λ
+ 1 0
= D+ N , eJt = eDt eNt = 0 eλt
1
0
0
1
+ 0
t
0
0
= t 1
eλt .
donde todas las matrices son calculables (hallada la eJt , basta cambiar t por t − to o por
t − s para tener las otras). Insistimos en que los autovalores λ y las matrices P , P−1 y eJt
pueden ser complejos, pero si A es real han de ser eAt y la solución x también reales.
Para hacer los cálculos de esta fórmula es aconsejable efectuar las operaciones de derecha
a izquierda, de forma que sólo haya que multiplicar matrices por vectores (y no matrices
por matrices lo que es mucho más largo y mayor fuente de errores).
En el caso de que A sea diagonalizable tenemos una solución general aún más explícita:
30
′
= 2 + y
2 1 0 0
Ej 1. Resolvamos y ′ = 3 + 4y + et , es decir, x′ = x + t , x(0) = .
3 4 e 1
con (0) = 0 , y(0) = 1
[Sabemos que dicha solución es única y que está definida para todo t ∈ R ].
5t
5 0 e 0
|A− λ| = λ2 − 6λ+ 5 = 0 → λ1 = 5 y λ2 = 1 . Por tanto, J = , eJt = t .
0 1 0 e
−3 1 1 1 1 1
(A− 5)v = v = 0 → v1 = . (A− )v = v = 0 → v2 = ⇒
3 −1 3 3 3 −1
1 1 1 −1 −1 1 1
P= ⇒ P−1 = −4 = 14 .
3 −1 −3 1 3 −1
b 1 d −b
Hallar la inversa de una matriz 2x2 es casi inmediato: P = ⇒ P−1 = |P|
c d −c
se cambian y d de sitio, b y c de signo y se divide por el determinante .
Zt
1 1 1 0 1 1 0
Por tanto: x(t) = P eJt + 14 P eJ(t−s) ds
4 3 −1 1 0
3 −1 es
Z t 5(t−s) Rt !
5t−4s ds
5t s 5t
e 0 e 0 e 1 1 1 e e
1 1 1 1
= 4P +4P ds = 4 + 4 P 0 Rt t
0 et −1 0 0 et−s −es 3 −1 −et − 0 e ds
t t
5t t
1 5t
[e − e ]
5t t
e −e 1 1 1 5e − 5e − 4te
= 41 + 14 4 = 16
3e5t + et 3 −1 −tet 15e5t + et + 4tet
Si queremos la solución general, los cálculos son algo más cortos. La solución general de la
homogénea xh se escribe rápidamente una vez hallados los autovalores y vectores propios:
et
5t
e 5t 1 + c et 1
xh = W(t)c = PeJt c = = = c 1 e λ1 t v 1 + c 2 e λ2 t v 2 .
5t t
c c 1 e 2
3e −e 3 −1
Tanteando con los términos con et de la xp y la constante c2 , podemos poner esta solución
general del sistema algo más corta:
1 1 −t
x = xh + xp = c1 e5t + c2 et + 14 et
3 −1 t−1
§ ′
= − y+ 1
Ej 2. Hallemos la solución general de y la que cumple (0) = y(0) = 2 .
y ′ = 2− 2y
1 −1 1 2 1 1
A= , f= , x(0) = . |A− λ| = λ2 + λ = 0 , λ1 = 0 y λ2 = −1 → v1 = , v2 = .
2 −2 0 2 1 2
0 0 1 0 1 1 2 −1
Por tanto, J = , eJt = , P= , |P| = 1 ⇒ P−1 = .
0 −1 0 e−t 1 2 −1 1
−t
1 e
La solución general del sistema homogéneo siempre es fácil: c1 v1 + c2 e−t v2 = c1 +c2 .
1 2e−t
−t
1 e 2 −1
Para una particular podemos usar que una W(t) = → W−1 (t) = .
1 2e−t −et et
2t 2t − 1
Z Z
2
Y, con la [fvc] se tiene: xp = W W−1 f dt = W(t) −et dt = W(t) = .
−et 2t − 2
¿Habrá formas de calcular las xp tanteando? Algo diremos en el próximo problema.
c1 + c2 e−t + 2t + 1
La solución general del sistema es, pues: x = [cambiando algo la c1 ].
c1 + 2c2 e−t + 2t
c1 + c2 + 1 = 2 e−t + 2t + 1
Imponiendo los datos llegamos a la solución: → c1 = 0 , c2 = 1 . x = .
c1 + 2c2 = 2 e−t + 2t
31
§ ′
=−y+2 (0) = 0
1 −1 2 0
Ej 3. Resolvemos con → x′ = x+ , x(0) = .
y′ = + y y(0) = 1 1 1 0 1
−e(1+i )(t−s)
Zt Z t
1 −i 1 0 1 J(t−s) −i 1 2 1 t ei t
x(t) = P eJt + P e ds = e P + P ds
2 i 1 1 2
0
i 1 0 2 e−i t 0 e(1−i )(t−s)
Rt (1+i )(t−s) t i (1−i )
e(1+i )(t−s) ds 1− e(1+i )t
= =
−i 0 1+
e 0 1+1
y análoga la otra
Está claro que trabajar con autovalores complejos complica mucho los cálculos. Por suerte
conoceremos otros caminos para resolver estos sistemas: pronto veremos como convertirlos
en ecuaciones de segundo orden (mucho más manejables).
Para este sistmema concreto con f(t) constante (que son los que pueden aparecer en el
capíitulo 3) podíamos haber atajado buscando una solución del sistema no homogéneo que
fuese también constante (no siempre existirá, pues debe ser el determinante |A| ̸= 0 , o lo que
es lo mismo, no ser λ = 0 autovalor, por eso no hay soluciones constantes en el ejemplo 2).
Basta resolver el sistema
− y+ 2 = 0
§
−1
para obtenerla: = −1 , y = 1 → xp = 1 .
+ y = 0
Nos falta ya sólo sumar a xp la solución general del sistema homogéneo c1 eλ1 t v+ + c2 eλ2 t v−
e imponer los datos:
c1 i et+i t − c2 i et−i t − 1 c1 i − c2 i = 1
d.. 1 1
x= → → c1 = 2i , c2 = − 2i →
c1 et+i t + c2 et−i t + 1 c1 + c2 = 0
1 t
!
e [ei t + e−i t ] − 1
t
2 e cos t − 1
x= =
1 t
e [ei t − e−i t ] + 1 e sen t + 1
t
2
Si sólo queremos la solución general en términos de funciones reales podemos hallar P−1 y
calcular hasta el final la matriz canónica:
et cos t −et sen t
i −i et+i t −i 1 c1 −1
1 0
eAt = = → x = eAt + 1 .
2 1 1 0 et−i t i 1 et sen t et cos t c2
[Con esta matriz fundamental real podríamos hallar una xp (y no sólo en este caso de f
constante) realizando integraciones de funciones reales. Pero esto tampoco ahorra tiempo
porque, por ejemplo, es más rápido hallar una primitiva de e(1+i )t que de et cos t (hay que
utilizar dos veces partes para volver a encontrar la integral inicial)].
La teoría de los sistemas generales de orden n es la misma que la nuestra de orden 2 , pero
en la práctica pocos son resolubles, por la sencilla razón de que sus autovalores casi nunca
son calculables. Y además se complica bastante la teoría de Jordan.
Dejemos los sistemas y pasemos a estudiar las ecuaciones lineales de orden dos que, como
vimos en 2.1, se pueden mirar como un caso particular de ellos. Será cuestión de ir viendo
la forma que adoptan los resultados vistos para el ‘sistema equivalente’ a una ecuación.
Este no es el camino más corto para tratarlas. De hecho, sus teoremas se pueden probar sin
usar matrices y normalmente los libros de ecuaciones diferenciales las estudian primero.
32
Ecuaciones lineales de segundo orden
Sabemos que hay solución única definida en todo el intervalo para cada par de datos
iniciales (to ) = o , ′ (to ) = ′o si to ∈ . Haciendo ′ = y se tiene el sistema
§ ′
=y
′ , cuyas soluciones serán funciones vectoriales y = ′ .
y = −b(t)− (t)y+ ƒ (t)
El sistema está resuelto conociendo una matriz fundamental W(t) . Para ello basta dar dos
soluciones 1 y 2 de la ecuación homogénea asociada a [e] (pues la fila inferior de
la matriz serán sus derivadas ′1 y ′2 ) tales que sea no nulo en algún s ∈ el llamado
1 2
determinante wronskiano de 1 y 2 : |W|(t) = ′ ′ .
1 2
La expresión de las dos soluciones en términos de funciones elementales se podrá dar sólo en
los pocos casos que describiremos (si no, se debe resolver la ecuación por medio de series).
Como los elementos del vector real PeJt P−1 c , solución general del sistema homogéneo,
están formados por combinaciones lineales arbitrarias de los elementos de la matriz eJt , la
solución general de [ch] es, según sean las raíces de P(λ) :
[Se puede dar la solución sin usar el sistema equivalente: probando en [ch] soluciones del tipo = eλt
se deduce que λ debe satisfacer la ecuación característica P(λ) = 0 . Si λ1 ̸= λ2 ∈ R es claro que el |W|
de eλ1 t y eλ2 t es no nulo. Si λ doble, se comprueba que teλt también es solución y que es ̸= 0 el |W|
de ambas. Y si λ ∈ C se utiliza que parte real e imaginaria de una solución compleja también lo son].
33
Ej 5. ′′ − 2′ + = 6tet , (1) = ′ (1) = 0 λ2 − 2λ+ 1 = 0 → λ = 1 doble → h = (c1 + c2 t) et .
Cuando ƒ (t) está formada por polinomios, exponenciales, senos y cosenos se puede usar el
método de los coeficientes indeterminados (del tanteo organizado). Se lleva a [c] una
p similar a ƒ (t) con constantes arbitrarias que se precisan resolviendo sistemas lineales:
m =máx{j, k} . Si p±i q es autovalor hay p = t ept Pm (t) cos qt+Qm (t) sen qt .
Ej 6. Hallemos p de ′′ + = ƒ (t) para varias ƒ (t) . Su solución será = c1 cos t + c2 sen t + p .
|W|(t) = 1 → p = sen t 2et cos t dt−cos t 2et sen t dt = · · · = set [c+s]−cet [s−c] = 12 [s2 +c2 ]et = et .
R R
Si ƒ (t) = sen t , como ±i es autovalor (es decir, como [ch] ya tiene soluciones de esa forma):
p = t (A cos t + B sen t) → 2B cos t − 2A sen t = sen t → p = − 2t cos t .
34
Aunque es perder el tiempo pasar de ecuaciones a sistemas, en cambio, sí es práctico convertir un
sistema dado en una ecuación de mayor orden (sobre todo si los autovalores son complejos).
§ ′
= − y+ 2 (0) = 0
Ej 3*. Volvamos a resolver el ejemplo 3: , .
y ′ = + y y(0) = 1
Consideremos para acabar otros tres casos de ecuaciones lineales de segundo orden [e],
ahora con coeficientes variables, que son resolubles por métodos elementales.
35
ii) Si en la ecuación [e] es b(t) ≡ 0 : ′′ + (t)′ = ƒ (t) ,
el cambio ′ = y convierte dicha ecuación en una lineal de primer orden en y ,
resoluble con la fórmula del capítulo 1. Integrando y obtendremos la .
Observemos que el cambio anterior reduce también una ecuación no lineal en la que no
aparece la en una de primer orden, tal vez resoluble: ′′ = g(t, ′ ) → y ′ = g(t, y) ; este es
uno de los pocos casos de ecuaciones no lineales que se pueden resolver elementalmente).
[No son, por tanto, necesarias las dos soluciones que exigía el teorema 4; basta sólo
hallar una; el problema es que en pocas ocasiones podremos encontrar esa solución:
a veces a simple vista, a veces tanteando, a veces aparece al resolverla por series].
[Las únicas soluciones de la homogénea que pueden saltar a la vista son las rectas
= t+b (pues entonces el término con ′′ no aparece y basta mirar los otros dos)].
Para resolver la ecuación dada podemos ahora seguir dos caminos diferentes:
1) Efectuar explícitamente el cambio = t , ′ = + t , ′′ = 2+ t′ ,
R R
36
2.3 Estabilidad de sistemas y ecuaciones lineales
R
Para y ′ = (t)y+ ƒ (t) la estabilidad la ecuación la daba la e , es decir, la ’matriz fundamental’.
En general sucede lo mismo, pero pocas veces tendremos una W(t) .
∥W(t)∥ , norma de W(t) , será la suma de los valores absolutos de sus elementos.
[Hay otras normas, como el supremo de los valores absolutos de los elementos (el determinante
|W(t)| no es una norma). Se prueba que todas ellas son ’equivalentes’, es decir, que si una es
grande o muy pequeña, las otras también lo son].
Si W(t) es cualquier matriz fundamental y x(t) , x∗(t) son dos soluciones de [S] usando la
fórmula de variación de las constantes, y el hecho de que en los libros de análisis se ve que
la norma de un producto de matrices es menor que una constante por el producto de las
normas de ambas, deducimos:
∥x(t)− x∗(t)∥ = ∥W(t)W−1 (t)[ x(to )− x∗(to )]∥ ≤ K∥W(t)∥∥x(to )− x∗(to )∥ .
Como x(t) es estable (AE), si esta norma es pequeña (tiende a 0 ) para t ≥ to (para t → ∞ ),
si ∥x(to )− x∗(to )∥ es suficientemente pequeña, concluimos:
t −1 t −2
Ej 2. t 2 ′′ + 4t′ + 2 = t 4
λ(λ− 1)+ 4λ+ 2 = 0 , h = c1 t −1 + c2 t −2 → W(t) = .
−t −2 −2t −3
1 4
Como ∥W(t)∥ −→ 0 , todas las soluciones para t > 0 son AE la p = 30 t no influye nada .
t→∞
Para coeficientes constantes [C] x′ = Ax+ f(t) hay un resultado mucho más directo:
[Los elementos de W(t) = eAt son exponenciales eλt tal vez multiplicadas por t , si J no diagonal.
Si Reλ < 0 cada elemento, y por tanto ∥W(t)∥ , tiende a 0 si t → ∞ . Si hay λ con Reλ = 0 y A es
diagonal hay términos que son constantes, senos o cosenos y permanecen acotados sin tender
a 0 . Si hay algún λ con Reλ > 0 o si los términos que vienen de λ = 0 contienen una t , habrá
algún término de la exponencial no acotado y la norma de W(t) tampoco lo estará].
Así pues, la Reλ precisa la estabilidad de un sistema de coeficientes constantes (y de una
ecuación, que era estable si lo era su sistema equivalente). Sólo si hay λ = 0 doble hay que
mirar si A ≡ 0 o no para distinguir entre estabilidad no asintótica e inestabilidad. Y esto ni
siquiera será necesario en las ecuaciones, pues siempre habrá potencias de t .
37
0 2
1 p
Ej 3. x′ = x+ t
λ2 − 2λ− 2 = 0 , λ = 1± 3 ⇒ sistema inestable [la f(t) no influye].
1 2
1 1
Ej 4. x′ = x λ2 + 1 = 0 , λ = i ⇒ sistema estable (no asintoóticamente).
−2 −1
′ = + y (0) = 1
Ej 5. Hallemos la solución de con y(0) = −2
y precisemos su estabilidad.
y ′ = −− y+ e−t
La teoría de las ecuaciones de orden n es muy similar a la de orden 2 que hemos visto.
La dificultad, de nuevo, se presenta por la imposibilidad de hallar exactamente las raíces
de su polinomio característico Pn de grado mayor que 2 [sí es fácil, sin embargo, hallar
las p cuando se puede aplicar el método de coeficientes indeterminados].
Para analizar su estabilidad deberíamos simplemente saber si esas raíces no calculables
tienen o no parte real menor que 0. Esto que para nuestro n = 2 es trivial:
las raíces de λ2 + λ+ b = 0 tienen Reλ < 0 ⇔ ,b > 0 [basta escribirlas],
sólo es algo más complicado (pero abordable) para n mayores. Una condición necesaria
(no suficiente) es también que todos los coeficientes de Pn sean estrictamente positivos.
p
Que no basta lo prueba λ3 + λ2 + λ+ 21 = (λ+ 3)(λ2 − 2λ+ 7) → λ = −3 , 1± i 6 .
38