0% encontró este documento útil (0 votos)
21 vistas14 páginas

Sistemas y Ecuaciones Lineales de Orden 2: Propiedades Básicas

El documento aborda la resolución de sistemas y ecuaciones lineales de segundo orden, centrándose en el caso n=2. Se presentan propiedades generales, el problema de valores iniciales y la estabilidad de las soluciones, destacando que las soluciones de sistemas son curvas en el espacio. Además, se discuten métodos para resolver ecuaciones de segundo orden y se introducen ejemplos de estabilidad y soluciones únicas.

Cargado por

jordanzr10
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
21 vistas14 páginas

Sistemas y Ecuaciones Lineales de Orden 2: Propiedades Básicas

El documento aborda la resolución de sistemas y ecuaciones lineales de segundo orden, centrándose en el caso n=2. Se presentan propiedades generales, el problema de valores iniciales y la estabilidad de las soluciones, destacando que las soluciones de sistemas son curvas en el espacio. Además, se discuten métodos para resolver ecuaciones de segundo orden y se introducen ejemplos de estabilidad y soluciones únicas.

Cargado por

jordanzr10
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

2.

Sistemas y ecuaciones lineales de orden 2


Si ya se podían resolver muy pocas ecuaciones de primer orden, menos aún se pueden resol-
ver sistemas de tales ecuaciones o ecuaciones de orden n > 1 . Salvo escasas excepciones,
sólo en el caso lineal se puede caracterizar la estructura de las soluciones y casi sólo si
los coeficientes son constantes se pueden hallar explícitamente tales soluciones mediante
métodos elementales. Como el objetivo principal de este libro son los sistemas autónomos
en el plano, nos limitaremos aquí a dar la teoría para el caso n = 2 .
En la sección 2.1 enunciaremos las propiedades básicas (similares a las de ecuaciones
de primer orden) de los sistemas de 2 ecuaciones (lineales o no) y ecuaciones de orden 2 ,
que veremos que se pueden considerar como un caso particular de sistemas. No daremos
demostraciones (basta casi sustituir los valores absolutos del caso n = 1 por normas). En la
solución general de un sistema o ecuación de orden 2 aparecen 2 constantes arbitrarias
(así lo sugieren los ejemplos más sencillos de sistema: ′ = 0 , y ′ = 0 , y de ecuación: ′′ = 0 ).
El problema de valores iniciales consistirá en hallar la solución que cumpla 2 condiciones
en un instante t = to (si los datos se dan en t distintos, el ’problema de contorno’ tiene
otras propiedades que se suelen estudiar en los cursos de EDPs). Será fácil ver cuando este
problema tiene solución única local. También daremos un resultado de prolongabilidad y la
definición de estabilidad. No generalizaremos, sin embargo, el dibujo aproximado, porque
no se puede: las soluciones de un sistema son curvas en el espacio (a partir del capítulo
3, para sistemas autónomos de segundo orden, sí nos preocuparemos del dibujo de las
proyecciones de las soluciones sobre el plano t = 0 ).
La 2.2 trata ya en el caso lineal:

′ = (t) + b(t)y + ƒ (t)



[S]
y ′ = c(t) + d(t)y + g(t)

Tendremos una fórmula de variación de las constantes que nos dará las soluciones de
[S] si somos capaces de hallar lo que se llama una matriz fundamental W(t) (formada
por soluciones del sistema homogéneo). Esta matriz sólo sabremos calcularla (utilizando
resultados de álgebra) en el caso de que las funciones  , b , c y d sean constantes (enton-
ces W(t) será la exponencial de una matriz). De lo anterior deduciremos resultados para
las ecuaciones de segundo orden:

[e] ′′ + (t)′ + b(t) = ƒ (t)

Resolver [e] será especialmente sencillo para  y b constantes. La solución de la homo-


génea la darán las raíces de la ecuación caracterítica λ2+λ+b = 0 , y para la no homogénea
tendremos, además de una fórmula de variación de constantes, el método de coeficientes
indeterminados (aplicable a ecuaciones de primer orden o de orden mayor que 2). Si (t)
y b(t) son variables, veremos los pocos casos (ecuaciones de Euler t 2 ′′ + t′ + b = h(t) ,
si b(t) ≡ 0 y si somos capaces de calcular una solución de la homogénea) en que aún se
puede hallar su solución a través de integraciones (en el resto de los casos para resolver [e]
se deben utilizar series de potencias).
En 2.3 analizaremos la estabilidad de sistemas y ecuaciones lineales de orden 2, que se
podrá precisar fácilmente en el caso de coeficientes constantes: bastará casi siempre con
conocer el signo de la parte real de los autovalores.

25
2.1 Propiedades generales
 ′
 = ƒ (t, , y)
Un sistema de 2 ecuaciones de primer orden es: [S]
y ′ = g(t, , y)

Sus soluciones son parejas de funciones (t) , y(t) , definidas y derivables dos veces en un
intervalo común  , que convierten cada ecuación de [S] en una identidad. Llamaremos [P]
al problema de valores iniciales formado por [S] y las condiciones iniciales:

(to ) = o , y(to ) = yo
 ′
x = f(t, x)
     
 ƒ 
Utilizando notación vectorial: [P] , con x = y , f = g , xo = y o .
x(to ) = xo o
 
(t)
Las soluciones x(t) = y(t) se pueden ver entonces como funciones vectoriales de  en R2 .

Llamaremos ∥x∥ = 2 + y 2 (norma euclídea) y será B(, r) = x ∈ R2 : ∥x− ∥ < r el entorno


Æ 

o bola de centro a y radio r (círculo sin borde).

Los TEyU y prolongabilidad son muy parecidos a los de n = 1 :


∂ƒ ∂ƒ ∂g ∂g
ƒ , g, ∂
, ∂y
, ∂
y ∂y
continuas en [to − h, to + h] × B(xo , r) ⇒
Teor 1.
[P] tiene solución única definida al menos en un entorno de to .
(Y si sólo ƒ y g son continuas existe solución, aunque podría no ser única).

∂ƒ ∂ƒ ∂g ∂g
Si ƒ , g , ∂
, ∂y
, ∂
y ∂y
son continuas en [to , ∞)×R2 o bien existe t1 tal que
Teor 2.
∥x(t)∥ → ∞ cuando t → t1 o bien la solución x(t) de [P] está definida ∀t ≥ to .
(Y si son continuas en un D ⊂ R3 las soluciones llegan hasta la frontera de D ).

También hay dependencia continua de parámetros y datos iniciales y las definiciones de


estabilidad son como las de primer orden, sustituyendo los valores absolutos por normas:

Una solución x(t) definida en [to , ∞) es estable si ∀ϵ > 0 ∃δ > 0 tal que toda x∗(t) con
∥x(to )− x∗(to )∥ < δ existe, está definida en [to , ∞) y verifica ∥x(t)− x∗(t)∥ < ϵ ∀t ≥ to .
Si además ∥x(t)− x∗(t)∥ −→ 0 se dice que x(t) es asintóticamente estable.
t→∞

Pero para un sistema podrá ocurrir que ∥x(t)− x∗(t)∥ → 0 si t → ∞ y sin embargo


que no consigamos hacer que ∥x(t)− x∗(t)∥ sea menor que cualquier ϵ prefijado .


Consideremos ahora la ecuación de segundo orden: [e] ′′ = g t, , ′



.

Sus soluciones son funciones (t) derivables dos veces en un intervalo  que llevadas
a [e] la convierten en una identidad. Llamamos [Pe] al problema de valores iniciales
consistente en hallar la solución de [e] que satisface las dos condiciones:

(to ) = o , ′ (to ) = ′o .

Toda ecuación se puede convertir en un sistema (sistema equivalente), haciendo:


 ′
 =y
     
  o
′ = y → [Se] . Llamando x = = , x o = ′o
, es claro que
y ′ = g(t, , y) y ′

 es solución de [e] si y sólo si x lo es de [Se]. Si además x(to ) = xo ,  es solución de [Pe].


Gracias a esto, de cualquier resultado para sistemas se deducen consecuencias inmediatas
para ecuaciones (aunque éstas tendrán formas de resolverse más directas). Por ejemplo,
los teoremas 1 y 2 se pueden aplicar a ecuaciones. Veamos la forma que adopta el TEyU:

26
∂g ∂g
g, ∂
y ∂′
continuas en un entorno de (to , o , ′o ) ⇒
Teor 3.
[Pe] tiene solución única definida al menos en un entorno de to .

Por último, se dice que (t) es solución estable o asintóticamente estable de [Pe] si
lo es la solución x(t) del sistema equivalente (y por lo tanto se han de parecer tanto
(t) y ∗ (t) como las derivadas de las dos soluciones).

′ = 3t1/ 3 + ln y

Ej 1. Posee solución con (to ) = o , y(to ) = yo si yo > 0. Única si o ̸= 0.
y ′ = y − t 3

No sabemos, ni sabremos, hallar su solución general, ni ver qué soluciones están definidas ∀t ,
ni precisar su estabilidad (aunque se podrían hallar los valores aproximados para unos datos
iniciales concretos por métodos numéricos). Es trivial comprobar que una solución del sistema es
  
t3
x(t) = 1 única con (1) = y(1) = 1 , aunque tal vez haya más con (0) = 0 , y(0) = 1 .


Sistema fácilmente resoluble, pues cada ecuación (resoluble) depende de una


′ = 1− 

Ej 2. variable. [También se podrían ya abordar los sistemas ‘desacoplados’ del tipo
y ′ = −y 3
′ = ƒ (t,) , y ′ = g(t,,y) , hallando la  y llevándola a la otra ecuación].
1+ Ce−t
‚ Œ
Hallando las soluciones de la lineal y la separable (ambas autónomas) se obtiene: x = 1
± p2t+K
.

Como ƒ , g ∈ C1 en R2 existe solución única para cualquier pareja de datos (to ) =  , y(to ) = b .
Sin mirar la solución sabíamos que cualquier (t) está definida ∀t y que cada y(t) no trivial
explota para un t1 < to por la potencia −y 3 .
1 [perdida en
 ‹
Estudiemos la estabilidad de la solución que satisface (0) = 1 , y(0) = 0 → x = 0 el cálculo].
1+ (− 1)e−t
‚ Œ
Las soluciones próximas con (0) =  , y(0) = b son x∗= p  [definidas ∀t ≥ 0 , claro].
22 t+1
(− 1)e −t Œ
‚
Es claro que ∥x(t)− x∗(t)∥ = p  −→ 0 , pero esto no basta en sistemas para ser AE.
22 t+1 t→∞
− 1
 ‹
Habría que encontrar además un δ tal que se cumpliese ∥x(t)− x∗(t)∥ ≤ ϵ cuando b
<δ .
[ES posible encontrarlo, aunque es complicado hacerlo. Pero en el capítulo 3 veremos formas
fáciles de precisar la estabilidad de las soluciones constantes de un sistema autónomo].

Ej 3. t 2 ′′ − 2t′ + 2 = 0 . Posee solución única con (to ) =  , ′ (to ) = b si to ̸= 0 .

En la próxima sección veremos que su solución general es:  = c1 t + c2 t 2 .


La única solución que satisface (1) =  , ′ (1) = b es  = (2 − b)t + (b − )t 2 (que, como debía,
es función continua de los datos iniciales). Las infinitas soluciones  = c2 t 2 satisfacen (0) = 0 ,
′ (0) = 0 , pero no hay ninguna satisfaciendo (0) = 1 , ′ (0) = 0 .
La solución con (1) = ′ (1) = 1 (o sea,  = t ) es inestable pues para el sistema equivalente
′ = y

(2− b)t + (b− )t 2
     
t t
es inestable x(t) = , pues − −→ ∞ ,
y ′ = −2t −2 + 2t −1 y 1 1 (2− b)+ 2(b− )t t→∞
para infinitos  y b tan cercanos como queramos a 1 .

(Escribir las soluciones del sistema equivalente a partir de las de la ecuación es muy sencillo:
basta formar un vector cuyo primer elemento sea la solución de la ecuación y el segundo su
derivada. Y si resolvemos una ecuación a partir del equivalente (poco útil como se ha dicho)
lo que obtendremos es un vector en el que el segundo elemento es la derivada del de arriba,
que es la solución de la ecuación).

27
2.2 Soluciones de sistemas y ecuaciones lineales
 ′
 = (t)+ b(t)y+ ƒ (t)
Sea . O en forma vectorial:
y ′ = c(t)+ d(t)y+ g(t)
 ‹  ‹  ‹
  b ƒ
[S] x′ = A(t)x+ f(t) , con x = y , A = c d , f = g .

Suponemos  , b , c , d , ƒ , g funciones de R en R continuas (o sea, la matriz A(t) y la


función vectorial f(t) lo son) en un intervalo  (finito o infinito, abierto o cerrado) y sea
to ∈  . El teorema de existencia y unicidad asegura que entonces una única solución de [S]
cumple cualquier par de datos iniciales (to ) = o , y(to ) = yo . Como ocurría en las lineales
de primer orden, se puede probar que la solución única está definida ∀t ∈  .

Consideremos primero el sistema homogéneo: [Sh] x′ = A(t)x .

1 (t) 2 (t)
   ‹  ‹
 
Una matriz W(t) = cuyas columnas x1 = y 1 y x2 = y 2 son soluciones
y1 (t) y2 (t) 1 2

de [Sh] y tal que el determinante |W|(to )| ̸= 0 se llama matriz fundamental de [Sh].

Este teorema dice que [Sh] está resuelto conocida una W(t) (pero no nos dice cómo hallarla):

El conjunto V de soluciones de [Sh] es un espacio vectorial de dimensión 2 .


Una base de V es el conjunto {x1 , x2 } , soluciones que constituyen una matriz
Teor 1. fundamental W(t) . Por tanto, la solución general de [Sh] es:
 ‹
c1
x = c1 x1 + c2 x2 = W(t)c , con c = c2
arbitrario.

Es fácil probar que cualquier combinación lineal de soluciones de [Sh] es también solución.
 ‹  ‹
1 0
Probemos que son base de V las soluciones e1 (t) y e2 (t) de valores iniciales 0
y 1
:
Son linealmente independientes:
c1 e1 (t)+ c2 e2 (t) ≡ 0 ⇒ c1 e1 (to )+ c2 e2 (to ) = 0 ⇒ c1 = c2 = 0 .
 ‹
(t)
Toda solución x(t) = y(t) se puede escribir como combinación lineal de ellas:
z(t) = (to )e1 (t)+ y(to )e2 (t) es solución con z(to ) = x(to ) ⇒ x(t) ≡ z(t) ∀t ∈  .
unicidad

Si x1 y x2 son soluciones satisfaciendo |W|(to )| ̸= 0 son linealmente independientes:


c1 x1 (t)+ c2 x2 (t) = W(t)c ≡ 0 ⇒ W(to )c = 0 ⇒ c1 = c2 = 0 .

Un sistema tiene infinitas matrices fundamentales W(t) . A partir de cualquiera podríamos


calcular la solución de [Sh] con el dato x(to ) = xo simplemente resolviendo el sistema de dos
ecuaciones con dos incógnitas W(to )c = xo , que tiene solución única por ser |W|(to )| ̸= 0 .
Pero lo podemos hacer directamente si tenemos la llamada ‘matriz fundamental canónica’:

Se llama Wc (t) , matriz fundamental canónica en to , a la que satisface Wc (to ) = I .


Dada una W(t) , a partir de ella se puede hallar la canónica, pues Wc (t) = W(t)W−1 (to ) .
La solución x de [Sh] que cumple x(to ) = xo es: x = Wc (t)xo = W(t)W−1 (to )xo .

Es claro que W(t)W−1 (to ) es la matriz unidad I en t = to y además el producto de W(t) por
la derecha por cualquier matriz constante no singular sigue siendo fundamental (sus colum-
nas serán combinaciones lineales de soluciones y son, pues, soluciones, y su determinante
sigue siendo no nulo). Que la última expresión satisface x(to ) = xo es evidente.
[Para casi ningún sistema es posible dar una W(t) (ni, por tanto, sus soluciones). Cuando A sea
constante, pronto veremos cómo calcular una, precisamente la canónica). Esto es ya mucho más
complicado Rque en las lineales de primer orden, donde la ‘matriz fundamental’ era simplemente
el escalar e  , expresable siempre en términos de primitivas, y si  constante la ‘matriz’ es et ].

28
Consideremos ahora el sistema no homogéneo: [S] x′ = A(t)x+ f(t) .

a] Si xp es cualquier solución de [S] y W(t) es una matriz fundamenta de [Sh],


la solución general de [S] viene dada por x = W(t)c+ xp .

Teor 2. b] Una solución particular de [S] es xp = W(t) W (t) f(t) dt .


−1
R

c] Si Wc (t) es la canónica en to la solución de [S] con x(to ) = xo es


Rt
x = Wc (t)xo + Wc (t) W−1
c
(s) f(s) ds [fvc]
to

[Como para n = 1 , las fórmulas de b] y c] se llaman de variación de las constantes].

a] Sea x solución de [S]. Entonces [x− xp ] ′ = Ax+ f− Axp − f = A[x− xp ] ⇒ x− xp = W(t)c


para algún c , pues satisface [Sh]. Así pues, toda solución se puede escribir así.

b] Veamos primero que W−1 existe, es decir, que la W(t) es no singular ∀t ∈  :


Si para algún s ∈  fuera |W|(s) = 0 existirían b1 , b2 no los dos nulos cumpliendo que
b1 x1 (s)+ b2 x2 (s) = 0 . Entonces x(t) = b1 x1 (t)+ b2 x2 (t) sería solución con x(s) = 0 .
Por unicidad sería x(t) ≡ 0 y también |W|(t) = 0 para todo t ∈  , en concreto para to .
Y como matrices y vectores se derivan como las funciones de una variable:
x′p = W′ W−1 (t) f(t) dt + WW−1 f = Axp + f ,
R

pues W′ = AW por ser solución cada columna.

c] Por a] y b] es solución de [S]. Y además cumple el dato: x(to ) = Wc (to )xo =  xo = xo .

Resumiendo, hallada una W(t) queda resuelto el sistema homogéneo y el no homo-


géneo (y el problema de valores iniciales). Pero sólo tendremos un método para calcular la
W(t) en caso de que la matriz A sea constante. Para ese cálculo utilizaremos definiciones
y resultados algebraicos cuya demostración se puede encontrar en los libros de álgebra.

Sistemas lineales de coeficientes constantes


 ‹
 b
[C] x′ = Ax+ f(t) y [Ch] x′ = Ax , con A = c d
matriz constante.

1 2
La exponencial de una matriz B se define: eB = I+ B+ 2
B +· · · , serie convergente
para cualquier B (sus elementos son series numéricas convergentes).
Se tiene que eB es no singular, que su inversa es e−B y que eB+C = eB eC si BC = CB .

La exponencial de una matriz no se calcula directamente, sino a partir de su forma J de


Jordan (la forma más sencilla en que se puede escribir la matriz haciendo cambios de base).
Aunque en general sea complicado hallar la J asociada a una A , en nuestro caso n = 2 es
fácil dar tanto J como la matriz P del cambio de base:

Sea A una matriz 2x2 y sean λ1 , λ2 sus autovalores raíces de |A− λ| = 0 .
 

Entonces hay una matriz no singular P tal que A = PJP−1 donde:


a] Si λ1 ̸= λ2 y v1 , v2 son vectores propios asociados o sea, (A− λ )vi = 0 ,
 
€ Š
son J = λ01 λ0 y P = v1 v2 , matriz cuyas columnas son v1 y v2 .
 ‹

b] Si λ1 = λ2 = λ y sólo existe un vector propio v linealmente independiente


  € Š
λ 0
asociado son J = 1 λ y P = w v , w cualquier vector con (A− λ)w = v .
c] Si λ1 = λ2 = λ y existen dos vectores propios linealmente independientes
asociados a λ , entonces A es ya diagonal.

[Los autovalores de una A real pueden ser reales o complejos conjugados.


En este último caso la J y la P serán complejas, pero PJP−1 será real].

29
Teor 3. Wc (t) = eA(t−to ) es la matriz fundamental canónica en to de [Ch].
∞ ∞ ∞
d At d X (At)k d (At)k (At)k−1
= = =A = AeAt , admitiendo que se puede
X X
En efecto, dt
e dt k! dt k! (k−1)!
k=0 k=0 k=1

derivar la serie término a término y eligiendo to = 0 por comodidad en la escritura. Es,


pues, eA(t−to ) matriz fundamental pues cada una de sus columnas cumple también [Ch].
Como eA(to −to ) =  , es la canónica.
Hemos reducido el problema de resolver [C] al de hallar la exponencial de At (del producto
del escalar t por la matriz A ). Usando la J asociada a la A es fácilmente calculable, pues
eAt está relacionada con eJt de la misma forma que la A con la J :

eAt = P eJt P−1 , ya que


∞ ∞ ∞ k k
Ak t k PJk P−1 t k J t
= =P P−1 = PeJt P−1 , pues Ak = PJP−1 · · · PJP−1 = PJk P−1 .
X X X
k! k! k!
k=0 k=0 k=0

Y eJt es fácil de hallar en las dos posibles situaciones que ofrece Jordan para n = 2 :
eλ1 t 0
       
λ1 0 λ 0 1 0
a] Si J = , es eJt = . b] Si J = 1 λ , es eJt = t eλt .
0 λ2 0 eλ2 t 1

λ21 t 2
‚ Œ
0 eλ1 t
 
1 0 λ1 t 0 1 0
 ‹  ‹
a] Utilizando la definición: eJt = 0 1
+ 0 λ2 t
+ 2! + · · ·= λ2 t .
0 λ22 t 2 0 e

eλt
  ” ‹—
0 1 0
 ‹  ‹ ‹   ‹
λ 0 0 0
b] Como J = 0 λ
+ 1 0
= D+ N , eJt = eDt eNt = 0 eλt
1
0
0
1
+ 0
t
0
0
= t 1
eλt .

De lo anterior y de la [fvc] del teorema 2 deducimos la fórmula de variación de las


constantes para la solución de [C] que satisface el dato inicial x(to ) = xo :
Rt
x = P eJ(t−to ) P−1 xo + P eJ(t−s) P−1 f(s) ds
to

donde todas las matrices son calculables (hallada la eJt , basta cambiar t por t − to o por
t − s para tener las otras). Insistimos en que los autovalores λ y las matrices P , P−1 y eJt
pueden ser complejos, pero si A es real han de ser eAt y la solución x también reales.
Para hacer los cálculos de esta fórmula es aconsejable efectuar las operaciones de derecha
a izquierda, de forma que sólo haya que multiplicar matrices por vectores (y no matrices
por matrices lo que es mucho más largo y mayor fuente de errores).

Si lo que necesitamos es simplemente la solución general nos podríamos ahorrar algunos


cálculos (por ejemplo de matrices inversas), pues no necesitamos la canónica.
Por ejemplo, W(t) = P eJt es matriz fundamental de [Ch] (es producto por la derecha de la
matriz canónica por la P no singular) y de ello deducimos que:

La solución general del sistema homogéneo [Ch] es x = P eJt c , con c arbitrario.

En el caso de que A sea diagonalizable tenemos una solución general aún más explícita:

x = P eJt c = c1 eλ1 t v1 + c2 eλ2 t v2 .


Expresión inadecuada si los λ son complejos, pues queda x expresada en términos
complejos (en ese caso a veces será mejor seguir otros caminos que describiremos).
Lleguemos esta solución general de una forma directa, que puede dar idea de cómo utilizar matrices
incluso para A no diagonalizables y sin conocer la forma de Jordan. Comprobemos primero que:

λ autovalor de A , y v vector propio asociado ⇒ x = eλt v es solución de [Ch].


Esto es cierto, ya que x′ = λeλt v = Aeλt v = Ax y se cumple que λv = Av .
Si hay 2 vectores propios linealmente independientes, habrá 2 soluciones de esa forma, que formarán
€ Š
una matriz fundamental W(t) = eλ1 t v1 eλ2 t v2 , pues |W|(t) ̸= 0 por ser los vk independientes.
Basta entonces escribir x = W(t)c para obtener el resultado de arriba.

30
 ′
 = 2 + y      
2 1 0 0
Ej 1. Resolvamos y ′ = 3 + 4y + et , es decir, x′ = x + t , x(0) = .
3 4 e 1
con (0) = 0 , y(0) = 1

[Sabemos que dicha solución es única y que está definida para todo t ∈ R ].
  5t  
5 0 e 0
|A− λ| = λ2 − 6λ+ 5 = 0 → λ1 = 5 y λ2 = 1 . Por tanto, J = , eJt = t .
0 1 0 e
       
−3 1 1 1 1 1
(A− 5)v = v = 0 → v1 = . (A− )v = v = 0 → v2 = ⇒
3 −1 3 3 3 −1
     
1 1 1 −1 −1 1 1
P= ⇒ P−1 = −4 = 14 .
3 −1 −3 1 3 −1
   
”  b 1 d −b
Hallar la inversa de una matriz 2x2 es casi inmediato: P = ⇒ P−1 = |P|
c d −c 
—
se cambian  y d de sitio, b y c de signo y se divide por el determinante .

  Zt   
1 1 1 0 1 1 0
Por tanto: x(t) = P eJt + 14 P eJ(t−s) ds
4 3 −1 1 0
3 −1 es
Z t  5(t−s) Rt !
5t−4s ds
 5t   s     5t 
e 0 e 0 e 1 1 1 e e
‹
1 1 1 1
= 4P +4P ds = 4 + 4 P 0 Rt t
0 et −1 0 0 et−s −es 3 −1 −et − 0 e ds
t t
 5t t
  1  5t
[e − e ]
 
5t t
e −e 1 1 1 5e − 5e − 4te
= 41 + 14 4 = 16
3e5t + et 3 −1 −tet 15e5t + et + 4tet

Si queremos la solución general, los cálculos son algo más cortos. La solución general de la
homogénea xh se escribe rápidamente una vez hallados los autovalores y vectores propios:
et
 5t     
e 5t 1 + c et 1
xh = W(t)c = PeJt c = = = c 1 e λ1 t v 1 + c 2 e λ2 t v 2 .
 
5t t
c c 1 e 2
3e −e 3 −1

Para la solución particular de la no homogénea y la [fvc] sí se necesita hallar alguna inversa:


e−5t e−5t −e−4t −et − 4tet
  Z    
W−1 (t) = 14 1
, xp = W(t) W−1 (t) f(t) dt = 16 W(t) 1
= 16 .
3e−t −e−t −4t −3e + 4te
t t

Tanteando con los términos con et de la xp y la constante c2 , podemos poner esta solución
general del sistema algo más corta:
     
1 1 −t
x = xh + xp = c1 e5t + c2 et + 14 et
3 −1 t−1

§ ′
 = − y+ 1
Ej 2. Hallemos la solución general de y la que cumple (0) = y(0) = 2 .
y ′ = 2− 2y
         
1 −1 1 2 1 1
A= , f= , x(0) = . |A− λ| = λ2 + λ = 0 , λ1 = 0 y λ2 = −1 → v1 = , v2 = .
2 −2 0 2 1 2
       
0 0 1 0 1 1 2 −1
Por tanto, J = , eJt = , P= , |P| = 1 ⇒ P−1 = .
0 −1 0 e−t 1 2 −1 1
   −t 
1 e
La solución general del sistema homogéneo siempre es fácil: c1 v1 + c2 e−t v2 = c1 +c2 .
1 2e−t
−t
   
1 e 2 −1
Para una particular podemos usar que una W(t) = → W−1 (t) = .
1 2e−t −et et
‹  
2t 2t − 1
Z Z   
2
Y, con la [fvc] se tiene: xp = W W−1 f dt = W(t) −et dt = W(t) = .
−et 2t − 2
¿Habrá formas de calcular las xp tanteando? Algo diremos en el próximo problema.
c1 + c2 e−t + 2t + 1
 
La solución general del sistema es, pues: x = [cambiando algo la c1 ].
c1 + 2c2 e−t + 2t
c1 + c2 + 1 = 2 e−t + 2t + 1
 
Imponiendo los datos llegamos a la solución: → c1 = 0 , c2 = 1 . x = .
c1 + 2c2 = 2 e−t + 2t

Volvamos a usar la fórmula de la página anterior para obtener este resultado:


Zt Z t
e + 2t + 1
         −t 
2 2 2 2 2t
‹
2
 ‹
x = P eJt + P eJ(t−s) −1 ds = P +P s−t ds = + P −t = .
0 0
0 0
−e 2 e −1 e−t + 2t

31
§ ′
 =−y+2 (0) = 0
     
1 −1 2 0
Ej 3. Resolvemos con → x′ = x+ , x(0) = .
y′ =  + y y(0) = 1 1 1 0 1

|A− λ| = (λ− 1)2 + 1 = 0 → λ = 1± i →


et+i t et [cos t + i sen t]
   
0 0
eJt = = .
0 et−i t 0 et [cos t − i sen t]

[Recordemos que e±i b = e [cos b ± i sen b] y que, por tanto,


ei b + e−i b = 2 cos b , ei b − e−i b = 2i sen b ].
   
±i  −i −i 1
 ‹
A− [1± i ] v = 0 → v± = 1 ⇒ P = ⇒ P−1 = 12

1 1 i 1
 —
”
−2 2 0
comprobamos: P P−1 = 12 .
0 2

−e(1+i )(t−s)
  ‹ Zt   ‹   Z t 
1 −i 1 0 1 J(t−s) −i 1 2 1 t ei t
x(t) = P eJt + P e ds = e P + P ds
2 i 1 1 2
0
i 1 0 2 e−i t 0 e(1−i )(t−s)
Rt   (1+i )(t−s) t i (1−i ) 
e(1+i )(t−s) ds 1− e(1+i )t
” —
= =

−i 0 1+
e 0 1+1
y análoga la otra

[1+ i ] 1− e(1+i )t −2 + [i − 1]e(1+i )t + [i − 1]e(1−i )t


  ‚  Œ    
− sen t 1 − sen t
= et + P 2 (1−i )t
= et + 12 (1+i )t (1−i )t
cos t [1− i ] 1− e cos t 2 − [1+ i ]e − [1− i ]e
 

−et sen t −1 + et [cos t + sen t] et cos t − 1


     
= + = t
et cos t 1 + et [− cos t + sen t] e sen t + 1

Está claro que trabajar con autovalores complejos complica mucho los cálculos. Por suerte
conoceremos otros caminos para resolver estos sistemas: pronto veremos como convertirlos
en ecuaciones de segundo orden (mucho más manejables).
Para este sistmema concreto con f(t) constante (que son los que pueden aparecer en el
capíitulo 3) podíamos haber atajado buscando una solución del sistema no homogéneo que
fuese también constante (no siempre existirá, pues debe ser el determinante |A| ̸= 0 , o lo que
es lo mismo, no ser λ = 0 autovalor, por eso no hay soluciones constantes en el ejemplo 2).
Basta resolver el sistema
− y+ 2 = 0
§
−1
 ‹
para obtenerla:  = −1 , y = 1 → xp = 1 .
+ y = 0
Nos falta ya sólo sumar a xp la solución general del sistema homogéneo c1 eλ1 t v+ + c2 eλ2 t v−
e imponer los datos:
c1 i et+i t − c2 i et−i t − 1 c1 i − c2 i = 1
 
d.. 1 1
x= → → c1 = 2i , c2 = − 2i →
c1 et+i t + c2 et−i t + 1 c1 + c2 = 0
1 t
!
e [ei t + e−i t ] − 1
 t 
2 e cos t − 1
x= =
1 t
e [ei t − e−i t ] + 1 e sen t + 1
t
2

Si sólo queremos la solución general en términos de funciones reales podemos hallar P−1 y
calcular hasta el final la matriz canónica:
et cos t −et sen t
        
i −i et+i t −i 1 c1 −1
‹
1 0
eAt = = → x = eAt + 1 .
2 1 1 0 et−i t i 1 et sen t et cos t c2

[Con esta matriz fundamental real podríamos hallar una xp (y no sólo en este caso de f
constante) realizando integraciones de funciones reales. Pero esto tampoco ahorra tiempo
porque, por ejemplo, es más rápido hallar una primitiva de e(1+i )t que de et cos t (hay que
utilizar dos veces partes para volver a encontrar la integral inicial)].

La teoría de los sistemas generales de orden n es la misma que la nuestra de orden 2 , pero
en la práctica pocos son resolubles, por la sencilla razón de que sus autovalores casi nunca
son calculables. Y además se complica bastante la teoría de Jordan.

Dejemos los sistemas y pasemos a estudiar las ecuaciones lineales de orden dos que, como
vimos en 2.1, se pueden mirar como un caso particular de ellos. Será cuestión de ir viendo
la forma que adoptan los resultados vistos para el ‘sistema equivalente’ a una ecuación.
Este no es el camino más corto para tratarlas. De hecho, sus teoremas se pueden probar sin
usar matrices y normalmente los libros de ecuaciones diferenciales las estudian primero.

32
Ecuaciones lineales de segundo orden

Consideremos [e] ′′ + (t)′ + b(t) = ƒ (t) , con  , b y ƒ continuas en  .

Sabemos que hay solución única definida en todo el intervalo  para cada par de datos
iniciales (to ) = o , ′ (to ) = ′o si to ∈  . Haciendo ′ = y se tiene el sistema
§ ′
 =y
 ‹  
 
′ , cuyas soluciones serán funciones vectoriales y = ′ .
y = −b(t)− (t)y+ ƒ (t)

El sistema está resuelto conociendo una matriz fundamental W(t) . Para ello basta dar dos
soluciones 1 y 2 de la ecuación homogénea asociada a [e] (pues la fila inferior de
la matriz serán sus derivadas ′1 y ′2 ) tales que sea no nulo en algún s ∈  el llamado

1 2
determinante wronskiano de 1 y 2 : |W|(t) = ′ ′ .
1 2

La solución general de [e] será entonces la primera componente del vector:


′2 (t) −2 (t)
Z  
1
 ‹
0
W(t)c + W(t) W−1 (t) ƒ (t)
dt , y como W−1 (t) = ,
|W|(t) −′1 (t) 1 (t)
unas pocas operaciones nos permiten concluir de los teoremas para sistemas que:

a] Sean 1 y 2 soluciones de la homogénea tales que |W|(s) ̸= 0 para algún


s ∈  . Entonces la solución general de la homogénea es h = c1 1 + c2 2 .
b] Si p es una solución de [e] su solución general es:  = c1 1 + c2 2 + p .
Teor 4.
1 ƒ 2 ƒ
Z Z
c] Una solución particular de [e] es: p = 2 dt − 1 dt .
|w| |w|
Fórmula de variación de las constantes [fvc].

La expresión de las dos soluciones en términos de funciones elementales se podrá dar sólo en
los pocos casos que describiremos (si no, se debe resolver la ecuación por medio de series).

Resolvamos la ecuación con coeficientes constantes: [c] ′′ + ′ + b = ƒ (t) .

Llamemos [ch] a la ecuación homogénea ( ƒ ≡ 0 ). La matriz del sistema asociado:


 
0 1
A= , tiene por ecuación característica P(λ) ≡ λ2 + λ+ b = 0 .
−b −

Como los elementos del vector real PeJt P−1 c , solución general del sistema homogéneo,
están formados por combinaciones lineales arbitrarias de los elementos de la matriz eJt , la
solución general de [ch] es, según sean las raíces de P(λ) :

Si λ1 ̸= λ2 reales,  = c1 eλ1 t + c2 eλ2 t .


Si λ doble (real),  = (c1 + c2 t) eλt .
Si λ = p± qi ,  = (c1 cos qt + c2 sen qt) ept .

eλ1 t ept [cos qt + i sen qt]


     
0 1 0 0
pues eJt es: , eλt ó
0 eλ2 t t 1 0 ept [cos qt − i sen qt]

[Se puede dar la solución sin usar el sistema equivalente: probando en [ch] soluciones del tipo  = eλt
se deduce que λ debe satisfacer la ecuación característica P(λ) = 0 . Si λ1 ̸= λ2 ∈ R es claro que el |W|
de eλ1 t y eλ2 t es no nulo. Si λ doble, se comprueba que teλt también es solución y que es ̸= 0 el |W|
de ambas. Y si λ ∈ C se utiliza que parte real e imaginaria de una solución compleja también lo son].

Para calcular una solución particular de la no homogénea [c] disponemos siempre de la


fórmula de variación de las constantes, pero en muchas ocasiones será preferible utilizar
el método de los coeficientes indeterminados que pronto describiremos.

Ej 4. ′′ + 4′ + 3 = 0 , λ2 + 4λ+ 3 = 0 → λ = −1, −3 →  = c1 e−t + c2 e−3t .

′′ + 4′ + 4 = 0 , λ2 + 4λ+ 4 = 0 → λ = −2 doble →  = (c1 + c2 ) e−2t .

′′ + 4′ + 5y = 0 , λ2 + 4λ+ 5 = 0 → λ = −2 ± i →  = (c1 cos t + c2 sen t) e−2t .

33
Ej 5. ′′ − 2′ +  = 6tet , (1) = ′ (1) = 0 λ2 − 2λ+ 1 = 0 → λ = 1 doble → h = (c1 + c2 t) et .

et tet R et tet R tet tet


|W|(t) = = e2t → p = 6tet e2t
dt − 6et e2t
dt = t 3 et →  = (c1 + c2 t)et + t 3 et .
et (t + 1)et
(1) = [c1 + c2 + 1]e = 0
ª
De los datos iniciales: →  = (2− 3t + t 3 ) et , solución buscada.
′ (1) = [c1 + 2c2 + 4]e = 0
Hallemos la p de otro modo, introduciendo los coeficientes indeterminados. La idea es probar
una p ‘similar’ a ƒ (t) . Una buena candidata a p es un polinomio multiplicado por et pues sus
derivadas son del mismo tipo. En principio pensaríamos en p = et [At + B] , pero al figurar ya et
y tet en h , habrá que incluir otras potencias de t . El siguiente teorema precisará la candidata
p = t 2 et [At + B] , con A y B adecuados. Para fijarlos llevamos a la ecuación p y sus derivadas:
′p = et [At 3 + (B+ 3A)t 2 + 2Bt] y ′′
p
= et [At 3 + (B+ 6A)t 2 + (4B+ 6A)t + 2B]
obteniendo [6At + 2B]et = 6tet ⇒ B = 0 , A = 1 . Así hallamos de nuevo la p = t 3 et . Aquí parece
más largo este camino que la [fvc], pero en muchos otros ahorra el cálculo de largas primitivas.
Aunque sea muy mal camino, repasemos las matrices resolviendo el sistema equivalente:
′ = y
§      
0 1 0 0 1 0
 ‹
, o sea, x′ = + 6tet , x(1) = 0 . λ = 1 doble → eJt = et
y = −+ 2y+ 6te
′ t −1 2 1 1
[nunca la matriz de un sistema proveniente de una ecuación es diagonal].
 ‹
1
El único (salvo producto por un escalar) vector v asociado al λ = 1 doble es v = 1
.
−1 1 0 0 1 −1 1
 ‹  ‹  ‹  ‹
Escogemos w tal que −1 1
w = v , por ejemplo w = 1
→ P= 1 1
, P−1 = 1 0
t
t 3 − 3t + 2
‹Z  
0 1 1 0 −1 1 0 [su  es la de antes
  ‹ ‹ ‹
→ x= et−s 6ses
ds = et y su y es la ′ ].
1 1 1
t−s 1 1 0 t + 3t − 3t − 1
3 2

Cuando ƒ (t) está formada por polinomios, exponenciales, senos y cosenos se puede usar el
método de los coeficientes indeterminados (del tanteo organizado). Se lleva a [c] una
p similar a ƒ (t) con constantes arbitrarias que se precisan resolviendo sistemas lineales:

a] Si ƒ (t) = eλt pk (t) , con pk polinomio de grado k , y λ no es autovalor de


[ch] existe una solución particular de [c] de la forma p = eλt Pk (t) , donde Pk
es otro polinomio de grado k cuyos coeficientes se precisan llevando p a [c].
Si λ es autovalor de multiplicidad r , p = t r eλt Pk (t) .
Teor 5.
b] Si ƒ (t) = ept pj (t) cos qt+qk (t) sen qt , pj y qk de grados j y k , y p±i q no
 

es autovalor hay p = ept Pm (t) cos qt + Qm (t) sen qt , con Pm y Qm de grado


 

m =máx{j, k} . Si p±i q es autovalor hay p = t ept Pm (t) cos qt+Qm (t) sen qt .
 

c] Si ƒ (t) = ƒ1 (t)+ · · ·+ ƒm (t) y L[ ] = ƒ (t) ⇒ L[1 + · · ·+ m ] = ƒ (t) .


[En particular, si λ = 0 , o sea, si ƒ (t) es un polinomio, bastará probar según a] un polinomio
adecuado, y desde luego entendemos una constante como un polinomio de grado 0 ].

Ej 6. Hallemos p de ′′ +  = ƒ (t) para varias ƒ (t) . Su solución será  = c1 cos t + c2 sen t + p .

Si ƒ (t) = 2et , existe p = Aet = ′p = ′′


p
→ 2Aet = 2et → A = 1 , p = et . Mucho más largo con la [fvc]:

|W|(t) = 1 → p = sen t 2et cos t dt−cos t 2et sen t dt = · · · = set [c+s]−cet [s−c] = 12 [s2 +c2 ]et = et .
R R

Si ƒ (t) = t 3 , hay p = At 3 + Bt 2 + Ct + D (polinomio de grado 3 pues λ = 0 no es autovalor)


→ 6At + 2B+ At 3 + Bt 2 + Ct + D = t 3 → A = 1, B = 0, C = −6A = −6, D = −2B = 0 , p = t 3 − 6t .

Si ƒ (t) = et cos t , hay p = et (A cos t + B sen t) [hay λ = ±i , no 1± i , y debe estar sen t ]


A+ 2B = 1
§
→ (A+ 2B) cos t + (B− 2A) sen t = cos t → B− 2A = 0 → p = et 15 cos t + 15 sen t .


Si ƒ (t) = sen t , como ±i es autovalor (es decir, como [ch] ya tiene soluciones de esa forma):
p = t (A cos t + B sen t) → 2B cos t − 2A sen t = sen t → p = − 2t cos t .

Si ƒ (t) = cos2 t , aparentemente no podemos utilizar coeficientes indeterminados, pero como


cos2 t = 12 (1+ cos 2t) → existe p = A+ B cos 2t + C sen 2t → p = 12 − 16 cos 2t .
Si ƒ (t) = tn t , necesitamos la fórmula de variación de las constantes:
2
t =s R d
p = sen t sen t dt − cos t sen dt = – sc + sc – c dt = 1−2 = · · · = − cos t ln 1+sen t
R R R
cos t c cos t
.

34
Aunque es perder el tiempo pasar de ecuaciones a sistemas, en cambio, sí es práctico convertir un
sistema dado en una ecuación de mayor orden (sobre todo si los autovalores son complejos).
§ ′
 = − y+ 2 (0) = 0
Ej 3*. Volvamos a resolver el ejemplo 3: , .
y ′ = + y y(0) = 1

Despejemos la  de la segunda ecuación (más corta que la otra):  = y ′ − y .


Sustituyendo en la primera: y ′′ − y ′ = y ′ − y − y + 2 , y ′′ − 2y ′ + 2y = 2 .
La solución general de la homogénea la da la ecuación característica (la misma que la de la matriz)
y la solución particular aquí salta a la vista yp = 1 (con la fórmula de variación de las constantes
sería largo y el método de coeficientes indeterminados sugiere probar una constante). Así pues:
λ2 − 2λ + 2 = 0 → λ = 1 ±  → y = (c1 cos t + c2 sen t) et + 1
Con los datos iniciales: y(0) = 1 , y ′ (0) = (0)+ y(0) = 1 , obtenemos la y de antes: y = et sen t + 1 .
Y simplemente sustituyendo esta y obtenemos la  :  = y ′ − y = et cos t − 1 .
§ ′
 = − y+ 1 (0) = 2 Llevando  = y+ 21 y ′ a la primera:
Ej 2*. Y ahora el ejemplo 2: ′ , .
y = 2− 2y y(0) = 2 y ′ + 12 y ′′ = y+ 12 y ′ − y+ 1 , y ′′ + y ′ = 2 .
λ = 0, −1 dan las soluciones de la homogénea. Y para la yp , por ser λ = 0 autovalor, probamos:
yp = At → A = 2 , yp = 2t [o a ojo]. La solución general es y = c1 + c2 e−t + 2t .
De los datos y(0) = 2 , y ′ (0) = 4− 4 = 0 obtenemos c2 = 2 , c1 = 0 , y = 2e−t + 2t .
Y, por tanto,  = 2e−2t + 2t + 12 − 2e−t + 2 = e−2t + 2t + 1 , como con las matrices.


Consideremos para acabar otros tres casos de ecuaciones lineales de segundo orden [e],
ahora con coeficientes variables, que son resolubles por métodos elementales.

i) Ecuaciones de Euler: [u] t 2 ′′ + t′ + b = h(t) , t > 0 .


d2  d2 
” —
d
Haciendo el cambio de variable independiente t = es : dt
= 1t d
ds
, dt 2
= t12 ds2
− d
ds
,
[u] se convierte en la siguiente ecuación lineal con coeficientes constantes:
d2 
ds2
+ (− 1) d
ds
+ b = h(es ) , de ecuación característica Q(λ) ≡ λ2 + (− 1)λ+ b = 0 .

Como conocemos las soluciones de la homogénea para la segunda ecuación, deshaciendo


el cambio ( s = ln t ), tenemos la solución general de una ecuación de Euler homogénea:
Si λ1 ̸= λ2 reales,  = c1 t λ1 + c2 t λ2
Si λ doble (real),  = (c1 + c2 ln t)t λ
Si λ = p± qi ,  = c1 cos(q ln t)+ c2 sen(q ln t) t p
 

[Observemos que la ’ecuación característica’ de una ecuación de Euler sería


la que obtendríamos probando en la homogénea soluciones de la forma t λ ].
Para hallar la p de la no homogénea dispondremos siempre de la fórmula de variación
de las constantes con ƒ (t) = h(t)/ t 2 (y para la ecuación
 de coeficientes constantes en s
del método de coeficientes indeterminados, si h es es del tipo adecuado).

Ej 7. Resolvamos t 2 ′′ + t′ −  = t La ’ecuación característica’ es λ2 + (1− 1)λ− 1 = 0 → λ = ±1


→ la homogénea tiene por solución general h = c1 t + c2 t −1 (que es válida en este caso ∀t ̸= 0 ).
t t −1 R t −1 dt R t −1 t −1 dt
|W|(t) = −2
= −2t −1 y ƒ (t) = t −1 → p = t −1 t−2t −1 − t −2t −1
= 2t ln t − 4t
1 −t

→ la solución general de la no homogénea es  = c1 t + c2 t −1 + 2t ln t (englobado el t


4
en c1 t ).
La p se podría calcular utilizando coeficientes indeterminados en la ecuación a la que ′′− = es
conduce el cambio t = es . La p que deberíamos probar en la ecuación en s es p = Ases (por
ser λ = 1 autovalor), o lo que es lo mismo, podríamos probar p = At ln t en la de Euler inicial.
Haciéndolo llegamos a la misma solución general:
′p = A(ln t + 1) , ′′
p
= At → 2At = 1 , A = 12 como antes.

35
ii) Si en la ecuación [e] es b(t) ≡ 0 : ′′ + (t)′ = ƒ (t) ,
el cambio ′ = y convierte dicha ecuación en una lineal de primer orden en y ,
resoluble con la fórmula del capítulo 1. Integrando y obtendremos la  .
Observemos que el cambio anterior reduce también una ecuación no lineal en la que no
aparece la  en una de primer orden, tal vez resoluble: ′′ = g(t, ′ ) → y ′ = g(t, y) ; este es
uno de los pocos casos de ecuaciones no lineales que se pueden resolver elementalmente).

Ej 8. Calculemos la solución general de t′′ − 2′ = t cos t .


2y t cos t
′ = y → y ′ = t + cos t → y = Ct 2 + t 2 cos dt →  = K + Ct 3 + t 2
R R R 
t2 t2
dt dt
(primitivas que no son calculables elementalmente).
Es también de Euler (  = −2 , b = 0 , h(t) = t 2 cos t ) y se puede resolver como el ejemplo 7:
λ2 − 3λ = 0 → λ = 0, 3 → h = c1 + c2 t 3 , solución de la homogénea. |W|(t) = 3t 2 →
t t
 = c1 + c2 t 3 + t 3 cos dt − cos
R R
3t 2 3t
dt , que debe poderse hacer coincidir con la de antes.

iii) Si conocemos una solución 1 de la homogénea ′′ + (t)′ + b(t) = 0 , el


cambio  = 1  dt lleva la ecuación [e] a lineal de primer orden en  .
R

[No son, por tanto, necesarias las dos soluciones que exigía el teorema 4; basta sólo
hallar una; el problema es que en pocas ocasiones podremos encontrar esa solución:
a veces a simple vista, a veces tanteando, a veces aparece al resolverla por series].

En efecto, llevando  , ′ = ′1  dt + 1  , ′′ = ′′  dt + 2′1 + 1 ′ a [e]:


R R
1

1 ′ + (2′1 + 1 )+ (′′ + ′ + b )  dt = ƒ (t) → ′ = − 2′ −1 +  + ƒ (t)−1


R 
1
 1 1 1 1 1
pues 1 satisface la homogénea. El conocimiento de la 1 permite hallar también (sin
necesidad de hacer el cambio) una segunda solución 2 de la homogénea, pues
integrando la ecuación en  con ƒ (t) = 0 :
R
e−  dt
R Z
=e −  dt
−2 → 2 = 1 dt .
1 21

El  , desde luego, es el de la ecuación escrita en la forma de arriba ′′ + (t)′ + · · · .




Se usa bastantes veces esta fórmula resolviendo por series ecuaciones homogéneas .

Ej 9. Resolvamos t 3 ′′ − t′ +  = 1 . 1 = t es solución de la homogénea.

[Las únicas soluciones de la homogénea que pueden saltar a la vista son las rectas
 = t+b (pues entonces el término con ′′ no aparece y basta mirar los otros dos)].
Para resolver la ecuación dada podemos ahora seguir dos caminos diferentes:
1) Efectuar explícitamente el cambio  = t  , ′ = + t , ′′ = 2+ t′ ,
R R

para convertir la ecuación inicial en la lineal de primer orden no homogénea:


t 4 ′ + 2t 3 − t 2  = 1 → ′ = t −2 − 2t −1 + t −4 .
 

Resolver esta lineal:  = c2 t −2 e−1/ t + t −2 e−1/ t t −2 e1/ t dt = c2 t −2 e−1/ t − t −2 .


R
€ Š
Y deshacer el cambio:  = t c1 + c2 t −2 e−1/ t dt − t −2 dt = c1 t + c2 t e−1/ t + 1 .
R R

[No olvidemos la constante de integración; deben aparecer 2 constantes arbitrarias].


−t −2 dt
Z R
e−
2) Hallar otra solución de la homogénea con la fórmula: 2 = t t2
dt = te−1/ t

y calcular una p de la no homogénea con la fórmula de variación de constantes:

|W|(t) = e−1/ t → p = te−1/ t t −2 e1/ t dt − t t −2 dt = t + 1 →  = c1 t + c2 te−1/ t + 1


R R

[Todo el trabajo con la no homogénea ha sido absolutamente inútil y perfectamente


podíamos habérnoslo ahorrado, porque la p = 1 se veía también a simple vista].

36
2.3 Estabilidad de sistemas y ecuaciones lineales
R
Para y ′ = (t)y+ ƒ (t) la estabilidad la ecuación la daba la e  , es decir, la ’matriz fundamental’.
En general sucede lo mismo, pero pocas veces tendremos una W(t) .

Estudiemos primero la estabilidad de las soluciones del sistema lineal general


[S] x′ = A(t) x + f(t) , con A y f continuas en  = [to , ∞)
con lo que todas las soluciones de [S] están definidas ∀t ≥ to .
Definimos en 2.1 la norma de un vector, pero no la de una matriz. En los libros de análisis
matemático se ve que hay varias posibles. Nosotros elegimos, por ejemplo:

∥W(t)∥ , norma de W(t) , será la suma de los valores absolutos de sus elementos.
[Hay otras normas, como el supremo de los valores absolutos de los elementos (el determinante
|W(t)| no es una norma). Se prueba que todas ellas son ’equivalentes’, es decir, que si una es
grande o muy pequeña, las otras también lo son].
Si W(t) es cualquier matriz fundamental y x(t) , x∗(t) son dos soluciones de [S] usando la
fórmula de variación de las constantes, y el hecho de que en los libros de análisis se ve que
la norma de un producto de matrices es menor que una constante por el producto de las
normas de ambas, deducimos:
∥x(t)− x∗(t)∥ = ∥W(t)W−1 (t)[ x(to )− x∗(to )]∥ ≤ K∥W(t)∥∥x(to )− x∗(to )∥ .
Como x(t) es estable (AE), si esta norma es pequeña (tiende a 0 ) para t ≥ to (para t → ∞ ),
si ∥x(to )− x∗(to )∥ es suficientemente pequeña, concluimos:

Todas las soluciones de [S] serán estables, asintóticamente estables


Teor 1. o inestables dependiendo de que, respectivamente, la ∥W(t)∥ esté
acotada, tienda a 0 cuando t → ∞ o no esté acotada.
Esto significa que a partir de to todos los elementos de W(t) están acotados,
que todos tienden a 0 o que al menos uno de sus elementos no está acotado.
Como ocurría para n = 1 se puede hablar de la estabilidad del sistema [S] pues todas sus
soluciones tienen la misma estabilidad [que no depende de la f(t) ].
t e−1/ t
 
t
Ej 1. t 3 ′′ − t′ +  = 1 (ej. 9 de 2.2). Una W(t) es , pues era h = c1 t + c2 e−1/ t .
1 (1+ t )e
−1 −1/ t

Como ∥W(t)∥ es no acotada (2 de los elementos de W(t) no lo están), la ecuación es inestable.

t −1 t −2
 
Ej 2. t 2 ′′ + 4t′ + 2 = t 4
λ(λ− 1)+ 4λ+ 2 = 0 , h = c1 t −1 + c2 t −2 → W(t) = .
−t −2 −2t −3
” —
1 4
Como ∥W(t)∥ −→ 0 , todas las soluciones para t > 0 son AE la p = 30 t no influye nada .
t→∞

Para coeficientes constantes [C] x′ = Ax+ f(t) hay un resultado mucho más directo:

Si los dos autovalores λ de A tienen Reλ < 0 , el sistema [C] es AE.


Teor 2. Si los autovalores de A tienen Reλ ≤ 0 y A es diagonalizable [C] es estable.
Si existe algún λ con Reλ > 0 o si es λ = 0 doble y A no diagonal, [C] es I.

[Los elementos de W(t) = eAt son exponenciales eλt tal vez multiplicadas por t , si J no diagonal.
Si Reλ < 0 cada elemento, y por tanto ∥W(t)∥ , tiende a 0 si t → ∞ . Si hay λ con Reλ = 0 y A es
diagonal hay términos que son constantes, senos o cosenos y permanecen acotados sin tender
a 0 . Si hay algún λ con Reλ > 0 o si los términos que vienen de λ = 0 contienen una t , habrá
algún término de la exponencial no acotado y la norma de W(t) tampoco lo estará].
Así pues, la Reλ precisa la estabilidad de un sistema de coeficientes constantes (y de una
ecuación, que era estable si lo era su sistema equivalente). Sólo si hay λ = 0 doble hay que
mirar si A ≡ 0 o no para distinguir entre estabilidad no asintótica e inestabilidad. Y esto ni
siquiera será necesario en las ecuaciones, pues siempre habrá potencias de t .

37

0 2
  ‹
1 p
Ej 3. x′ = x+ t
λ2 − 2λ− 2 = 0 , λ = 1± 3 ⇒ sistema inestable [la f(t) no influye].
1 2

 
1 1
Ej 4. x′ = x λ2 + 1 = 0 , λ = i ⇒ sistema estable (no asintoóticamente).
−2 −1

′ =  + y (0) = 1
Ej 5. Hallemos la solución de con y(0) = −2
y precisemos su estabilidad.
y ′ = −− y+ e−t

y = ′ −  → ′′ = e−t →  = c1 + c2 t + e−t . imponiendo (0) = 1, ′ (0) = (0)+ y(0) = −1


se obtiene c1 = c2 = 0 y por tanto,  = e−t , con lo que y = −e−t − e−t = −2e−t .
La estabilidad de esta solución (y la de todo el sistema) viene dada por |A−λ| = λ2 = 0 .
Como λ = 0 doble y A no es diagonal (no el la 0 ), esta solución es inestable.
[Que la x → 0 no importa nada. EA no significa que tienda a 0 una solución dada, sino que
lo haga la diferencia entre dos cualesquiera que partan cerca (entre todas en las lineales)].

′ = −+ y |A− λ| = 0 → λ = −1 , −2 (obvio, la matriz es triangular). El sistema es AE.


Ej 6.
y ′ = 2− 2y Una solución particular constante se encuentra fácilmente:  = y = 1 .
Como las soluciones del homogéneo tienden a 0 , concluimos, sin más que ver la xp y los
autovalores (y sin calcular las soluciones) que todas las (t) , y(t) → 1 cuando t → ∞ .

Ej 7. ′′ + 2′ = 0 → λ = 0 , −2 ⇒ ecuación estable no asintóticamente.

Ej 8. ′′ + 2′ +  = et → λ = −1 doble ⇒ ecuación AE.


Todas las soluciones se van a infinito, por la p = Aet , pero esto no tiene que ver con la EA.
Lo importante es que todas se parezcan entre sí. Insistimos en que ƒ (t) no influye.

se puede interpretar como un sistema muelle-masa


Ej 9. ′′ + ′ +  = sen t
sometido a una fuerza externa periódica.
Si  > 0 (cuando hay un rozamiento que se opone al movimiento) la ecuación
es AE, por tener ambos autovalores Reλ < 0 : λ = 12 − ± 2 − 4 .
 p 

Como las de la homogéna se van a 0 y la particular de la no homogénea es


de la forma p = A cos t+ B sen t , deducimos (sin más cálculos) que el sistema f(t)

tenderá a oscilar periódicamente. En la práctica será eso lo que obervaremos.


Si no hay rozamiento (  = 0 ), la ecuación es EnoA ( λ = ±i ). Pero aunque estén acotadas las
soluciones de la homogénea, ninguna solución de la no homogénea lo está, pues la resonante
p = − 2t cos t hace que la amplitud de todas las oscilaciones tienda a infinito.

La teoría de las ecuaciones de orden n es muy similar a la de orden 2 que hemos visto.
La dificultad, de nuevo, se presenta por la imposibilidad de hallar exactamente las raíces
de su polinomio característico Pn de grado mayor que 2 [sí es fácil, sin embargo, hallar
las p cuando se puede aplicar el método de coeficientes indeterminados].
Para analizar su estabilidad deberíamos simplemente saber si esas raíces no calculables
tienen o no parte real menor que 0. Esto que para nuestro n = 2 es trivial:
las raíces de λ2 + λ+ b = 0 tienen Reλ < 0 ⇔ ,b > 0 [basta escribirlas],
sólo es algo más complicado (pero abordable) para n mayores. Una condición necesaria
(no suficiente) es también que todos los coeficientes de Pn sean estrictamente positivos.
p 
Que no basta lo prueba λ3 + λ2 + λ+ 21 = (λ+ 3)(λ2 − 2λ+ 7) → λ = −3 , 1± i 6 .


Quien resuelve el problema es el criterio de Routh-Hurwitz de los libros de ecuaciones.

38

También podría gustarte