0% encontró este documento útil (0 votos)
44 vistas69 páginas

EDOSII

Este documento trata sobre ecuaciones diferenciales. En la primera sección se realiza un repaso de conceptos fundamentales como normas Lp, sistemas lineales y métodos para resolver sistemas lineales con coeficientes constantes. La segunda sección introduce conceptos de estabilidad como el sentido de Lyapunov y el plano de fase, y analiza la estabilidad en sistemas lineales y no lineales, incluyendo sistemas autónomos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
44 vistas69 páginas

EDOSII

Este documento trata sobre ecuaciones diferenciales. En la primera sección se realiza un repaso de conceptos fundamentales como normas Lp, sistemas lineales y métodos para resolver sistemas lineales con coeficientes constantes. La segunda sección introduce conceptos de estabilidad como el sentido de Lyapunov y el plano de fase, y analiza la estabilidad en sistemas lineales y no lineales, incluyendo sistemas autónomos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Ecuaciones diferenciales II

EDII

Carlos Yanes Pérez


Índice general

I Tema 1

1 Repaso de EDOS I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1 Normas L p . 5
1.1.1 Producto interior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2 Sistemas lineales 7


1.3 Solución sistemas lineales coeficientes constantes 10
1.3.1 Forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Solución de sistemas lineales coeficientes variables . . . . . . . . . . . . . . . . . . . . . 12

2 Estabilidad y plano de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13


2.1 Estabilidad de sistemas lineales (sentido Lyapunov) 13
2.1.1 Reducción de D’Alembert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.2 Plano de fase 16


2.3 Estabilidad de SL (coeficientes constantes) n > 2 21
2.4 Estabilidad en sistemas no lineales 21
2.5 Sistemas utónomos 23
2.5.1 Análisis de estabilidad de sistemas autónomos por linealización . . . . . . . . . . . 23
2.5.2 Funciones Lyapunov (sistemas autónomos) . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3

II Tema 2
3 Problemas de valores frontera (PVF) . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1 Soluciones fundamentales y función de Green 30
3.1.1 Búsqueda de soluciones fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Función de Green 32
3.3 PVF no lineales 35
3.4 Problemas de autovalores del tipo Sturm-Lioville 37

4 Transformación de Prüffer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1 El problema de autovalores 42

III Tema 3
5 Métodos a paso fijo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1 Método de Euler 48
5.2 Método de Taylor 49
5.3 Métodos Runge-Kutta 50
5.4 Método de Runge de orden 2 50
5.5 Método de la regla trapezoidal 51
5.6 Condiciones de orden 52
5.6.1 Obtención de condiciones de orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.6.2 Desarrollo de las condiciones de orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

6 Estabilidad de métodos Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . 56


6.1 Función de estabilidad para métodos RK 58

7 Métodos de Adams . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.0.1 Polinomio interpolador por diferencias regresivas . . . . . . . . . . . . . . . . . . . . . . . 60
7.1 Métodos de Adams-Bashford (explícitos, ABK ) 61
7.1.1 Error del método en un paso (defecto) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.2 Métodos de Adams-Moulton (implícitos, AMK ) 63
7.2.1 Cálculo del error de truncamiento local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

8 Métodos BDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
8.1 Cálculo del error 66

9 Métodos predictor-corrector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

10 Métodos lineales multipaso (MLM) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68


10.1 Error 68
I
Tema 1

1 Repaso de EDOS I . . . . . . . . . . . . . . . . . . . . 5
1.1 Normas L p .
1.2 Sistemas lineales
1.3 Solución sistemas lineales coeficientes constantes

2 Estabilidad y plano de fase . . . . . . . . . . 13


2.1 Estabilidad de sistemas lineales (sentido Lyapunov)
2.2 Plano de fase
2.3 Estabilidad de SL (coeficientes constantes) n > 2
2.4 Estabilidad en sistemas no lineales
2.5 Sistemas utónomos
1. Repaso de EDOS I

1.1 Normas L p .
Definición 1.1.1 Una norma es una aplicación

∥ · ∥ : Rn → R+

que cumple

1. ∥x∥ > 0, x ̸= 0
2. ∥λ x∥ = |λ |∥x∥
3. (Desigualdad triangular)
∥x + y∥ ≤ ∥x∥ + ∥y∥ o, equivalentemente |∥x∥ − ∥y∥| ≤ ∥x − y∥

Además, para cada p = 1, 2, 3, . . . se tendrá una norma L p definida como


!1/p
n
p
∥x∥ p = ∑ |xi |
i=1

Para poder probar que algunas aplicaciones son efectivamente normas podrán servir de ayuda
las siguientes desigualdades.

1. Desigualdad de Cauchy-Schwarz

|x · y| ≤ ∥x∥2 · ∥y∥2

2. Desigualdad de Minkowski
∥x + y∥ p ≤ ∥x∥ p + ∥y∥ p
6 Capítulo 1. Repaso de EDOS I

Definición 1.1.2 En el caso de que p = ∞ tendremos

∥x∥∞ = máx |xi | = lı́m ∥x∥ p


1≤p≤n p→∞

por lo que se suele denominar norma del máximo.

En un espacio de dimensión finita (Rn ) todas las normas L p son equivalentes, esto es, dadas dos
normas ∥ · ∥a , ∥ · ∥b y dos constantes c1 , c2 > 0 se puede acotar una norma por la otra y viceversa:

c1 ∥x∥a ≤ ∥x∥b ≤ c2 ∥x∥a

■ Ejemplo 1.1 Dada la norma p = 1 y p = ∞ se dará la acotación

∥x∥∞ ≤ ∥x∥1 ≤ n∥x∥∞

y también
1
∥x∥1 ≤ ∥x∥∞ ≤ ∥x∥1
n

Definición 1.1.3 Un operador lineal es una aplicación lineal que transforma un vector en otro.

L : Rn → Rn

con x = Ax, además, el operador L tiene asociada una matriz regular de manera que

L (x) = A · x

Asimismo podemos obtener la norma de un operador lineal, pues

∥L (x)∥ p ≤ ∥L ∥ · ∥x∥ p

por lo que despejando


∥L (x)∥ p
∥L ∥ = sup ≤∞
x̸=0 ∥x∥ p
además haciendo el cambio y = x/∥x∥ p se tiene que

∥L ∥ = sup ∥L (y)∥ p
∥y∥=1

de forma matricial se tendrá


∥Ax∥
∥A∥ = sup = máx ∥Ay∥
x̸=0 ∥x∥ ∥y∥=1

■ Ejemplo 1.2 Para p = 1:


n
∥A∥1 = máx ∑ ai j
1≤ j≤ni=1
Para p = ∞:
n
∥A∥∞ = máx ∑ ai j
1≤i≤n j=1

Para p = 2: p
∥A∥2 = ρ(A · At )
donde ρ(B) es el radio espectral de B, esto es ρ(B) = máx1≤i≤n |λi |, con λi autovalor de B. ■
1.2 Sistemas lineales 7

1.1.1 Producto interior


En el caso complejo se tendrá que el producto de dos vectores no nulos es
n
x · y = ∑ yi · xi = y∗ · x
i=1

donde y∗ = yt . En el caso real tendremos algo muy similar.

Al producto escalar lo denotaremos como < x, y >2 := x · y. De este modo podemos ver que la
norma p = 2 viene inducida por el producto escalar1 :

∥x∥2 = < x, y >2

1.2 Sistemas lineales


Teorema 1.2.1 — Lema de Gronwal.
Z t
ϕ(t) ≤ a + b ϕ(s) ds
t0

donde b ≥ 0, ϕ ∈ C (I) e I = [t0 ,t1 ] entonces

ϕ(t) ≤ a · eb(t−t0 )

Demostración. Definimos Ψ(t) = a + b tt0 ϕ(s) ds ⇒ Ψ′ (t) = bϕ(t)


R

Por tanto tenemos una edo lineal de primer orden. Además

Ψ′ (t) = bϕ(t) ≤ bΨ(t) ⇒ Ψ′ (t) − bΨ(t) ≤ 0

aplicando factor integrante tendremos que

e−b(t−t0 ) (Ψ′ (t) − bΨ(t)) ≤ 0 ⇒ (e−b(t−t0 ) Ψ(t))′ ≤ 0

es una función decreciente, entonces

e−b(t−t0 ) Ψ(t) ≤ Ψ(t0 )

Teorema 1.2.2 Dado el problema

y′ (t) = A(t)y(t) + b(t)

con y(t0 ) = y0 , t ∈ [t0 ,t1 ]. Donde A, b ∈ C (I) el problema admite solución única de clase 1
y(t) = y(t;t0 , y0 ) donde

∥y∥ ≤ (∥y0 ∥ + β (t − t0 ))eL(t−t0 ) , ∀t ∈ I

con L = máxt∈I ∥A(t)∥ y β = máxt∈I ∥b(t)∥

1Además, es la única inducida por dicho producto.


8 Capítulo 1. Repaso de EDOS I

Demostración. Veamos la siguiente acotación

∥ f (t, y) − f (t, z)∥ ≤ L∥y − z∥

Puesto que y es solución se tiene la ecuación integral


Z t
y − y0 = (Ay + b) ds
t0

Aplicando normas
Z t Z t
∥y∥ = ∥y0 ∥ + (∥Ay + b∥) ds ≤ ∥y0 ∥ + (∥A∥∥y∥ + ∥b∥) ds
t0 t0

Haciendo ∥y(t)∥ = φ (t):


Z t
φ (t) = ∥y(t)∥ ≤ ∥y0 ∥ + β (t − t0 ) + L φ (s) ds
t0

Aplicando el Lema de Gronwall


Z t
φ (t) ≤ a + b φ (s) ds ⇒ φ (t) ≤ aeb(t0 −t)
t0

Donde a = ∥y0 ∥ + β (t − t0 ). ■

Teorema 1.2.3 Dado el problema y′ = A(t)y con A continua en I = [t0 ,t1 ], fijados τ,t ∈ I se
verifica la siguiente propiedad

ϕ: Rn → Rn
η → y(t, τ, η)

es solución de
y′ (s) = A(s)y(s)τ = η

Demostración. Veamos que φ es isomorfismo, para ello comprobemos que el lineal y biyectiva.

Linealidad.

y(t; τ, λ1 η1 , λ2 η2 ) = λ1 y(t; τ, η1 ) + λ2 y(t; τ, η2 ). Esta igualdad se verifica por unicidad, pues


esta combinación lineal satisface el problema y el dato.

Biyectiva si, y solo si inyectiva (pues tenemos espacios de dimensión finita) además, ver que ϕ
es inyectiva equivale a ver que y(t; τ, 0) = 0.

R.a.

Supongamos que y(t; τ, η) = 0 entonces por unicidad η = 0. ■

Corolario 1.2.4 Existe R(t, τ) matriz regular asociada a ϕ de modo que

y(t; τ, η) = R(t, τ)η


1.2 Sistemas lineales 9

A la matriz R(t, s) la denominaremos matriz resolvente.

Corolario 1.2.5 Dado un sistema fundamental podemos obtener la matriz fundamental

Y (t) = col(y1 , . . . , yn ) = [y1 , . . . , yn ], yi = y(t; τ, ηi )

Donde Y (t) será regular siempre que la colección {η1 , . . . , ηn } sea libre.

Además, la matriz fundamental satisface el sistema y también se da que

R(t, τ) = Y (t)Y −1 (τ)

Demostración. Sabemos que Y ′ (t) = [y′1 , . . . , y′n ] = [A(t)y1 , . . . , A(t)yn ] = A(t)[y1 , . . . , yn ] =


Son sol.
A(t)Y (t)

Por tanto Y (t) satisface el sistema. Veamos ahora la siguiente parte; para ello consideremos
z(t) = Y (t)Y −1 (τ)η.

Entonces z′ = Az con z(τ) = η si, y solo si y = R(t, τ)η

Satisface el dato, por tanto como z′ = Y ′ (t)Y −1 (τ)η = AY (t)Y −1 (η) = Az por lo que z es
solución. ■

Definición 1.2.1 Denotaremos al determinante de la matriz fundamental por φY (t) = det(Y (t))

Teorema 1.2.6 — Identidad de Abel-Lioville-Jacobi-Ostrogradskii.


Rt
tr(A(s)) ds
φY (t) = e τ φY (τ)

donde tr(A) = ∑ni=1 aii

Demostración. Dada Y (t) = R(t, τ)Y (τ) se da que

φ (t) = det(Y (t)) = det(R(t, τ)φ (τ))

Así pues la derivada de φ será


n
φ ′ (t) = [det(R(t, τ))]′ φ (τ) = ∑ det[x1 (t, τ), . . . , xn (t, τ)]φ (τ)
i=1

Haciendo t = τ
n
φ ′ (τ) = ∑ det[e1 , . . . , ei − 1, A(τ)xi (τ, τ), ei+1 , . . . , en ]φ (τ)
i=1

Donde xi (τ, τ) = ei .
10 Capítulo 1. Repaso de EDOS I

De este modo
 
1 0 . . . aii ... 0
0
 1 . . . a2i . . . 0

.
0 . . a3i
 

0 . . . 0
φ (τ) = φ (τ) ∑ det   = φ (τ)tr(A(τ))
0
 0 ... 1 . . . 0

 .. .. . . . .. 
. . . . . .. . .
0 0 . . . ani ... 1
Rt
Por tanto φ ′ (τ) = φ (τ)tr(A(τ)) por lo que φ (t) = e τ tr(A(s)) ds φ (τ) ■

1.3 Solución sistemas lineales coeficientes constantes


Teorema 1.3.1 Sea {v1 , . . . , vn } un sistema completoa de autovectores de A asociados a los
autovalores {λ1 , . . . , λn }. donde Av j = λ j v j el sistema

y′ = Ay, y(t0 ) = y0

entonces y = Y (t)Y −1 (t0 )y0 es solución donde Y (t) = [y1 , . . . , yn ], y j = etλ j v j .


aA es diagonalizable.

Demostración. Teniendo que y′j = λ j etλ j v j = λ j y j y también Ay j = Aetλ j v j = λ j y j entonces y j es


solución.

Por lo anterior se deduce que y = ∑nj=1 c j etλ j v j ■

Definición 1.3.1 — Exponencial de una matriz. Sea A una matriz cuadrada entonces se
define ∞
1 1 1
eA = I + A + . . . + an + . . . = ∑ An
1! n! n=0 n!

Teorema 1.3.2 La serie de la definición converge para cualquier matriz cuadrada.

Demostración. Veamos que Sn = ∑nk=0 k!1 Ak es de Cauchy. Por tanto queremos comprobar que

∥Sn+m − Sn ∥ < ε

para n ≥ nε , n ∈ N. Sabemos que


m m
1 1
∥Sn+m − Sn ∥ = ∥ ∑ An+k ∥∞ ≤ ∑ ∥An+k ∥∞
k=1 (n + k)! k=1 (n + k)!

Por tanto tenemos la sucesión de cauchy {e∥A∥∞ } que es una sucesión de números reales que
sabemos que converge. ■

Nota 1.1. Recordar que ∥A · B∥ ≤ ∥A∥ · ∥B∥


1.3 Solución sistemas lineales coeficientes constantes 11

Propiedad 1.1. Exponencial de matrices.

Si AB = BA con A, B ∈ Mn (R) entonces eA+B = eB eA = eA eB .


−1 BA
Si |A| ̸= 0 entonces eA = A−1 eB A.

Demostración. Basta con aplicar la definición de exponencial. ■

Teorema 1.3.3 Dado el problema (A matriz de coeficientes constantes)

y′ = Ay

con dato y(t0 ) = y0 entonces y(t) = eA(t−t0 ) y0

Demostración. Es claro que y cumple la condición inicial. Veamos ahora que cumple la EDO:
(∗)
y′ = (eA(t−t0 ) y0 )′ = (eAt )′ e−At0 y0 = AeAt e−At0 y0 = AeA(t−t0 ) y0 = Ay

(∗) La derivada (eAt )′ la hacemos por definición.

e(x+h)A − exA
lı́m
h→0 h
Notemos que e(x+h)A = exA ehA por lo que

exA ehA − exA ehA − I 1


lı́m = exA lı́m = exA lı́m ((I +hA+h2 A2 +o(h3 ))−I) = exA lı́m [A+hA2 +o(h2 )] = exA A
h→0 h h→0 h h→0 h h→0

Proposition 1.3.4 Si A = V DV −1 con V = [v1 , . . . , vn ] y D = diag(λ1 , . . . , λn ) siendo los vi autova-


lores de A y los λi los respectivos autovalores entonces
−1 (t−t
y = eV DV 0)
y0 = VeD(t−t0 )V −1 y0 = V diag(eλ j (t−t0 ) )nj=1V −1 y0

es solución del sistema anterior.

1.3.1 Forma canónica de Jordan


Definición 1.3.2 Sea A una matriz cuadrada se dirá que una matriz es semejante a su forma
canónica de Jordan cuan A = V JV −1 con V la matriz de autovectores y J = Blockdiag(J1 , . . . , Jl )
una matriz diagonal por bloques. Donde
 
λl 1 0 . . . 0
 0 λl 1 . . . 0 
 
 .. .. . . . . .. 
Jl = 
 . . . . .  , dimJl = mi

 . . 
0 0 0 . 1
0 0 0 0 λl

además ∑li=1 mi = n.
12 Capítulo 1. Repaso de EDOS I

Definición 1.3.3 — Exponencial de un bloque de Jordan. eJt = Blockdiag(eJ1 t , . . . , eJl t )


además
t2 t3
 
1 t 2! 3! ...
t2
0 1
 t 2! . . .

Ji t λi  .. . . .. .. .. 

e = e . . . . .

. . .. ..
 .. ..

. . t 
0 0 0 0 1

Esto es debido a que etJ = ey(λ I+E) donde E es una matriz nilpotente de orden la dimensión del
bloque en cuestión.

1.3.2 Solución de sistemas lineales coeficientes variables


Teorema 1.3.5 Dado el problema y′ = Ay + b con dato inicial y(t0 ) = y0 siendo b y A continuas
en el intervalo de estudio I, entonces la solución viene dada por
Z t
y = R(t,t0 )y0 + R(t, s)b(s) ds
t0

donde R(t, s) = Y (t)Y −1 (s).

Demostración. Sea y = Y h donde


Z t
h = Y (t0 )−1 y0 + Y −1 (s)b ds
t0

Vemos claramente que

y′ = Y ′ h +Y h′ = AY h +YY −1 b = Ay + b

y además y(t0 ) = Y (t0 )h(t0 ) = y0 , por tanto cumple el dato. Por unicidad y es la solución del
problema. ■
2. Estabilidad y plano de fase

2.1 Estabilidad de sistemas lineales (sentido Lyapunov)


Definición 2.1.1 Dado el sistema y(t) = f (t, y) y el intervalo I = [t0 , ∞) siendo f continua en
I × Rn y globalmente Lipschitz, entonces una solución φ (t) = y(t;t0 , y0 ) es estable Lyapunov si,
y solo si cumple
1. ∃φ (t) con t en I.
2. ∃y(t;t0 , y0 ) : ∥y1 − y0 ∥ < < 1
3. ∀ε > 0, ∃δ > 0 tal que ∥y1 − y0 ∥ < δ ⇒ ∥y(t;t0 , y0 ) − y(t;t0 , y1 )∥ < ε

Nota 2.1. En intervalos finitos se dará siempre.

Definición 2.1.2 — Estabilidad asintótica. φ (t) se dirá que es asintóticamente estable, AE, si
es estable Lyapunov y lı́mt→∞ ∥y(t;t0 , y1 ) − y(t;t0 , y0 )∥ = 0

con φ = y(t;t0 , y0 ).

Definición 2.1.3 yc es un punto crítico si f (t, yc ) = 0 para cualquier t en I. Además, 0 siempre


será punto crítico.

Teorema 2.1.1 Un sistema lineal es estable si, y solo si ∥eAt ∥ ≤ C, con C ∈ R, para todo t ≥ 0.

Demostración. ■

Teorema 2.1.2 Una solución será AE si, y solo si lı́mt→∞ ∥eAt ∥ = 0

Demostración. ■
14 Capítulo 2. Estabilidad y plano de fase

Teorema 2.1.3 Sean λ ∈ C y σ > Re(λ ) entonces |t m eλt | ≤ Km eσt para todo t ≥ 0, m ∈ N y
Km constante.

Demostración. ■

Propiedad 2.1.
Z φ (t) Z φ (t)
d ′
f (t, s) ds = φ f (t, φ (t)) + ft (t, s) ds
dt t0 t0

Teorema 2.1.4 Dada la matriz A de coeficientes constantes entonces

∥eAt ∥ ≤ Ceσt

donde t ≥ 0, σ > máx Re(λi ) con λi autovalores de A.

Demostración. Si A = V JV −1 con J la forma canónica de Jordan para A, entonces


−1 t
eAt = eV JV = VeJt V −1 ⇒ ∥eAt ∥∞ ≤ ∥V ∥∞ ∥V −1 ∥∞ ·C · eσ ·t = C∗ eσ ·t

Para tener esta desigualdad aplicamos el resultado del teorema 2.1.3 de la sección. ■

Teorema 2.1.5 — Caracterización de estabilidad de SL. Los siguientes resultados nos


facilitan el estudio de la estabilidad de un SL:

1. Un SL es AE si, y solo si Re(λ ) < 0, ∀λ ∈ σ (A)a



 Re(λ ) < 0
2. Un SL es estable según Lyapunov si, y solo si ∨
Re(λ ) = 0 ⇒ mg (λ ) = ma (λ )

a σ (A) denota el espectro de A.

2.1.1 Reducción de D’Alembert


Dado el problema y′ = Ay, conocida una solución x no nula se propone hallar otra linealmente
independiente de la forma
y(t) = α(t)x(t) + z(t)
 
a(t) b(t)
Donde A(t) =
c(t) d(t)
Derivando tendremos que y′ = α ′ x + z′ = Az esto es debemos resolver el sistema
   ′   ′
α x1 + z′1 = az1 + bz2
 
′ x1 z1 a b z1
α + ′ = ⇐⇒
x2 z2 c d z2 α ′ x2 + z′2 = cz1 + dz2
R
Suponiendo que x1 ̸= 0 e imponiendo α ′ x1 = bz2 se da que z′1 = az1 por tanto z1 = e a(s) ds .

bz2
De este modo α ′ = x1 de este modo al sustituir en el sistema tendremos z2 . Por último se dará
que α = bzx12 ds
R
2.1 Estabilidad de sistemas lineales (sentido Lyapunov) 15
− 
t 1 −1
■ Ejemplo 2.1 Dada A = y teniendo x = (t 2 , −t)T . Hallar otra solución libre del sis-
t −2 2t −1
tema. Es claro que x es efectivamente solución, de modo que aplicando la reducción de D’Alembert
podremos buscar otra solución y = αx + z. Derivando y pasando a un sistema de EDOs llegamos a
 ′2 ′
α t + z1 = t −1 z1 − z2
−α ′t + z′2 = t −2 z1 + 2t −1 z2

Suponiendo que t 2 ̸= 0 se dará que z1 = exp t −1 = t. De esta forma α ′ = − zt 22 . Sustituyendo


R

en la segunda ecuación se dará que z2 = t − 1. E integrando α ′ obtenemos α = −t −1 − lnt. Así


pues la solución buscada será
 2  
−1 t t
y(t) = −(t + lnt) +
−t t −1

16 Capítulo 2. Estabilidad y plano de fase

2.2 Plano de fase

En esta sección comprobaremos de forma cualitativa los casos posibles a la hora de estudiar el
plano de fase para un SL (para n = 2).

 
a11 a22
y′
Dado el problema = Ay con A = el polinomio característico de A es p(λ ) =
a21 a22
λ 2 − tr(A)λ + det(A), además tomaremos a1 = tr(A) y a0 = det(A), entonces los autovalores son


a1 ± ∆
λ= , ∆ = a21 − 4a0
2

Caso 1 si ∆ > 0 entonces tendremos autovalores reales y distintos (supondremos sin pérdida de
generalidad que λ2 < λ1 ). Además, tendremos soluciones del tipo

y = c1 eλ1t v1 + c2 eλ2t v2

con vi los autovalores asociados al λi correspondiente.

Nota 2.2. Denotaremos por r1 a la recta generada por el autovalor v1 que pasa por el origen y r2
la recta que pasa por el autovalor v2 que pasa por el origen.

(1.a) Si λ2 < λ1 < 0. En este caso tenemos una solución estable (AE) y el punto
crítico estudiado (yc ) es un nodo. Las soluciones tenderán al punto crítico siguiendo
las direcciones de las rectas r1 y r2 , pero aproximándose a la recta asociada al
autovalor dominante.
2.2 Plano de fase 17

(1.b) Si λ2 < 0 < λ1 . En este caso tendremos una solución inestable. Diremos que
el punto crítico es un punto de silla, pues en este caso si bien las soluciones que
nacen r2 tienden al punto crítico las que nacen en r1 van al infinito. Puesto que el
autovalor λ1 es el dominante las soluciones se aproximarán a r1 .

(1.c) Si λ2 < λ1 = 0 entonces tendremos una recta (r1 ) de puntos críticos, por tanto
las soluciones irán paralelas a r2 hasta llegar a un punto crítico de r1 . En este caso la
solución es estable.

En caso de que tengamos λ2 = 0 < λ1 el comportamiento de las soluciones


será similiar, pero en este caso divergerán a infinito en lugar de ir al punto
crítico, por tanto será inestable.
18 Capítulo 2. Estabilidad y plano de fase

(1.d) Si 0 < λ2 < λ1 las soluciones se alejarán del punto crítico acercándose a la recta
r1 . Solución inestable.

Caso 2 si ∆ = 0 de esta forma se dará que λ1 = λ2 = a1 /2 = λ

(2.a) Si mg (λ ) = ma (λ ) = 2 entonces A es diagonal, tendremos tres sub-casos:

(2.a.1) Si a1 < 0 entonces tendremos una solución del tipo y/x = C con C
constante, las soluciones tienen al punto crítico de manera radial. En este caso
la solución es AE y se denomina foco.

(2.a.2) Si a1 > 0 entonces tendremos un foco inestable. Similar al anterior,


pero en lugar de aproximarse al punto crítico las soluciones se alejan.

(2.a.3) Si a1 = 0 En tal caso todo punto del plano es un punto crítico. Esta
solución es de la forma y = y0 y es estable.

(2.b) Si mg (λ ) = 1 < ma (λ ) = 2 en esta ocasión solo se tiene una recta r. Nuevamente


tenemos tres sub-casos:
2.2 Plano de fase 19

(2.b.1) Si a1 < 0 entonces r tiende al punto crítico y las soluciones que nacen
que cada semiespacio se aproximan al punto crítico según indique dicha recta.
En este caso tenemos un nodo y la solución es AE. a

a En el ejemplo siguiente r es la recta y = 0.

(2.b.2) Si a1 > 0 entonces r tiende al punto crítico y las soluciones que nacen
que cada semiespacio se al infinito sin necesariamente aproximarse a r. Estas
soluciones son inestables.

(2.b.3) Si a1 = 0 entonces las soluciones irán al infinito paralelas a la recta r.


Estas soluciones son inestables.

Caso 3 si ∆ < 0 de esta forma se dará que λ1 = a + bi y λ2 = a − bi.

Se entenderá que una matriz está en forma canónica cuando sea de la forma siguiente

 
a b
Ac =
−b a

además así se cumplirá que A = VAcV −1 , con V = [v, w]. Asimismo, si la matriz del sistema
está en forma canónica el único punto crítico será el y = 0.
20 Capítulo 2. Estabilidad y plano de fase

(3.a) Si Re(λ ) = 0 entonces las soluciones describirán circunferencias entorno al


punto críticoa . Estas soluciones son estables y se denominan centros.

a Si la matriz asociada no es canónica tendríamos elipses

(3.b) Si Re(λ ) > 0 entonces las soluciones describirán espirales que divergen al
infinito lo que son soluciones inestables.

(3.c) Si Re(λ ) < 0 entonces las soluciones describirán espirales que convergen al
punto crítico lo que son soluciones estables.

Proposition 2.2.1 Si un SL tiene más de un punto crítico estudiar el comportamiento de la solución


en el cero es equivalente a hacerlo en cualquier otro.1
Resurso interactivo GeoGebra.

1Aunque después hay que trasladar el plano de fase a la posición del punto crítico.
2.3 Estabilidad de SL (coeficientes constantes) n > 2 21

2.3 Estabilidad de SL (coeficientes constantes) n > 2


Teorema 2.3.1 — Criterio de Ruth-Hurwitz. Se podrá determinar la estabilidad o no de una
solución estudiando los menores de la matriz siguiente
 
a1 a3 a5 . . . a2n−1
a0 a2 a4 . . . a2n−2 
 
 0 a1 a3 . . . a2n−3 
 
M =  0 a0 a2 . . . a2n−4 


 0 0 a1 . . . a2n−5 
 
. .. .. .. .. 
 .. . . . . 
0 0 0 ... an

Donde los ai son los coeficientes del polinomio característico en cuestión. Además, se seguirá
el convenio de que a j = 0 si j > n. Entonces

Re(λ ) < 0, ∀p(λ ) = 0 ⇐⇒ mk > 0, k = 1, 2, 3, . . . , n

donde los mk denotan los menores principales de M.

2.4 Estabilidad en sistemas no lineales


Dado el sistema no lineal
y′ = Ay + ϕ(t, y)
con ϕ ∈ C (I0 × Rn ) podremos realizar el estudio suponiendo que 0 es un punto crítico.
Nota 2.3. En el caso de los sistemas autónomos ϕ(t, 0) = 0 para cualquier t.
Propiedad 2.2. Además, para sistemas no autónomos se dará que
∥ϕ(t, y)∥
lı́m =0
∥y∥→0 ∥y∥
uniformemente en t ≥ 0 y esto será, si, y solo si

∥ϕ(t, y)∥ ≤ ε∥y∥ donde ∥y∥ < δε , ∀t ≥ 0

Teorema 2.4.1
Re(λ ) < 0 : ∀λ ∈ σ (A) ⇒ yc = 0 es AE

Demostración. Para ver que el cero es una solución AE debemos comprobar que

∀ε > 0, ∃δ : ∥y0 ∥ < δ ⇒ ∥y(t; 0, y0 )∥ < ε, ∀t ≥ 0

Además, dado ε > 0 arbitrario, impondremos que αε − β < 0. De este modo escribiendo la
forma integral de la solución tomando ϕ(t, y) = b(t) se tiene
Z t
y = eAt y0 + eA(t−s) b(s) ds
0

Ahora, aplicando norma y desigualdad triangular se llega a que


Z t
At
∥y∥ ≤ ∥e ∥∥y0 ∥ + ∥eA(t−s) ∥∥b(s)∥ ds
0
22 Capítulo 2. Estabilidad y plano de fase

Ahora por el teorema 2.1.4 sabemos que ∥eAt ∥ ≤ αe−βt con α, β > 0 y siendo β > máxλ ∈σ (A) λi ,
por tanto:
Z t Z t
∥y∥ ≤ ∥eAt ∥∥y0 ∥ + ∥eA(t−s) ∥∥b(s)∥ ds ≤ αe−βt ∥y0 ∥ + αe−β (t−s) ∥b(s)∥ ds
0 0

Aplicando ahora la propiedad 2.2


Z t Z t
∥y∥ ≤ αe−βt ∥y0 ∥ + αe−β (t−s) ε∥y∥ ds ⇒ eβt ∥y∥ ≤ α∥y0 ∥ + αε eβ s ∥y∥ ds
0 0

Ahora si z(t) = eβt ∥y∥ tendremos que


Z t
z(t) ≤ α∥y0 ∥ + αε z(s) ds
0

por tanto estamos en las hipótesis del lema de Gronwall (1.2.1) así pues se verificará que

z(t) ≤ α∥y0 ∥eαεt ⇒ ∥y∥ ≤ α∥y0 ∥e(αε−β )t

y esto para cualquier t. Por tanto tomaremos el δ buscado como


 
δε ε
δ = mı́n ,
1+α 1+α
Además, podemos garantizar que ∥y∥ < δε con ∥y∥ < ε uniformemente en t ≥ 0 puesto que
αε − β < 0. ■

Corolario 2.4.2 — de Ruth-Hurwitz. Sea el sistema

y′ = Ay, A ∈ Mn (R)

donde p(λ ) = det(A − λ I) = λ n + a1 λ n−1 + . . . + an si algún mk < 0 entonces la solución


nula es inestable.

Demostración. Procederemos por reducción al absurdo.

Supongamos que la solución nula es estable y veamos que necesariamente Re(λ j ) ≤ 0, j =


1, 2, 3, . . . , n.

Consideremos el sistema y′ε = (A − εI)y entonces, el polinomio característico asociado es

pε (λ ) = det(A − (λ + ε)I) = p(λ + ε)

De este modo vemos que λ j (ε) = λ j − ε < 0. Entonces se da que

pε (λ ) = p(λ ) + ε · q(λ , ε)

donde q denota un ponimio en λ , ε y es de grado como mucho n − 1:


n
ε j p( j) (λ )
pε (λ ) = p(λ ) + ∑
Taylor j=1 j!
Así pues la matriz de Ruth-Hurwitz queda como

M = (ai j + o(ε))
2.5 Sistemas utónomos 23
2 Ahora, por el teorema de Ruth-Hurwitz se tienen que los menores m j (ε) > 0 para cualquier
ε > 0 por tanto lı́mε→0+ m j ≥ 0 de modo que los m j ≥ 0 para cualquier j. Por tanto hemos llegado
a un absurdo, por hipótesis algún mk es menor que cero. ■

2.5 Sistemas utónomos


2.5.1 Análisis de estabilidad de sistemas autónomos por linealización
Dado el sistema y′ = f (y) donde y y f son funciones vectoriales y f ∈ C 2 Rn . Dado un punto
crítico yc podremos estudiar la estabilidad del punto crítico como sigue. Consideramos
x = y − yc
Por el desarrollo de Taylor se da que
x′ = f (yc + x) = f (yc ) + f ′ (yc )x + g(x)
Como yc es un punto crítico se da que f (yc ) = 0 por lo que
x′ = f ′ (yc )x + g(x)
Donde f ′ (yc ) es el jacobiano de f en yc y g la parte cuadrática del desarrollo. De esta for-
ma ∥g(x)∥/∥x∥2 ≤ C con C una constante y donde x ∈ Ent(0). Por comodidad al jacobiano lo
denotaremos por A:
x′ = Ax + g(x)

Teorema 2.5.1 — Grobman-Hartman. Dada f ∈ C 1 si 0 es un punto hiperbólicoa del sistema


x′ = Ax + g(x) = f (x) y cumpliéndose que lı́m∥x∥→0 ∥g(x)∥
∥x∥ = 0 entonces existe un homeomorfis-
mob
h : U ∈ Ent(0) → V ∈ Ent(0)
x → z
es decir lleva las órbitas de U en órbitas de V manteniendo la orientación.
a Esto quiere decir que Re(λ j ) ̸= 0 con λ j autovalores de A.
b Si f fuera de clase dos sería un difeomorfismo.

Este teorema nos viene decir que estudiar la estabilidad de x′ = Ax + g(x) es equivalente a
hacerlo en el sistema homogéneo x′ = Ax

Teorema 2.5.2 Dada una solución y del SL entonces si lı́mt→∞ ∥y(t)∥ = 0 entonces y es AE.

2.5.2 Funciones Lyapunov (sistemas autónomos)

Definición 2.5.1 Dado el problema y′ = f (y) con y0 = 0, f (0) = 0 y f ∈ C 1 (Ω), Ω ∈ Ent(0)


se define
V: Rn → R
y → r
verificando
1. V (x) > 0, ∀x ∈ Ω \ {0} y V ∈ C 1 (Ω)
2. V (0) = 0
3. V̇ (x) ≤ 0, ∀x ∈ Ω

2 o(ε) denota términos que son potencias de ε.


24 Capítulo 2. Estabilidad y plano de fase

Donde V̇ (x) = ∑m ∂V ′ m ∂V t
i=1 ∂ yi (y(t)) · yi (t) = ∑i=1 ∂ yi (y(t)) · f i (y(t)) = ∇V (y) · f (y)

Teorema 2.5.3 — Lyapunov. Dados Ω ∈ Ent(0) y f ∈ C 1 (Ω) si existe V función de Lyapunov


para f donde y′ = f (y) con f (0) = 0 entonces yc = 0 es estable. Además, si V̇ (x) < 0, ∀x ∈
Ω \ {0} entonces yc = 0 es asintóticamente estable.

Demostración. Supongamos sin pérdida de generalidad que Ω es un compacto de Ent(0), de este


modo podremos considerar K = máxx∈Ω V (x) > 0. Ahora tomemos el siguiente conjunto

V −1 (µ) = {x ∈ Ω : V (x) ≤ µ}

con 0 ≤ µ ≤ k.

Podemos afirmar que V −1 (µ) es un compacto, pues es la anti-imagen de un compacto mediante


una función continua. Ahora, para comprobar la estabilidad debemos ver que

∀ε > 0, ∃δ > 0 : y0 ∈ Dδ ⇒ y(t; 0, y0 ) ∈ Dε , ∀t ≥ 0

De este modo dado ε > 0 podemos afirmar que existe µε > 0 tal que V −1 (µε ) ⊆ Dε . Pues si no
existiera podríamos tomar µn = 21n → 0 cuando n → ∞ por lo que para cualquier n ∈ N existiría
un xn verificando que V −1 (xn ) ≤ 21n pero xn ∈ Ω \ Dε , por ser Ω un compacto xn debe de tener
un punto de acumulación, pero al no estar en Dε será un x∗ ̸= 0 entonces V (x∗ ) = 0 lo que es un
absurdo, ya que xn sabemos que acumula a 0. Así pues, efectivamente existe V −1 (µε ) ⊆ Dε .

A continuación, si consideramos

Int(V −1 (µε )) = {x ∈ Ω : V (x) < µε } ⊇ {0}

Por tanto ∃δ > 0 tal que Dδ ⊂ Int(V −1 (µε )) por ser el interior un abierto. Pero es más
Dδ ⊂ Int(V −1 (µε )) ⊆ V −1 (µε ). Así pues considerando y0 ∈ Dδ \ {0} y φ (t) = V (y(t; 0, y0 )) de
modo que φ ′ (t) = V̇ (y) ≤ 0 entonces φ es decreciente entonces V (y(t; 0, y0 )) ≤ V (y0 ) < µε .

Entonces y(t; 0, y0 ) ∈ Dε esto es la órbita y es estable.

Veamos ahora el caso de EA. Para este caso estudiemos el límite lı́mt→∞ V (y(t; 0, y0 )) que debe
de existir por ser V decreciente sobre la órbita y V ≥ 0 entonces este límite debe ir a un valor real.
Supongamos que
lı́m V (y(t; 0, y0 )) = α ≥ 0
t→∞

Caso 1) Si α = 0 entonces lı́mt→∞ y(t; 0, y0 ) = 0 por la continuidad de V se tendría que


lı́mt→∞ V (y(t; 0, y0 )) = 0

Caso 2) Si α > 0 entonces consideremos el compacto3

W = {x ∈ Dε : 0 < α ≤ V (x) ≤ µε }

De esta forma podemos obtener


máx V̇ (x) = −β < 0
x∈W

3 Lo es por ser anti-imagen de un compacto


2.5 Sistemas utónomos 25

esto debido a que V̇ (x) < 0 para cualquier x ∈ Ω \ {0}. De modo que, considerando nuevamente
φ (t) = V (y(t; 0, y0 )) vemos, por el teorema del valor medio que

φ (t) = φ (0) + φ ′ (θt)t ≤ V (y0 ) − βt

entonces V (y(t; 0, y0 )) ≤ V (y0 ) − βt, ∀t ≥ 0, pero para un t suficientemente grande se dará


que V (y0 ) − βt < α lo que es un absurdo. ■

Teorema 2.5.4 — Inestabilidad Lyapunov. Dado el problema

y′ = f (y)

con f (0) = 0 y f ∈ C 1 (Ω) tal que Ω ∈ Ent(0) entonces si existe V (x) ∈ C 1 (Ω) verificando

1. V̇ (x) = ∇V · f > 0 en Ω \ {0}


2. ∃{xn ̸= 0}∞n=1 con lı́mn→∞ xn = 0 siendo V (xn ) > 0, ∀n ∈ N

entonces la solución 0 es inestable.

Demostración. Procedamos por reducción al absurdo.

Supongamos estabilidad, esto es que para cualquier ε > 0 existe δ > 0 de modo que si y0 ∈ Dδ
entonces y(0;t, y0 ) ∈ Dε .

Tomemos ε > 0 de forma tal que Dε ⊆ Ω entonces existe δ ∈]0, ε[ tal que y0 ∈ Dδ entonces
y(t; 0, y0 ) ∈ Dε para t ≥ 0.

Si M = máxx∈Dε V (x) > 0 sabemos por la sucesión que este límite ha de ser positivo.

Tomemos un k de forma que 0 < ∥xk ∥ < δ tal que y0 = xk . Entonces la órbita y ≡ y(t; 0, y0 )
permanecerá en Dε para cualquier y ≥ 0. Tomemos ahora el conjunto

K = {x ∈ Dε : 0 ≤ V (y0 ) ≤ V (x) ≤ M}

Puesto que K es cerrado (por ser el complementario de un abierto) y es acotado (por Dε )


tenemos por el teorema de Heine-Borel que K es compacto. Además, 0 ̸∈ K por esto y por la
compacidad de K tendremos que
m = mı́n V̇ (x) > 0

Definiendo ahora
φ (t) = V (y)
Se tendrá que si y ∈ K, ∀t ≥ 0, puesto que V̇ (y) > 0 consecuentemente V (y) ≥ V (y0 ) y
V (y) ≤ m por la asunción de estabilidad. Esto implica por el teorema del valor medio que

V (y) ≥ V (y0 ) + mt, ∀t ≥ 0

Esto es un absurdo, pues para un t suficientemente grande se dará que V (y) ≥ V (y0 ) + mt >
M, ∀t ≥ 0 ■
26 Capítulo 2. Estabilidad y plano de fase

Teorema 2.5.5 — Inestabilidad Chetaev. Dada f (y) ∈ C 1 (Ω) con Ω ∈ Ent(0) y f (0) = 0 tal
que ∃D abierto y V (x) : Rn → R, si se cumple que

1. V (x) > 0 y V̇ (x) > 0 en D.


2. 0 ∈ Fr(D)
3. V (x) = Fr(D) ∩ Ω
entonces yc = 0 es inestable (y′ = f (y)).

Demostración. Por reducción al absurdo supongamos estabilidad esto es ∀ε > 0, ∃δ > 0 de forma
que y0 ∈ Dδ ⇒ y(t; 0, y0 ) ∈ Dε .

Sea ε > 0 tal que Dε ⊂ Ω entonces existe 0 < δ < ε. Tomando ahora el conjunto Dε ∩ D que
es compacto, por tanto V (x) alcanza el máximo:

M = máx V (x) > 0


x∈Dε ∩D

además, por las hipótesis aportadas es una cantidad positiva. Ahora tomando y0 ∈ Dδ ∩ D se
considera
K = {x ∈ Dε ∩ D : 0 < V (y0 ) ≤ V (x) ≤ M} ̸= 0/
es claro que K es cerrado y acotado, por tanto es compacto.

Ahora veamos el comportamiento de una órbita y = y(t; 0, y0 ). Podemos comprobar que si


y nace en K se queda contenida en K. De no ser así implicaría que saldría del conjunto, pero la
frontera de este está compuesta por dos fronteras la de Dε que al haber supuesto la estabilidad es
infranqueable y la de D, pero justo en la frontera de D la función V (y) = 0 que no puede darse,
porque si la función nació en K entonces V > 0 y V̇ > 0 por tanto siempre tenderá a valores mayores.
De este modo si y nace en K se queda en K.

Por la compacidad de K podemos tomar

m = mı́n V̇ (x) > 0


x∈K

y es positivo por que 0 ̸∈ K.

Pero por otro lado por el teorema del punto medio tendremos que

V (y) ≥ V (y0 ) + tV̇ (y) ≥ V (y0 ) + tm

pero para un t suficientemente grande se tendría que V (y) crecerá tanto como queramos V (y) > M,
esto es y sale en algún momento de K. Por lo que hemos llegado a un absurdo. ■
II
Tema 2

3 Problemas de valores frontera (PVF) . . 28


3.1 Soluciones fundamentales y función de Green
3.2 Función de Green
3.3 PVF no lineales
3.4 Problemas de autovalores del tipo Sturm-Lioville

4 Transformación de Prüffer . . . . . . . . . . . . 39
4.1 El problema de autovalores
3. Problemas de valores frontera (PVF)

Ahora nos plantearemos resolver una ecuación de segundo orden del tipo

x′′ = f (t, x, x′ )

con t ∈ [a, b] y conficiones de frontera x(a) = α y x(b) = β .

Este problema así planteado se denomina problema de contorno o de valores en la frontera. En


este primer apartado estudiaremos problemas de valores frontera (PVF) lineales y con condiciones
de tipo sturnianas. Así pues tendremos la ecuación diferencial

a2 (x)u′′ (x) + a1 (x)u′ (x) + a0 (x)u(x) = g(x)

con a2 > 0 en J = [a, b] y con condiciones de frontera (CF) de alguno de los siguientes tipos:

1ª Clase: R1 u := u(a) = η1 y R2 u := u(b) = η2

2ª Clase: R1 u := u′ (a) = η1 y R2 u := u′ (b) = η2

3ª Clase:

R1 u := α1 u(a) + α2 u′ (a) = η1


R2 u := β1 u(b) + β2 u′ (b) = η2

donde α12 + α22 , β12 + β22 > 0


De forma general trabajaremos con el operador lineal Lv definido como sigue

Lv := (p(x)v′ (x))′ + q(x)v(x)

donde p > 0 con p ∈ C 1 (J) y q ∈ C (J) siendo J = [a, b].


29

Así pues el problema homogéneo será

Lv = 0

con condiciones de frontera R j v = 0 para j = 1, 2 y el problema no homogéneo será

Lv = g(x)

con condiciones de frontera R j v = η j con j = 1, 2 siendo además g una función continua en J.

Propiedad 3.1. Veamos las siguientes propiedades de soluciones:


1. Si u(x) = a1 u1 (x) + a2 u2 (x) con u j soluciones del PVF-homogéneo ⇒ u es solución del
homogéneo.
2. Si u = v1 − v2 con v j soluciones del PVF-no homogéneo ⇒ u es solución del homogéneo.
3. Si v es solución del PVF-no homogéneo y u del PVF-homogéneo ⇒ u + v es solución del no
homogéneo.
4. Si v∗ es solución del PVF-no homogéneo ⇒ cada solución del problema homogéneo está
dada por v = v∗ + u con u una solución del PVF-homogéneo.

Teorema 3.0.1 — Caracterización de soluciones. El problema no homogéneo admite solu-


(1) (2)
ción única ⇐⇒ El problema homogéneo admite solución trivial ⇐⇒ Dadas dos soluciones
linealmente independientes u1 y u2 del problema homogéneo entonces

R1 u1 R1 u2
̸= 0
R2 u1 R2 u2

Demostración. Demostremos primero (2) obtenemos la doble implicación tomando dos soluciones
u1 y u2 libres de la ecuación diferencial (ED) Lu = 0 entonces el PVF será

Lu = 0

con CF R j u = 0, j = 1, 2. Así pues, se dará que u = Au1 + Bu2 al exigir el cumplimiento de las CF
se tendrá un sistema compatible determinado homogéneo (obviamente admite solución trivial) que
cumple:
R1 u1 R1 u2
̸= 0
R2 u1 R2 u2

Veamos ahora (1).

”⇒”

En este caso tendremos Lv = g(x) con R j v = η j , j = 1, 2. Ahora, sea u(x) tal que Lu = 0
y R j u = 0, j = 1, 2 en caso de que tuviésemos w = v + u entonces se daría que Lw = g(x) con
R j w = η j , j = 1, 2, esto por la linealidad de L. Ahora, como la solución es única se tiene que
w = v ⇒ u = 0.

”⇐”
30 Capítulo 3. Problemas de valores frontera (PVF)

Sea v∗ solución de la ED Lv = g(x). Buscamos ahora v = v∗ + Au1 + Bu2 con u j , j = 1, 2


soluciones del PVF-homogéneo asociado. Con esto queremos ver que existe solución del problema
no homogéneo. Por tanto exigimos el cumplimiento de las CF para v:
R1 v = η1 = R1 v∗ + AR1 u1 + BR1 u2


R2 v = η2 = R2 v∗ + AR2 u1 + BR2 u2
este sistema lineal tendrá solución única si, y solo si
R1 u1 R1 u2
̸= 0
R2 u1 R2 u2

por tanto por (2) tenemos el resultado. ■

3.1 Soluciones fundamentales y función de Green


En esta sección pretendemos buscar solución a la ED

Lu(x) = g(x)

en J = [a, b] de la forma
Z b
u(x) = γ(x, ξ )g(ξ ) dξ
a
en caso de existir γ(x, ξ ) se denominará solución fundamental de la ED Lu = 0.
■ Ejemplo 3.1 Con lo expuesto anteriormente se propone hallar u(x) para la ED

u′′ (x) = g(x)

En este caso podemos tomar


Z ξ
u′ (ξ ) = g(t) dt
a
entonces volviendo a integrar se da que
Z x Z ξ
u(x) = 1 g(t) dtdξ
a a

aplicando integración por partes tendremos β = ξ − x y α ′ = g(ξ ) entonces


Z x Z x Z x Z x
ξ
u(x) = αβ a
− β α dξ = − (ξ − x)g(ξ ) dξ = (x − ξ )g(ξ ) dξ = (x − ξ )+ g(ξ ) dξ
a a a a

donde
(x − ξ )+ = x − ξ
si a ≤ ξ ≤ x y será nula en otro caso. Esta función será valdrá x − ξ en Q1 y 0 en Q2 :


3.1 Soluciones fundamentales y función de Green 31

3.1.1 Búsqueda de soluciones fundamentales


Dado el conjunto Q y los subconjuntos
Q1 = {(x, ξ ) : a ≤ ξ ≤ x ≤ b}
Q2 = {(x, ξ ) : a ≤ x ≤ ξ ≤ b}
una solución fundamental γ(x, ξ ) definida en Q = Q1 ∪ Q2 verifica los siguientes puntos

1. γ(x, ξ ) ∈ C (Q)

2. γxx (x, ξ ) ∈ C (Q1 ) y γxx (x, ξ ) ∈ C (Q2 ) (no necesariamente en la intersección).

3. Lγ(x, ξ ) = 0, ∀x ̸= ξ esto es Lγ(x, ξ ) = 0 en Q1 y Q2 para a < ξ < b.

4. γx (x+ , x) − γx (x− , x) = 1
p(x) , ∀x ∈ (a, b) (el salto en la intersección de Q1 y Q2 es de 1/p(x))

Teorema 3.1.1 Bajo las hipótesis anteriores si γ(x, ξ ) es solución fundamental de la ED homo-
génea entonces
Z b
v(x) = γ(x, ξ )g(ξ ) dξ ∈ C 2 (J)
a
y verifica que Lv(x) = g(x) (es solución de la ED no homogénea).

Demostración. Sea a < x < b entonces


Z x Z b
v(x) = γ(x, ξ )g(ξ ) dξ + γ(x, ξ )g(ξ ) dξ
a x

entonces existe v′ (x) puesto que cada integrando es continuo y derivable. De este modo tendremos
Z x Z b
v′ (x) = γx (x, ξ )g(ξ ) dξ − 
 
γx (x, ξ )g(ξ ) dξ + 
γ(x,  +
x)g(x) x)g(x)
γ(x, 
a x
Si pensamos en el gráfico de Q tendremos que la primera integral actúa en Q1 (el segmento
verde) y la segunda en Q2 (el segmento azul):

Por el mismo argumento que antes existe la derivada segunda de v(x) y es


Z x Z b
v′′ (x) = γxx (x, ξ )g(ξ ) dξ + γx (x, x− )g(x− ) + γxx (x, ξ )g(ξ ) dξ − γx (x, x+ )g(x+ )
a x

Como sabemos que γx es continua entonces γx (x, x− ) = γx (x+ , x) y γx (x, x+ ) = γx (x− , x) y también
se da que g es continua esto es g(x− ) = g(x+ ) por lo tanto
Z x Z b
′′
γxx (x, ξ )g(ξ ) dξ + g(x) γx (x+ , x) − γx (x− , x) =

v (x) = γxx (x, ξ )g(ξ ) dξ +
a x
32 Capítulo 3. Problemas de valores frontera (PVF)
Z x Z b
g(x)
= γxx (x, ξ )g(ξ ) dξ + γxx (x, ξ )g(ξ ) dξ +
a x p(x)
Veamos ahora que Lv(x) = g(x), recordemos que en general Lz = pz′′ + p′ z′ + qz entonces
Z x Z b
g(x)
Lv(x) = Lγ(x, ξ )g(ξ ) dξ + Lγ(x, ξ )g(ξ ) dξ + p(x)
a x p(x)
pero Lγ(x, ξ ) = 0 en Q1 y Q2 por ser γ solución fundamental y precisamente en la primera integral
nos movemos en Q1 y en la segunda en Q2 por tanto Lv(x) = g(x) ■

Teorema 3.1.2 — Identidad de Lagrange. Si u, v ∈ C 2 (J) entonces

uLv − vLu = (p(uv′ − vu′ )′

3.2 Función de Green


Definición 3.2.1 Se dirá que G(x, ξ ) es una función de Green asociada al problema homogéneo
Lv = 0 con CF R j v = 0, j = 1, 2 si, y solo si

1. G(x, ξ ) es solución fundamental.

2. R j G(x, ξ ) = 0 para j = 1, 2 y a < ξ < b

Teorema 3.2.1 — (Posible teorema de examen). Supongamos que el problema homogéneo


(PH) admite solución única trivial, y consideremos u1 (x) y u2 (x) dos soluciones linealmente
independientes que verifiquen, respectivamente

Lu1 = 0

con R1 u1 = 0 y Lu2 = 0 con R2 u2 = 0 en J, entonces


Rb
1. v(x) = a G(x, ξ )g(ξ ) dξ ∈ C (J) es solución.

2. La función de Green es de la forma


1

 k u1 (ξ )u2 (x) en Q1
G(x, ξ ) =
1
k u1 (x)u2 (ξ ) en Q2

k es una constante no nula obtenida como k = p(x)(u1 (x)u′2 (x) − u′1 (x)u2 (x))

Además, la función de Green es simétrica y única.

Demostración. Veamos que existen dos soluciones linealmente independientes.

La ecuación diferencial homogénea admite solución única y es de la forma


u = Au˜1 + Bu˜2
y ahora exigimos que se verifiquen las CF homogéneas:
R1 u˜1 = 0 R1 u˜2 = 1
R1 u˜2 = 1 R2 u˜2 = 0
3.2 Función de Green 33

tenemos así el sistema


    
R1 u˜1 = 0 R1 u˜2 = 1 A 0
=
R1 u˜2 = 1 R2 u˜2 = 0 B 1

Además
R1 u˜1 = 0 R1 u˜2 = 1
̸= 0
R1 u˜2 = 1 R2 u˜2 = 0
Ahora veamos que k(x) es una constante no nula.

Se verifica que
u1 Lu2 − u2 Lu1 = k′ (x)
Como u1 y u2 son soluciones entonces k′ (x) = 0 esto es k(x) ≡ k cte. Comprobemos ahora que no
es nula. En caso de que k = 0 entonces

p=0 Absurdo
′ ′
u1 u2 − u1 u2 = 0 Absurdo

En este segundo caso llegamos a la contradicción porque u1 y u2 son linealmente independientes


y W (u1 , u2 ) ̸= 0 (con W el wronskiano).

Veamos ahora que v(x) cumple las condiciones de frontera homogéneas:


Z b

R1 v = α1 v(a) + α2 p(a)v (a) = (α1 G(a, ξ ) + α2 p(a)Gx (a, ξ ))g(ξ ) dξ =
a
Z b Z b 
1
= R1 G(·, ξ )g(ξ ) dξ = R1 u1 (x) u2 (ξ ) dξ = 0
a a k En Q2

Para la condición R2 v el procedimiento es análogo.

Veamos que G es solución fundamental:


1. G ∈ C (Q) (?) Sí, es continua, pues lo es en Q1 y en Q2 y en la intersección vale lo mismo
para Q1 que para Q2 .
2. Gxx (x, ξ ) ∈ C (Q1 ) ∧ Gxx (x, ξ ) ∈ C (Q2 ) (?) Sí.
3. LG(x, ξ ) = 0, x ̸= ξ (?) Sí, pues Lu1 = Lu2 = 0.
4. Gx (x+ , x) − Gx (x− , x) = 1/p(x) (?) Sí, pues en Q1 se da que
1
Gx (x+ , x) = u1 u′2
k
en Q2
1
Gx (x− , x) = u′1 u2
k
por tanto restando se da que, por definición de k se verifica la propiedad.
Por último, comprobemos la simetría y unicidad.

Supongamos que hay dos funciones de Green G(x, ξ ) y G̃(x, ξ ) entonces se dará que existen
v(x) y ṽ(x) tales que
Z b
v(x) = G(x, ξ )g(ξ ) dξ
a
Z b
ṽ(x) = G̃(x, ξ )g̃(ξ ) dξ
a
34 Capítulo 3. Problemas de valores frontera (PVF)

Por la identidad de Lagrange se tiene que


Z Z
vLṽ dx = ṽLv dx
Por tanto R j v = 0 = R j ṽ, llamemos
φ (x) = vLṽ − ṽLv = (p(x)(vṽ′ − ṽv′ ))′
entonces Z b
φ (x) dx = φ (b) − φ (a) = 0
a
esto puesto que las condiciones de frontera son homogéneas.

Ahora tomando g(x) y g̃(x) arbitrarias continuas tales que


Lṽ = g̃(x) Lv = g(x)
entonces se dará que
Z b Z b
v(x)g̃(x) dx = ṽ(x)g(x) dx
a a
desarrollando se tendrá
Z b Z b Z b Z b
G(x, ξ )g(ξ )g̃(x) dξ dx = G̃(x, ξ )g̃(ξ )g(x) dξ dx
x=a ξ =a x=a ξ =a
Aplicando ahora el teorema de Fubini se tiene que
Z b Z b Z b Z b
G̃(x, ξ )g̃(ξ )g(x) dξ dx = G̃(x, ξ )g̃(ξ )g(x) dxdξ
x=a ξ =a ξ =a x=a

Aplicando ahora cambio de variable (x = ξ , ξ = x) se tendrá que la expresión anterior es


Z b Z b Z b Z b
G̃(x, ξ )g̃(ξ )g(x) dξ dx = G̃(ξ , x)g̃(x)g(ξ ) dξ dx
x=a ξ =a x=a ξ =a
de aquí tenemos que
Z b Z b Z b Z b
G(x, ξ )g(ξ )g̃(x) dξ dx = G̃(ξ , x)g̃(x)g(ξ ) dξ dx
x=a ξ =a x=a ξ =a
por tanto, pasando al primer miembro se tendrá que
Z Z Z Z
Ψ(x, ξ )g̃(x)g(ξ ) dA = (G(x, ξ ) − G̃(ξ , x))g̃(x)g(ξ ) dA = 0
Q Q
Por la arbitrariedad y la continuidad de g̃(x) y g(ξ ) se tendrá que
G(x, ξ ) − G̃(ξ , x) = 0
esto puesto que podríamos tomar g(x) una función que tenga un pico en x de altura ε y análogamente
con ξ˜ en un cierto ξ , de forma que si Ψ(x, ξ ) ̸= 0 en un punto interior entonces, supongamos que
Ψ(x, ξ ) > 0 para (x, ξ ) ∈ Q entonces existe un disco D ∈ Ent(x, ξ ) ⊆ Q de radio ε tal que
Ψ(x, ξ ) > 0, (x, ξ ) ∈ Dε ⊆ Q
entonces
g̃(x), g(ξ ) ̸= 0
esto es, para cualquier par de funciones arbitrarias se tendría que Ψ(x, ξ ) = 0 por lo tanto en Q se
verifica que
G(x, ξ ) = G̃(ξ , x)
Para ver la simetría basta tomar G̃ = G, y para la unicidad podemos aplicar la simetría de modo
que concluye la demostración. ■
3.3 PVF no lineales 35

3.3 PVF no lineales


Dado el problema homogéneo si este admite solución trivial entonces existe función de Green.
A continuación veremos un resultado que nos relaciona la solución del problema y la función de
Green
Teorema 3.3.1 Si el problema Lu = 0, R ju = 0 admite solución única trivial entonces v ∈ C 2 (D)
solución de Lv = f (x, v), R j v = 0, f ∈ CL si, y solo si
Z b
v(x) = G(x, ξ ) f (ξ , v(ξ )) dξ
a

Demostración. ” ⇒ ”

Tomando f (x, v(x)) = g(x)

”⇐”

Basta con llamar f (ξ , v(ξ )) = g(ξ ) ■

Teorema 3.3.2 — Un problema particular. Dado el problema

u′′ = f (x, u)

con CF u(0) = u(1) = 0 siendo J = [0, 1] con f ∈ CK (J × R)a si K < π 2 entonces existe solución
u(x) única.
af ∈ CK implica que f es Lipschitz de constante K.

Demostración. Veamos para esta prueba que


Z 1
u = Tu := G(x, ξ ) f (ξ , u(ξ )) dξ
0

admite solución. (Aplicando el teorema de la función contractiva).

Consideremos el conjunto

B∗ = {v ∈ C0 (J) : |v| ≤ C sin πx; ∀x ∈ J, C < ∞}

Proponemos la norma
|v(x)|
∥v∥∗ = sup <∞
x∈Int(J) sin πx

De este modo es claro que ∥v∥∗ ≥ ∥v∥∞ pues


|v| |v|

sin πx 1
tomando supremos se da lo que buscábamos.

A continuación comprobemos que (B∗ , ∥ · ∥∗ ) es un espacio Banach1 :


1 Un espacio Banach es aquel en el que se verifica el teorema de completitud, es decir una sucesión converge si, y

solo si es de Cauchy para una cierta norma.


36 Capítulo 3. Problemas de valores frontera (PVF)

1. Comprobemos que
K
∥Tu − T v∥∗ ≤ ∥u − v∥∗
π2
para cualesquiera u, v ∈ B∗ , esto implicaría que

K
∥Tu∥∗ ≤ ∥u∥∗ ⇒ Tu ∈ B∗
π2

pues u ∈ B∗ y se tiene que B∗ es cerrado con ∥ · ∥∗ para el operador.


2. Se verifica que
|v| ≤ ∥v∥∗ sin πx

entonces
Z 1 Z 1
|Tu − T v| = G(x, ξ )[ f (ξ , u(ξ )) − f (ξ , v(ξ ))] dξ ≤ |G(x, ξ )| · K · |u(ξ ) − v(ξ )| dξ ≤
0 0

Z 1 Z 1


≤ |G(c, ξ )| · K · ∥u − v∥ sin πξ dξ ≤ |G(x, ξ )| sin πξ dξ · K · ∥u − v∥∗
0 0

Ahora debemos de notar que


Z 1 Z 1
|G(x, ξ )| sin πξ dξ = − G(x, ξ ) sin πξ dξ
0 0

(esto porque para los valores (x, ξ ) tomados la función de Green es negativa) y que resolver esta
integral equivale a resolver el problema

u′′ = − sin πx

sin πx
con u(0) = u(1) = 0 cuya solución es u(x) = π2
de este modo

1
Z 
K
|Tu − T v| ≤ |G(x, ξ )| sin πξ dξ · K · ∥u − v∥∗ ≤ ∥u − v∥∗ sin πx
0 π2

entonces
|Tu − T v| K
≤ 2 ∥u − v∥∗ , ∀x ∈ (0, 1)
sin πx π
tomando supremo se concluye que

|Tu − T v| K
∥Tu − T v∥∗ = sup ≤ 2 ∥u − v∥∗
x∈Int(J) sin πx π

Además, se puede mostrar que no es posible superar la cota π 2 , para ello sería necesario ver
que el problema
u′′ = −π 2 u

admite solución u(x) = C sin πx, pero que el problema u′′ = −π 2 u + 1 no tiene solución, ambos
con CF u(0) = u(1) = 0. ■
3.4 Problemas de autovalores del tipo Sturm-Lioville 37

3.4 Problemas de autovalores del tipo Sturm-Lioville


Dado el problema
Lu = (pu′ )′ + qu
el problema de autovalores se expresará como

Lu + λ r(x)u(x) = 0

y sus CF son
R1 u ≡ α1 u(a) + α2 p(a)u′ (a) = 0

R2 u ≡ β1 u(b) + β2 p(b)u′ (b) = 0


verificando que p ∈ C 1 (J); q, r ∈ C (J) : J = [a, b], p, r > 0 en J y en Int(J) respectivamente.

En este caso trataremos de buscar soluciones no triviales, lo que dependerá de λ (el autovalor).
Además, por cada λ existirá una función u(x) ̸≡ 0 (la autofunción) así pues al par

{λ , u(x)}

se le denominará autopar.

Teorema 3.4.1 Dado un problema de autovalores, asumiendo que {λ , u(x)} y {µ, v(x)} son
dos autopares distintos, entonces
1. (λ − µ) ab u(x)v(x)r(x) dx = 0.
R

2. λ ∈ R y u(x) ∈ R (Análogo para µ).


3. λ es simple.a
a Es simple en el sentido de que solo tiene asociada una autofunción linealmente independiente.

Demostración. 1. Como
Lu = −λ ru
y
Lv = −µrv
se dará que
Z b Z b
(uLv − vLu) dx = (λ − µ) uvr dx
a a

pero por otro lado, aplicando la identidad de Lagrange se verifica que


Z b Z b Z b
′ ′ ′
(uLv − vLu) dx = (p(uv − u v)) dx = φ ′ dx = φ (b) − φ (a) = 0
a a a

sabemos que se anula porque las autofunciones cumplen las CF. Por tanto concluye la prueba.
2. Dado el par {λ , u} se tendrá que el conjugado de λ y de u también es un autopar, de modo
que aplicando 1. se da
Z b
(λ − λ ) uur, dx = 0
a

como uu = |u|2 ̸= 0 se dará que


λ =λ ⇒λ ∈R
38 Capítulo 3. Problemas de valores frontera (PVF)

3. Supongamos que λ tiene asociadas dos autofunciones u y v. Como sabemos las autofunciones
u y v verifican las CF por tanto se tendrá el sistema

u(a) u′ (a)
    
α1 0
′ =
v(a) v (a) α2 p 0

Recordemos que nos interesan soluciones no triviales. Como α1 y α2 no pueden ser nulas a
la vez se debe de dar que
u(a) u′ (a)
 
=0
v(a) v′ (a)
Pero entonces, el Wronskiano W (u(a), v(a)) = 0 esto implica que W (u(x), v(x)) = 0 esto
es u y v no serían linealmente independientes.

4. Transformación de Prüffer

Esta transformación consiste en expresar el operador lineal

Lu = 0

en coordenadas polares tomando ξ = pu′ y η = u ̸≡ 0 de modo que (ξ , η) ̸= (0, 0). Así que en
polares se tendrá 
ξ = ρ(x) cos ϕ(x)
η = ρ(x) sin ϕ(x)
Ahora nos interesa obtener expresiones en función de ρ(x) y ϕ(x). De este modo derivando las
expresiones anteriores de ξ y η se tendrá
 ′
ξ = ρ ′ cos ϕ − ρ sin ϕϕ ′
η ′ = ρ ′ sin ϕ + ρ cos ϕϕ ′

Ahora multiplicando en la primera ecuación por − sin ϕ y en la segunda por cos ϕ y sumando,
tras operar llegaremos a que
1
ϕ ′ = cos2 ϕ + q sin2 ϕ
p
De forma similar multiplicando por cos ϕ la primera y la segunda por sin ϕ y sumando se tendrá
que  
′ 1 ϕ
ρ = − q sin ρ
p 2

Teorema 4.0.1 — Lema. Sean y′ = f (x, y) con y(a) = α y z′ = g(x, z) con z(a) = β supongamos
que f , g ∈ CL (Ω) siendo Ω = J × [A, B]. Si se cumple que
1. A < α ≤ β < B
2. f (x, y) ≤ g(x, y), ∀(x, y) ∈ Ω
3. A < y(x), z(x) < B
40 Capítulo 4. Transformación de Prüffer

entonces y(x) < z(x), ∀x ∈ J.

Demostración. Considetemos z′ε = g(x, zε (x)) + ε con zε (a) = β entonces zε (x) ∈ [A, B] para todo
ε ∈ [0, ε0 ] (por continuidad). Supongamos por reducción al absurdo que dado un 0 < ε ≤ ε0 se da
que
y(xε ) > zε (xε )
entonces sea
xε∗ = ı́nf {d(x) = y(x) − zε (x) > 0}
x∈J
(El conjunto dado está acotado inferiormente por a y es no vacío, por tanto existe ínfimo). Entonces
se da que d(xε ) = y(xε ) − zε (xε ) = 0 pues

d ′ (xε ) = y′ (xε ) − z′ (xε ) = f (xε , y) − g(xε , z) ≤ −ε < 0


Hip. 2

Pero esto es una contradicción, pues tenemos que la derivada en negativa, pero a la derecha de
xε tan cerca como se quiera hay valores mayores que cero, entonces

y(x) ≤ zε (x), ∀ε ∈ (0, ε0 ]

si ε → 0 entonces y(x) ≤ z(x). ■

Teorema 4.0.2 — Lema 12. Considere la transformación de Prüffer si

0 < p < p̂ ∈ C 1 (J) q > q̂ ∈ J

dados (
ϕ ′ = 1p cos2 ϕ + q sin2 ϕ (1)
ϕ̂ ′ = 1p̂ cos2 ϕ̂ + q̂ sin2 ϕ̂ (2)

Y si u ̸≡ 0 ̸≡ û son solución de Lu = 0 y L̂û = 0 entonces


1. Si ϕ̂(a) < ϕ(a) ⇒ ϕ̂(x) < ϕ(x), ∀x ∈ J
2. Si q ̸≡ q̂ y ϕ̂(a) ≤ ϕ(a) ⇒ ϕ̂(b) < ϕ(b)

Demostración. Veamos 1.

ϕ̂(x; a, ϕ̂(a)) ⪇ ϕ̂(x; a, ϕ(a)) ≤ ϕ(x; a, ϕ(a)), ∀x ∈ J


Unicidad Lema anterior

Veamos 2. Supongamos que ϕ̂(b) = ϕ(b)


Por tanto
ϕ̂(x) = ϕ(x), ∀x ∈ J
Pues si existiera un x0 tal que ϕ̂(x0 ) < ϕ(x0 ) por 1. se tendría que ϕ̂(b) < ϕ(b) lo que contradi-
ce nuestras hipótesis actuales.

Entonces se tendrá que


 
1 1
0= − cos2 (ϕ) + (q − q̂) sin2 (ϕ), ∀x ∈ J
p p̂ ≥0
≥0

Si ∃x0 ∈ J : q(x0 ) − q̂(x0 ) > 0 entonces sin2 (ϕ(x0 )) = 0.


41

De (1) tenemos que


1
ϕ ′ (x0 ) = > 0 : ψ = sin ϕ ⇒ ψ ′ = cos ϕ · ϕ ′
p(x0 )
de este modo
ψ ′ (x0 ) = ±ϕ ′ (x0 )
Supongamos ahora que
ψ ′ (x0 ) = ϕ ′ (x0 ) > 0
entonces existe un entorno de x0 tal que ψ(x) ̸= 0 con x ∈ Ent(x0 ) \ {x0 } de este modo se dará que
q̂ − q = 0 (si el seno es no nulo) entonces
q̂(x0 ) − q(x0 ) = 0

Teorema 4.0.3 Dada u(x) solución no trivial del problema Lu = 0 entonces


1. u tiene un número finito de ceros en J.
2. Si Lv = 0 de forma que u(x0 ) = v(x0 ) = 0 entonces v(x) = cte. · u(x), ∀x ∈ J

Demostración. Veamos 1. Por Reducción al absurdo supongamos que hay infinitos ceros en J,
entonces existe {xk }∞ ∗
k=1 ⊆ J verificando que lı́mk→∞ xk = x ∈ J y u(xk ) = 0 entonces se tendrá que
u(x ) = 0. Ahora, para un valor medio θk ∈ (xk , xk+1 ) tal que u′ (θk ) = 0 se dará que u′ (x∗ ) = 0.

Entonces, puesto que u es continua en J se tendrá que


lı́m θk = x∗
k→∞
de modo que u ≡ 0 lo que es una contradicción.

Veamos 2. Si v ≡ 0 entonces C = 0. Ahora si v ̸≡ 0 se tendrá que v(x0 ) = u(x0 ) = 0 y v′ (x0 ) =


C · u′ (x0 ) (véase que u′ (x0 ) ̸= 0 porque u es no trivial), entonces v(x) = C · u(x) por unicidad. ■

Teorema 4.0.4 — Sturm, separación de ceros (posible de examen). Los ceros de u y v


soluciones linealmente independientes de Lu = 0 se intercalan.

Demostración. Sean a ≤ α < β ≤ b (podemos hacerlo porque los ceros son finitos) dos ceros
consecutivos de u(x) en J. Afirmo v(α) ̸= 0 ̸= v(β ) si no fuera así por el lema anterior serían
linealmente dependientes, absurdo. Ahora consideremos que u(x) > 0 (si no tomamos −u(x)) en
(α, β ).

Por cómo está definida la derivada de ϕ vemos que esta será positiva en (α, β ), por lo que ϕ
será creciente en dicho intervalo, así pues para u se tendrá que
ϕu (α) = 0 ∧ ϕu (β ) = π
y para v se verificará que
0 ⪇ ϕv (α) ⪇ π
(las desigualdades son estríctas porque v(α) ̸= 0, además se considera entre 0 y π porque en caso
contrario tomamos −v). Ahora por el lema 12 apartado 1. se dará que ϕv (β ) > π y por tanto
∃c ∈ (α, β ) : ϕv (c) = π ⇒ v(c) = 0

42 Capítulo 4. Transformación de Prüffer

Teorema 4.0.5 — Sturm-Picone. Considerando los siguientes problemas


1. Lu = (pu′ )′ + qu = 0
2. L̂v = ( p̂v′ )′ + q̂v = 0
donde 0 < p ≤ p̂ y q ≥ q̂ en J si suponemos que q ̸≡ q̂, siendo v ̸≡ 0 solución de 2. y con
v(α) = v(β ) = 0 dos ceros consecutivos, entonces

∀u ̸≡ 0

solución de 1. ∃c ∈ [α, β ] : u(c) = 0

Demostración. Dadas las respectivas transformaciones de Prüffer ϕ ′ y ϕ̂ ′ se dará que si v(α) = 0 y


v(β ) = 0 entonces ϕ̂(α) = 0 (pues v > 0 ⇒ v′ > 0) y ϕ̂(β ) = π (ϕ̂ es creciente) además teniéndose
que 0 ≤ ϕ(a) ≤ π (en este caso puede haber igualdad porque no se exige independencia lineal)
entonces, por el lema 12 apartado 2. como q ̸≡ q̂ y ϕ(b) > ϕ̂(b) = π entonces

∃c ∈ (α, β ) : ϕ(c) = π ⇒ u(c) = 0

Corolario 4.0.6 Dado un problema

p0 u′′ + qu = 0

con p0 > 0 q xontinua en J = [a, b] si 0 < q1 ≤ q ≤ q2 y z1 , z2 son dos ceros consecutivos de


u(x) entonces r r
p0 p0
π < z2 − z1 < π
q2 q1

4.1 El problema de autovalores


Teorema 4.1.1 — Lema 14, no entra en examen, solo aplicación. Sea ϕ(x, λ ) definida en
J × R se verifican la siguientes propiedades
1. ϕ(x, λ1 ) < ϕ(x, λ2 ) con λ1 , λ2 ∈ R y x fijo en J.
2. lı́mλ →−∞ ϕ(b, λ ) = 0
3. ∃d, D, λ̃ > 0 tales que √ √
d λ ≤ ϕ(b, λ ) ≤ D λ , ∀λ ≥ λ̃
4. ϕ(x∗ , λ ∗ ) = kπ ⇒ ϕ ′ (x∗ , λ ∗ ) > 0 ⇒ y(x) = ϕ(x, λ ∗ ) cruza la línea kπ una veza .
a Lafunción ϕ se mueve de α (el valor inicial) hasta ∞ de forma estríctamente creciente, por lo tanto tras pasar un
valor kπ la función no puede retroceder.

Dado el problema
Lu + λ ru = 0
y todas las hipótesis pertinentes se tendrá la condición inicial

ϕ(a, λ ) = α, α ∈ (0, π]

y la condición final
ϕ(b, λ ) = β , β ∈ [0, π]
4.1 El problema de autovalores 43

Teorema 4.1.2 En este resultado veremos que si existen λ0 , λ1 , λ2 , . . . , λn , λn+1 , . . . autovalores


del problema se verifica que

λ0 < λ1 < λ2 < . . . < λn < λn+1 < . . .

además de que
lı́m λn = ∞
n→∞

(los autovalores no acumulan) y

cn2 ≤ λn ≤ Cn2 , ∀n ≥ n0

con c,C > 0 constantes.

Además, se dará que si un (x) es la n-ésima autofunción y tiene exactamente n ceros en


Int(J) = (a, b), entonces entre dos ceros consecutivos de un (x) existe un único cero de un+1 (x),
el resto estará entre (a, x1 ) y (xn , b), ceros de un (x), con a < x1 < . . . < xn < b

Demostración. Observamos que ϕ(a, λ ) es estríctamente creciente en λ y como ϕ(a, λ ) → 0 si


λ → −∞ entonces existe un primer λ0 tal que ϕ(b, λ0 ) = β . A continuación se tendrá un λ1 tal
que ϕ(b, λ1 ) = β + π. Como para λ1 se pasa de π hay al menos un cero de la solución. Afirmo,
existe un λn tal que ϕ(b, λn ) = β + nπ, (n ∈ N) y los λi serán los autovalores.

Además, la autofunción correspondiente es

un (x) = ρn (x) sin(ϕn (x, λn ))

donde ϕn (a, λn ) = α ∈ (0, π) y ϕn (b, λn ) = β + nπ ∈ (0, π] esto es ϕn cruza kπ (k = 1, . . . , n)


veces por π, por tanto la solución pertiente tendrá exactamente n ceros, una por cada k. Además,
n > 0, pues de no ser así se tendría que β − nπ < 0 lo que es un absurdo, ya que α > 0.

Por el lema 14 apartado 3. se da que


p p
d λn ≤ ϕ(b, λn ) ≤ D λn , λ ≥ λ ∗

Como ϕ(b, λn ) = β + nπ, sustituyendo se tiene que


p p
d λn ≤ β + nπ ≤ D λn , λ ≤ λ ∗

Elevando al cuadrado:

d 2 λn ≤ (β + nπ)2 ≤ D2 λn , λ ≤ λ ∗

Consideremos ahora la desigualdad


 2  2
2 2 β + nπ (n + 1)π
d λn ≤ (β + nπ) ⇒ λn ≤ ≤
d maxβ =π d

Por lo que
λn ≤ Cn2
Análogamente se tendrá que
n2 π 2
λn > > cn2
D2
44 Capítulo 4. Transformación de Prüffer

Ahora consideremos una sucesión (estrictamente creciente) {x j }nj=1 de ceros de un (x) en (a, b)
y una sucesión {z j }n+1
j=1 de ceros de un+1 (x) en (a, b). Por Sturm-Picone se tendrá que

a < x1 < z2 < x2 < z3 < x3 < . . . < zn < xn < b

tenemos n − 1 ceros de un (x).

Por último, como

ϕ(a, λn ) = α
ϕ(a, λn+1 ) = α
ϕ(x1 , λn ) = π ⪇ ϕ(x1 , λn+1 )
Lema 14

por tanto existe un z1 ∈ (a, x1 ) tal que ϕ(z1 , λn+1 ) = π de forma que u(z1 ) = 0 análogamente
para el resto. ■

Teorema 4.1.3 — Alternativa de Fredholm. Dado el autopar {λ , v(x)} para el problema de


valores frontera homogéneo
Lλ v = 0
R1 v = R2 v = 0. Entonces el problema no homogéneo

Lλ u = g(x)

con las mismas condiciones tiene solución u(x) si, y solo si


Z b
g(x)v(x) dx = 0
a

Demostración. Si existe un autopar {λ , v(x)} entonces v no puede ser trivial.

"⇒"
Z b Z b Z b Z b
v(x)g(x) dx = vLλ u dx = vLλ u − uLλ v dx = (p(x)(vu′ − uv′ ))′ dx = 0
a a a a
Sabemos que esta integral es nula porque u y v cumples las CF.

"⇐"
Lλ u = g(x) tal que R1 u = 0 ≡ α1 u(a) + α2 p(a)u′ (a) = 0 y u′ (a) = v′ (a) verificando además que
α2 ̸= 0 ̸= β2 . Queremos ver ahora que u es no trivial y que se verifica R2 u = 0:

Si u ≡ 0 entonces u′ (a) = 0 y como v′ (a) = u′ (a) = 0 entonces

α1 v(a) + α2 p(a)v′ (a) = 0

de aquí se daría que v ≡ 0 lo que es una contradicción.

Veamos ahora que R2 u = 0:


Z b Z b Z b
0= v(x)g(x) dx = vLλ u dx = vLλ u − uLλ v dx = φ (b) − φ (a) = φ (b)
a a a
4.1 El problema de autovalores 45

donde φ (x) = (p(vu′ − uv′ ))′ entonces φ (b) = 0. Ahora escribiendo las CFs R2 u y R2 v si multipli-
camos por −v(b) y u(b) respectivamente y sumamos llegaremos a la expresión

u(b)R2 v − v(b)R2 u

donde R2 v = 0 entonces o bien R2 u = 0 y terminamos, o bien v(b) = 0, pero esto no es posible,


pues de ser así R2 v = β1 v(b) + β2 p(b)v′ (b) = 0 como β2 ̸= 0 entonces v′ (b) = 0 lo que es un
absurdo. ■
III
Tema 3

5 Métodos a paso fijo . . . . . . . . . . . . . . . . . 47


5.1 Método de Euler
5.2 Método de Taylor
5.3 Métodos Runge-Kutta
5.4 Método de Runge de orden 2
5.5 Método de la regla trapezoidal
5.6 Condiciones de orden

6 Estabilidad de métodos Runge-Kutta . 56


6.1 Función de estabilidad para métodos RK

7 Métodos de Adams . . . . . . . . . . . . . . . . . 60
7.1 Métodos de Adams-Bashford (explícitos, ABK )
7.2 Métodos de Adams-Moulton (implícitos, AMK )

8 Métodos BDF . . . . . . . . . . . . . . . . . . . . . . . . 65
8.1 Cálculo del error

9 Métodos predictor-corrector . . . . . . . . . 67

10 Métodos lineales multipaso (MLM) . . . . 68


10.1 Error
5. Métodos a paso fijo

Dado el PVI

y = f (t, y)
y, f (t, y) ∈ R
y(a) = y0
t ∈ I = [a, b]

podemos considerar una cierta malla de I (una partición) que constará de N pasos (divisiones)
cada paso será denotado como
tn = a + nh (n = 1, . . . , N)
siendo h = b−a
N el tamaño (fijo) del paso dado. De esta forma en cada paso se obtiene una aproxi-
mación a la solución
y1 y4 yN
y2 y3 y5 yn yn+1

h h h h ··· h ···

t1 t2 t3 t4 t5 ··· tn tn+1 · · · tN = b

Nota 5.1. A efectos de notación diremos que yn es la solución numérica del problema.
48 Capítulo 5. Métodos a paso fijo

Definición 5.0.1 Diremos que un método es convergente si

lı́m y(t) − yh (t) = 0


h→0

con y(t) la solución exacta del problema dadoa .


a También puede verificarse en norma

En esta sección siempre exigiremos

f (t, y) ∈ CL (Ω)

con Ω = I × Rm y en ocasiones al menos clase 2 en omega.


Definición 5.0.2 Se dirá que un método tiene orden de convergencia p si

∥y(t) − yh (t)∥ = o(h p )

uniformemente en t.

5.1 Método de Euler


Se define el método de Euler como

yn+1 = yn + hy′n = yn + h f (tn , yn ) = yn + h fn

de esta forma nos aproximamos a la solución haciendo tiros por la tangente.


Definición 5.1.1 — Error local. Al error cometido en un paso partiendo de la solución exacta
menos el método en el mismo paso se le denomina error local, lo denotaremos como EL(t, h).

Para el método de Euler tenemos un error local

EL(t, h) = y(t + h) − yh (t + h; t, y(t))

Teorema 5.1.1 — Lema. Dada f ∈ C 2 (Ω) se dará que

Y2 2
∥EL(t, h)∥ ≤ h
2
con Y2 = máx{∥y′′ (t)∥; t ∈ I}.

Teorema 5.1.2 — Convergencia método de Euler. Se verifica que

∥y(t) − yh (t)∥ ≤ C · h, (h → 0)

para cualquier t ∈ I donde C es una constante:

Y2 exp (L(t − a)) − 1


C= ·
2 L
Siendo L la constante de Lipschitz de f en Ω.

Demostración. Tomemos h > 0 con h = (b − a)/N. Dados el método de Euler

yn+1 = yn + h fn , n = 0, 1, 2, . . . , N − 1
5.2 Método de Taylor 49

y la solución exacta del problema en tn : ŷn se dará que

ŷn+1 = ŷn + h f (tn , ŷn ) + ln

El error será
εn := ∥ŷn − yn ∥
de modo que para el paso n + 1 se tiene

ŷn+1 − yn+1 = ŷn − yn + h[ f (tn , ŷn ) − f (tn , yn )] + ln


por lo que tomando norma y aplicando la desigualdad triangular se tendrá que

∥ŷn+1 − yn+1 ∥ ≤ ∥ŷn − yn ∥ + hL∥ŷn − yn ∥ + ∥ln ∥


Donde L es la constante de Lipschitz de f . De este modo tendremos que

εn+1 ≤ (1 + hL)εn + l ≤ (1 + hL)((1 + hL)εn−1 + l) + l = (1 + hL)2 εn−1 + l(1 + (1 + hL))

Donde l = Y22 h2 . Como se tiene que εn−1 ≤ (1 + hL)εn−2 + l entonces

εn+1 ≤ (1 + hL)2 εn−1 + l(1 + (1 + hL)) ≤ (1 + hL)3 εn−2 + l(1 + (1 + hL) + (1 + hL)2 )

De forma inductiva llegaremos a que

(1 + hL)n+1 − 1
εn+1 ≤ (1 + hL)n+1 ε0 + l(1 + (1 + hL) + · · · + (1 + hL)n ) = l + (1 + hL)n+1 ε0
1 + hL − 1
esto porque tenemos una progresión geométrica de razón 1 + hL. Si seguimos desarrollando:

(1 + hL)n+1 − 1 Y2 ehL(n+1) − 1 Y2 eL(tn+1 −a) − 1 Y2


εn+1 ≤ h+(1+hL)ε0 ≤ ehL(n+1) ε0 + h = eL(tn+1 −a) ε0 + h
L 2 L 2 L 2
Ahora en n = 0 se tendrá que ε0 = 0 por tanto tenemos que

eL(tn+1 −a) − 1 Y2
εn+1 ≤ h
L 2

5.2 Método de Taylor


Se define el método de Taylor como
p+1 k
h
y(tn+1 ) = y(tn ) + ∑ k! · y(k) (tn )
k=1

Teorema 5.2.1 — Lema. Sea f ∈ C p (Ω) entonces

Yp+1 p+1
∥EL(t, h)∥ = ∥y(t + h) − yTp (t + h; t, y(t))∥ ≤ h
(p + 1)!
50 Capítulo 5. Métodos a paso fijo

p
Teorema 5.2.2 — Convergencia método de Taylor. Si f ∈ CL (Ω), entonces

|h| |h| p+1


Lφ ≤ L f + L f (1) + . . . + L f (p−1)
2 p!
Además, Taylor de orden p es convergente con

exp (Lφ (t − a)) − 1 Yp+1 p


∥y − yh ∥ ≤ h
Lφ (p + 1)!

Demostración. Es análoga a la de Euler. ■

5.3 Métodos Runge-Kutta


Los métodos de tipo Runge-Kutta tienen la siguiente estructura
s
yn+1 = yn + h ∑ bi Ki
i=1

donde los Ki son de la forma


s
Ki = f (tn + ci h, yn + h ∑ ai j K j ) (1 ≤ i ≤ s)
j=1

Estos términos nos indican en cuántas etapas debemos de evaluar f .

Para simplificar, como los coeficiente ai j determinan una matriz (A) y los bi un vector (b)
haremos referencia a un método Runge-Kutta como

RK(A, b)

Por otro lado, serán de gran utilidad las tablas de Butcher, estas almacenan la información de
los métodos de forma concisa y eficiente. Se construyen de la siguiente forma:

c1 a11 a12 ··· a1s


c2 a21 a22 ··· a2s
.. .. .. .. ..
. . . . .
cs as1 as2 ··· ass
b1 b2 ··· bs

donde los ci = ∑sj=1 ai j (1 ≤ i ≤ s). Para los métodos explícitos la matriz A será siempre
triangular inferior (superior) estrícta. Seguiremos trbajando con estas tablas más adelante, ahora
veamos algunos métodos de tipo Runge-Kutta.

5.4 Método de Runge de orden 2


Se considera la expresión integral siguiente
Z tn +h
y(tn + h) − y(tn ) = y′ (t) dt
tn
5.5 Método de la regla trapezoidal 51

Ahora aplicando la regla del punto medio para integrales se tiene que

h3 ′′′
Z tn +h     
′ ′ h h h
y(tn +h)−y(tn ) = y (t) dt = h·y tn + − y (tn +θ h) = h f tn + , y tn + +o(h3 )
tn 2 24 2 2

Sea ahora z = y tn + h2 entonces tenemos que




 
h
y(tn + h) − y(tn ) = h f tn + , z + o(h3 )
2

Trabajando ahora con o(h3 ) se obtiene que

y(tn + h) = y(tn ) + hK2

Donde
K2 = f (tn + h/2, yn + h · K1 /2)
K1 = f (tn , yn )
El error local en este caso es de orden 3, por lo que el método es de orden 2.

5.5 Método de la regla trapezoidal


En esta ocasión, en lugar de aplicar la regla del punto medio aplicaremos la regla trapezoidal,
de esta forma se obtiene el método siguiente

h
yn+1 = yn + [K1 + K2 ]
2
Donde
K2 = f (tn + h, yn + h · K1 )
K1 = f (tn , yn )
Existen otro métodos como el de Euler de orden 3 o el de Kutta y todos tienen asociada una
tabla de Butcher que debemos conocer, a continuación se exponen las tablas de Butcher de algunos
métodos clásicos bastante populares:
Método de Euler clásico:
0
1
Método de Euler implícito:

1 1
1
Método de Runge:

0
1/2 1/2
0 1
Regla trapezoidal (explícita, o método de Heun de orden 2):

0
1 1 0
1/2 1/2
52 Capítulo 5. Métodos a paso fijo

Regla trapezoidal (implícita):


0
1 1/2 1/2
1/2 1/2
Método de Euler de orden 3 (Heun de orden 3):
0
1/3 1/3
2/3 0 2/3
1/4 0 3/4
Método clásico de Kutta:
0
1/2 1/2
1/2 0 1/2
1 0 0 1
1/6 1/3 1/3 1/6

5.6 Condiciones de orden


Para que un método sea de orden p hasta ahora teníamos que obtener el error local, sin embargo
existen ciertas condiciones necesarias y suficientes para que un método sea de orden p.

Orden Condición
1 bT 1 = 1
2 bT c = 1/2
3 bT c2 = 1/3
bT Ac = 1/6
bT c3 = 1/4
4 bT (c ∗ (Ac)) = 1/8
bT Ac2 = 1/12
bT A2 c = 1/24

Definición 5.6.1 La operación ∗ denota el producto de Hadamar, de modo que

vn = (vn1 , vn2 , . . . , vnk )

Para que un método sea de orden p primero debe de verificar las condiciones de orden para
valores menor que p.

5.6.1 Obtención de condiciones de orden


Para obtener las condiciones de orden de forma eficaz haremos uso de la teoría de árboles raíz
(rooted trees) desarrollada por el matemático John Butcher. Esta consiste en una serie de árboles
diferenciados por el número de nodos que poseen y cómo se relacionan. Así pues veamos algunos
ejemplos:
5.6 Condiciones de orden 53

1 2 3 4

τ0 [τ0 ] [[τ0 ]] [τ0 , τ0 ] [τ0 , τ0 , τ0 ] [[τ0 ], τ0 ] [[τ0 , τ0 ]] [[[τ0 ]]]

Definición 5.6.2 Se denomina orden de un árbol τ al número de nodos de este, lo denotaremos


como ρ(τ).

Definición 5.6.3 Se tienen además otras dos funciones para un árbol: γ y φ definidas como
sigue
γ(τ) = ρ(τ)γ(τ1 )γ(τ2 ) · · · γ(τn )
φ (τ) = (Aφ (τ1 )) ∗ (Aφ (τ2 )) ∗ · · · ∗ (Aφ (τn ))
con el convenio de que γ(τ0 ) = 1 y φ (τ0 ) = 1, donde τ0 hace referencia al último hijo.

Teorema 5.6.1 — de Butcher. El orden de un método es p si, y solo si su árbol asociado verifica
que
1
bT φ (τ) = , ∀ρ(τ) ≤ p
γ(τ)

Nota 5.2. Para el cálculo de φ podemos entender cada rama como un producto de A, cada salto
de rama como un producto de Hadamar y cada final de rama como un vector de unos.

5.6.2 Desarrollo de las condiciones de orden


Definición 5.6.4 — Derivada de Fréchet. Dado el operador

f (v) : Rm → Rm
v(t) → f (v(t))

Se tendrá que
fi′ (v)[u1 ] = w ∈ Rm
donde las componentes de w son
∂ fi (v) 1
wi = ∑ u
j ∂xj j
en general se tendrá
m
(p) ∂ p fi (v)
fi (v)[u1 , u2 , . . . , u p ] = ∑ u1j1 u2j2 . . . u pjp
j1 ,..., j p =1 ∂ x j1 ∂ x j2 . . . ∂ x j p

Dado el problema autónomo

y′ = f (y)
y(t0 ) = y0
54 Capítulo 5. Métodos a paso fijo

Si la solución es

y(l) (t0 ) l
y(t0 + h) = y0 + ∑ h
l=1 l!
Derivando se tendrá que

y′ = f (y)
y′′ = f ′ (y)[y′ ] = f ′ (y)[ f (y)]
y′′′ = f ′′ (y)[y′ , y′ ] + f ′ (y)[y′′ ]
y(4) = f ′′′ (y)[y′ , y′ , y′ ] + 3 f ′′ (y)[y′ , y′′ ] + f ′ (y)[y′′′ ]

Para simplificar diremos que y′ (t0 ) = f0 y a este elemento lo denominaremos diferencial


elemental. Así pues las derivadas quedan como

y′ = f 0
y′′ = f ′ [ f ]0
y′′′ = f ′′ [ f , f ]0 + f ′ [ f ′ [ f ]]0
..
.

Si
(l)
yRK (t0 )hl
yRK (t0 + h) ≡ y1 = y0 + ∑
l≥1 l!
Deduzcamos las condiciones de orden, para ello calcularemos las derivadas del método y las
igualaremos a las derivadas exactas calculadas anteriormente.
s
y1 (h) = y0 + h ∑ bi Ki (h)
i=1

con
s
Ki = f (y0 + h ∑ ai j K j )
j=1

entonces
y1 (0) = y0
y′1 (h) = ∑si=1 bi Ki (h) + h ∑si=1 bi Ki′ (h)
Por tanto se tendrá que

y′1 (0) = ∑si=1 bi Ki (0) = f0 ∑si=1 bi

Para orden uno se dará que


s
y′1 (0) = y′ ⇒ ∑ bi = 1
i=1

Veamos ahora la siguiente condición de orden, derivemos

y′′1 (h) = h ∑si=1 bi Ki′′ (h) + 2 ∑si=1 bi Ki′ (h)


y′′1 (0) = 2 ∑si=1 bi Ki′ (0)
5.6 Condiciones de orden 55

ahora la derivada de Ki es
!" #
s s s
Ki′ =f ′
y0 + h ∑ ai j K j ∑ ai j K j + h ∑ b j K ′j (h)
j=1 j=1 j=1

Por lo que se dará que


" #
s s
Ki′ (0) = f ′ (y0 ) ∑ ai j K j (0) = ∑ ai j · f ′ [ f ]0 = ci f ′ [ f ]0
j=1 j=1

Entonces !
s
y′′1 (0) =2 ∑ bi ci f ′ [ f ]0
i=1

Igualando ahora a la derivada de la solución exacta se da que


!
s s
1
y′′1 (0) = y′′ (t0 ) ⇒ 2 ∑ bi ci f ′ [ f ]0 = f ′ [ f ]0 ⇒ ∑ bi ci =
i=1 i=1 2
Veamos ahora orden tres:

y′′′ s ′′′ s ′′
1 (h) = h ∑i=1 bi Ki (h) + 3 ∑i=1 bi Ki (h)

y′′′ s ′′
1 (0) = 3 ∑i=1 bi Ki (h)

Ahora debemos obtener K ′′ :


! !
s s
Ki′′ (h) = f ′′ y0 + h ∑ ai j K j [v, v] + f ′ y0 + h ∑ ai j K j [v′ ]
j=1 j=1

con v = ∑sj=1 ai j K j + h ∑sj=1 bi Ki′ (h) al evaluar en cero se tendrá


" # " #
s s
Ki′′ (0) ′′ ′
= f (y0 )[ci f0 , ci f0 ] + f (y0 ) 2 ∑ ai j K j (0) = c2i f ′′ [ f , f ]0 + f0′ ′
2 ∑ ai j c j · f [ f ]0 =
j=1 j=1

s
= c2i f ′′ [ f , f ]0 + 2 ∑ ai j c j · f ′ [ f ′ [ f ]]0
j=1

Por tanto y′′′


1 (0) queda como
s s s
y′′′ 2 ′′ ′ ′
1 (0) = 3 ∑ bi ci · f [ f , f ]0 + 6 ∑ ∑ ai j c j · f [ f [ f ]]0
i=1 i=1 j=1

Nuevamente igualando con la tercera derivada exacta se da que


s s s
y′′′ ′′′ 2
1 (0) = y (t0 ) ⇒ 3 ∑ bi ci = 1 ∧ 6 ∑ ∑ ai j c j = 1
i=1 i=1 j=1

Esto es
1
∑si=1 bi c2i = 3
1
∑si=1 ∑sj=1 ai j c j = 6
6. Estabilidad de métodos Runge-Kutta

Este estudio se enfocará desde el problema

y′ = Jy

con J ∈ Mn (R) (cte). en esta ocasión antenderemos a los autovalores de J que tengan parte real
menor o igual que cero (para garantizar la estabilidad del método) este será el conjunto

σ (J) = {λ j ∈ C : Jv j = λ j v j , v j ̸= 0 ∧ Re λ j ≤ 0}

con v j los autovectores asociados a cada λ j .


Definición 6.0.1 Se dirá que

DRK = {z ∈ C : |R(z)| ≤ 1}

es el dominio de estabilidad del método, donde R(z) es la denominada función de estabilidad.

Normalmente DRK ⊆ C−
0 = {z : Re z ≤ 0}.

Para elegir el paso h para un cierto método debemos asegurarnos de que h · λ j ∈ DRK (∀ j =
1, . . . m), en caso contrario el método no integrará la solución correcta.

Si J = SΛS−1 con Λ diagonal (también se puede ver para formas de Jordan) se tendrá el
problema
yn+1 = R(hJ)yn
con f (J) = ∑∞ l l −1 = S f (Λ)S−1 además la serie matricial converge siempre que
l=0 cl J = S ∑l cl Λ · S
el radio espectral sea menor que r (ρ(J) ⪇ r).

De aquí tenemos que resolver yn+1 = R(hJ)yn equivale a resolver

yn+1 = SR(hΛ)S−1 yn

57

con R(hΛ) = diag(R(hλ j ))mj=1 .

Ahora, para obtener la función de estabilidad debemos hacer uso del Test de Dahlquist:

y′ = λ y

con λ ∈ C−
0 y z = hλ . Donde se tiene que
s
Ki = f (tn + ci h, yn + h ∑ ai j K j ) (1 ≤ i ≤ s)
j=1

n
yn+1 = yn + h ∑ bi Ki
i=1

Considerando ahora el vector K = (K1 , K2 , . . . , Ks ) se puede escribir el sistema como

yn+1 = yn + hbT K

donde
K = λ 1yn + zAK
Ahora despejando K se tiene lo que sigue

K = λ (I − zA)−1 1yn

por lo que al sustituir en yn+1 se tiene que

yn+1 = yn + hλ bT (I − zA)−1 1yn = yn + zbT (I − zA)−1 1yn = (1 + zbT (I − zA)−1 1)yn


z=hλ

Como teníamos que yn+1 = R(z)yn entonces se da que

R(z) = 1 + zbT (I − zA)−1 1

Definición 6.0.2 Se dirá que un método RK(A, b) es A-estable ⇐⇒ C−


0 ⊆ DRK

Definición 6.0.3 Se dirá que un método RK(A, b) es L-estable ⇐⇒ el método es A-estable y


R(∞) = 0 (en el sentido de límite)

Definición 6.0.4 Se dirá que un método RK(A, b) es A(α)-estable ⇐⇒ DRK ⊇ W (α) =


{z : z ̸= 0 ∧ Arg(−z) ≤ α} ∪ {0}

yi

W (α)

α
x
−α
58 Capítulo 6. Estabilidad de métodos Runge-Kutta

Definición 6.0.5 Se dirá que un método RK(A, b) es L(α)-estable ⇐⇒ el método es A(α)-


estable y R(∞) = 0 (en el sentido de límite)

Definición 6.0.6 El intervalo de estabilidad absoluta lineal (IEA) se define como DRK ∩ R.

6.1 Función de estabilidad para métodos RK


Teorema 6.1.1 — Lema. La función de estabilidad para los métodos Runge-Kutta viene dada
por el siguiente cociente

det(I − z(A − 1bT ))


R(z) =
det(I − zA)

yn+1
Demostración. Puesto que R(z) = yn con y′ = λ y y(tn ) = yn ; z = hλ
Y sabiendo que
(I − zA)K = λ 1yn

considerando λ = 1 se dará que yn = 1 ⇒ z = h ⇒ yn+1 = R(z). Entonces se tendrá que


 
(I − zA)K = 1  (I − zA)K + 0 · yn+1 = 1 
⇐⇒
yn+1 = 1 + zbT K  −zbT K + 1 · y =1 
n+1

Por tanto en forma matricial por bloques se tiene que


    
I − zA 0 K 1
  = 
−zbT 1 yn+1 1

Por la regla de Cramer se tendrá que


 
I − zA 1
det  
−zbT 1
yn+1 = R(z) =  
I − zA 0
det  
−zbT 1

Desarrollando el denominador por los adjuntos de la última columna y en el numerador usando


la última fila como pivote para obtener ceros en las celdas superiores multiplicando por −1 se tiene
que
 
I − zA + z1bT 0
det  
−zbT 1 det(I − z(A − 1bT ))
R(z) = =
det(I − zA) Adjuntos I − zA

Nota 6.1. Para los métodos explícitos det(I − zA) = 1


6.1 Función de estabilidad para métodos RK 59

Propiedad 6.1. Serie de Neumann


(I − B)−1 = ∑ Bi
i≥0

siempre que ρ(B) < 1.


Nota 6.2. Aplicando la fórmula de Neumann y por la teoría de árboles de Butcher podemos
demostrar que la función de estabilidad de cualquier método Runge-Kutta de orden s y s etapas es
z2 zs
R(z) = 1 + zbT (I + zA + (zA)2 + · · · + (zA)s−1 )1 = 1 + z + + · · · + = Ts (ez )
2! s!
esto siempre que ρ(A) < 1 y As = 0.

Teorema 6.1.2 — Caracterización de A-estabilidad. Sea R(z) la función de estabilidad


diremos que esta es A-aceptablea si, y solo si

1. R(z) no tiene polos en C−


0.
2. |R(yi)| ≤ 1, ∀y ∈ R.
a Por A-aceptable entendemos que |R(z)| ≤ 1

Demostración. Consideremos el semidisco siguiente


yi

Dr

x
r

Dr = {z : Re z ≤ 0, |z| ≤ r}
”⇐”

Puesto que R(z) es analítica en Dr (∀r > 0) por el principio del módulo máximo se dará que
máx ∥R(z)∥ = máx{máx |R(yi)|, máx |R(z)|} = M
z∈Dr |y|≤r |z|=r∧Rez≤0

Si r → ∞ entonces

sup |R(z)| ≤ lı́m M ≤ máx{1, R(∞)} ≤ 1


r→∞
C−
0

pues |R(∞) ≤ 1| sobre el eje imaginario.


”⇒”

Si se tiene un polo entonces |R(z)| ̸≤ 1

Ahora si |R(z)| ≤ 1 entonces en el eje imaginario también se tendrá que sea menor que uno. ■
7. Métodos de Adams

Estos surgen de la integración del problema

y′ = f (t, y)

con y(a) = y0 . Pero en este caso en lugar de aproximar la integral de tn a tn+1 mediante propiedades
(como la regla del punto medio o la trapezoidal) lo haremos interpolando polinómicamente la
derivada
y′ (t)

así pues
Z tn+1 Z tn+1

y(tn+1 ) − y(tn ) = y (t) dt ≈ pk−1 (t; y′ (t)) dt
tn tn

Nota 7.1. Recordemos que el polinomio interpolador de g(t) en {t0 , . . . ,tr } (r + 1 puntos) se puede
dar como
r
p(t) = ∑ L j (t) · g(t j )
j=0

con L j la base de Lagrange:

∏rj=0 (t − t j )
L j (t) = j+1
(t − t j ) ∏i=0 (t j − ti )

7.0.1 Polinomio interpolador por diferencias regresivas


En este caso dados t0 ,t−1 . . . ,t−r r + 1 puntos dando pasos hacia atrás donde t j = t0 + jh si g(t)
es la función a interpolar se dará que el polinomio a considerar por Newton-Gregor es
r
 
−s j
pr (t0 + sh) = ∑ (−1) ∇ j g0
j=0 j
7.1 Métodos de Adams-Bashford (explícitos, ABK ) 61

donde
∇0 g0 = g0
∇1 g0 = g0 − g−1 = ∆g−1
∇2 g0 = ∇(∇g0 ) = g0 − 2g−1 + g−2 = ∆2 g−1
..
.
j
∇ j g0 = ∑l=0 (−1)l lj g−l


De esta forma el error al interpolar es


r
g(t) − pr (t) = g(t0 + sh) − pr (t) = g[t0 ,t−1 , . . . ,t−r ,t] ∏ (t − t− j )
Di f erencia div. j=0

Por tanto, al tener una diferencia dividida en r + 2 puntos se verificará que

g(r+1 (tθ ) r
g(t0 + sh) − pr (t) = (t − t− j )
(r + 1)! ∏j=0

donde tθ es un punto intermedio. Ahora como t = t0 +sh y t− j = t0 − jh se dará que t −t− j = h(s+ j)
por tanto

g(r+1 (tθ ) r g(r+1 (tθ ) r+1


g(t0 + sh) − pr (t) = ∏ h(s + j) = h
(r + 1)! j=0 (r + 1)!

7.1 Métodos de Adams-Bashford (explícitos, ABK )


Estos métodos usarán la información anterior para llegar al paso siguiente a la hora de obtener
una solución. La forma general de estos métodos es obtenida de la siguiente forma
!
Z t1 Z 1 k−1   k−1
−s
y(t1 ) − y(t0 ) = y′ (t) dt ≈ ∑ (−1) j
∇ j
f 0 h ds = h ∑ γ j ∇ j f0
t0 s=0 j=0 j j=0

donde γ j = (−1) j 01 −sj ds (como vemos no depende del número de pasos k). Así los métodos de
R 

este tipo serán de la forma


k−1
yn+1 − yn = h ∑ γ j ∇ j fn
j=0

Aunque también podemos dar una forma para el método como la que sigue
k−1
y1 − y0 = h ∑ βk, j f− j
j=0

donde debemos hallar los βk, j (en este caso si dependerán de k). Veamos el proceso:
Como ∇ j g0 = ∑ jj=0 (−1)l lj gl entonces se tendrá que


k−1 k−1 j
 
j j l
y1 − y0 = h ∑ γ j ∇ f0 = h ∑ γ j ∑ (−1) f−l
j=0 j=0 l=0 l
Ahora podemos decir que j va de l = 0 hasta l = k − 1 porque pra los l > j el número
combinatorio será cero, así pues
62 Capítulo 7. Métodos de Adams

k−1 k−1
 
j l
y1 − y0 = h ∑ γ j ∑ (−1) f−1 =
j=0 l=0 l
!
k−1 k−1  
j
= h ∑ (−1)l ∑ γ j f−l
l=0 j=0 l
Ahora podemos hacer que j comience en l por lo que tenemos
k−1
y1 − y0 = h ∑ βk,l f−l
l=0
j
(−1)l ∑k−1

donde βk,l = j=l γ j l . En general se dará que
k−1
yn+1 − yn = h ∑ βk, j fn− j
j=0

Veamos algunos valores para γ:

j 0 1 2 3 4 5
γj 1 1/2 5/12 3/8 251/720 96/288

Veamos ahora algunos valores para β :

k βk,0 βk,1 βk,2 βk,3


1 1 0 0 0
2 3/2 -1/2 0 0
3 23/12 -16/12 5/12 0
4 55/24 -59/24 37/24 -9/24

■ Ejemplo 7.1 El método de Adams de orden tres sería


 
23 16 5
yn+1 − yn = h fn − fn−1 + fn−2
12 12 12

7.1.1 Error del método en un paso (defecto)


El error de truncamiento local, defecto o error de discretización local para este tipo de métodos
será
ET L(tn , h) = y(tn+1 ) − y(yn )
en k pasos aplicado sobre la solución, de forma que por lo visto anteriormente para g(t) ahora para
y′ (t) se tiene que

ET L(tn , h) = hk+1 γk y(k+1 (t ∗ )


con t ∗ un punto intermedio.
Nota 7.2. Si la solución de la ecuación diferencial es un polinomio de grado menor que k y
tomando valores iniciales exactos se da que la integración es exacta.
Nota 7.3. El tamaño del defecto es proporcional al número de pasos.
7.2 Métodos de Adams-Moulton (implícitos, AMK ) 63

7.2 Métodos de Adams-Moulton (implícitos, AMK )


Estos métodos se basan en integrar el polinomio interpolador para puntos anteriores a tn+1 .

Tomaremos t = tn+1 + qh por tanto t = tn + (q + 1)h (esto no es necesario, solo lo hacemos


para empezar en el tn tal y como hicimos en los desarrollos anteriores) de este modo integraremos
Z tn+1 Z tn+1
y(tn+1 ) − y(tn ) = y′ (t) dt ≈ pk (t; y′ (t)) dt
tn tn
Ahora aplicando el cambio de variable t = tn + (q + 1)h donde dt = h dq se tiene que
!
Z 0 K   K
−q
y(tn+1 ) − y(tn ) = ∑ (−1) j ∇ j y′n+1 h dq = h ∑ γ̃ j ∇ j fn+1
q=−1 j=0 j j=0

Obtengamos ahora los gamma tilde:


Z 0 
j −q
γ̃ j = (−1) dq
−1 j
De aquí tenemos, haciendo q = s − 1 que
Z 1 
j −s + 1
γ̃ j = (−1) ds
0 j
Si queremos obtener la expresión y(tn+1 ) − y(tn ) sin las diferencia sucesivas se tendría que
K j  
j
y(tn+1 ) − y(tn ) = h ∑ γ̃ j ∑ (−1)l fn+1−l
j=0 l=0 l
ahora podemos fijar el límite superior del segundo sumatorio en K, porque desde que l > j el
número combinatorio es cero:

"  # "  #
K K   K K K K
j l j j
y(tn+1 )−y(tn ) = h ∑ γ̃ j ∑ (−1) fn+1−l = h ∑ (−1)l l
∑ γ̃ j l fn+1−l = h ∑ (−1) ∑ γ̃ j l fn+1−l
j=0 l=0 l l=0 j=0 l=0 j=l

De aquí obtenemos un nuevo parámetro β̃k,l :


  K
jl
β̃k,l = (−1) ∑ γ̃ j
j=l l
Veamos algunos valores para γ̃:

j 0 1 2 3 4 5
γ̃ j 1 -1/2 -1/12 -1/24 -19/720 -3/160

Veamos ahora algunos valores para β̃ :

k β̃k,0 β̃k,1 β̃k,2 β̃k,3


1 1/2 1/2 0 0
2 5/12 8/12 -1/12 0
3 9/29 19/24 -5/24 1/24
64 Capítulo 7. Métodos de Adams

7.2.1 Cálculo del error de truncamiento local

K Z tn+1

ET L(tn , h) = y(tn+1 ) − y(tn ) − h ∑ β̃k, j y (tn+1− j ) = (y′ (t) − pK (t; y′ )) dt
j=0 tn

Haciendo el cambio t = tn+1 + hq se tiene que


Z 0  
−q
ET L(tn , h) = h K+1 (K+2
y K+1
(tθ )(−1) h dq = hK+2 y(K+2 (t ∗ )γ̃K+1
q=−1 K +1

Nota 7.4. Si tengo K valores buenos, y un polinomio de grado K + 1 entonces la integración es


exacta, si no el error es de orden K + 2.
8. Métodos BDF

Los métodos BDFK (Backward Differentiation Formulae de orden K) nos servirán para integrar
problemas de tipo stiff relacionados con la súper-estabilidad. La diferencia entre estos métodos
y los anteriores es que para la obtención de los BDF no haremos uno de integrales, en su defecto
estos métodos se deducen imponiendo las siguientes condiciones:

Se tomará un polinomio interpolador en K puntos que verifique que

p(tn− j ) = yn− j

Además, se impone otra condición:

p′ (tn+1 ) = f (tn+1 , p(tn+1 ))

Así pues se tienen K + 1 condiciones por tanto se tiene el polinomio interpolador


K  
j −q
pK (t) = ∑ (−1) ∇ j yn+1 = pK (tn+1 + qh) ≡ a(q)
j=0 j

Ahora, por la segunda imposición se dará que


K  
∂q ∂ −q
fn+1 = p′K (tn+1 ) ′
= a (q) =h −1 j
∑ (−1) ∂ q ∇ j yn+1
∂t q=0 j=1 j q=0

Desarrollando la derivada del número combinatorio y evaluando en q = 0 se tendrá que

(−1)(−1)(−2) . . . (−( j − 1)) (−1) j


 
−q
= =
j q=0 j! j

Por lo tanto
K
1
fn+1 = p′K (tn+1 ) = h−1 ∑ ∇ j yn+1
j=1 j
66 Capítulo 8. Métodos BDF

De esta forma se obtiene el método


K
1 j
∑ ∇ yn+1 = h fn+1
j=1 j

O, equivalentemente con unos ciertos parámetros αK, j se tiene


K
∑ αK, j yn+1− j = h fn+1
j=1

Veamos algunos valores de α

k αk,0 αk,1 αk,2 αk,3 αk,4


1 1 -1 0 0 0
2 3/2 -2 1/2 0 0
3 11/6 -3 3/2 -1/3 0
4 25/12 -4 3 -4/3 1/4

Estos métodos tienen interés hasta K = 6, de ahí en adelante son inestables.

8.1 Cálculo del error

K
EDLK (t, h) = ∑ αK, j y(tn+1− j ) − hy′ (tn+1 ) = h(p′ (tn+1 ) − y′ (tn+1 )) = h(p(t) − y(t))′ t=t
n+1
j=0

Por tanto se tendrá que


  
∂ K+1 (K+1 K+1 −q ∂q
EDLK (t, h) = −h h y (tθ )(−1)
∂q K +1 q=0 ∂t

∂q
Como sabemos que ∂t = h−1 se tendrá que

1
EDLK (t, h) = −hK+1 y(K+1 (t ∗ )
K +1
Nota 8.1. Si tenemos K valores buenos y en cada computación tengo un polinomio de grado menor
que K + 1 entonces la integración es exacta. Si no, tengo un error de grado K + 1.
9. Métodos predictor-corrector

Estos métodos son útiles para resolver problemas mediante métodos implícitos.

Estos métodos consisten en una primera implementación con un método (normalmente explíci-
to) que hará las veces de predictor (P); a continuación se evalúa (E) la f en el valor de yn obtenido
en el predictor y, por último se corrige haciendo uso de otro método (normalmente implícito) que
hará las veces de corrector (C).

Hay distintas formas de implementar el método las más comunes son PEC, PECE o P(EC)2 .

En caso de que nos sean necesarios valores de y j anteriores a los que tenemos podemos usar
métodos Runge-Kutta para su obtención.
10. Métodos lineales multipaso (MLM)

En esta sección generalizaremos los métodos anteriores. La forma general de un MLMK será
K K
∑ α j yn+ j = h ∑ β j fn+ j
j=0 j=0

verificando que

αk ̸= 0
α02 + β02 > 0, α j , β j ∈ R

Además, asociaremos a cada método dos polinomios característicos:

ρ(ζ ) = ∑Kj=0 α j ζ j σ (ζ ) = ∑Kj=0 β j ζ j


Ademásm en el caso de los MLM podremos emplear el operador desplazamiento E que actúa
como sigue Exn = xn+1 (donde xi son elementos de una sucesión). En general E j xn = xn+ j . Así
pues se tendrá que la forma general de los MLM queda como

ρ(E)yn = hσ (E) fn , n = 0, 1, 2 . . .

Definición 10.0.1 Diremos que un MLM(ρ, sigma) es irreducible si, y solo si mcd(ρ, σ ) = 1.

10.1 Error

K K ∞
hl
EDL(tn , h) = ∑ α j y(tn + jh) − h ∑ β j y′ (tn + jh) (∗)
= ∑ c j y(l (tn )
l!
j=0 j=0 l=0

(∗) Si es analítica.
10.1 Error 69

Ahora aplicando el desarrollo de Taylor se tiene que

c0 = ∑Kj=0 α j
c1 = ∑Kj=0 jα j − ∑Kj=0 β j
cl = ∑Kj=1 jl α j − l ∑Kj=1 jl−1 β j (l ≥ 2)
Realmente se puede emplear la expresión
K K
cl = ∑ jl α j − l ∑ jl−1 β j (l ≥ 0)
j=0 j=0

bajo el convenio de que 00 = 1 y 0 · Σ = 0 (siendo Σ cualquier elemento de R ∪ {±∞})

Propiedad 10.1. Las siguientes afirmaciones son equivalentes


1. Un MLM tiene orden de consistencia p
2. EDL(tn h) = o(h p+1 ) estrícto.
3. c0 = c1 = . . . = c p = 0 y c p+1 ̸= 0

Definición 10.1.1 Se dirá que un MLM(ρ, σ ) es 0-estable, si, y solo si es estable para f ≡ 0

Teorema 10.1.1 Las siguientes afirmaciones son equivalentes


1. MLM(ρ, σ ) es 0-estable
2. MLM(ρ, σ ) es estable para f ≡ 0
3. ∑Kj=0 α j yn+1 = 0 (las soluciones están acotadas siempre que los módulos de los valores
iniciales sean menores que uno).
4. ρ(ζ ) cumple la condición de las raíces:

 |ζ j | ≤ 1, j = 1, 2, . . . , K
 |ζ | = 1 ⇒ ζ es simple.
j j

Definición 10.1.2 Un método es consistente si tiene orden de consistencia 1, al menos.

Teorema 10.1.2 Dado un MLM irreducible se dará que


1. El método es convergente ⇐⇒ es consistente y 0-estable.
2. EL método es convergente de orden p ⇐⇒ es consistente de orden p y 0-estable.

Nota 10.1. Los métodos de Adams y los BDFK hasta K = 6 cumplen el teorema anterior.

Teorema 10.1.3 — Primera barrera de Dahlquist. Un método de paso múltiple de paso q


escalable a cero no puede alcanzar un orden de convergencia mayor que q + 1 si q es impar y
mayor que q + 2 si q es par. Si el método también es explícito, entonces no puede alcanzar un
orden mayor que q.

Teorema 10.1.4 — Segunda barrera de Dahlquist. No hay métodos explícitos A-estables y


multipaso lineales. Los implícitos tienen un orden de convergencia de 2 como máximo.

También podría gustarte