EDOSII
EDOSII
EDII
I Tema 1
1 Repaso de EDOS I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1 Normas L p . 5
1.1.1 Producto interior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
II Tema 2
3 Problemas de valores frontera (PVF) . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1 Soluciones fundamentales y función de Green 30
3.1.1 Búsqueda de soluciones fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Función de Green 32
3.3 PVF no lineales 35
3.4 Problemas de autovalores del tipo Sturm-Lioville 37
4 Transformación de Prüffer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1 El problema de autovalores 42
III Tema 3
5 Métodos a paso fijo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1 Método de Euler 48
5.2 Método de Taylor 49
5.3 Métodos Runge-Kutta 50
5.4 Método de Runge de orden 2 50
5.5 Método de la regla trapezoidal 51
5.6 Condiciones de orden 52
5.6.1 Obtención de condiciones de orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.6.2 Desarrollo de las condiciones de orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7 Métodos de Adams . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.0.1 Polinomio interpolador por diferencias regresivas . . . . . . . . . . . . . . . . . . . . . . . 60
7.1 Métodos de Adams-Bashford (explícitos, ABK ) 61
7.1.1 Error del método en un paso (defecto) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.2 Métodos de Adams-Moulton (implícitos, AMK ) 63
7.2.1 Cálculo del error de truncamiento local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
8 Métodos BDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
8.1 Cálculo del error 66
9 Métodos predictor-corrector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1 Repaso de EDOS I . . . . . . . . . . . . . . . . . . . . 5
1.1 Normas L p .
1.2 Sistemas lineales
1.3 Solución sistemas lineales coeficientes constantes
1.1 Normas L p .
Definición 1.1.1 Una norma es una aplicación
∥ · ∥ : Rn → R+
que cumple
1. ∥x∥ > 0, x ̸= 0
2. ∥λ x∥ = |λ |∥x∥
3. (Desigualdad triangular)
∥x + y∥ ≤ ∥x∥ + ∥y∥ o, equivalentemente |∥x∥ − ∥y∥| ≤ ∥x − y∥
Para poder probar que algunas aplicaciones son efectivamente normas podrán servir de ayuda
las siguientes desigualdades.
1. Desigualdad de Cauchy-Schwarz
|x · y| ≤ ∥x∥2 · ∥y∥2
2. Desigualdad de Minkowski
∥x + y∥ p ≤ ∥x∥ p + ∥y∥ p
6 Capítulo 1. Repaso de EDOS I
En un espacio de dimensión finita (Rn ) todas las normas L p son equivalentes, esto es, dadas dos
normas ∥ · ∥a , ∥ · ∥b y dos constantes c1 , c2 > 0 se puede acotar una norma por la otra y viceversa:
y también
1
∥x∥1 ≤ ∥x∥∞ ≤ ∥x∥1
n
■
Definición 1.1.3 Un operador lineal es una aplicación lineal que transforma un vector en otro.
L : Rn → Rn
con x = Ax, además, el operador L tiene asociada una matriz regular de manera que
L (x) = A · x
∥L (x)∥ p ≤ ∥L ∥ · ∥x∥ p
∥L ∥ = sup ∥L (y)∥ p
∥y∥=1
Para p = 2: p
∥A∥2 = ρ(A · At )
donde ρ(B) es el radio espectral de B, esto es ρ(B) = máx1≤i≤n |λi |, con λi autovalor de B. ■
1.2 Sistemas lineales 7
Al producto escalar lo denotaremos como < x, y >2 := x · y. De este modo podemos ver que la
norma p = 2 viene inducida por el producto escalar1 :
√
∥x∥2 = < x, y >2
ϕ(t) ≤ a · eb(t−t0 )
con y(t0 ) = y0 , t ∈ [t0 ,t1 ]. Donde A, b ∈ C (I) el problema admite solución única de clase 1
y(t) = y(t;t0 , y0 ) donde
Aplicando normas
Z t Z t
∥y∥ = ∥y0 ∥ + (∥Ay + b∥) ds ≤ ∥y0 ∥ + (∥A∥∥y∥ + ∥b∥) ds
t0 t0
Donde a = ∥y0 ∥ + β (t − t0 ). ■
Teorema 1.2.3 Dado el problema y′ = A(t)y con A continua en I = [t0 ,t1 ], fijados τ,t ∈ I se
verifica la siguiente propiedad
ϕ: Rn → Rn
η → y(t, τ, η)
es solución de
y′ (s) = A(s)y(s)τ = η
Demostración. Veamos que φ es isomorfismo, para ello comprobemos que el lineal y biyectiva.
Linealidad.
Biyectiva si, y solo si inyectiva (pues tenemos espacios de dimensión finita) además, ver que ϕ
es inyectiva equivale a ver que y(t; τ, 0) = 0.
R.a.
Donde Y (t) será regular siempre que la colección {η1 , . . . , ηn } sea libre.
Por tanto Y (t) satisface el sistema. Veamos ahora la siguiente parte; para ello consideremos
z(t) = Y (t)Y −1 (τ)η.
Satisface el dato, por tanto como z′ = Y ′ (t)Y −1 (τ)η = AY (t)Y −1 (η) = Az por lo que z es
solución. ■
Definición 1.2.1 Denotaremos al determinante de la matriz fundamental por φY (t) = det(Y (t))
Haciendo t = τ
n
φ ′ (τ) = ∑ det[e1 , . . . , ei − 1, A(τ)xi (τ, τ), ei+1 , . . . , en ]φ (τ)
i=1
Donde xi (τ, τ) = ei .
10 Capítulo 1. Repaso de EDOS I
De este modo
1 0 . . . aii ... 0
0
1 . . . a2i . . . 0
.
0 . . a3i
′
0 . . . 0
φ (τ) = φ (τ) ∑ det = φ (τ)tr(A(τ))
0
0 ... 1 . . . 0
.. .. . . . ..
. . . . . .. . .
0 0 . . . ani ... 1
Rt
Por tanto φ ′ (τ) = φ (τ)tr(A(τ)) por lo que φ (t) = e τ tr(A(s)) ds φ (τ) ■
y′ = Ay, y(t0 ) = y0
Definición 1.3.1 — Exponencial de una matriz. Sea A una matriz cuadrada entonces se
define ∞
1 1 1
eA = I + A + . . . + an + . . . = ∑ An
1! n! n=0 n!
Demostración. Veamos que Sn = ∑nk=0 k!1 Ak es de Cauchy. Por tanto queremos comprobar que
∥Sn+m − Sn ∥ < ε
Por tanto tenemos la sucesión de cauchy {e∥A∥∞ } que es una sucesión de números reales que
sabemos que converge. ■
y′ = Ay
Demostración. Es claro que y cumple la condición inicial. Veamos ahora que cumple la EDO:
(∗)
y′ = (eA(t−t0 ) y0 )′ = (eAt )′ e−At0 y0 = AeAt e−At0 y0 = AeA(t−t0 ) y0 = Ay
e(x+h)A − exA
lı́m
h→0 h
Notemos que e(x+h)A = exA ehA por lo que
además ∑li=1 mi = n.
12 Capítulo 1. Repaso de EDOS I
Esto es debido a que etJ = ey(λ I+E) donde E es una matriz nilpotente de orden la dimensión del
bloque en cuestión.
y′ = Y ′ h +Y h′ = AY h +YY −1 b = Ay + b
y además y(t0 ) = Y (t0 )h(t0 ) = y0 , por tanto cumple el dato. Por unicidad y es la solución del
problema. ■
2. Estabilidad y plano de fase
Definición 2.1.2 — Estabilidad asintótica. φ (t) se dirá que es asintóticamente estable, AE, si
es estable Lyapunov y lı́mt→∞ ∥y(t;t0 , y1 ) − y(t;t0 , y0 )∥ = 0
con φ = y(t;t0 , y0 ).
Teorema 2.1.1 Un sistema lineal es estable si, y solo si ∥eAt ∥ ≤ C, con C ∈ R, para todo t ≥ 0.
Demostración. ■
Demostración. ■
14 Capítulo 2. Estabilidad y plano de fase
Teorema 2.1.3 Sean λ ∈ C y σ > Re(λ ) entonces |t m eλt | ≤ Km eσt para todo t ≥ 0, m ∈ N y
Km constante.
Demostración. ■
Propiedad 2.1.
Z φ (t) Z φ (t)
d ′
f (t, s) ds = φ f (t, φ (t)) + ft (t, s) ds
dt t0 t0
∥eAt ∥ ≤ Ceσt
Para tener esta desigualdad aplicamos el resultado del teorema 2.1.3 de la sección. ■
bz2
De este modo α ′ = x1 de este modo al sustituir en el sistema tendremos z2 . Por último se dará
que α = bzx12 ds
R
2.1 Estabilidad de sistemas lineales (sentido Lyapunov) 15
−
t 1 −1
■ Ejemplo 2.1 Dada A = y teniendo x = (t 2 , −t)T . Hallar otra solución libre del sis-
t −2 2t −1
tema. Es claro que x es efectivamente solución, de modo que aplicando la reducción de D’Alembert
podremos buscar otra solución y = αx + z. Derivando y pasando a un sistema de EDOs llegamos a
′2 ′
α t + z1 = t −1 z1 − z2
−α ′t + z′2 = t −2 z1 + 2t −1 z2
En esta sección comprobaremos de forma cualitativa los casos posibles a la hora de estudiar el
plano de fase para un SL (para n = 2).
a11 a22
y′
Dado el problema = Ay con A = el polinomio característico de A es p(λ ) =
a21 a22
λ 2 − tr(A)λ + det(A), además tomaremos a1 = tr(A) y a0 = det(A), entonces los autovalores son
√
a1 ± ∆
λ= , ∆ = a21 − 4a0
2
Caso 1 si ∆ > 0 entonces tendremos autovalores reales y distintos (supondremos sin pérdida de
generalidad que λ2 < λ1 ). Además, tendremos soluciones del tipo
y = c1 eλ1t v1 + c2 eλ2t v2
Nota 2.2. Denotaremos por r1 a la recta generada por el autovalor v1 que pasa por el origen y r2
la recta que pasa por el autovalor v2 que pasa por el origen.
(1.a) Si λ2 < λ1 < 0. En este caso tenemos una solución estable (AE) y el punto
crítico estudiado (yc ) es un nodo. Las soluciones tenderán al punto crítico siguiendo
las direcciones de las rectas r1 y r2 , pero aproximándose a la recta asociada al
autovalor dominante.
2.2 Plano de fase 17
(1.b) Si λ2 < 0 < λ1 . En este caso tendremos una solución inestable. Diremos que
el punto crítico es un punto de silla, pues en este caso si bien las soluciones que
nacen r2 tienden al punto crítico las que nacen en r1 van al infinito. Puesto que el
autovalor λ1 es el dominante las soluciones se aproximarán a r1 .
(1.c) Si λ2 < λ1 = 0 entonces tendremos una recta (r1 ) de puntos críticos, por tanto
las soluciones irán paralelas a r2 hasta llegar a un punto crítico de r1 . En este caso la
solución es estable.
(1.d) Si 0 < λ2 < λ1 las soluciones se alejarán del punto crítico acercándose a la recta
r1 . Solución inestable.
(2.a.1) Si a1 < 0 entonces tendremos una solución del tipo y/x = C con C
constante, las soluciones tienen al punto crítico de manera radial. En este caso
la solución es AE y se denomina foco.
(2.a.3) Si a1 = 0 En tal caso todo punto del plano es un punto crítico. Esta
solución es de la forma y = y0 y es estable.
(2.b.1) Si a1 < 0 entonces r tiende al punto crítico y las soluciones que nacen
que cada semiespacio se aproximan al punto crítico según indique dicha recta.
En este caso tenemos un nodo y la solución es AE. a
(2.b.2) Si a1 > 0 entonces r tiende al punto crítico y las soluciones que nacen
que cada semiespacio se al infinito sin necesariamente aproximarse a r. Estas
soluciones son inestables.
Se entenderá que una matriz está en forma canónica cuando sea de la forma siguiente
a b
Ac =
−b a
además así se cumplirá que A = VAcV −1 , con V = [v, w]. Asimismo, si la matriz del sistema
está en forma canónica el único punto crítico será el y = 0.
20 Capítulo 2. Estabilidad y plano de fase
(3.b) Si Re(λ ) > 0 entonces las soluciones describirán espirales que divergen al
infinito lo que son soluciones inestables.
(3.c) Si Re(λ ) < 0 entonces las soluciones describirán espirales que convergen al
punto crítico lo que son soluciones estables.
1Aunque después hay que trasladar el plano de fase a la posición del punto crítico.
2.3 Estabilidad de SL (coeficientes constantes) n > 2 21
Donde los ai son los coeficientes del polinomio característico en cuestión. Además, se seguirá
el convenio de que a j = 0 si j > n. Entonces
Teorema 2.4.1
Re(λ ) < 0 : ∀λ ∈ σ (A) ⇒ yc = 0 es AE
Demostración. Para ver que el cero es una solución AE debemos comprobar que
Además, dado ε > 0 arbitrario, impondremos que αε − β < 0. De este modo escribiendo la
forma integral de la solución tomando ϕ(t, y) = b(t) se tiene
Z t
y = eAt y0 + eA(t−s) b(s) ds
0
Ahora por el teorema 2.1.4 sabemos que ∥eAt ∥ ≤ αe−βt con α, β > 0 y siendo β > máxλ ∈σ (A) λi ,
por tanto:
Z t Z t
∥y∥ ≤ ∥eAt ∥∥y0 ∥ + ∥eA(t−s) ∥∥b(s)∥ ds ≤ αe−βt ∥y0 ∥ + αe−β (t−s) ∥b(s)∥ ds
0 0
por tanto estamos en las hipótesis del lema de Gronwall (1.2.1) así pues se verificará que
y′ = Ay, A ∈ Mn (R)
pε (λ ) = p(λ ) + ε · q(λ , ε)
M = (ai j + o(ε))
2.5 Sistemas utónomos 23
2 Ahora, por el teorema de Ruth-Hurwitz se tienen que los menores m j (ε) > 0 para cualquier
ε > 0 por tanto lı́mε→0+ m j ≥ 0 de modo que los m j ≥ 0 para cualquier j. Por tanto hemos llegado
a un absurdo, por hipótesis algún mk es menor que cero. ■
Este teorema nos viene decir que estudiar la estabilidad de x′ = Ax + g(x) es equivalente a
hacerlo en el sistema homogéneo x′ = Ax
Teorema 2.5.2 Dada una solución y del SL entonces si lı́mt→∞ ∥y(t)∥ = 0 entonces y es AE.
Donde V̇ (x) = ∑m ∂V ′ m ∂V t
i=1 ∂ yi (y(t)) · yi (t) = ∑i=1 ∂ yi (y(t)) · f i (y(t)) = ∇V (y) · f (y)
V −1 (µ) = {x ∈ Ω : V (x) ≤ µ}
con 0 ≤ µ ≤ k.
De este modo dado ε > 0 podemos afirmar que existe µε > 0 tal que V −1 (µε ) ⊆ Dε . Pues si no
existiera podríamos tomar µn = 21n → 0 cuando n → ∞ por lo que para cualquier n ∈ N existiría
un xn verificando que V −1 (xn ) ≤ 21n pero xn ∈ Ω \ Dε , por ser Ω un compacto xn debe de tener
un punto de acumulación, pero al no estar en Dε será un x∗ ̸= 0 entonces V (x∗ ) = 0 lo que es un
absurdo, ya que xn sabemos que acumula a 0. Así pues, efectivamente existe V −1 (µε ) ⊆ Dε .
A continuación, si consideramos
Por tanto ∃δ > 0 tal que Dδ ⊂ Int(V −1 (µε )) por ser el interior un abierto. Pero es más
Dδ ⊂ Int(V −1 (µε )) ⊆ V −1 (µε ). Así pues considerando y0 ∈ Dδ \ {0} y φ (t) = V (y(t; 0, y0 )) de
modo que φ ′ (t) = V̇ (y) ≤ 0 entonces φ es decreciente entonces V (y(t; 0, y0 )) ≤ V (y0 ) < µε .
Veamos ahora el caso de EA. Para este caso estudiemos el límite lı́mt→∞ V (y(t; 0, y0 )) que debe
de existir por ser V decreciente sobre la órbita y V ≥ 0 entonces este límite debe ir a un valor real.
Supongamos que
lı́m V (y(t; 0, y0 )) = α ≥ 0
t→∞
W = {x ∈ Dε : 0 < α ≤ V (x) ≤ µε }
esto debido a que V̇ (x) < 0 para cualquier x ∈ Ω \ {0}. De modo que, considerando nuevamente
φ (t) = V (y(t; 0, y0 )) vemos, por el teorema del valor medio que
y′ = f (y)
con f (0) = 0 y f ∈ C 1 (Ω) tal que Ω ∈ Ent(0) entonces si existe V (x) ∈ C 1 (Ω) verificando
Supongamos estabilidad, esto es que para cualquier ε > 0 existe δ > 0 de modo que si y0 ∈ Dδ
entonces y(0;t, y0 ) ∈ Dε .
Tomemos ε > 0 de forma tal que Dε ⊆ Ω entonces existe δ ∈]0, ε[ tal que y0 ∈ Dδ entonces
y(t; 0, y0 ) ∈ Dε para t ≥ 0.
Si M = máxx∈Dε V (x) > 0 sabemos por la sucesión que este límite ha de ser positivo.
Tomemos un k de forma que 0 < ∥xk ∥ < δ tal que y0 = xk . Entonces la órbita y ≡ y(t; 0, y0 )
permanecerá en Dε para cualquier y ≥ 0. Tomemos ahora el conjunto
K = {x ∈ Dε : 0 ≤ V (y0 ) ≤ V (x) ≤ M}
Definiendo ahora
φ (t) = V (y)
Se tendrá que si y ∈ K, ∀t ≥ 0, puesto que V̇ (y) > 0 consecuentemente V (y) ≥ V (y0 ) y
V (y) ≤ m por la asunción de estabilidad. Esto implica por el teorema del valor medio que
Esto es un absurdo, pues para un t suficientemente grande se dará que V (y) ≥ V (y0 ) + mt >
M, ∀t ≥ 0 ■
26 Capítulo 2. Estabilidad y plano de fase
Teorema 2.5.5 — Inestabilidad Chetaev. Dada f (y) ∈ C 1 (Ω) con Ω ∈ Ent(0) y f (0) = 0 tal
que ∃D abierto y V (x) : Rn → R, si se cumple que
Demostración. Por reducción al absurdo supongamos estabilidad esto es ∀ε > 0, ∃δ > 0 de forma
que y0 ∈ Dδ ⇒ y(t; 0, y0 ) ∈ Dε .
Sea ε > 0 tal que Dε ⊂ Ω entonces existe 0 < δ < ε. Tomando ahora el conjunto Dε ∩ D que
es compacto, por tanto V (x) alcanza el máximo:
además, por las hipótesis aportadas es una cantidad positiva. Ahora tomando y0 ∈ Dδ ∩ D se
considera
K = {x ∈ Dε ∩ D : 0 < V (y0 ) ≤ V (x) ≤ M} ̸= 0/
es claro que K es cerrado y acotado, por tanto es compacto.
Pero por otro lado por el teorema del punto medio tendremos que
pero para un t suficientemente grande se tendría que V (y) crecerá tanto como queramos V (y) > M,
esto es y sale en algún momento de K. Por lo que hemos llegado a un absurdo. ■
II
Tema 2
4 Transformación de Prüffer . . . . . . . . . . . . 39
4.1 El problema de autovalores
3. Problemas de valores frontera (PVF)
Ahora nos plantearemos resolver una ecuación de segundo orden del tipo
x′′ = f (t, x, x′ )
con a2 > 0 en J = [a, b] y con condiciones de frontera (CF) de alguno de los siguientes tipos:
3ª Clase:
R1 u := α1 u(a) + α2 u′ (a) = η1
R2 u := β1 u(b) + β2 u′ (b) = η2
Lv = 0
Lv = g(x)
R1 u1 R1 u2
̸= 0
R2 u1 R2 u2
Demostración. Demostremos primero (2) obtenemos la doble implicación tomando dos soluciones
u1 y u2 libres de la ecuación diferencial (ED) Lu = 0 entonces el PVF será
Lu = 0
con CF R j u = 0, j = 1, 2. Así pues, se dará que u = Au1 + Bu2 al exigir el cumplimiento de las CF
se tendrá un sistema compatible determinado homogéneo (obviamente admite solución trivial) que
cumple:
R1 u1 R1 u2
̸= 0
R2 u1 R2 u2
”⇒”
En este caso tendremos Lv = g(x) con R j v = η j , j = 1, 2. Ahora, sea u(x) tal que Lu = 0
y R j u = 0, j = 1, 2 en caso de que tuviésemos w = v + u entonces se daría que Lw = g(x) con
R j w = η j , j = 1, 2, esto por la linealidad de L. Ahora, como la solución es única se tiene que
w = v ⇒ u = 0.
”⇐”
30 Capítulo 3. Problemas de valores frontera (PVF)
R2 v = η2 = R2 v∗ + AR2 u1 + BR2 u2
este sistema lineal tendrá solución única si, y solo si
R1 u1 R1 u2
̸= 0
R2 u1 R2 u2
Lu(x) = g(x)
en J = [a, b] de la forma
Z b
u(x) = γ(x, ξ )g(ξ ) dξ
a
en caso de existir γ(x, ξ ) se denominará solución fundamental de la ED Lu = 0.
■ Ejemplo 3.1 Con lo expuesto anteriormente se propone hallar u(x) para la ED
donde
(x − ξ )+ = x − ξ
si a ≤ ξ ≤ x y será nula en otro caso. Esta función será valdrá x − ξ en Q1 y 0 en Q2 :
■
3.1 Soluciones fundamentales y función de Green 31
1. γ(x, ξ ) ∈ C (Q)
4. γx (x+ , x) − γx (x− , x) = 1
p(x) , ∀x ∈ (a, b) (el salto en la intersección de Q1 y Q2 es de 1/p(x))
Teorema 3.1.1 Bajo las hipótesis anteriores si γ(x, ξ ) es solución fundamental de la ED homo-
génea entonces
Z b
v(x) = γ(x, ξ )g(ξ ) dξ ∈ C 2 (J)
a
y verifica que Lv(x) = g(x) (es solución de la ED no homogénea).
entonces existe v′ (x) puesto que cada integrando es continuo y derivable. De este modo tendremos
Z x Z b
v′ (x) = γx (x, ξ )g(ξ ) dξ −
γx (x, ξ )g(ξ ) dξ +
γ(x, +
x)g(x) x)g(x)
γ(x,
a x
Si pensamos en el gráfico de Q tendremos que la primera integral actúa en Q1 (el segmento
verde) y la segunda en Q2 (el segmento azul):
Como sabemos que γx es continua entonces γx (x, x− ) = γx (x+ , x) y γx (x, x+ ) = γx (x− , x) y también
se da que g es continua esto es g(x− ) = g(x+ ) por lo tanto
Z x Z b
′′
γxx (x, ξ )g(ξ ) dξ + g(x) γx (x+ , x) − γx (x− , x) =
v (x) = γxx (x, ξ )g(ξ ) dξ +
a x
32 Capítulo 3. Problemas de valores frontera (PVF)
Z x Z b
g(x)
= γxx (x, ξ )g(ξ ) dξ + γxx (x, ξ )g(ξ ) dξ +
a x p(x)
Veamos ahora que Lv(x) = g(x), recordemos que en general Lz = pz′′ + p′ z′ + qz entonces
Z x Z b
g(x)
Lv(x) = Lγ(x, ξ )g(ξ ) dξ + Lγ(x, ξ )g(ξ ) dξ + p(x)
a x p(x)
pero Lγ(x, ξ ) = 0 en Q1 y Q2 por ser γ solución fundamental y precisamente en la primera integral
nos movemos en Q1 y en la segunda en Q2 por tanto Lv(x) = g(x) ■
Lu1 = 0
k es una constante no nula obtenida como k = p(x)(u1 (x)u′2 (x) − u′1 (x)u2 (x))
Además
R1 u˜1 = 0 R1 u˜2 = 1
̸= 0
R1 u˜2 = 1 R2 u˜2 = 0
Ahora veamos que k(x) es una constante no nula.
Se verifica que
u1 Lu2 − u2 Lu1 = k′ (x)
Como u1 y u2 son soluciones entonces k′ (x) = 0 esto es k(x) ≡ k cte. Comprobemos ahora que no
es nula. En caso de que k = 0 entonces
p=0 Absurdo
′ ′
u1 u2 − u1 u2 = 0 Absurdo
Supongamos que hay dos funciones de Green G(x, ξ ) y G̃(x, ξ ) entonces se dará que existen
v(x) y ṽ(x) tales que
Z b
v(x) = G(x, ξ )g(ξ ) dξ
a
Z b
ṽ(x) = G̃(x, ξ )g̃(ξ ) dξ
a
34 Capítulo 3. Problemas de valores frontera (PVF)
Demostración. ” ⇒ ”
”⇐”
u′′ = f (x, u)
con CF u(0) = u(1) = 0 siendo J = [0, 1] con f ∈ CK (J × R)a si K < π 2 entonces existe solución
u(x) única.
af ∈ CK implica que f es Lipschitz de constante K.
Consideremos el conjunto
Proponemos la norma
|v(x)|
∥v∥∗ = sup <∞
x∈Int(J) sin πx
1. Comprobemos que
K
∥Tu − T v∥∗ ≤ ∥u − v∥∗
π2
para cualesquiera u, v ∈ B∗ , esto implicaría que
K
∥Tu∥∗ ≤ ∥u∥∗ ⇒ Tu ∈ B∗
π2
entonces
Z 1 Z 1
|Tu − T v| = G(x, ξ )[ f (ξ , u(ξ )) − f (ξ , v(ξ ))] dξ ≤ |G(x, ξ )| · K · |u(ξ ) − v(ξ )| dξ ≤
0 0
Z 1 Z 1
∗
≤ |G(c, ξ )| · K · ∥u − v∥ sin πξ dξ ≤ |G(x, ξ )| sin πξ dξ · K · ∥u − v∥∗
0 0
(esto porque para los valores (x, ξ ) tomados la función de Green es negativa) y que resolver esta
integral equivale a resolver el problema
u′′ = − sin πx
sin πx
con u(0) = u(1) = 0 cuya solución es u(x) = π2
de este modo
1
Z
K
|Tu − T v| ≤ |G(x, ξ )| sin πξ dξ · K · ∥u − v∥∗ ≤ ∥u − v∥∗ sin πx
0 π2
entonces
|Tu − T v| K
≤ 2 ∥u − v∥∗ , ∀x ∈ (0, 1)
sin πx π
tomando supremo se concluye que
|Tu − T v| K
∥Tu − T v∥∗ = sup ≤ 2 ∥u − v∥∗
x∈Int(J) sin πx π
Además, se puede mostrar que no es posible superar la cota π 2 , para ello sería necesario ver
que el problema
u′′ = −π 2 u
admite solución u(x) = C sin πx, pero que el problema u′′ = −π 2 u + 1 no tiene solución, ambos
con CF u(0) = u(1) = 0. ■
3.4 Problemas de autovalores del tipo Sturm-Lioville 37
Lu + λ r(x)u(x) = 0
y sus CF son
R1 u ≡ α1 u(a) + α2 p(a)u′ (a) = 0
En este caso trataremos de buscar soluciones no triviales, lo que dependerá de λ (el autovalor).
Además, por cada λ existirá una función u(x) ̸≡ 0 (la autofunción) así pues al par
{λ , u(x)}
se le denominará autopar.
Teorema 3.4.1 Dado un problema de autovalores, asumiendo que {λ , u(x)} y {µ, v(x)} son
dos autopares distintos, entonces
1. (λ − µ) ab u(x)v(x)r(x) dx = 0.
R
Demostración. 1. Como
Lu = −λ ru
y
Lv = −µrv
se dará que
Z b Z b
(uLv − vLu) dx = (λ − µ) uvr dx
a a
sabemos que se anula porque las autofunciones cumplen las CF. Por tanto concluye la prueba.
2. Dado el par {λ , u} se tendrá que el conjugado de λ y de u también es un autopar, de modo
que aplicando 1. se da
Z b
(λ − λ ) uur, dx = 0
a
3. Supongamos que λ tiene asociadas dos autofunciones u y v. Como sabemos las autofunciones
u y v verifican las CF por tanto se tendrá el sistema
u(a) u′ (a)
α1 0
′ =
v(a) v (a) α2 p 0
Recordemos que nos interesan soluciones no triviales. Como α1 y α2 no pueden ser nulas a
la vez se debe de dar que
u(a) u′ (a)
=0
v(a) v′ (a)
Pero entonces, el Wronskiano W (u(a), v(a)) = 0 esto implica que W (u(x), v(x)) = 0 esto
es u y v no serían linealmente independientes.
■
4. Transformación de Prüffer
Lu = 0
en coordenadas polares tomando ξ = pu′ y η = u ̸≡ 0 de modo que (ξ , η) ̸= (0, 0). Así que en
polares se tendrá
ξ = ρ(x) cos ϕ(x)
η = ρ(x) sin ϕ(x)
Ahora nos interesa obtener expresiones en función de ρ(x) y ϕ(x). De este modo derivando las
expresiones anteriores de ξ y η se tendrá
′
ξ = ρ ′ cos ϕ − ρ sin ϕϕ ′
η ′ = ρ ′ sin ϕ + ρ cos ϕϕ ′
Ahora multiplicando en la primera ecuación por − sin ϕ y en la segunda por cos ϕ y sumando,
tras operar llegaremos a que
1
ϕ ′ = cos2 ϕ + q sin2 ϕ
p
De forma similar multiplicando por cos ϕ la primera y la segunda por sin ϕ y sumando se tendrá
que
′ 1 ϕ
ρ = − q sin ρ
p 2
Teorema 4.0.1 — Lema. Sean y′ = f (x, y) con y(a) = α y z′ = g(x, z) con z(a) = β supongamos
que f , g ∈ CL (Ω) siendo Ω = J × [A, B]. Si se cumple que
1. A < α ≤ β < B
2. f (x, y) ≤ g(x, y), ∀(x, y) ∈ Ω
3. A < y(x), z(x) < B
40 Capítulo 4. Transformación de Prüffer
Demostración. Considetemos z′ε = g(x, zε (x)) + ε con zε (a) = β entonces zε (x) ∈ [A, B] para todo
ε ∈ [0, ε0 ] (por continuidad). Supongamos por reducción al absurdo que dado un 0 < ε ≤ ε0 se da
que
y(xε ) > zε (xε )
entonces sea
xε∗ = ı́nf {d(x) = y(x) − zε (x) > 0}
x∈J
(El conjunto dado está acotado inferiormente por a y es no vacío, por tanto existe ínfimo). Entonces
se da que d(xε ) = y(xε ) − zε (xε ) = 0 pues
Pero esto es una contradicción, pues tenemos que la derivada en negativa, pero a la derecha de
xε tan cerca como se quiera hay valores mayores que cero, entonces
dados (
ϕ ′ = 1p cos2 ϕ + q sin2 ϕ (1)
ϕ̂ ′ = 1p̂ cos2 ϕ̂ + q̂ sin2 ϕ̂ (2)
Demostración. Veamos 1.
Demostración. Veamos 1. Por Reducción al absurdo supongamos que hay infinitos ceros en J,
entonces existe {xk }∞ ∗
k=1 ⊆ J verificando que lı́mk→∞ xk = x ∈ J y u(xk ) = 0 entonces se tendrá que
u(x ) = 0. Ahora, para un valor medio θk ∈ (xk , xk+1 ) tal que u′ (θk ) = 0 se dará que u′ (x∗ ) = 0.
∗
Demostración. Sean a ≤ α < β ≤ b (podemos hacerlo porque los ceros son finitos) dos ceros
consecutivos de u(x) en J. Afirmo v(α) ̸= 0 ̸= v(β ) si no fuera así por el lema anterior serían
linealmente dependientes, absurdo. Ahora consideremos que u(x) > 0 (si no tomamos −u(x)) en
(α, β ).
Por cómo está definida la derivada de ϕ vemos que esta será positiva en (α, β ), por lo que ϕ
será creciente en dicho intervalo, así pues para u se tendrá que
ϕu (α) = 0 ∧ ϕu (β ) = π
y para v se verificará que
0 ⪇ ϕv (α) ⪇ π
(las desigualdades son estríctas porque v(α) ̸= 0, además se considera entre 0 y π porque en caso
contrario tomamos −v). Ahora por el lema 12 apartado 1. se dará que ϕv (β ) > π y por tanto
∃c ∈ (α, β ) : ϕv (c) = π ⇒ v(c) = 0
■
42 Capítulo 4. Transformación de Prüffer
∀u ̸≡ 0
p0 u′′ + qu = 0
Dado el problema
Lu + λ ru = 0
y todas las hipótesis pertinentes se tendrá la condición inicial
ϕ(a, λ ) = α, α ∈ (0, π]
y la condición final
ϕ(b, λ ) = β , β ∈ [0, π]
4.1 El problema de autovalores 43
además de que
lı́m λn = ∞
n→∞
cn2 ≤ λn ≤ Cn2 , ∀n ≥ n0
Elevando al cuadrado:
d 2 λn ≤ (β + nπ)2 ≤ D2 λn , λ ≤ λ ∗
Por lo que
λn ≤ Cn2
Análogamente se tendrá que
n2 π 2
λn > > cn2
D2
44 Capítulo 4. Transformación de Prüffer
Ahora consideremos una sucesión (estrictamente creciente) {x j }nj=1 de ceros de un (x) en (a, b)
y una sucesión {z j }n+1
j=1 de ceros de un+1 (x) en (a, b). Por Sturm-Picone se tendrá que
ϕ(a, λn ) = α
ϕ(a, λn+1 ) = α
ϕ(x1 , λn ) = π ⪇ ϕ(x1 , λn+1 )
Lema 14
por tanto existe un z1 ∈ (a, x1 ) tal que ϕ(z1 , λn+1 ) = π de forma que u(z1 ) = 0 análogamente
para el resto. ■
Lλ u = g(x)
"⇒"
Z b Z b Z b Z b
v(x)g(x) dx = vLλ u dx = vLλ u − uLλ v dx = (p(x)(vu′ − uv′ ))′ dx = 0
a a a a
Sabemos que esta integral es nula porque u y v cumples las CF.
"⇐"
Lλ u = g(x) tal que R1 u = 0 ≡ α1 u(a) + α2 p(a)u′ (a) = 0 y u′ (a) = v′ (a) verificando además que
α2 ̸= 0 ̸= β2 . Queremos ver ahora que u es no trivial y que se verifica R2 u = 0:
donde φ (x) = (p(vu′ − uv′ ))′ entonces φ (b) = 0. Ahora escribiendo las CFs R2 u y R2 v si multipli-
camos por −v(b) y u(b) respectivamente y sumamos llegaremos a la expresión
u(b)R2 v − v(b)R2 u
7 Métodos de Adams . . . . . . . . . . . . . . . . . 60
7.1 Métodos de Adams-Bashford (explícitos, ABK )
7.2 Métodos de Adams-Moulton (implícitos, AMK )
8 Métodos BDF . . . . . . . . . . . . . . . . . . . . . . . . 65
8.1 Cálculo del error
9 Métodos predictor-corrector . . . . . . . . . 67
Dado el PVI
y = f (t, y)
y, f (t, y) ∈ R
y(a) = y0
t ∈ I = [a, b]
podemos considerar una cierta malla de I (una partición) que constará de N pasos (divisiones)
cada paso será denotado como
tn = a + nh (n = 1, . . . , N)
siendo h = b−a
N el tamaño (fijo) del paso dado. De esta forma en cada paso se obtiene una aproxi-
mación a la solución
y1 y4 yN
y2 y3 y5 yn yn+1
h h h h ··· h ···
t1 t2 t3 t4 t5 ··· tn tn+1 · · · tN = b
Nota 5.1. A efectos de notación diremos que yn es la solución numérica del problema.
48 Capítulo 5. Métodos a paso fijo
f (t, y) ∈ CL (Ω)
uniformemente en t.
Y2 2
∥EL(t, h)∥ ≤ h
2
con Y2 = máx{∥y′′ (t)∥; t ∈ I}.
∥y(t) − yh (t)∥ ≤ C · h, (h → 0)
yn+1 = yn + h fn , n = 0, 1, 2, . . . , N − 1
5.2 Método de Taylor 49
El error será
εn := ∥ŷn − yn ∥
de modo que para el paso n + 1 se tiene
εn+1 ≤ (1 + hL)2 εn−1 + l(1 + (1 + hL)) ≤ (1 + hL)3 εn−2 + l(1 + (1 + hL) + (1 + hL)2 )
(1 + hL)n+1 − 1
εn+1 ≤ (1 + hL)n+1 ε0 + l(1 + (1 + hL) + · · · + (1 + hL)n ) = l + (1 + hL)n+1 ε0
1 + hL − 1
esto porque tenemos una progresión geométrica de razón 1 + hL. Si seguimos desarrollando:
eL(tn+1 −a) − 1 Y2
εn+1 ≤ h
L 2
■
Yp+1 p+1
∥EL(t, h)∥ = ∥y(t + h) − yTp (t + h; t, y(t))∥ ≤ h
(p + 1)!
50 Capítulo 5. Métodos a paso fijo
p
Teorema 5.2.2 — Convergencia método de Taylor. Si f ∈ CL (Ω), entonces
Para simplificar, como los coeficiente ai j determinan una matriz (A) y los bi un vector (b)
haremos referencia a un método Runge-Kutta como
RK(A, b)
Por otro lado, serán de gran utilidad las tablas de Butcher, estas almacenan la información de
los métodos de forma concisa y eficiente. Se construyen de la siguiente forma:
donde los ci = ∑sj=1 ai j (1 ≤ i ≤ s). Para los métodos explícitos la matriz A será siempre
triangular inferior (superior) estrícta. Seguiremos trbajando con estas tablas más adelante, ahora
veamos algunos métodos de tipo Runge-Kutta.
Ahora aplicando la regla del punto medio para integrales se tiene que
h3 ′′′
Z tn +h
′ ′ h h h
y(tn +h)−y(tn ) = y (t) dt = h·y tn + − y (tn +θ h) = h f tn + , y tn + +o(h3 )
tn 2 24 2 2
h
y(tn + h) − y(tn ) = h f tn + , z + o(h3 )
2
Donde
K2 = f (tn + h/2, yn + h · K1 /2)
K1 = f (tn , yn )
El error local en este caso es de orden 3, por lo que el método es de orden 2.
h
yn+1 = yn + [K1 + K2 ]
2
Donde
K2 = f (tn + h, yn + h · K1 )
K1 = f (tn , yn )
Existen otro métodos como el de Euler de orden 3 o el de Kutta y todos tienen asociada una
tabla de Butcher que debemos conocer, a continuación se exponen las tablas de Butcher de algunos
métodos clásicos bastante populares:
Método de Euler clásico:
0
1
Método de Euler implícito:
1 1
1
Método de Runge:
0
1/2 1/2
0 1
Regla trapezoidal (explícita, o método de Heun de orden 2):
0
1 1 0
1/2 1/2
52 Capítulo 5. Métodos a paso fijo
Orden Condición
1 bT 1 = 1
2 bT c = 1/2
3 bT c2 = 1/3
bT Ac = 1/6
bT c3 = 1/4
4 bT (c ∗ (Ac)) = 1/8
bT Ac2 = 1/12
bT A2 c = 1/24
Para que un método sea de orden p primero debe de verificar las condiciones de orden para
valores menor que p.
1 2 3 4
Definición 5.6.3 Se tienen además otras dos funciones para un árbol: γ y φ definidas como
sigue
γ(τ) = ρ(τ)γ(τ1 )γ(τ2 ) · · · γ(τn )
φ (τ) = (Aφ (τ1 )) ∗ (Aφ (τ2 )) ∗ · · · ∗ (Aφ (τn ))
con el convenio de que γ(τ0 ) = 1 y φ (τ0 ) = 1, donde τ0 hace referencia al último hijo.
Teorema 5.6.1 — de Butcher. El orden de un método es p si, y solo si su árbol asociado verifica
que
1
bT φ (τ) = , ∀ρ(τ) ≤ p
γ(τ)
Nota 5.2. Para el cálculo de φ podemos entender cada rama como un producto de A, cada salto
de rama como un producto de Hadamar y cada final de rama como un vector de unos.
f (v) : Rm → Rm
v(t) → f (v(t))
Se tendrá que
fi′ (v)[u1 ] = w ∈ Rm
donde las componentes de w son
∂ fi (v) 1
wi = ∑ u
j ∂xj j
en general se tendrá
m
(p) ∂ p fi (v)
fi (v)[u1 , u2 , . . . , u p ] = ∑ u1j1 u2j2 . . . u pjp
j1 ,..., j p =1 ∂ x j1 ∂ x j2 . . . ∂ x j p
y′ = f (y)
y(t0 ) = y0
54 Capítulo 5. Métodos a paso fijo
Si la solución es
∞
y(l) (t0 ) l
y(t0 + h) = y0 + ∑ h
l=1 l!
Derivando se tendrá que
y′ = f (y)
y′′ = f ′ (y)[y′ ] = f ′ (y)[ f (y)]
y′′′ = f ′′ (y)[y′ , y′ ] + f ′ (y)[y′′ ]
y(4) = f ′′′ (y)[y′ , y′ , y′ ] + 3 f ′′ (y)[y′ , y′′ ] + f ′ (y)[y′′′ ]
y′ = f 0
y′′ = f ′ [ f ]0
y′′′ = f ′′ [ f , f ]0 + f ′ [ f ′ [ f ]]0
..
.
Si
(l)
yRK (t0 )hl
yRK (t0 + h) ≡ y1 = y0 + ∑
l≥1 l!
Deduzcamos las condiciones de orden, para ello calcularemos las derivadas del método y las
igualaremos a las derivadas exactas calculadas anteriormente.
s
y1 (h) = y0 + h ∑ bi Ki (h)
i=1
con
s
Ki = f (y0 + h ∑ ai j K j )
j=1
entonces
y1 (0) = y0
y′1 (h) = ∑si=1 bi Ki (h) + h ∑si=1 bi Ki′ (h)
Por tanto se tendrá que
ahora la derivada de Ki es
!" #
s s s
Ki′ =f ′
y0 + h ∑ ai j K j ∑ ai j K j + h ∑ b j K ′j (h)
j=1 j=1 j=1
Entonces !
s
y′′1 (0) =2 ∑ bi ci f ′ [ f ]0
i=1
y′′′ s ′′′ s ′′
1 (h) = h ∑i=1 bi Ki (h) + 3 ∑i=1 bi Ki (h)
y′′′ s ′′
1 (0) = 3 ∑i=1 bi Ki (h)
s
= c2i f ′′ [ f , f ]0 + 2 ∑ ai j c j · f ′ [ f ′ [ f ]]0
j=1
Esto es
1
∑si=1 bi c2i = 3
1
∑si=1 ∑sj=1 ai j c j = 6
6. Estabilidad de métodos Runge-Kutta
y′ = Jy
con J ∈ Mn (R) (cte). en esta ocasión antenderemos a los autovalores de J que tengan parte real
menor o igual que cero (para garantizar la estabilidad del método) este será el conjunto
σ (J) = {λ j ∈ C : Jv j = λ j v j , v j ̸= 0 ∧ Re λ j ≤ 0}
DRK = {z ∈ C : |R(z)| ≤ 1}
Normalmente DRK ⊆ C−
0 = {z : Re z ≤ 0}.
Para elegir el paso h para un cierto método debemos asegurarnos de que h · λ j ∈ DRK (∀ j =
1, . . . m), en caso contrario el método no integrará la solución correcta.
Si J = SΛS−1 con Λ diagonal (también se puede ver para formas de Jordan) se tendrá el
problema
yn+1 = R(hJ)yn
con f (J) = ∑∞ l l −1 = S f (Λ)S−1 además la serie matricial converge siempre que
l=0 cl J = S ∑l cl Λ · S
el radio espectral sea menor que r (ρ(J) ⪇ r).
yn+1 = SR(hΛ)S−1 yn
57
Ahora, para obtener la función de estabilidad debemos hacer uso del Test de Dahlquist:
y′ = λ y
con λ ∈ C−
0 y z = hλ . Donde se tiene que
s
Ki = f (tn + ci h, yn + h ∑ ai j K j ) (1 ≤ i ≤ s)
j=1
n
yn+1 = yn + h ∑ bi Ki
i=1
yn+1 = yn + hbT K
donde
K = λ 1yn + zAK
Ahora despejando K se tiene lo que sigue
K = λ (I − zA)−1 1yn
yi
W (α)
α
x
−α
58 Capítulo 6. Estabilidad de métodos Runge-Kutta
Definición 6.0.6 El intervalo de estabilidad absoluta lineal (IEA) se define como DRK ∩ R.
yn+1
Demostración. Puesto que R(z) = yn con y′ = λ y y(tn ) = yn ; z = hλ
Y sabiendo que
(I − zA)K = λ 1yn
Dr
x
r
Dr = {z : Re z ≤ 0, |z| ≤ r}
”⇐”
Puesto que R(z) es analítica en Dr (∀r > 0) por el principio del módulo máximo se dará que
máx ∥R(z)∥ = máx{máx |R(yi)|, máx |R(z)|} = M
z∈Dr |y|≤r |z|=r∧Rez≤0
Si r → ∞ entonces
Ahora si |R(z)| ≤ 1 entonces en el eje imaginario también se tendrá que sea menor que uno. ■
7. Métodos de Adams
y′ = f (t, y)
con y(a) = y0 . Pero en este caso en lugar de aproximar la integral de tn a tn+1 mediante propiedades
(como la regla del punto medio o la trapezoidal) lo haremos interpolando polinómicamente la
derivada
y′ (t)
así pues
Z tn+1 Z tn+1
′
y(tn+1 ) − y(tn ) = y (t) dt ≈ pk−1 (t; y′ (t)) dt
tn tn
Nota 7.1. Recordemos que el polinomio interpolador de g(t) en {t0 , . . . ,tr } (r + 1 puntos) se puede
dar como
r
p(t) = ∑ L j (t) · g(t j )
j=0
∏rj=0 (t − t j )
L j (t) = j+1
(t − t j ) ∏i=0 (t j − ti )
donde
∇0 g0 = g0
∇1 g0 = g0 − g−1 = ∆g−1
∇2 g0 = ∇(∇g0 ) = g0 − 2g−1 + g−2 = ∆2 g−1
..
.
j
∇ j g0 = ∑l=0 (−1)l lj g−l
g(r+1 (tθ ) r
g(t0 + sh) − pr (t) = (t − t− j )
(r + 1)! ∏j=0
donde tθ es un punto intermedio. Ahora como t = t0 +sh y t− j = t0 − jh se dará que t −t− j = h(s+ j)
por tanto
donde γ j = (−1) j 01 −sj ds (como vemos no depende del número de pasos k). Así los métodos de
R
Aunque también podemos dar una forma para el método como la que sigue
k−1
y1 − y0 = h ∑ βk, j f− j
j=0
donde debemos hallar los βk, j (en este caso si dependerán de k). Veamos el proceso:
Como ∇ j g0 = ∑ jj=0 (−1)l lj gl entonces se tendrá que
k−1 k−1 j
j j l
y1 − y0 = h ∑ γ j ∇ f0 = h ∑ γ j ∑ (−1) f−l
j=0 j=0 l=0 l
Ahora podemos decir que j va de l = 0 hasta l = k − 1 porque pra los l > j el número
combinatorio será cero, así pues
62 Capítulo 7. Métodos de Adams
k−1 k−1
j l
y1 − y0 = h ∑ γ j ∑ (−1) f−1 =
j=0 l=0 l
!
k−1 k−1
j
= h ∑ (−1)l ∑ γ j f−l
l=0 j=0 l
Ahora podemos hacer que j comience en l por lo que tenemos
k−1
y1 − y0 = h ∑ βk,l f−l
l=0
j
(−1)l ∑k−1
donde βk,l = j=l γ j l . En general se dará que
k−1
yn+1 − yn = h ∑ βk, j fn− j
j=0
j 0 1 2 3 4 5
γj 1 1/2 5/12 3/8 251/720 96/288
" # " #
K K K K K K
j l j j
y(tn+1 )−y(tn ) = h ∑ γ̃ j ∑ (−1) fn+1−l = h ∑ (−1)l l
∑ γ̃ j l fn+1−l = h ∑ (−1) ∑ γ̃ j l fn+1−l
j=0 l=0 l l=0 j=0 l=0 j=l
j 0 1 2 3 4 5
γ̃ j 1 -1/2 -1/12 -1/24 -19/720 -3/160
K Z tn+1
′
ET L(tn , h) = y(tn+1 ) − y(tn ) − h ∑ β̃k, j y (tn+1− j ) = (y′ (t) − pK (t; y′ )) dt
j=0 tn
Los métodos BDFK (Backward Differentiation Formulae de orden K) nos servirán para integrar
problemas de tipo stiff relacionados con la súper-estabilidad. La diferencia entre estos métodos
y los anteriores es que para la obtención de los BDF no haremos uno de integrales, en su defecto
estos métodos se deducen imponiendo las siguientes condiciones:
p(tn− j ) = yn− j
Por lo tanto
K
1
fn+1 = p′K (tn+1 ) = h−1 ∑ ∇ j yn+1
j=1 j
66 Capítulo 8. Métodos BDF
K
EDLK (t, h) = ∑ αK, j y(tn+1− j ) − hy′ (tn+1 ) = h(p′ (tn+1 ) − y′ (tn+1 )) = h(p(t) − y(t))′ t=t
n+1
j=0
∂q
Como sabemos que ∂t = h−1 se tendrá que
1
EDLK (t, h) = −hK+1 y(K+1 (t ∗ )
K +1
Nota 8.1. Si tenemos K valores buenos y en cada computación tengo un polinomio de grado menor
que K + 1 entonces la integración es exacta. Si no, tengo un error de grado K + 1.
9. Métodos predictor-corrector
Estos métodos son útiles para resolver problemas mediante métodos implícitos.
Estos métodos consisten en una primera implementación con un método (normalmente explíci-
to) que hará las veces de predictor (P); a continuación se evalúa (E) la f en el valor de yn obtenido
en el predictor y, por último se corrige haciendo uso de otro método (normalmente implícito) que
hará las veces de corrector (C).
Hay distintas formas de implementar el método las más comunes son PEC, PECE o P(EC)2 .
En caso de que nos sean necesarios valores de y j anteriores a los que tenemos podemos usar
métodos Runge-Kutta para su obtención.
10. Métodos lineales multipaso (MLM)
En esta sección generalizaremos los métodos anteriores. La forma general de un MLMK será
K K
∑ α j yn+ j = h ∑ β j fn+ j
j=0 j=0
verificando que
αk ̸= 0
α02 + β02 > 0, α j , β j ∈ R
ρ(E)yn = hσ (E) fn , n = 0, 1, 2 . . .
Definición 10.0.1 Diremos que un MLM(ρ, sigma) es irreducible si, y solo si mcd(ρ, σ ) = 1.
10.1 Error
K K ∞
hl
EDL(tn , h) = ∑ α j y(tn + jh) − h ∑ β j y′ (tn + jh) (∗)
= ∑ c j y(l (tn )
l!
j=0 j=0 l=0
(∗) Si es analítica.
10.1 Error 69
c0 = ∑Kj=0 α j
c1 = ∑Kj=0 jα j − ∑Kj=0 β j
cl = ∑Kj=1 jl α j − l ∑Kj=1 jl−1 β j (l ≥ 2)
Realmente se puede emplear la expresión
K K
cl = ∑ jl α j − l ∑ jl−1 β j (l ≥ 0)
j=0 j=0
Definición 10.1.1 Se dirá que un MLM(ρ, σ ) es 0-estable, si, y solo si es estable para f ≡ 0
Nota 10.1. Los métodos de Adams y los BDFK hasta K = 6 cumplen el teorema anterior.