AED2425
AED2425
to.
ED
AN
,U
niv
ers
ida
dd
eS
ev
1
illa
Li
ce
ncia
Cr
ea
tive
Co
mm
on
sA
tri
DIFERENCIALES
bu
ció
n -N
oC
om
erc
i al-
Co
m pa
rtir
Igu
al
AMPLIACIÓN DE ECUACIONES
4.0
In
ter
na
cio
n al.
2
Dp
to.
ED
AN
,U
niv
ers
ida
dd
eS
ev
illa
Li
ce
ncia
Cr
ea
tive
Co
mm
on
sA
tri
bu
ció
n -N
oC
om
erc
i al-
m
Co
i al-
erc
om
oC
1. Estabilidad de Sistemas Lineales-Perturbados 5
-N
n
1.1. Introducción. Repaso de resultados conocidos . . . . . . . . . . . . . . . . . . . . . . 5
ció
bu
1.2. Motivación del estudio de la estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . 9
tri
1.3. Conceptos de estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
sA
1.4. Estabilidad de sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
on
1.5. Aplicación al caso de sistemas lineales de coeficientes constantes . . . . . . . . . . . 23
mm
1.6. Estabilidad de perturbaciones de sistemas lineales . . . . . . . . . . . . . . . . . . . . 24
Co
1.7. Comentarios bibliográficos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
ive
t
ea
2. El Segundo Método de Liapunov 29
Cr
3.4. El caso N = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.5. El caso particular de sistemas planos. El Teorema de Poincaré-Bendixson . . . . . . 64
da
4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2. Derivabilidad de las soluciones respecto de condiciones iniciales y parámetros . . . . 71
niv
4.5. Problema de Cauchy para una EDP no lineal de primer orden general. . . . . . . . . 91
AN
ED
to.
Dp
3
4
Dp
to.
ED
AN
,U
niv
ers
ida
dd
eS
ev
illa
Li
ce
ncia
Cr
ea
tive
Co
mm
on
sA
tri
bu
ció
n -N
oC
om
erc
i al-
cio
n al.
al.
n
cio
na
ter
In
4.0
al
Igu
r tir
Capı́tulo 1
pa
m
Co
al-
i
erc
Estabilidad de Sistemas Lineales y
om
oC
-N
Sistemas Lineales Perturbados
n
ció
bu
tri
sA
on
Este capı́tulo es el primero dentro del bloque dedicado al estudio de la estabilidad de ecuaciones
mm
o sistemas diferenciales ordinarios. En concreto, dedicaremos este primer capı́tulo al estudio de la
Co
estabilidad de las ecuaciones y sistemas más sencillos: los sistemas lineales y los sistemas lineales
ive
perturbados.
t
ea
Cr
cia
módulo Ecuaciones Diferenciales que se imparte en el primer cuatrimestre del tercer curso del
Grado en Matemáticas. Consta de 6 créditos ECTS de los cuales, 4’5 son teóricos y 1’5 prácti-
ev
cos. Se trata de una continuación del estudio de la teorı́a de Ecuaciones Diferenciales Ordinarias
(E.D.O.) comenzado en la asignatura también denominada Ecuaciones Diferenciales Ordina-
eS
rias. Esta última asignatura es impartida en el segundo cuatrimestre del segundo curso del Grado
en Matemáticas. Ambas asignaturas constituyen el módulo Ecuaciones Diferenciales del citado
dd
Grado.
Comenzaremos recordando algunos conceptos estudiados en la asignatura Ecuaciones Dife-
da
Cauchy o Problema de Valores Iniciales para un Sistema Diferencial Ordinario (S.D.O.) de primer
ers
(
y 0 = f (t, y),
(P C)
y(t0 ) = y0 ,
,U
sistema),
f : (t, y) ∈ Ω 7−→ f (t, y) ∈ RN ,
ED
es una función que satisface f ∈ C 0 (Ω; RN )∩Liploc (y, Ω) y (t0 , y0 ) ∈ Ω. Recordemos que Liploc (y, Ω)
es el espacio de funciones definidas de Ω en RN que son localmente lipschitzianas respecto de la
variable y en Ω. Es decir, son las funciones f : Ω → RN que satisfacen: para cualquier (t0 , y0 ) ∈ Ω
to.
5
al.
ion
6 1.1. Introducción. Repaso de resultados conocidos
c
na
t er
In
En la asignatura de Ecuaciones Diferenciales Ordinarias se estudió:
4.0
1. Algunos métodos elementales de integración de E.D.O.
al
Igu
2. Resultados de existencia y de unicidad de solución local del Problema de Cauchy (PC).
tir
r
Como resultado importante, se estudió el Teorema de Picard (que proporciona el resultado
pa
om
de existencia y unicidad de solución local). En la prueba de este resultado se utilizó el Teorema
l-C
de Banach del Punto Fijo, otro de los resultados importantes de la citada asignatura.
a
rci
me
3. Resultados de existencia y unicidad de solución global o solución maximal ϕ(·; t0 , y0 ) del
Co
Problema de Cauchy definida en el intervalo I(t0 , y0 ) (intervalo de definición de la solución
No
maximal). En particular, la unicidad de solución global de (PC) fue obtenida como conse-
n-
cuencia del Lema de Gronwall.
ció
u
rib
4. Criterios de prolongabilidad de soluciones y caracterización de soluciones maximales.
At
ns
5. Ecuaciones y sistemas lineales.
m mo
En esta primera sección recordaremos de manera más precisa algunos resultados conocidos sobre
Co
el problema de Cauchy o problema de valores iniciales para un sistema diferencial ordinario. En este
e
tiv
capı́tulo y en los dos siguientes utilizaremos la variable t (en lugar de x) para designar la variable
ea
independiente del sistema. Cr
cia
(
y 0 = f (t, y)
(1.1)
ev
y(t0 ) = y0 .
eS
(iii) ϕ(t0 ) = y0 .
niv
Entonces, para cada (t0 , y0 ) ∈ Ω, existe δ > 0 tal que el problema de valores iniciales (1.1) tiene
ED
contrario, esta será la norma utilizada en RN . Es bien conocido que en RN todas las normas son equivalentes. Por
tanto, los conceptos desarrollados en esta asignatura no dependen de la norma elegida.
n
cio
na
Teorema 1.1.2 (de unicidad global). En las condiciones anteriores, supongamos que
ter
In
f ∈ C 0 (Ω; RN ) ∩ Liploc (y; Ω),
4.0
al
Igu
y (t0 , y0 ) ∈ Ω. Sean (I1 , ϕ1 ) e (I2 , ϕ2 ) dos soluciones del problema de Cauchy (1.1). Entonces,
r tir
pa
ϕ1 (t) = ϕ2 (t), ∀t ∈ I1 ∩ I2 .
m
Co
al-
Antes de enunciar el resultado de existencia de solución maximal, recordemos ciertos conceptos
i
erc
que utilizaremos en este curso. Para cada (t0 , y0 ) ∈ Ω, denotaremos
om
oC
S(t0 , y0 ) = {(I, ϕ) : ϕ es solución del problema de Cauchy (1.1) en I}.
-N
n
ció
El Teorema de Picard en particular implica que S(t0 , y0 ) 6= ∅.
bu
tri
Definición 1.1.3. Consideremos (t0 , y0 ) ∈ Ω e (I, ϕ) ∈ S(t0 , y0 ).
sA
on
(a) Diremos que la solución (I, ϕ) de (1.1) es prolongable por la derecha, si existe una solución
mm
(J, ψ) ∈ S(t0 , y0 ) tal que I ⊂ J y sup I ∈ int (J).
Co
ive
(b) Diremos que (I, ϕ) es prolongable por la izquierda, si existe una solución (J, ψ) ∈ S(t0 , y0 ) tal
t
ea
que I ⊂ J e ı́nf I ∈ int (J).
Cr
cia
(c) Diremos que (I, ϕ) es prolongable, si es prolongable por la derecha o por la izquierda (o ambas
n
ce
cosas a la vez).
Li
illa
(d) Finalmente, diremos que (I, ϕ) es una solución maximal, o una solución global, del problema
de Cauchy (1.1) si (I, ϕ) no es prolongable.
ev
Observación 1.1.4. Si (I, ϕ) es una solución del problema de Cauchy (1.1) prolongable por la
eS
derecha, y si (J, ψ) ∈ S(t0 , y0 ) es tal que I ⊂ J y sup I ∈ int (J), entonces, como consecuencia del
Teorema 1.1.2 (teorema de unicidad global), se tiene que ϕ y ψ coinciden en la intersección de los
dd
izquierda.
i
ers
tiene:
Teorema 1.1.5. Supongamos que f ∈ C 0 (Ω; RN )∩Liploc (y; Ω). Sea (t0 , y0 ) ∈ Ω e (I, ϕ) ∈ S(t0 , y0 )
,U
una solución local del problema de Cauchy (1.1). Entonces, son equivalentes:
AN
2. La semitrayectoria derecha
ED
n
cio
na
Teorema 1.1.6 (de existencia y unicidad de solución global). Sean Ω un abierto conexo no
ter
In
vacı́o de RN +1 y f : Ω −→ RN una función tal que
4.0
al
f ∈ C 0 (Ω; RN ) ∩ Liploc (y, Ω).
Igu
tir
Entonces, para cada (t0 , y0 ) ∈ Ω, existe una única solución maximal o global del problema de
r
pa
m
Cauchy (1.1). Además, el intervalo de definición de la solución maximal es abierto.
Co
al-
Observación 1.1.7. Dado (t0 , y0 ) ∈ Ω, utilizaremos la notación (I(t0 , y0 ), ϕ(·; t0 , y0 )) para denotar
i
erc
la única solución maximal del problema de Cauchy (1.1). Del Teorema 1.1.5 podemos deducir cuál es
om
el comportamiento de la solución maximal ϕ(·) ≡ ϕ(·, t0 , y0 ) en los extremos del intervalo I(t0 , y0 ).
oC
Razonando con el extremo superior, se tiene que, o bien que la semitrayectoria positiva τϕ+ es no
-N
n
acotada, o bien dist (τϕ+ , ∂Ω) = 0 (es decir, la semitrayectoria “toca” la frontera de Ω).
ció
bu
tri
La siguiente cuestión que trataremos será la dependencia de la solución maximal de (1.1) res-
sA
pecto de los datos iniciales. Sabemos que la solución maximal ϕ(·; t0 , y0 ) es continua (de hecho,
on
derivable) en el intervalo I(t0 , y0 ) respecto de la variable t. Podrı́amos ver el dato inicial (t0 , y0 )
mm
((t0 , y0 ) ∈ Ω) también como una variable de la que depende la solución maximal. Por tanto, la
Co
pregunta parece natural: ¿Es la solución maximal ϕ(·; ·, ·) continua respecto de t y respecto del
ive
dato inicial (t0 , y0 )?
t
ea
Cr
Este resultado de continuidad de la solución maximal respecto de los datos iniciales no ha sido
cia
Definición 1.1.8. Supongamos que se tienen las hipótesis del Teorema 1.1.6. Ası́, se definen el
conjunto
ev
y la función
ϕ : (t, t0 , y0 ) ∈ Θ ⊆ RN +2 7→ ϕ(t; t0 , y0 ) ∈ RN .
dd
La función ϕ(·; ·, ·) ası́ definida es denominada solución (maximal) del problema de Cauchy (1.1)
expresada en función de los datos iniciales.
i da
Teorema 1.1.9 (Dependencia continua respecto de los datos iniciales). Bajo las condicio-
nes del Teorema 1.1.6, se tiene que el conjunto Θ es un conjunto abierto de RN +2 y la solución
,U
maximal ϕ(·; ·, ·) del problema de Cauchy (1.1) expresada en función de los datos iniciales es local-
mente Lipschitz en Θ.
AN
varias posibles pruebas del resultado, aunque quizá la más sencilla es la desarrollada en [13].
Para pruebas alternativas del resultado puede también consultarse [18].
to.
2. Todos los resultados enunciados en esta sección (salvo el ya mencionado Teorema 1.1.9) han
sido probados en la asignatura Ecuaciones Diferenciales Ordinarias del segundo curso del Gra-
Dp
n
cio
na
1.2. Motivación del estudio de la estabilidad
ter
In
4.0
Supongamos que estamos analizando un fenómeno fı́sico, biológico, ..., que evoluciona con el
al
paso del tiempo, y cuyo comportamiento se rige por un sistema diferencial ordinario o, por concretar
Igu
un poco más, por una e.d.o. de primer orden, junto con unas determinadas condiciones iniciales,
r tir
que nos dicen cuál es el comportamiento del sistema en el tiempo inicial t0 . Este fenómeno puede
pa
m
ser por tanto modelado mediante el problema de Cauchy (1.1), con f y (t0 , y0 ) satisfaciendo ciertas
Co
condiciones (ver Sección 1.1).
al-
Evidentemente, en la estimación del estado inicial del sistema siempre se producen errores (erro-
i
erc
res humanos, de los aparatos de medida, ...). Por tanto, no conocemos el verdadero estado inicial
om
oC
y0 del sistema sino una aproximación de ese estado inicial y 0 . Ası́, la solución que obtendrı́amos al
-N
resolver el problema de Cauchy (1.1) es ϕ(·; t0 , y 0 ) en lugar de la solución real (que serı́a ϕ(t; t0 , y0 )).
n
ció
Resulta fundamental conocer cómo afecta el pequeño error a la verdadera solución del problema
bu
de Cauchy (1.1). Veamos que cuando el tiempo t recorre un pequeño intervalo acotado, las dos
tri
soluciones del problema de Cauchy (la real y la obtenida con el dato inicial erróneo) están cerca.
sA
Obtendremos el resultado como consecuencia del Teorema 1.1.9 (continuidad respecto de datos
on
mm
iniciales).
Co
En efecto, supongamos que f ∈ C 0 (Ω; RN ) ∩ Liploc (y; Ω), con Ω ⊆ RN +1 un abierto conexo no
vacı́o, y sea (t0 , y0 ) ∈ Ω. Entonces, la solución maximal satisface ϕ(·; ·, ·) ∈ C 0 (Θ; RN ). Se tiene que
ive
t
ea
(t0 , t0 , y0 ) ∈ Θ, por tanto, existe T > t0 y a0 > 0 tal que el compacto K satisface
Cr
cia
[t0 , T ]). De la continuidad uniforme de ϕ en el compacto K, se deduce que dado ε > 0 existe
illa
¿Qué ocurrirá con la diferencia anterior cuando t > T ? ¿y cuando t → ∞? La teorı́a de estabilidad
da
estudiar el comportamiento de los estados de reposo o equilibrio del sistema. Veamos como ejemplo
el movimiento del péndulo simple:
niv
Ejemplo 1.2.1. Supongamos que tenemos un péndulo simple de masa puntual m que oscila en un
,U
plano suspendido de una cuerda inextensible y rı́gida de longitud l. Supongamos que el péndulo
oscila sin rozamiento y que únicamente está sujeto a la fuerza de la gravedad g (que supondremos
AN
constante). Si x(t) es el ángulo formado entre la posición del péndulo y la posición vertical en el
tiempo t, entonces el movimiento del péndulo se modela mediante la e.d.o. no lineal de segundo
ED
orden:
ẍ + k sen x = 0,
donde k > 0 es un parámetro positivo que depende de g y de l. A esta ecuación habrı́a que
to.
complementarla con un dato inicial (que por comodidad tomaremos en t0 = 0) que fı́sicamente
Dp
corresponde a la posición inicial x(0) y a la velocidad angular inicial ẋ(0) (que supondremos nula):
x(0) = x0 , ẋ(0) = 0.
n
cio
na
Desde el punto de vista fı́sico, hay dos posiciones de equilibrio del péndulo que corresponden a
ter
In
x0 = 0 y a x0 = π. Si x(t; t0 , x0 ) denota, como siempre, la solución maximal del problema de
4.0
Cauchy planteado más arriba, se tiene I(0, 0) = I(0, π) = R y
al
Igu
ϕ0 (t) = x(t; 0, 0) = 0, ϕ1 (t) = x(t; 0, π) = π ∀t ∈ R.
r tir
pa
m
En este modelo, la posición de equilibrio ϕ0 es estable pues, si se produce una pequeña desviación
Co
al-
de la posición de equilibrio, el movimiento del péndulo será oscilatorio alrededor de dicha posición,
i
erc
manteniéndose siempre muy cerca de ella. Sin embargo, la posición de equilibrio ϕ1 resulta ser
om
inestable pues una pequeña desviación de dicha posición hace que el péndulo se aleje de esa posición.
oC
De hecho, podemos encontrar tiempos arbitrariamente grandes en los que la posición del péndulo
-N
se mantendrá “alejada”de la posición de partida.
n
ció
bu
Ejemplo 1.2.2. Consideremos ahora la e.d.o. de primer orden
tri
sA
on
y0 = y − y3.
mm
Co
Aplicando los resultados de la Sección 1.1 podemos concluir que para cualquier (t0 , y0 ) ∈ R2 el
ive
problema de Cauchy asociado a esta ecuación tiene una única solución maximal ϕ(·; t0 , y0 ) definida
t
ea
Cr
en el intervalo I(t0 , y0 ). En lo que sigue supondremos que t0 = 0 (tiempo inicial igual a 0) pues, como
cia
veremos, para esta ecuación esto no supone ninguna restricción (se trata de un sistema autónomo).
n
ce
Es obvio que existen tres soluciones constantes (tres puntos de equilibrio o de reposo): y0 = 0,
Li
y1 = 1 e y−1 = −1 (se tiene por tanto que I(0, y0 ) = I(0, y1 ) = I(0, y−1 ) = R y ϕ(t; 0, y0 ) = 0,
illa
ϕ(t; 0, y1 ) = 1 y ϕ(t; 0, y−1 ) = −1, para cualquier t ∈ R). Para analizar cómo es el comportamiento
de cualquier otra solución, basta calcular la solución maximal que pasa por (0, y0 ). Esto es posible
ev
pues se trata de una ecuación de variables separables (o también de Bernoulli). Se puede comprobar
fácilmente que para cada y0 6= 0,
eS
v
dd
u 1
ϕ(t; 0, y0 ) = sign (y0 )t ,
u
1
1− 1− y02
e−2t
da
con
i
ers
si y0 ∈ [−1, 1],
R
I(0, y0 ) = 1 1
niv
ln 1 − 2 , ∞ si |y0 | > 1.
2 y0
,U
De este modo, todas las posibles soluciones de la ecuación (i.e., todos las posibles trayectorias) o
bien son uno de los tres estados de reposo, o bien se acercan a los equilibrios y−1 = −1 o y1 = 1. Esto
Dp
se interpreta como que dichos estados de reposo son estables, mientras que el y0 = 0 es inestable.
Todos estos conceptos serán vistos con detalle en la siguiente sección.
c
na
t er
In
1.3. Conceptos de estabilidad
4.0
al
En lo que sigue supondremos dados un abierto conexo no vacı́o Ω ⊆ RN +1 y una función f ,
Igu
satisfaciendo:
tir
r
(
pa
I × Bρ ⊆ Ω,
om
(1.2)
f ∈ C 0 (Ω; RN ) ∩ Liploc (y; Ω) y f (t, 0) = 0, ∀t ∈ I,
a l-C
rci
donde I = (τ, ∞) y Bρ = B(0; ρ) ⊆ RN con ρ ∈ (0, ∞] y τ ∈ [−∞, ∞). Por otro lado, consideramos
me
el s.d.o.
Co
No
(1.3) y 0 = f (t, y).
n-
ció
De las hipótesis impuestas a Ω y a f , se tiene que la función nula ϕ0 definida por
u
rib
At
ϕ0 : t ∈ I 7−→ ϕ0 (t) = 0 ∈ RN ,
ns
mo
es solución del sistema diferencial (1.3) en I. De hecho, si consideramos el correspondiente problema
m
de Cauchy (1.1) para la función f y dato inicial (t0 , 0) ∈ I × Bρ , se tiene,
Co
e
I(t0 , 0) ⊇ I y ϕ(t; t0 , 0) = ϕ0 (t) ∀t ∈ I.
tiv
ea
Cr
Se dice en ese caso que ϕ0 es un punto crı́tico del s.d.o. (1.3), o un equilibrio del sistema.
cia
Las definiciones de estabilidad que vamos a ver a continuación fueron establecidas por el ma-
cen
“Se dice que la solución ϕ0 de (1.3) es estable (en el sentido de Liapunov) si para cualesquiera
t0 ∈ I y ε ∈ (0, ρ), existe δ = δ(t0 , ε) ∈ (0, ρ) tal que, si |y0 | ≤ δ, se tiene:
niv
Es claro que la Definición 1.3.1 implica la precedente. Veamos la implicación contraria. Para ello,
basta comprobar la condición (a) de la Definición 1.3.1. Efectivamente, la acotación |ϕ(t; t0 , y0 )| ≤ ε,
válida para cualquier t ∈ I(t0 , y0 ) ∩ [t0 , ∞), implica que la solución ϕ(·; t0 , y0 ) no llega a la frontera
AN
Observación 1.3.3. Obsérvese que el concepto de inestabilidad puede ser reescrito de manera
equivalente como:
to.
“Se dice que la solución ϕ0 de (1.3) es inestable si existen t0 ∈ I y ε ∈ (0, ρ) tal que, para
cualquier δ ∈ (0, ρ) existe y0 , con |y0 | ≤ δ, para el que se tiene:
Dp
n
cio
na
Siguiendo con las definiciones, introduzcamos ahora el concepto de estabilidad uniforme:
ter
In
Definición 1.3.4. Se dice que la solución ϕ0 del s.d.o. (1.3) es uniformemente estable cuando
4.0
el valor δ del concepto de estabilidad en la Definición 1.3.1 no depende de t0 , es decir, si para
al
Igu
cualesquier ε ∈ (0, ρ), existe δ = δ(ε) ∈ (0, ρ) tal que, si t0 ∈ I e |y0 | ≤ δ, se tiene:
r tir
(a) I(t0 , y0 ) ⊃ [t0 , ∞) y
pa
m
Co
(b) |ϕ(t; t0 , y0 )| ≤ ε, para cualquier t ∈ [t0 , ∞).
al-
i
erc
Pasemos a definir el concepto de atractividad:
om
oC
Definición 1.3.5. Se dice que la solución ϕ0 de (1.3) es (un equilibrio) atractivo si para cualquier
-N
t0 ∈ I, existe γ = γ(t0 ) ∈ (0, ρ) tal que, si |y0 | ≤ γ, entonces se tiene:
n
ció
(a) I(t0 , y0 ) ⊃ [t0 , ∞) y
bu
tri
sA
(b) lı́m |ϕ(t; t0 , y0 )| = 0.
t→∞
on
mm
Podemos escribir también el concepto de atractividad uniforme:
Co
Definición 1.3.6. Se dice que la solución ϕ0 de (1.3) es (un equilibrio) uniformemente atractivo
ive
si existe γ ∈ (0, ρ) tal que si |y0 | ≤ γ, se tiene:
t
ea
Cr
(b) para cualquier ε > 0, existe Tε > 0 verificando |ϕ(t; t0 , y0 )| ≤ ε, para cualesquiera t0 ∈ I y
Li
t ≥ t0 + Tε .
illa
Finalmente,
ev
Observación 1.3.8. Las distintas definiciones de estabilidad y atractividad dadas más arriba
han sido planteadas para la solución nula ϕ0 de (1.3) (con f satisfaciendo (1.2)). Sin embargo, es
i
ers
posible dar las mismas definiciones en el caso de cualquier solución no nula ϕ1 de (1.3) que esté
definida en un intervalo infinito. Supongamos dada ϕ1 , una solución de (1.3) definida en el intervalo
niv
I = (τ, ∞) (τ ∈ [−∞, ∞) dado). Supongamos también que existe ρ ∈ (0, ∞] tal que, en lugar de la
hipótesis (1.2), se tiene
,U
(
{(t, y) : t ∈ I, y ∈ B(ϕ1 (t); ρ)} ⊆ Ω,
(1.5)
AN
en el siguiente
z 0 = y 0 − ϕ01 (t) = f (t, y) − f (t, ϕ1 (t)) = f (t, z + ϕ1 (t)) − f (t, ϕ1 (t)) := F (t, z).
to.
Es fácil comprobar que F satisface las condiciones (1.2) para un nuevo abierto Ωe y además z0 ≡ 0
Dp
es un punto crı́tico o equilibrio del nuevo sistema que se corresponde con la solución ϕ1 mediante
el cambio de variables.
n
cio
na
Observación 1.3.9. En la siguiente sección veremos que los conceptos de estabilidad y atractividad
ter
In
dados anteriormente son distintos, pues en el caso de sistemas lineales equivalen a propiedades
4.0
distintas.
al
Igu
Observación 1.3.10. Las definiciones anteriores han sido dadas para la solución nula del s.d.o. (1.3).
tir
Es posible escribir las anteriores definiciones en el caso de la e.d.o. de orden n:
r
pa
m
y (n) = g(t, y, y 0 , y 00 , . . . , y (n−1) ),
Co
al-
i
erc
con g definida en el abierto conexo no vacı́o Ω ⊆ Rn+1 . Supondremos de nuevo que la función nula
om
es solución de la ecuación en I = (τ, ∞) (τ ∈ [−∞, ∞)), es decir, g satisface g(t, 0, 0, 0, . . . , 0) = 0
oC
para todo t ∈ I. Supongamos además,
-N
n
ció
g ∈ C 0 (Ω) ∩ Liploc ((y, y 0 , . . . , y n−1 ), Ω; R) e I × Bρ ⊆ Ω,
bu
tri
para ρ ∈ (0, ∞] (Bρ = B(0, ρ) ⊂ Rn ).
sA
on
Las definiciones de carácter estable, atractivo, ... de la ecuación anterior se refieren a los corres-
mm
pondientes conceptos para la solución nula del sistema diferencial ordinario equivalente asociado a
Co
la ecuación.
ive
Definición 1.3.11. Sea D ⊆ RN un abierto conexo no vacı́o. Se dice que el s.d.o. (1.3) es un
ea
t
Cr
para una función f : D ⊆ RN −→ RN tal que f ∈ C 0 (D; RN ) ∩ Liploc (D). En este caso, el sistema
Li
tiene la forma
illa
(1.6) y 0 = f (y),
ev
eS
Observación 1.3.12. Obsérvese que, debido a que la función f no depende de la variable t (caso
dd
autónomo), la condición f ∈ Liploc (D) en particular implica que f ∈ C 0 (D; RN ). Ası́, para asegurar
la existencia y unicidad de solución maximal del problema de Cauchy asociado a f , basta escribir
da
f ∈ Liploc (D).
i
ers
Proposición 1.3.13. Consideremos ϕ una solución maximal del sistema autónomo (1.6) con f ∈
Liploc (D) y sea I el correspondiente intervalo de definición de esta solución, entonces para todo
h ∈ R la aplicación ψ ∈ C 1 (I − h; RN ) definida por
to.
n
cio
na
Demostración: Teniendo en cuenta que ϕ es solución del problema autónomo y la definición de
ter
In
ψ, se tiene
4.0
ψ 0 (t) = ϕ0 (t + h) = f (ϕ(t + h)) = f (ψ(t)), ∀ t ∈ I − h.
al
Igu
Esto prueba que ψ es solución del sistema autónomo, la cual se podrá prolongar a una solución
tir
maximal ψ̂ definida en un intervalo abierto J ⊂ R conteniendo a I − h.
r
pa
Análogamente ψ̂ 0 (t − h) = f (ψ̂(t − h)) para todo t − h ∈ J, por lo que la aplicación φ definida
m
Co
en J + h por
al-
φ(t) = ψ̂(t − h), ∀ t ∈ J + h
i
erc
es una solución del sistema autónomo que se podrá extender a una solución maximal φ̂ definida en
om
un intervalo Iˆ conteniendo a J + h. Ahora bien como J contiene a I − h entonces J + h contiene a
oC
-N
I y se tiene
n
ció
φ̂(t) = φ(t) = ψ̂(t − h) = ψ(t − h) = ϕ(t), ∀ t ∈ I
bu
tri
Esto prueba que φ̂ es una extensión de ϕ. Como ϕ ya era maximal se tiene entonces
sA
on
J + h ⊂ Iˆ = I
mm
Co
y por tanto J ⊂ I − h. Como ya sabı́amos que J contenı́a a I − h deducimos que J = I − h y por
ive
tanto que ψ es maximal.
t
ea
Cr
Corolario 1.3.14. Consideremos el sistema autónomo (1.6) con f ∈ Liploc (D). Para t0 ∈ R e
cia
y0 ∈ D, sea ϕ(·; t0 , y0 ) la solución maximal del problema de Cauchy asociado a (1.6). Entonces,
n
ce
Li
1. I(t0 , y0 ) = t0 + I(0, y0 ).
illa
es una solución maximal del sistema autónomo. Usando que ψ(t0 ) = ϕ(0; 0, y0 ) = y0 tenemos que
se trata de la solución maximal correspondiente a la condición inicial y(t0 ) = y0 y por tanto
da
Ejercicio 1.3.15. Usando el Corolario 1.3.14, demuéstrese que para el sistema autónomo (1.6) los
conceptos de estabilidad y estabilidad uniforme de ϕ0 son equivalentes.
,U
Para el sistema autónomo (1.6) también se tiene la equivalencia entre los conceptos de estabi-
AN
Proposición 1.3.16. Consideremos el sistema autónomo (1.6) con f satisfaciendo (1.7). Entonces,
ED
Demostración: Claramente, basta probar que a.e. implica u.a.e. Por el ejercicio enunciado ante-
to.
riormente ya sabemos que la solución nula es uniformemente estable luego nos basta probar que
también es uniformemente atractiva, es decir que existe γ ∈ (0, ρ) tal que
Dp
[t0 , ∞) ⊂ I(t0 , y0 ), ∀ t0 ∈ R, ∀ y0 ∈ B γ ,
n
cio
na
∀ ε > 0, ∃ T > 0 tal que |ϕ(t, t0 , y0 )| < ε, ∀t ≥ t0 + T, y0 ∈ B γ , .
ter
In
Como I(t0 , y0 ) = t0 + I(0, y0 ), ϕ(t, t0 , y0 ) = ϕ(t − t0 ; 0, y0 ) basta en realidad probar
4.0
al
[0, ∞) ⊂ I(0, y0 ), ∀ y0 ∈ B γ ,
Igu
r tir
∀ ε > 0, ∃ T > 0 tal que |ϕ(t, 0; y0 )| < ε, ∀t ≥ T, y0 ∈ B γ .
pa
m
Como el equilibrio nulo es atractivo, existe γ ∈ (0, ρ) tal que |y0 | ≤ γ implica [0, ∞) ⊂ I(0, y0 )
Co
al-
y
i
erc
om
(1.8) lı́m ϕ(t; 0, y0 ) = 0.
t→∞
oC
-N
Por otra parte, gracias a la estabilidad sabemos que para todo ε > 0, existe δ ∈ (0, ρ) tal que si
n
ció
|y0 | < δ, entonces
bu
|ϕ(t; 0, y0 )| < ε, ∀ t ≥ 0.
tri
sA
Sea y0 ∈ B γ . Por (1.8), existe Ty0 > 0 tal que
on
mm
δ
|ϕ(t; 0, y0 )| < , ∀ t ≥ Ty0 .
Co
2
ive
t
Por el teorema de continuidad respecto de condiciones iniciales existe también δy0 > 0 tal que
ea
Cr
δ
cia
2
ce
Li
Usando que ϕ(t, 0, ŷ0 ) = ϕ(t − Ty0 , 0, ϕ(Ty0 , 0, ŷ0 )), ya que ambas funciones son solución del
mismo problema de Cauchy, deducimos que para todo ŷ0 ∈ B(y0 , δy0 ) y todo t ≥ Ty0 , se tiene
ev
n
[
B(0, γ) ⊂ B(y0i , δyi )).
da
0
i=1
i
ers
Sea
T = máx Tyi
niv
1≤i≤n 0
y tomemos y0 con |y0 | ≤ γ. Tomando y0i tal que y0 ∈ B(y0i , δyi ), deducimos que si t ≥ T entonces
0
,U
En esta sección estudiaremos las propiedades de estabilidad de los s.d.o. más sencillos: los
sistemas lineales. Se trata del caso más sencillo, pues veremos que las propiedades de estabilidad
del sistema lineal equivalen a ciertas propiedades de las matrices fundamentales asociadas.
to.
En primer lugar recordaremos ciertos puntos de la teorı́a de S.D.O. lineales de primer orden.
Para ello, fijemos una función matricial y una función vectorial
Dp
n
cio
na
definidas en I ⊆ R, un intervalo no degenerado, tales que A ∈ C 0 (I; L(RN )) y b ∈ C 0 (I; RN ).
ter
In
Consideremos el problema de valores iniciales para un sistema lineal no homogéneo
4.0
(
al
y 0 = A(t)y + b(t),
Igu
(1.9)
y(t0 ) = y0 ,
r tir
pa
m
donde t0 ∈ I e y0 ∈ RN . Obsérvese que en este caso f (t, y) = A(t)y + b(t) es una función definida
Co
en Ω = I × RN que, en principio, podrı́a no ser abierto. En cualquier caso es posible aplicar la
al-
i
erc
teorı́a de existencia y unicidad de solución maximal para el problema (1.9) y concluir:
om
oC
1. Existe una única solución maximal ϕ(·; t0 , y0 ) ∈ C 1 (I(t0 , y0 ); RN ) del problema de valores
-N
iniciales (1.9);
n
ció
bu
2. I(t0 , y0 ) ≡ I, para cualquier (t0 , y0 ) ∈ I × RN .
tri
sA
Es más, se puede resolver “explı́citamente” el problema (1.9). Recordemos cómo hacerlo. Conside-
on
mm
ramos los s.d.o. lineales homogéneo y no homogéneo:
Co
(1.10) y 0 = A(t)y t ∈ I,
ive
t
ea
Cr
y 0 = A(t)y + b(t) t ∈ I.
cia
(1.11)
n
ce
Li
Sean
illa
(
W0 = {ϕ : ϕ ∈ C 1 (I; RN ) es solución de (1.10) en I},
(1.12)
ev
Entonces:
dd
no homogéneo (1.11).
Este resultado en particular afirma que dim W0 = N . Por tanto, las bases del espacio W0 tienen
,U
satisface F ∈ C 1 (I; L(RN )), sus columnas son linealmente independientes y F 0 (t) = A(t)F (t) para
cualquier t ∈ I. Esto nos lleva a la siguiente definición:
to.
Definición 1.4.2. Se dice que F ∈ C 1 (I; L(RN )) es una matriz fundamental (m.f.) asociada al
Dp
n
cio
na
Ejemplo 1.4.3. Recordemos que en el caso particular de sistemas lineales de coeficientes cons-
ter
In
tantes, se podı́a calcular explı́citamente una m.f. Efectivamente, consideremos el sistema lineal de
4.0
coeficientes constantes
al
y 0 = Ay,
Igu
tir
con A ∈ L(RN ) una matriz. Entonces, una m.f. asociada al sistema anterior está dada por:
r
pa
m
X 1
F (t) = etA = (tA)n , ∀t ∈ R.
Co
n!
al-
n≥0
i
erc
Obsérvese que de la propia definición de matriz fundamental deducimos que sus N columnas
om
oC
son elementos del espacio W0 y forman una base de este. Ası́, no es difı́cil comprobar la igualdad:
-N
n
W0 = {ϕ : ϕ(t) = F (t)a ∀t ∈ I, con a ∈ RN }.
ció
bu
Evidentemente, hay tantas m.f. asociadas al sistema (1.10) como bases del espacio W0 . En este
tri
sA
sentido, se tiene:
on
Proposición 1.4.4. Sean F una m.f. asociada a (1.10) y Fe ∈ C 1 (I; L(RN )) tal que Fe0 (t) =
mm
A(t)Fe(t) para todo t ∈ I. Entonces, existe C ∈ L(RN ) tal que Fe(·) = F (·)C. Además, Fe es una
Co
ive
nueva m.f. asociada a (1.10) si y solo si det C 6= 0.
t
ea
Es posible dar una caracterización para m.f. asociadas a sistemas lineales. Se tiene:
Cr
cia
Proposición 1.4.5. Sea F ∈ C 1 (I; L(RN )) una función matricial tal que F 0 (t) = A(t)F (t), para
n
ce
t) 6= 0, para cierto e
3. det F (e t ∈ I.
eS
Volvemos de nuevo al problema de Cauchy (1.9). El conocimiento de una m.f. asociada al sistema
dd
homogéneo (1.10) permite dar una fórmula explı́cita de la solución del problema (1.9):
Proposición 1.4.6. Supongamos dados A ∈ C 0 (I; L(RN )), b ∈ C 0 (I; RN ) y (t0 , y0 ) ∈ I × RN . Sea
da
F ∈ C 1 (I; L(RN )) una m.f. asociada a (1.10). Entonces, la única solución maximal del problema
i
Z t
niv
Demostración: Para calcular la única solución maximal del problema (1.9) definida en I calcu-
laremos en primer lugar la solución general del sistema no homogéneo (1.11). Obsérvese que esta
AN
viene dada por ϕ(·) = ϕb (·) + F (·)a, donde ϕb es una solución particular de (1.11) en I y a ∈ RN .
Calcularemos una solución particular ϕb de (1.11) utilizando el llamado método de Lagrange o
ED
ϕb (t) = F (t)a(t), ∀t ∈ I,
to.
donde a ∈ C 1 (I; RN ) es una función vectorial a determinar. Llevando ϕb a (1.11), no es difı́cil ver
Dp
n
cio
na
Integrando esta última igualdad entre t0 y t encontramos una expresión de a y de ϕb . Ası́, la solución
ter
In
general de (1.11) viene dada por
4.0
t
al
Z
F (s)−1 b(s) ds,
Igu
(1.14) ϕ(t) = F (t)a + F (t) ∀t ∈ I,
tir
t0
r
pa
con a ∈ RN .
m
Co
Finalmente, imponiendo la condición inicial de (1.9) a la expresión (1.14), obtenemos el valor
al-
de a y la fórmula (1.13).
i
erc
om
Observación 1.4.7. En la prueba anterior hemos usado de manera fundamental la propiedad
oC
-N
det F (t) 6= 0, ∀t ∈ I,
n
ció
bu
que satisface cualquier matriz fundamental asociada al sistema homogéneo (1.10).
tri
sA
Una vez recordado resultados de sistemas lineales, como en la Sección 1.3, nos ocuparemos del
on
mm
estudio de las propiedades de estabilidad de la solución nula del sistema lineal. Ası́, el sistema a
Co
estudiar es un sistema lineal homogéneo.
ive
Consideremos el s.d.o. lineal homogéneo
t
ea
Cr
(1.15) y 0 = A(t)y,
n cia
donde A ∈ C 0 (I; L(RN )) e I = (τ, +∞), con τ ∈ [−∞, ∞). Obsérvese que el sistema (1.15) satisface
ce
Li
la hipótesis (1.2) para ρ = ∞ y Ω = I ×RN . Ası́, tiene sentido plantearse la estabilidad de la solución
illa
Teorema 1.4.8. Sea F (·) una matriz fundamental para el sistema (1.15). Se tiene:
ev
eS
(c) ϕ0 es un equilibrio de (1.15) uniformemente estable si y solo si existe una constante M > 0 tal
,U
que
(1.18) ∀t0 ∈ I, ∀t ≥ t0 .
ED
Observación 1.4.9. Antes de hacer la prueba de este resultado, hagamos las siguientes puntuali-
zaciones:
n
cio
na
1. Hemos enunciado el Teorema 1.4.8 utilizando la norma espectral k · ks en el espacio L(RN ):
ter
In
|Bx|
4.0
kBks = máx , con B ∈ L(RN ).
x∈RN \{0} |x|
al
Igu
tir
Evidentemente, todas las normas en L(RN ) son equivalentes y, ası́, el resultado sigue siendo
r
pa
válido si consideramos cualquier otra norma en este espacio.
m
Co
al-
2. El resultado anterior y las fórmulas (1.16)–(1.19) no dependen de la matriz fundamental F
i
erc
asociada al sistema lineal (1.15) elegida.
om
oC
Ejercicio 1.4.10. Demuéstrese el segundo punto de la Observación 1.4.9.
-N
n
Demostración: Recordemos que, dada una matriz fundamental F asociada a (1.15), la solución
ció
bu
maximal de este sistema correspondiente al dato inicial (t0 , y0 ) ∈ I × RN está dada por
tri
sA
ϕ(t; t0 , y0 ) = F (t)F (t0 )−1 y0 , ∀t ∈ I(t0 , y0 ) ≡ I.
on
mm
Obsérvese en particular que la expresión anterior proporciona la siguiente propiedad a la solución
Co
maximal:
ive
t
ea
(1.20) ϕ(·; t0 , αy0,1 + βy0,2 ) = αϕ(·; t0 , y0,1 ) + βϕ(·; t0 , y0,2 ), ∀t0 ∈ I, ∀y0,1 , y0,2 ∈ RN ,
Cr
cia
i.e., la solución maximal del sistema lineal (1.15) es lineal respecto de la última componente y0 .
n
ce
Probemos el resultado:
illa
(a) Supongamos en primer lugar que se satisface (1.16) y veamos que el equilibrio ϕ0 de (1.15)
ev
es estable, es decir, satisface (1.4). Para ello, fijemos t0 ∈ I y ε > 0. Utilizando la fórmula de la
solución maximal asociada al dato de Cauchy (t0 , y0 ), podemos escribir
eS
|ϕ(t; t0 , y0 )| ≤ kF (t)ks kF (t0 ) ks |y0 | ≤ sup kF (t)ks kF (t0 )−1 ks |y0 | ≤ M kF (t0 )−1 ks |y0 |,
−1
dd
t≥t0
da
para cualquier t ∈ [t0 , ∞). Ası́, si tomamos |y0 | ≤ δ, con δ = ε/ M kF (t0 )−1 ks , deducimos (1.4).
Veamos la implicación contraria. Supongamos que ϕ0 es una solución estable de (1.15). De este
i
ers
|z0 |
|F (t)F (t0 )−1 z0 | ≤ , ∀t ∈ [t0 , ∞), z0 ∈ RN \ {0}.
ED
δ
Finalmente, de esta desigualdad llegamos a
to.
n
cio
na
(b) Supongamos que se tiene (1.17) y veamos que el equilibrio ϕ0 de (1.15) es asintóticamente
ter
In
estable. Dado t0 ∈ I, es fácil demostrar que (1.17) implica la condición (1.16). Usando el apartado
4.0
(a) probado anteriormente, deducimos que ϕ0 es un equilibrio estable de (1.15). Veamos ahora que
al
ϕ0 es una solución atractiva de (1.15). Sea t0 ∈ I. Se tiene
Igu
tir
|ϕ(t; t0 , y0 )| = |F (t)F (t0 )−1 y0 | ≤ kF (t)ks kF (t0 )−1 ks |y0 |.
r
pa
m
Co
Basta tomar lı́m en la expresión anterior y tener en cuenta (1.17) para deducir que la solución ϕ0
t→∞
al-
de (1.15) es atractiva.
i
erc
Veamos la implicación contraria. La solución ϕ0 de (1.15) es asintóticamente estable y, en
om
oC
particular, es atractiva. Deducimos de aquı́ que, dado t0 ∈ I, existe γ = γ(t0 ) > 0 tal que
-N
lı́mt→∞ |ϕ(t; t0 , y0 )| = 0 cuando |y0 | ≤ γ. Tomemos z0 ∈ RN \ {0} arbitrario. Podemos aplicar
n
z0
ció
la propiedad anterior a y0 = γ y, de (1.20), llegamos a
bu
|z0 |
tri
sA
lı́m |ϕ(t; t0 , z0 )| = 0, ∀z0 ∈ RN .
on
t→∞
mm
Por tanto, cualquier solución del sistema (1.15) satisface la propiedad anterior. Sin más que tener
Co
en cuenta que las N columnas de la matriz fundamental F (·) son soluciones del sistema diferen-
ive
cial (1.15), obtenemos la propiedad (1.17).
t
ea
Cr
Observación 1.4.11. Antes de seguir con la prueba del Teorema 1.4.8, precisemos que, en los
cia
puntos (a) y (b) en realidad hemos probado lo siguiente: Hemos visto que si la solución ϕ0 de (1.15)
n
ce
es atractiva, entonces se tiene (1.17). Por otro lado, también hemos visto que (1.17) implica (1.16)
Li
y, usando el apartado (a) del teorema, también ϕ0 es un equilibrio estable de (1.15). En definitiva,
illa
Por otro lado, es fácil dar un contraejemplo de sistema (lineal) cuya solución nula es estable y
no es atractiva. Basta considerar el sistema lineal y 0 = 0 en I = R. Está claro que una matriz
dd
(c) Veamos la prueba del tercer punto. esta va a seguir los pasos de la prueba de (a). Comencemos
suponiendo que F (·) satisface la propiedad (1.18) y veamos que ϕ0 es un equilibrio uniformemente
i
ers
|ϕ(t; t0 , y0 )| = |F (t)F (t0 )−1 y0 | ≤ kF (t)F (t0 )−1 ks |y0 | ≤ M |y0 |, ∀t0 ∈ I, ∀y0 ∈ RN , ∀t ≥ t0 .
niv
z0
y0 = δ . Aplicando de nuevo la propiedad (1.20) deducimos
|z0 |
Dp
|z0 |
|ϕ(t; t0 , z0 )| = |F (t)F (t0 )−1 z0 | ≤ , ∀t0 ∈ I, ∀t ≥ t0 y ∀z0 ∈ RN ,
δ
n
cio
na
y de aquı́,
ter
|F (t)F (t0 )−1 z0 |
In
1
kF (t)F (t0 )−1 ks = sup ≤ , ∀t0 ∈ I, ∀t ≥ t0 .
4.0
z0 ∈RN \{0} |z 0 | δ
al
Igu
Tenemos ası́ (1.18).
r tir
(d) Veamos este último punto. Supongamos en primer lugar que se tiene (1.19) y probemos que la
pa
m
solución nula de (1.15) es uniformemente asintóticamente estable, es decir, que ϕ0 es uniformemente
Co
estable y uniformemente atractiva. Claramente, la estimación (1.19) implica (1.18) y, usando el
al-
punto (c), deducimos que ϕ0 es un equilibrio de (1.15) uniformemente estable.
i
erc
Probemos la atractividad uniforme de ϕ0 , es decir, comprobemos la segunda propiedad de la
om
1 C
oC
Definición 1.3.6. Sea ε > 0 y supongamos que ε < C . Si tomamos γ = 1 y Tε = log , es
-N
α ε
n
fácil comprobar que se verifica:
ció
bu
|ϕ(t; t0 , y0 )| = |F (t)F (t0 )−1 y0 | ≤ kF (t)F (t0 )−1 ks |y0 |
tri
sA
≤ Ce−α(t−t0 ) ≤ ε, ∀t0 ∈ I, ∀y0 : |y0 | ≤ 1 y ∀t ≥ t0 + Tε .
on
mm
Obsérvese que si C ≤ ε, la desigualdad anterior serı́a válida para cualquier t ≥ t0 . Tenemos ası́ que
Co
ϕ0 es un equilibrio de (1.15) uniformemente atractivo.
ive
Supongamos ahora que ϕ0 es un equilibrio de (1.15) uniformemente asintóticamente estable. En
t
ea
particular, ϕ0 es uniformemente estable y la matriz fundamental F satisface la propiedad (1.18).
Cr
Por otro lado, ϕ0 es uniformemente atractiva y, ası́, existe γ > 0 para el que se tiene la segunda
ncia
propiedad de la Definición 1.3.6. Si aplicamos esta propiedad para ε = γ/2, deducimos que existe
ce
Li
γ
|ϕ(t; t0 , y0 )| ≤ , ∀t0 ∈ I, ∀y0 : |y0 | ≤ γ y ∀t ≥ t0 + T.
2
ev
Si ahora tomamos z0 ∈ RN \ {0} arbitrario, usamos la propiedad anterior para y0 = γz0 /|z0 | y,
eS
de donde
|F (t)F (t0 )−1 z0 | 1
i
sup
N
z0 ∈R \{0} |z 0 | 2
niv
kF (t)F (t0 )−1 ks = kF (t)F (t0 + nT )−1 F (t0 + nT )F (t0 + (n − 1)T )−1 · · · F (t0 + T )F (t0 )−1 ks
AN
≤ kF (t)F (t0 + nT )−1 ks kF (t0 + nT )F (t0 + (n − 1)T )−1 ks · · · kF (t0 + T )F (t0 )−1 ks
n
1
≤M .
ED
2
1
Como t ∈ [t0 + nT, t0 + (n + 1)T ), en particular n ≥ (t − t0 ) − 1. Volviendo a la desigualdad
to.
T
anterior, obtenemos
Dp
n 1 (t−t0 )−1
−1 1 1 T log 2
kF (t)F (t0 ) ks ≤ M ≤M = 2M e− T (t−t0 ) ,
2 2
n
cio
na
log 2
ter
es decir, hemos obtenido (1.19) con C ≡ 2M y α ≡ . Esto finaliza la prueba del punto (d) y
In
T
del teorema.
4.0
al
Obsérvese que en el Teorema 1.4.8 hemos probado que, para el sistema lineal (1.15), la esta-
Igu
bilidad asintótica uniforme de la solución nula ϕ0 equivale a la propiedad (1.19). En el caso de
r tir
sistemas no lineales como (1.3), serı́a posible dar una nueva definición de estabilidad donde se
pa
m
ponga de manifiesto la citada propiedad. Esta definición serı́a:
Co
al-
Definición 1.4.12. Bajo las condiciones (1.2), se dice que la solución ϕ0 de (1.3) es (un equilibrio)
i
erc
exponencialmente asintóticamente estable si existen constantes C > 0, γ ∈ (0, ρ) y α > 0 tales que
om
oC
(a) I(t0 , y0 ) ⊃ [t0 , ∞), para cualesquiera t0 ∈ I e |y0 | ≤ γ;
-N
n
ció
(b) |ϕ(t; t0 , y0 )| ≤ C|y0 |e−α(t−t0 ) , para cualesquiera t0 ∈ I, |y0 | ≤ γ y t ≥ t0 .
bu
tri
Observación 1.4.13. 1. Obsérvese que el apartado (d) del Teorema 1.4.8 permite probar la
sA
siguiente equivalencia para el sistema lineal (1.15):
on
mm
Co
“El equilibrio ϕ0 de (1.15) es uniformemente asintóticamente estable si y solo si ϕ0 es
ive
exponencialmente asintóticamente estable”.
t
ea
Cr
2. En el caso de sistemas no lineales como (1.3) que satisfacen las hipótesis (1.2), es fácil com-
cia
Veremos que, en general, la implicación contraria es falsa (salvo, como hemos visto, en el caso
eS
de sistemas lineales).
dd
do cuáles son las condiciones equivalentes a la estabilidad cuando consideramos el s.d.o. lineal no
i
homogéneo:
ers
donde A ∈ C 0 (I; L(RN )), b ∈ C(I; RN ) e I = (τ, +∞), con τ ∈ [−∞, ∞). En este caso nos
,U
Como vimos en la Obervación 1.3.8 basta hacer el cambio z = y − ϕ1 (t) y estudiar la estabili-
dad de la solución nula ϕ0 del nuevo sistema. Evidentemente, este nuevo sistema es el sistema
homogéneo (1.15).
to.
Esta es la razón por la que, por abuso de lenguaje, se habla de la estabilidad, atractividad, etc.,
del sistema (1.15) (o de (1.21)) sin hacer referencia a ninguna solución del citado sistema.
n
cio
na
1.5. Aplicación al caso de sistemas lineales de coeficientes cons-
ter
In
tantes
4.0
al
Igu
En esta sección estudiaremos el caso particular de sistemas lineales de coeficientes constantes.
tir
Consideremos, por tanto, el sistema lineal
r
pa
m
(1.22) y 0 = Ay,
Co
al-
donde A ∈ L(RN ) está dada. Evidentemente el sistema anterior es un sistema autónomo. Por tanto,
i
erc
sabemos que los conceptos de estabilidad equivalen a los correspondientes conceptos uniformes. El
om
oC
objetivo de esta sección es reescribir el Teorema 1.4.8 en el caso del sistema (1.22). Veremos que
-N
los conceptos de estabilidad equivalen en este caso a ciertas propiedades de los autovalores de A.
n
ció
De nuevo, enunciaremos el resultado para la solución nula ϕ0 de (1.22) en I = R. Se tiene:
bu
tri
Teorema 1.5.1. Sea {λi }1≤i≤n ⊂ C el conjunto de autovalores distintos de la matriz A ∈ L(RN ).
sA
Entonces, se tiene:
on
mm
(i) La solución ϕ0 de (1.22) es uniformemente asintóticamente estable si y solo si <(λi ) < 0
Co
para todo i : 1 ≤ i ≤ n.
ive
t
ea
(ii) La solución ϕ0 de (1.22) es uniformemente estable si y solo si <(λi ) ≤ 0 para todo i : 1 ≤ i ≤ n
Cr
Observación 1.5.2. Teniendo en cuenta que (1.22) es un sistema autónomo, podemos escribir que
illa
bien <(λj ) > 0, o bien <(λj ) = 0 y λj tiene asociada una caja de Jordan de dimensión
mayor o igual a dos.”
dd
aplicar el Teorema 1.4.8. Recordemos que, si Je es la forma canónica real de A, entonces existe
Pe ∈ L(RN ), con det Pe 6= 0, tal que A = PeJePe−1 . En este caso, una matriz fundamental de (1.22)
i
ers
o bien
,U
kM k := kPe−1 M ks
ED
en lugar de la norma matricial k · ks (debido a que det Pe 6= 0, es fácil ver que son equivalentes).
to.
Es fácil deducir el resultado sin más que tener en cuenta que los elementos de eJt son de la
e
Dp
forma
tj−1 e<(λi )t [aij sen (=(λi )t) + bij cos (=(λi )t)] ,
c
na
t er
In
con aij , bij ∈ R, 1 ≤ i ≤ n y j ≥ 1, siendo j menor o igual que la mayor dimensión de las cajas de
.0
Jordan asociadas a λi .
4
al
Para finalizar esta sección, analicemos el caso particular de la e.d.o. lineal de orden n y coefi-
Igu
cientes constantes:
tir
r
pa
om
(1.23) y n) + a1 y n−1) + · · · + an−1 y 0 + an y = 0 en I = R,
a l-C
con ai ∈ R, 1 ≤ i ≤ n. Recordemos que las raı́ces {µi }1≤i≤m ⊂ C del polinomio caracterı́stico
rci
me
Co
p(µ) = µn + a1 µn−1 + · · · + an−1 µ + an
No
n-
ció
proporcionan un sistema fundamental para (1.23). Se tiene:
u
rib
Teorema 1.5.3. Sea ϕ0 la solución nula en R de (1.23). Entonces:
At
ns
(a) La solución ϕ0 de (1.23) es exponencialmente asintóticamente estable si y solo si <(µi ) < 0
m mo
para todo i : 1 ≤ i ≤ m.
Co
e
tiv
(b) La solución ϕ0 de (1.23) es uniformemente estable si y solo si <(µi ) ≤ 0 para todo i : 1 ≤ i ≤ m
ea
y, si para j : 1 ≤ j ≤ m se tiene <(µj ) = 0, entonces µj es simple.
Cr
cia
Una vez estudiadas las propiedades de estabilidad de la solución nula ϕ0 del s.d.o. lineal (1.15)
veamos qué ocurre con las propiedades de estabilidad de sistemas no lineales. En concreto, en esta
eS
sección estamos interesados en sistemas no lineales que se escriben como suma de una parte lineal
más una “pequeña” (en algún sentido que precisaremos) perturbación no lineal de ese sumando
dd
lineal. Como suele ocurrir en otras ocasiones, veremos que si la perturbación es suficientemente
“pequeña”, las propiedades de estabilidad de la solución nula del problema lineal son heredadas
ida
por ϕ0 como solución del sistema no lineal. Veamos cuál es el marco en el que trabajaremos:
Consideremos el s.d.o. no lineal
ers
I × B(0; ρ) ⊆ Ω ⊆ Ie × RN ,
AN
última propiedad asegura que la función ϕ0 (t) = 0 es solución del sistema (1.24) en I. Evidente-
mente, ϕ0 es también solución en Ie del sistema lineal homogéneo (1.15) asociado.
Se tiene:
to.
anteriores, se tiene:
n
cio
na
(a) Supongamos que
ter
|g(t, y)|
In
lı́m = 0,
4.0
|y|→0 |y|
al
uniformemente en I, es decir, para cualquier ε > 0, existe µ ∈ (0, ρ) tal que si |y| ≤ µ se tiene
Igu
tir
|g(t, y)| ≤ ε|y|, para todo t ∈ I. Ası́, si ϕ0 es un equilibrio uniformemente asintóticamente
r
pa
estable del sistema lineal (1.15), entonces ϕ0 es un equilibrio exponencialmente asintóticamente
m
estable del sistema no lineal (1.24).
Co
al-
(b) Supongamos que |g(t, y)| ≤ α(t)|y|, para cualesquiera (t, y) ∈ I × B(0; ρ), con α ∈ C 0 (I)
i
erc
satisfaciendo
om
Z ∞
oC
α(t) dt < ∞.
-N
τ
n
ció
Ası́, si ϕ0 es un equilibrio uniformemente estable del sistema lineal (1.15), entonces ϕ0 es un
bu
equilibrio uniformemente estable del sistema no lineal (1.24).
tri
sA
Demostración: Nos centraremos en la prueba del apartado (a). La demostración del apartado (b)
on
mm
sigue las mismas ideas de la prueba del apartado (a).
Co
Ejercicio 1.6.2. Pruébese el apartado (b) del Teorema 1.6.1.
ive
t
(a) De las hipótesis del enunciado deducimos que, fijado (t0 , y0 ) ∈ Ω, el problema de valores iniciales
ea
Cr
asociado al sistema (1.24) admite una única solución maximal ϕ(·; t0 , y0 ) definida en el intervalo
cia
I(t0 , y0 ). Nuestro objetivo será comprobar que la solución maximal ϕ(·; t0 , y0 ) satisface las dos
n
ce
que
illa
ción (1.19) del Teorema 1.4.8 y deducir que existen dos constantes positivas α y C tales que
Para probar (i) y (ii) usaremos la siguiente idea: si (t0 , y0 ) ∈ Ω, la solución maximal ϕ(·; t0 , y0 )
i
ers
(
ϕ0 (t; t0 , y0 ) = A(t)ϕ(t; t0 , y0 ) + g(t, ϕ(t; t0 , y0 )), ∀t ∈ I(t0 , y0 ),
ϕ(t0 ; t0 , y0 ) = y0 .
,U
Si introducimos la función b(t) = g(t, ϕ(t; t0 , y0 )), con t ∈ I(t0 , y0 ), entonces, b ∈ C 0 (I(t0 , y0 ); RN ).
AN
Además, podemos ver la función ϕ(·; t0 , y0 ) como la solución en I(t0 , y0 ) del problema de Cauchy
para el sistema lineal no homogéneo
ED
(
y 0 = A(t)y + b(t), en I(t0 , y0 ),
y(t0 ) = y0 .
to.
Z t
−1
ϕ(t; t0 , y0 ) = F (t)F (t0 ) y0 + F (t)F (s)−1 g(s, ϕ(s; t0 , y0 )) ds, ∀t ∈ I(t0 , y0 ).
t0
n
cio
na
Fijemos (t0 , y0 ) ∈ I × B(0; ρ) tal que |y0 | ≤ γ e ∈ (0, ρ) a determinar. Por otro lado,
e, con γ
ter
In
fijemos ε > 0 (también a determinar). Aplicando la hipótesis del enunciado, existe µ ∈ (0, ρ) tal
4.0
que
al
Igu
(1.25) |g(t, y)| ≤ ε|y|, ∀t ∈ I y ∀y : |y| ≤ µ.
r tir
pa
e ∈ (0, ρ) y ε > 0 tal que si |y0 | ≤ γ
Nuestro objetivo será probar que podemos elegir γ e se tiene:
m
Co
u(t) := |ϕ(t; t0 , y0 )| ≤ µ, ∀t ∈ I(t0 , y0 ) ∩ [t0 , ∞).
al-
i
erc
Efectivamente, en primer lugar, se tiene
om
oC
u(t0 ) = |y0 | ≤ γ
e<µ
-N
n
ció
siempre que impongamos la desigualdad γ e<µ.
bu
tri
Por reducción al absurdo, supongamos ahora que existe t∗ ∈ I(t0 , y0 ) ∩ [t0 , ∞) tal que u(t∗ ) > µ.
sA
Utilizando que la función u satisface u ∈ C 0 (I(t0 , y0 ) ∩ [t0 , ∞)), deducimos que existe T ∈ [t0 , t∗ )
on
tal que
mm
u(T ) = µ y u(t) < µ, ∀t ∈ [t0 , T ) ⊂ I(t0 , y0 ) ∩ [t0 , ∞).
Co
ive
Sea t ∈ [t0 , T ]. Nuestra próxima tarea será acotar u(t). Para ello, utilizaremos la expresión de
t
ea
ϕ(t; t0 , y0 ) deducida anteriormente y la hipótesis sobre la matriz fundamental F (·). Ası́,
Cr
cia
Z t
−1
u(t) = |ϕ(t; t0 , y0 )| ≤ kF (t)F (t0 ) ks |y0 | + kF (t)F (s)−1 ks |g(s, ϕ(s; t0 , y0 ))| ds,
n
ce
t0
Li
Z t
illa
−α(t−t0 )
e−α(t−s) |g(s, ϕ(s; t0 , y0 ))| ds.
≤ Ce |y0 | + C
t0
ev
Por otro lado, como t ∈ [t0 , T ], también se tiene u(s) = |ϕ(s; t0 , y0 )| ≤ µ para cualquier s ∈ [t0 , T ].
eS
−α(t−t0 )
u(t) ≤ Ce |y0 | + Cε e−α(t−s) u(s) ds,
t0
da
y de aquı́, Z t
eαt u(t) ≤ Ceαt0 |y0 | + Cε eαs u(s) ds,
i
∀t ∈ [t0 , T ].
ers
t0
Obsérvese que podemos aplicar el Lema de Gronwall a la función v(t) = eαt u(t) (función continua
niv
y, de aquı́,
u(t) ≤ C|y0 |e−(α−Cε)(t−t0 ) , ∀t ∈ [t0 , T ].
ED
α
Finalmente, si tomamos ε = deducimos la acotación para u(t) = |ϕ(t; t0 , y0 )|:
2C
α
u(t) := |ϕ(t; t0 , y0 )| ≤ C|y0 |e− 2 (t−t0 ) , ∀t ∈ [t0 , T ].
to.
(1.26)
e, inferimos
α
µ = u(T ) ≤ C|y0 |e− 2 (T −t0 ) ≤ Ce
γ < µ,
n
cio
na
e ∈ (0, ρ) y γ
ter
siempre que elijamos γ e < µ/C . Llegamos de esta manera a un absurdo.
In
α
Resumiendo, hemos tomado ε = y hemos impuesto tres condiciones sobre γ
e. Ası́, tomando
4.0
2C
al
Igu
n µo
0<γe < mı́n ρ, µ, ,
tir
C
r
pa
llegamos a que u(t) =: |ϕ(t; t0 , y0 )| ≤ µ ∈ (0, ρ), para cualquier t ∈ I(t0 , y0 ) ∩ [t0 , ∞). Como
m
Co
hemos visto en otras ocasiones, esto implica que [t0 , ∞) ⊂ I(t0 , y0 ). Además, podemos repetir el
al-
mismo razonamiento anterior cambiando el intervalo [t0 , T ] por el intervalo [t0 , ∞) y deducir que la
i
erc
acotación (1.26) es válida en el intervalo [t0 , ∞). Hemos demostrado, por tanto, las dos condiciones
om
de la Definición 1.4.12. Esto termina la prueba del apartado (a).
oC
-N
Como consecuencia de este resultado tenemos el siguiente:
n
ció
Corolario 1.6.3 (Estabilidad por linealización). Consideremos un sistema autónomo
bu
tri
sA
(1.27) y 0 = f (y)
on
mm
∂fi
con f ∈ C 2 (Bρ ), f (0) = 0. Si la matriz jacobiana en y = 0, ∂yj (0) ij tiene todos los autovalores
Co
con parte real negativa, entonces ϕ0 es un equilibrio exponencialmente asintóticamente estable del
ive
t
sistema (1.27). ea
Cr
cia
tenemos
ce
∂f
Li
donde
|g(y)|
ev
lı́m = 0.
|y|→0 |y|
eS
ij
parte real positiva, entonces ϕ0 es un equilibrio inestable.
niv
Como dijimos anteriormente, los resultados enunciados en la Sección 1.1 pueden ser consultados
AN
n
cio
na
ter
In
4.0
al
Igu
r tir
pa
m
Co
al-
i
erc
om
oC
-N
n
ció
bu
tri
sA
on
mm
Co
ive
t
ea
Cr
cia
n
ce
Li
illa
ev
eS
dd
i da
ers
niv
,U
AN
ED
to.
Dp
a l-C
rci
me
El Segundo Método de Estabilidad de
Co
No
n-
Liapunov
ció
u
rib
At
ns
m mo
En este capı́tulo daremos una introducción al llamado segundo método de estabilidad de
Co
Liapunov, también llamado método directo de Liapunov. El uso de esta nomenclatura quedará
e
tiv
claro en lo que sigue: los resultados que presentaremos en el capı́tulo nos permitirán hacer un estudio
ea
de las propiedades de estabilidad de las soluciones del s.d.o. considerado, sin tener que calcular las
Cr
soluciones maximales del sistema en cuestión.
cia
cen
Li
Los resultados de estabilidad que presentamos en este capı́tulo relacionan la existencia de de-
ev
terminadas funciones reales V (definidas en Bρ = B(0, ρ), con ρ ∈ (0, ∞)) con las propiedades de
estabilidad del sistema diferencial considerado (método directo). El inconveniente de este método
eS
radica en que no hay procedimientos generales que permitan calcular las llamadas funciones de
Liapunov, aunque en los casos de s.d.o. con origen fı́sico, estas funciones están relacionadas con
dd
la energı́a asociada al sistema. De manera general, veremos que si la función V “decrece”(es decir,
la energı́a asociada al sistema decrece), entonces la solución nula es estable (el sistema evoluciona
ida
diferenciales autónomos, aunque la mayor parte de los resultados que veremos son fácilmente ge-
neralizables al caso no autónomo. Finalmente, es interesante resaltar que muchos de los sistemas
niv
y 0 = f (y),
AN
29
al.
30 2.1. Introducción. Funciones de Liapunov
n
cio
na
Definición 2.1.1. Sean ρ ∈ (0, ∞) y V ∈ C 0 (B ρ ) una función real. Se dice que V es definida
ter
In
positiva en Bρ si V (0) = 0 y V (y) > 0 para cualquier y ∈ B ρ \ {0}. Del mismo modo, se dice que
4.0
V es definida negativa en Bρ si −V es definida positiva en Bρ .
al
Igu
N
tir
X
Ejemplo 2.1.2. Es fácil comprobar que la función V (y) = yi2 es definida positiva en cualquier
r
pa
i=1
m
bola Bρ .
Co
Por otro lado, es fácil ver que la función de R3 dada por V (y1 , y2 , y3 ) = y12 + y22 no es definida
al-
i
erc
positiva (ni negativa) en ninguna bola Bρ , con ρ > 0.
om
Ejemplo 2.1.3. Como ejemplo, veamos el carácter definido positivo de una importante clase de
oC
funciones V . Fijemos B ∈ L(RN ) una matriz cuadrada y consideremos la función
-N
n
ció
N
bu
X
V (y) = y T By = ∀y ∈ RN ,
tri
bij yi yj ,
sA
i,j=1
on
mm
(y T representa el vector -fila- transpuesto de y). Obsérvese que V ∈ C 0 (B ρ ), para cualquier ρ > 0,
Co
y V (0) = 0. Es fácil deducir la siguiente propiedad
ive
t
“La función V es definida positiva en Bρ , con ρ > 0, si y solo si la matriz B es definida
ea
Cr
positiva.”
ncia
1
V (y1 , y2 ) = y22 + k(1 − cos y1 ),
ev
∀y = (y1 , y2 ) ∈ Bρ ,
2
eS
con k > 0 un número real. Veamos que V es definida positiva en Bρ . Efectivamente, se tiene que
V ∈ C 0 (B ρ ) y V (0) = 0. Por otro lado, los dos sumandos de V son positivos, por tanto, V (y) = 0
dd
si y solo si y2 = 0 y cos y1 = 1, es decir, si y solo si y = (2nπ, 0) con n ∈ Z. Por ser ρ ∈ (0, 2π),
concluimos
da
Definición 2.1.6. Sea V : Bρ −→ R una función tal que V ∈ C 1 (Bρ ) (ρ > 0).
(a) Se denomina derivada respecto del sistema autónomo (1.6) a la función V̇ : Bρ −→ R dada por
AN
N
∂V
ED
X
V̇ (y) = (y)fi (y), ∀y ∈ Bρ .
∂yi
i=1
to.
(b) Se dice que V ∈ C 1 (Bρ ) ∩ C 0 (B ρ ) es una función de Liapunov en Bρ para el sistema autóno-
mo (1.6) si V es definida positiva en Bρ y
Dp
V̇ (y) ≤ 0, ∀y ∈ Bρ .
n
cio
na
Observación 2.1.7. Supongamos que ϕ es una solución del sistema (1.6) en un intervalo J ⊂ R
ter
In
que verifica que ϕ(t) ∈ Bρ para cualquier t ∈ J. Entonces, tiene sentido la función compuesta
4.0
E(·) = V (ϕ(·)) definida en J y satisface E ∈ C 1 (J) y (regla de la cadena)
al
Igu
N N
d X ∂V X ∂V
tir
E 0 (t) = [V (ϕ(t))] = (ϕ(t))ϕ0i (t) = (ϕ(t))fi (ϕi (t)) = V̇ (ϕ(t)), ∀t ∈ J.
r
dt ∂xi ∂xi
pa
i=1 i=1
m
Co
Obsérvese que si además V es una función de Liapunov para el sistema (1.6) en Bρ , entonces
al-
i
tendrı́amos
erc
E 0 (t) = V̇ (ϕ(t)) ≤ 0, ∀t ∈ J,
om
oC
es decir, E(t) es una función no negativa y decreciente en J.
-N
n
ció
bu
2.2. Condiciones suficientes de estabilidad
tri
sA
En esta sección presentaremos el resultado de estabilidad de la solución nula del sistema autóno-
on
mm
mo (1.6) usando el método directo de Liapunov. Se tiene:
Co
Teorema 2.2.1 (Condiciones suficientes de estabilidad de Liapunov). Sean ρ > 0, tal que
ive
Bρ ⊆ D, y V ∈ C 1 (B ρ ) una función de Liapunov en Bρ para el sistema (1.6). Entonces, se tiene:
t
ea
Cr
(b) Supongamos además que V̇ (y) < 0 para cualquier y ∈ B ρ \ {0}. Entonces, la solución ϕ0
Li
Demostración:
da
la Proposición 1.3.13, basta comprobar la Definición 1.3.1 (en realidad, la Observación 1.3.2) para
ers
t0 = 0, es decir, hay que probar que para cualquier ε ∈ (0, ρ), existe δ ∈ (0, ρ) tal que, si |y0 | ≤ δ,
niv
se tiene
(
y 0 = f (y) en Ω = R × D,
(P C)
y(0) = y0
to.
y
Dp
(
y 0 = f (y) e = R × Bρ ,
en Ω
(P
g C)
y(0) = y0 .
n
cio
na
Evidentemente, las hipótesis impuestas a f y D permiten afirmar que (P C) admite una única
ter
In
solución maximal, denotada ϕ(·; 0, y0 ), definida en I(0, y0 ). También se tiene que (P gC) tiene una
4.0
única solución maximal, ahora denotada ϕ(·; e 0, y0 ), definida en I(0, y0 ). Es fácil comprobar que
e
al
(I(0,
e y0 ), ϕ(·;
e 0, y0 )) es solución local de (P C) y, ası́,
Igu
tir
e y0 ) ⊆ I(0, y0 ) ∀t ∈ I(0,
r
(2.3) I(0, y ϕ(t;
e 0, y0 ) = ϕ(t; 0, y0 ), e y0 ).
pa
m
Co
Comencemos probando (2.2) con ϕ(t;
e 0, y0 ) e I(0,
e y0 ) en lugar de ϕ(t; 0, y0 ) e I(0, y0 ).
al-
Fijemos ε ∈ (0, ρ) y tomemos
i
erc
λ(ε) = mı́n V (y).
om
ε≤|y|≤ρ
oC
-N
De las hipótesis del enunciado, deducimos que λ(ε) > 0. Por otro lado, de la propia definición de
n
λ(ε) es fácil comprobar la siguiente propiedad:
ció
bu
Propiedad (P): “Sean ε ∈ (0, ρ) e ye ∈ B ρ tales que V (e
y ) < λ(ε). Entonces, |e
y | < ε”.
tri
Efectivamente, si en las condiciones de la propiedad (P) se tuviera |e
y | ≥ ε, entonces,
sA
on
ye ∈ {y ∈ RN : ε ≤ |y| ≤ ρ}.
mm
Co
y ) ≥ mı́nε≤|y|≤ρ V (y) = λ(ε) y llegarı́amos a un
De la definición de λ(ε) se deducirı́a λ(ε) > V (e
ive
absurdo. ea
t
Cr
Probemos ya el primer apartado del teorema. Como V es continua y V (0) = 0, obtenemos que
cia
E 0 (t) = V̇ (ϕ(t;
e 0, y0 )) ≤ 0, ∀t ∈ I(0,
e y0 ),
dd
|ϕ(t;
e 0, y0 )| ≤ ε, ∀t ∈ I(0,
e y0 ) ∩ [0, ∞).
niv
e y0 ) ⊃ [0, ∞)
I(0, y |ϕ(t;
e 0, y0 )| ≤ ε, ∀t ∈ [0, ∞).
AN
Sin más que utilizar (2.3) deducimos (2.2). Esto prueba el apartado (a).
ED
(b) Supongamos ahora que V ∈ C 1 (Bρ ) es una función de Liapunov en Bρ para el sistema (1.6)
que, además, satisface que V̇ es definida negativa en Bρ . En particular, podemos aplicar el apartado
(a) y deducir que la solución nula ϕ0 de (1.6) es uniformemente estable. Ası́, dado ε = ρ/2, existe
to.
ρ
I(0, y0 ) ⊃ [0, ∞) y |ϕ(t; 0, y0 )| ≤ , ∀t ≥ 0.
2
n
cio
na
Demostraremos que si |y0 | ≤ γ, entonces lı́mt→∞ |ϕ(t; 0, y0 )| = 0. Teniendo en cuenta el Coro-
ter
In
lario 1.3.14, deducimos que ϕ0 es uniformemente atractiva y, por tanto, es uniformemente asintóti-
4.0
camente estable.
al
Como en el apartado (a), podemos considerar E(t) = V (ϕ(t; 0, y0 )), con t ∈ [0, ∞) y deducir
Igu
que E está bien definida y satisface E ∈ C 1 ([0, ∞)) y
r tir
pa
E 0 (t) = V̇ (ϕ(t; 0, y0 )) ≤ 0, ∀t ≥ 0.
m
Co
al-
En particular la función E es positiva y decreciente en [0, ∞). De aquı́ deducimos que existe
i
erc
om
lı́m E(t) = lı́m V (ϕ(t; 0, y0 )) = α ≥ 0.
oC
t→∞ t→∞
-N
Veamos en primer lugar que α = 0. Por reducción al absurdo, supongamos que α > 0. En
n
ció
particular se tiene
bu
α
V (ϕ(t; 0, y0 )) > , ∀t ∈ [0, ∞).
tri
2
sA
0
on
Por otro lado, como V ∈ C (Bρ ) y V (0) = 0, también deducimos que existe µ ∈ (0, ρ) tal que
mm
α
Co
V (y) ≤ , ∀y : |y| ≤ µ.
2
ive
t
ea
Comparando las dos últimas desigualdades, llegamos a que
Cr
cia
µ≤|y|≤ρ
eS
es decir,
da
|ϕ(t; 0, y0 )| ≤ ε, ∀t ≥ Tε .
n
cio
na
En definitiva, lı́mt→∞ |ϕ(t; 0, y0 )| = 0 y la solución ϕ0 de (1.6) es uniformemente atractiva.
ter
In
4.0
(c) Probemos a continuación el tercer punto del resultado. En primer lugar, las hipótesis (2.1)
al
en particular implican que V es una función de Liapunov en Bρ para el sistema autónomo (1.6).
Igu
Tenemos ası́ que la solución nula es (uniformemente) estable. Razonando como en el apartado (b),
r tir
dado ρ/2 > 0, existe γ ∈ (0, ρ) tal que si |y0 | ≤ γ se tiene
pa
m
Co
ρ
I(0, y0 ) ⊃ [0, ∞) y |ϕ(t; 0, y0 )| ≤ , ∀t ≥ 0.
al-
2
i
erc
Tomemos por tanto |y0 | ≤ γ. Siguiendo el razonamiento del apartado (b) también deducimos que
om
oC
la función E(t) = V (ϕ(t; 0, y0 )) está bien definida en [0, ∞) y, utilizando las hipótesis (2.1),
n -N
c3 c3
ció
(2.5) E 0 (t) = V̇ (ϕ(t; 0, y0 )) ≤ −c3 |ϕ(t; 0, y0 )|2 ≤ − V (ϕ(t; 0, y0 )) = − E(t), ∀t ≥ 0.
c2 c2
bu
tri
sA
Utilizamos ahora el Lema de Gronwall (este resultado fue estudiado en la asignatura Ecuacio-
on
nes Diferenciales Ordinarias; ver también [15], p. 121) para deducir
mm
c c c
Co
− c3 t − c3 t − c3 t
(2.6) E(t) ≤ E(0)e 2 = V (y0 )e 2 ≤ c2 |y0 |2 e 2 , ∀t ≥ 0.
ive
t
ea
Hacemos un alto en la demostración del apartado (c) pues merece la pena recordar cómo se
Cr
c3
ce
E 0 (t) + E(t) ≤ 0, ∀t ≥ 0.
Li
c2
illa
c3
t
Si multiplicamos esta desigualdad por e c2 obtenemos
ev
d cc3 t
e 2 E(t) ≤ 0, ∀t ≥ 0.
eS
dt
Basta con integrar esta desigualdad en el intervalo [0, t] para deducir (2.6).
dd
1 1 c2 c
− 3t
|ϕ(t; 0, y0 )|2 ≤ V (ϕ(t; 0, y0 )) = E(t) ≤ |y0 |2 e c2 , ∀t ≥ 0,
c1 c1 c1
i
ers
es decir,
|ϕ(t; 0, y0 )| ≤ C|y0 |e−αt , ∀t ≥ 0,
niv
p
con C = c2 /c1 > 0 y α = c3 /(2c2 ). Sin más que tener en cuenta el Corolario 1.3.14, de la
,U
desigualdad anterior deducimos que para cualesquiera t0 ∈ R e |y0 | ≤ µ se tiene que I(t0 , y0 ) ⊇
[t0 , ∞) y
AN
prueba.
to.
Ejemplo 2.2.2. Volvamos a considerar el ejemplo del péndulo sin rozamiento introducido en el
Ejemplo 1.2.1:
Dp
n
cio
na
donde k > 0 es un parámetro positivo. Veamos las propiedades de estabilidad de la solución nula
ter
In
de esta e.d.o. Podemos reescribir de manera equivalente esta e.d.o. como el sistema
4.0
(
y10 = y2 ,
al
Igu
(2.8)
y20 = −k sen y1 ,
r tir
pa
m
y las propiedades de estabilidad de la solución nula de la ecuación equivalen a las propiedades
Co
de estabilidad de la solución nula ϕ0 del sistema (2.8). Obsérvese que la función f que define el
al-
s.d.o. anterior satisface las condiciones (1.7) para D = R2 . Apliquemos el Teorema 2.2.1 a este
i
erc
sistema para
om
1
oC
V (y1 , y2 ) = y22 + k(1 − cos y1 ), ∀y = (y1 , y2 ) ∈ Bπ
-N
2
n
ció
(ρ = π). Claramente V es definida positiva en Bπ (Ejemplo 2.1.5) y además
bu
tri
V̇ (y) = (k sen y1 ) y2 + y2 (−k sen y1 ) = 0, ∀y ∈ Bπ .
sA
on
Como consecuencia del Teorema 2.2.1 (a) deducimos que la solución nula del sistema (y de la
mm
e.d.o) es uniformemente estable.
Co
ive
Ejemplo 2.2.3. Consideremos ahora el caso del péndulo simple con rozamiento. En este caso el
t
ea
movimiento del péndulo se modela mediante la e.d.o.
Cr
cia
donde k, β > 0 son dos parámetros positivos. La anterior ecuación es equivalente al sistema:
illa
(
y10 = y2 ,
ev
(2.9)
y20 = −βy2 − k sen y1 .
eS
1
Podemos aplicar de nuevo el Teorema 2.2.1 (a) con la función V (y1 , y2 ) = y22 + k(1 − cos y1 ),
dd
2
definida en Bπ , obteniendo en este caso
da
solución nula es uniformemente asintóticamente estable (el rozamiento hace que el péndulo tienda
a pararse cuando el tiempo tiende hacia infinito). Sin embargo, no es posible aplicar a esta función
,U
V el apartado (b) del Teorema 2.2.1 puesto que la función V̇ no es definida negativa en ninguna
bola Bρ para ningún ρ > 0. Veremos en el próximo tema que, utilizando un resultado distinto,
AN
es posible obtener la estabilidad asintótica uniforme de la solución nula del péndulo simple con
rozamiento utilizando la función V anterior.
ED
Acabaremos el ejemplo del péndulo simple con rozamiento probando que la solución nula es
exponencialmente asintóticamente estable. Utilizaremos para ello el Teorema 1.6.1. Efectivamente,
aislando por un lado los términos lineales y por otro los no lineales del sistema (2.9), este se reescribe
to.
0 1 0
A= y g(y1 , y2 ) = .
−k −β −k(sen y1 − y1 )
n
cio
na
Es fácil comprobar que los autovalores de la matriz A tienen parte real negativa (para cualquier
ter
valor de los parámetros k, β > 0) y ası́, la solución nula del sistema lineal y 0 = Ay es uniformemente
In
4.0
asintóticamente estable (Teorema 1.5.3). Por otro lado,
al
Igu
|g(y)|
lı́m = 0,
tir
|y|→∞ |y|
r
mpa
(evidentemente, uniformemente en t) y ası́, la solución nula del sistema no lineal y 0 = Ay + g(y) es
Co
al-
exponencialmente asintóticamente estable (Teorema 1.6.1).
i
erc
El gran inconveniente de la aplicación al sistema (1.6) del método directo de Liapunov formulado
om
oC
en el Teorema 2.2.1 radica en la búsqueda de una función de Liapunov V asociada al sistema. En
-N
sistemas diferenciales que tienen un claro significado fı́sico (como ocurre en los Ejemplos 2.2.2
n
ció
y 2.2.3), estas funciones pueden ser calculadas a partir de la función energı́a asociada al sistema
bu
(ver [14]). En cualquier caso, no existen métodos generales para la construcción de una función de
tri
Liapunov asociada al sistema (1.6) y muchas veces hay que aplicar la intuición y el ingenio.
sA
Veamos algún ejemplo más.
on
mm
Ejemplo 2.2.4. Comenzamos analizando la llamada ecuación de Newton
Co
ive
x00 = −kf (x),
t
ea
Cr
donde k > 0 es una constante real y f ∈ C 1 (R) es una función dada tal que, para ρ > 0, se tiene
ncia
ce
Obsérvese que la ecuación considerada coincide con la ecuación del péndulo cuando f (x) = sen x.
Escribamos la ecuación de segundo orden como un s.d.o. de primer orden
ev
(
y10 = y2 ,
eS
Claramente este sistema satisface (1.7) para D ≡ R2 y podemos analizar las propiedades de esta-
bilidad de la solución nula ϕ0 ≡ 0.
da
Al igual que en la ecuación del péndulo podemos considerar una función de Liapunov (energı́a
total del sistema) dada por:
i
ers
Z y1
1 2
(2.11) V (y) = |y2 | + kF (y1 ) con F (y1 ) = f (s) ds.
niv
2 0
En la expresión anterior el primer sumando representa la energı́a cinética del sistema, mientras
,U
que el segundo proporciona la energı́a potencial del fenómeno modelado. Gracias a las hipótesis
impuestas a la función f es fácil comprobar que V es una función definida positiva en la bola Bρ .
AN
Además,
∀y ∈ Bρ .
Deducimos por tanto que V es una función de Liapunov del sistema en la bola Bρ . Del apartado (a)
to.
n
cio
na
donde k, β ∈ R son constantes positivas y f, ψ ∈ C 1 (R) son funciones que satisfacen (2.10) y
ter
In
ψ(x)x > 0 para cualquier x ∈ [−ρ, ρ] \ {0} (ρ > 0).
4.0
En este caso podemos escribir el sistema como
al
Igu
(
y10 = y2 ,
r tir
y20 = −kf (y1 ) − βψ(y2 ).
pa
m
Co
Si consideramos la función de energı́a V dada por (2.11), deducimos que V es definida positiva
al-
i
en Bρ . Además, podemos calcular la derivada de V respecto del sistema considerado, obteniendo
erc
om
V̇ (y1 , y2 ) = −βy2 ψ(y2 ) ≤ 0, ∀(y1 , y2 ) ∈ Bρ .
oC
-N
n
De nuevo, del apartado (a) del Teorema 2.2.1 podemos concluir que el equilibrio ϕ0 es uniformemen-
ció
bu
te estable. Al igual que en el caso del péndulo con rozamiento, de los resultados del siguiente tema
tri
aplicados a V , deduciremos que la solución nula de la ecuación es uniformemente asintóticamente
sA
estable (lo que parece fı́sicamente razonable)
on
mm
Resultados parecidos pueden ser obtenidos en el caso de la ecuación que modela el movimiento
Co
de una masa m sujeta a un resorte de constante k, en un medio que ofrece un amortiguamiento de
ive
coeficiente C:
mx00 + Cx0 + kx = 0 t
ea
Cr
donde C ≥ 0, k > 0.
cia
n
ce
(
y10 = −y1 − y2 + y22
y20 = y1 − y2 + y13 cos y2 .
ev
eS
De nuevo, si trabajamos en D ≡ R2 , el sistema satisface las condiciones (1.7). Veamos que es posible
aplicar el tercer apartado del Teorema de Liapunov (Teorema 2.2.1 (c)) para la función
dd
1 2
y1 + y22 , ∀y ∈ R2 .
V (y) =
2
da
Claramente V es una función definida positiva en cualquier bola Bρ (ρ > 0). De hecho, V satisface
i
ers
2 2 G(y)
, ∀y ∈ RN , y 6= 0,
= − y1 + y2 1 − 2
y1 + y22
AN
donde G(y) = y1 y22 + y13 y2 cos y2 . Es fácil comprobar que la función G satisface
ED
G(y)
lı́m = 0,
|y|→0 y12 + y22
to.
1 G(y) 1
− ≤ 2 ≤ , ∀y ∈ Bρ .
2 y1 + y22 2
n
cio
na
Volviendo a la expresión de V̇ , de la desigualdad anterior deducimos
ter
In
4.0
G(y) 1
V̇ (y) = − y12 + y22 1 − 2 ≤ − y12 + y22 , ∀y ∈ Bρ .
2
al
y1 + y2 2
Igu
tir
Esta última desigualdad prueba la segunda condición en (2.1). Por tanto, aplicando el Teore-
r
pa
ma 2.2.1 (c) obtenemos que la solución nula ϕ0 del sistema considerado es exponencialmente
m
Co
asintóticamente estable.
al-
Al igual que en el Ejemplo 2.2.3, podemos llegar a la misma propiedad de ϕ0 aplicando el
i
erc
Teorema 1.6.1 (pruébese como ejercicio).
om
oC
Ejemplo 2.2.6. Consideremos el sistema
-N
n
ció
(
y10 = −y1 − αy2 − y12 sen y2
bu
tri
y20 = βy1 − y2 + y2 y1 ,
sA
on
con α, β > 0 dos constantes positivas. De nuevo podemos trabajar en D ≡ R2 y claramente el
mm
sistema satisface las condiciones (1.7). Ahora aplicaremos el Teorema 2.2.1 para una función V
Co
ligeramente distinta a la considerada en el Ejemplo 2.2.5:
t ive
ea
1
Cr
ay12 + by22 , ∀y ∈ R2 ,
V (y) =
2
n cia
ce
donde a y b son dos constantes positivas que elegiremos convenientemente. Obsérvese en primer
Li
lugar que V es una función definida positiva en Bρ para cualquier ρ > 0. De hecho, si llamamos
illa
C1 2 C2 2
|y| ≤ V (y) ≤ |y| , ∀y ∈ RN .
2 2
eS
De nuevo, nuestro objetivo será elegir ρ > 0 y constantes positivas a y b para que V̇ satisfaga
la última hipótesis de (2.1). En primer lugar, tomamos a y b tal que bβ − aα = 0, p.e., a = β y
,U
βy12 + αy22 , ∀y ∈ R2 ,
V (y) =
2
ED
y
G(y)
−βy12 αy22 βy12 αy22 ∀y ∈ R2 .
V̇ (y) = − + G(y) = − + 1− ,
βy1 + αy22
2
to.
G(y)
lı́m = 0,
|y|→0 βy12 + αy22
n
cio
na
y de nuevo, existe ρ > 0 tal que
ter
In
4.0
G(y) 1
≤ , ∀y ∈ Bρ .
βy12 2
al
+ αy2 2
Igu
tir
Volviendo a la expresión de V̇ , se tiene
r
pa
m
1 1
Co
βy12 + αy22 ≤ − mı́n{α, β} y12 + y22 ,
V̇ (y) ≤ − ∀y ∈ Bρ .
al-
2 2
i
erc
Tenemos ası́ probada la última parte de la hipótesis (2.1). De la aplicación del Teorema 2.2.1 (c)
om
oC
inferimos que la solución nula ϕ0 del sistema considerado es exponencialmente asintóticamente
-N
estable.
n
ció
Como en ejemplos anteriores, podemos llegar a la misma propiedad de ϕ0 aplicando el Teore-
bu
ma 1.6.1 (ejercicio).
tri
sA
on
2.3. Una condición suficiente de inestabilidad. Teorema de Tche-
mm
taev
Co
ive
t
En esta sección estudiaremos el Teorema de Tchetaev. Este resultado da una condición suficiente
ea
Cr
(a) V (0) = 0,
illa
estable. En particular, si tomamos ε = ρ/2 > 0, existe δ = δ(ρ/2) ∈ (0, ρ) tal que si |y0 | ≤ δ se
tiene
ρ
i
ers
Si utilizamos la condición (c) con σ = δ deducimos la existencia de yδ ∈ Bδ tal que V (yδ ) > 0 .
A partir de ahora y para llegar a una contradicción, trabajaremos con yδ . De la propiedad anterior,
,U
podemos definir
E(t) = V (ϕ(t; 0, yδ )), ∀t ∈ [0, ∞),
AN
E 0 (t) = V̇ (ϕ(t; 0, yδ )) ≥ 0, ∀t ≥ 0.
to.
n
cio
na
Utilizamos ahora que V ∈ C 0 (Bρ ) y que V (0) = 0. Dado V (yδ ) > 0, existe α ∈ (0, ρ) tal que
ter
In
1
4.0
V (y) ≤ V (yδ ), ∀|y| ≤ α.
2
al
Igu
Si comparamos esta última desigualdad con (2.12), deducimos
r tir
pa
|ϕ(t; 0, yδ )| > α > 0, ∀t ≥ 0.
m
Co
al-
Volviendo a la expresión de E 0 , tenemos
i
erc
om
E 0 (t) = V̇ (ϕ(t; 0, yδ )) ≥ mı́n V̇ (y) = a(α) > 0, ∀t ≥ 0.
oC
α≤|y|≤ρ
-N
n
Integrando esta última expresión entre 0 y t llegamos a E(t) − E(0) ≥ a(α)t, para cualquier t ≥ 0,
ció
es decir,
bu
tri
V (ϕ(t; 0, yδ )) ≥ V (yδ ) + a(α)t, ∀t ≥ 0.
sA
Obsérvese que esta última desigualdad dice que la función V (ϕ(t; 0, yδ )) no está acotada en [0, ∞).
on
mm
Pero esto es absurdo, pues si hacemos M = máx V (y), se tiene
Co
y∈B ρ/2
ive
0 ≤ V (yδ ) + a(α)t ≤ V (ϕ(t; 0, yδ )) ≤ M, ∀t ≥ 0.
t
ea
Cr
Por tanto la solución ϕ0 de (1.6) no puede ser estable. Tenemos ası́ la prueba del resultado.
cia
Ejemplo 2.3.2. Comencemos viendo que la solución estacionaria ϕ1 (t) = π, t ∈ R, del péndulo
illa
Nuestro objetivo será probar que la solución nula de esta ecuación es inestable. Para ello aplicaremos
el Teorema 2.3.1. Podemos escribir la ecuación en forma de sistema como
dd
(
y10 = y2 ,
y20 = k sen y1 = ky1 + k (−y1 + sen y1 ) .
i da
1
αy12 + βy22 + γy1 y2 ,
niv
V (y1 , y2 ) =
2
con α, β, γ ∈ R tres constantes a determinar. Veamos que es posible elegir las constantes para que
,U
V satisfaga los puntos (a), (b) y (c) del Teorema 2.3.1. Evidentemente V ∈ C 1 (R2 ) y satisface la
hipótesis (a). Veamos que también se tiene (b). Comencemos calculando V̇ :
AN
Dp
donde G es la función
k (−y1 + sen y1 ) (y1 − y2 )
G(y1 , y2 ) = ,
ky12 + y22
n
cio
na
función que claramente satisface lı́m|y|→0 G(y1 , y2 ) = 0. Recordemos que nuestro objetivo es com-
ter
In
probar el apartado (b) del Teorema 2.3.1. Ası́, tomando ε = 1/2, existe ρ > 0 tal que
4.0
1 1
al
− ≤ G(y1 , y2 ) ≤ , ∀(y1 , y2 ) ∈ Bρ .
Igu
2 2
r tir
pa
Volviendo a la expresión de V̇ obtenemos
m
Co
1
ky12 + y22 ,
al-
V̇ (y1 , y2 ) ≥ ∀(y1 , y2 ) ∈ Bρ ,
2
i
erc
om
y por tanto, V̇ es definida positiva en Bρ . Tenemos ası́ el apartado (b) del Teorema 2.3.1.
oC
Finalmente, se tiene V (y1 , 0) = k2 y12 , de donde es fácil deducir que V satisface también el
-N
n
apartado (c) del Teorema de Tchetaev.
ció
Podemos concluir que la solución estacionaria ϕ ≡ π de la e.d.o. (2.7) es inestable.
bu
tri
sA
Ejercicio 2.3.3. Demuéstrese que la solución estacionaria ϕ1 (t) = π, t ∈ R, del péndulo con
on
rozamiento
mm
x00 + βx0 + k sen x = 0,
Co
donde k, β > 0 son dos parámetros positivos, es inestable.
ive
t
ea
Terminemos el capı́tulo con otro ejemplo de aplicación del Teorema 2.3.1.
Cr
cia
(
y10 = −y1
illa
y20 = y2 + y22 .
ev
Se puede comprobar que el sistema satisface las condiciones (1.7), con D ≡ R2 , y que ϕ0 ≡ 0 es
solución en R del sistema. Estudiemos sus propiedades de estabilidad. En este caso, nuestro objetivo
eS
1
−y12 + y22 ,
V (y1 , y2 ) =
2
da
ma 2.3.1:
ers
y23
2 2 3 2 2
= y12 + y22 [1 + G(y1 , y2 )] .
niv
V̇ (y1 , y2 ) = y1 + y2 + y2 = y1 + y2 1 + 2 2
y1 + y2
,U
Se tiene lı́m|y|→0 |G(y1 , y2 )| = 0 y, ası́, como en ocasiones anteriores, dado ε = 1/2, existe ρ > 0 tal
que
AN
1 1
− ≤ G(y1 , y2 ) ≤ , ∀(y1 , y2 ) ∈ R2 .
2 2
ED
2
Hemos comprobado por tanto el apartado (b) del Teorema 2.3.1.
Dp
Finalmente, se tiene que V (0, y2 ) = y22 /2 de donde deducimos el último punto del Teorema de
Tchetaev. Como consecuencia, se tiene que la solución nula del sistema considerado es inestable.
n
cio
na
2.4. Resultados adicionales y comentarios bibliográficos
ter
In
4.0
En la redacción de este tema hemos vuelto a seguir la referencia [14] pero también de manera
al
importante la referencia [18]. En estos dos libros aparecen varios ejemplos de e.d.o. y s.d.o. con
Igu
origen en Fı́sica y otras Ciencias a los que se le pueden aplicar los resultados del tema.
r tir
Por otro lado, hemos presentado el segundo método de estabilidad de Liapunov en el ca-
pa
m
so del sistema autónomo (1.6). Sin embargo, no es difı́cil generalizar los resultados de estabili-
Co
dad/inestabilidad vistos en este tema al caso de un sistema general como (1.3). Para el lector
al-
i
interesado, véanse por ejemplo [14] y [18].
erc
om
oC
-N
n
ció
bu
tri
sA
on
mm
Co
ive
t
ea
Cr
cia
n
ce
Li
illa
ev
eS
dd
i da
ers
niv
,U
AN
ED
to.
Dp
a l-C
rci
me
Órbitas de sistemas autónomos. Los
Co
No
n-
Teoremas de LaSalle y de
ció
u
rib
Poincaré-Bendixson
At
ns
m mo
Co
e
tiv
En este tema seguiremos analizando las propiedades cualitativas de las soluciones del sistema
ea
autónomo Cr
cia
(3.1) y 0 = f (y),
cen
Li
con f una función satisfaciendo ciertas condiciones (ver más abajo). En concreto, estamos in-
il la
concepto de órbita del sistema (3.1) que pasa por el punto y0 . De este análisis deduciremos uno de
los resultados principales del tema: el Teorema de LaSalle. Es interesante resaltar en este tema la
eS
componente geométrica del mismo: como veremos, la órbita de (3.1) que pasa por el punto y0 es
simplemente una curva en RN parametrizada con la variable tiempo t.
dd
Después del Teorema de LaSalle, estudiaremos el interesante caso de los sistemas planos. Apro-
vecharemos en este caso que las órbitas del sistema son curvas planas. Podremos por tanto dar un
ida
Con estos datos consideramos el sistema autónomo (3.1). Observemos en primer lugar que, a dife-
ED
rencia de los capı́tulos anteriores, en este tema no hemos añadido ninguna hipótesis sobre D y f
que asegure que la función idénticamente nula ϕ0 ≡ 0 sea solución del sistema diferencial (3.1).
Como hemos dicho más arriba, en este tema estamos interesados en llevar a cabo un estudio
to.
cualitativo de la solución maximal ϕ(·; t0 , y0 ) (definida en el intervalo abierto I(t0 , y0 )), con (t0 , y0 ) ∈
R × D.
Dp
Empecemos definiendo el concepto de órbita del sistema (3.1) que pasa por un punto y0 ∈ D:
43
al.
44 3.1. Concepto de órbita. Órbitas de sistemas lineales planos
n
cio
na
Definición 3.1.1. Sea y0 ∈ D y denotemos I(y0 ) = I(0, y0 ). Se llama órbita del sistema autóno-
ter
In
mo (3.1) asociada (o, que pasa por) y0 al conjunto γ(y0 ) dado por
4.0
γ(y0 ) = {ϕ(t; 0, y0 ) : t ∈ I(y0 )} ⊂ D.
al
Igu
tir
De la propia definición deducimos que y0 ∈ γ(y0 ). Como hemos dicho más arriba, γ(y0 ) es, en
r
pa
general, una curva en RN que pasa por el punto y0 .
m
Co
Observación 3.1.2. Recordemos el Corolario 1.3.14: para cualquier (t0 , y0 ) ∈ R × D, se tiene
al-
i
erc
I(y0 ) = I(t0 , y0 ) − t0 (resp., I(t0 , y0 ) = t0 + I(y0 )).
om
oC
ϕ(t; 0, y0 ) = ϕ(t + t0 ; t0 , y0 ), para cualquier t ∈ I(y0 ) (resp., ϕ(t; t0 , y0 ) = ϕ(t − t0 ; 0, y0 ), para
-N
cualquier t ∈ I(t0 , y0 )).
n
ció
bu
Ası́, si y0 ∈ D, se tiene
tri
sA
γ(y0 ) = {ϕ(t; 0, y0 ) : t ∈ I(y0 )} = {ϕ(t + t0 ; t0 , y0 ) : t ∈ I(t0 , y0 ) − t0 }
on
mm
= {ϕ(s; t0 , y0 ) : s ∈ I(t0 , y0 )} = {ϕ(t; t0 , y0 ) : t ∈ I(t0 , y0 )}.
Co
Tenemos de este modo una definición equivalente de órbita del sistema autónomo (3.1) asociada
ive
a y0 y, como se puede observar, esta definición no depende del tiempo inicial t0 donde hayamos
t
ea
planteado el problema de Cauchy asociado al sistema (3.1).
Cr
cia
Definición 3.1.3. Sea y0 ∈ D. Se dice que y0 es un punto crı́tico o punto estacionario para el
n
ce
Observación 3.1.4. Sea y0 ∈ D. Es fácil comprobar que y0 es un punto crı́tico para el sistema (3.1)
si y solo si se tiene que ϕ(t; 0, y0 ) = y0 para cualquier t ∈ I(y0 ) ≡ R. Dicho de otro modo, es un
ev
γ(y0 ) = {y0 }.
dd
Ejemplo 3.1.5. Veamos ejemplos de cómo son las órbitas en un caso sencillo de sistemas con dos
ecuaciones. En concreto, veamos cómo son las órbitas de sistemas de la forma
da
siendo A una matriz de R2 . Recordemos que en este caso la matriz fundamental viene dada por
F (t) = etA . Usando la forma canónica de Jordan existen P , matriz regular, y D diagonal tal que
niv
A = P DP −1 , y por tanto F (t) = P etD P −1 . Ası́, las órbitas de (3.2) serán transformaciones lineales
de etD . Esta matriz D puede tener distintas formas dependiendo si los autovalores son reales y
,U
λ1 0 λ 0 λ 1 α β
D= , D= , D= , D= .
0 λ2 0 λ 0 λ −β α
ED
Hagamos algunos de estos casos como ejemplo. Tomemos en primer lugar el caso de dos autovalores
reales distintos. Es claro que en este caso I(y0 ) = R y las soluciones son
to.
Por tanto,
γ(y0 ) = {(y10 eλ1 t , y20 eλ2 t ) : t ∈ R}.
n
cio
na
ter
In
4.0
al
Igu
tir
órbitas para la matriz de diagonal [-2,-1]
1
r
pa
m
0.8
Co
0.6
al-
i
erc
0.4
om
0.2
oC
-N
y2
n
ció
-0.2
bu
tri
-0.4
sA
on
-0.6
mm
-0.8
Co
-1
ive
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
y1
t
ea
Cr
cia
Figura 3.1: Órbitas de un sistema plano con D = diag(λ1 , λ2 ) con λ1 < λ2 < 0.
n
ce
Li
illa
+∞ si y20 > 0,
lı́m y2 (t) = lı́m y2 (t) = 0.
t→−∞ −∞ si y20 < 0, t→∞
dd
luego la órbita es el eje de ordenada positivo (resp. negativo) exceptuando el (0, 0) si y20 > 0 (resp.
y20 < 0). Además, la trayectoria “va”hacia el origen.
da
Un estudio similar ocurre si y20 = 0, donde la órbita es el eje de abscisas positivo (resp. negativo)
i
exceptuando el (0, 0) si y10 > 0 (resp. y10 < 0). Además, la trayectoria “va” hacia el origen.
ers
y1 λ2 /λ1
(3.3) y2 = y20
y10
,U
con 0 < λ2 /λ1 < 1 (observemos que y1 tiene el mismo signo que y10 ). Por tanto, las órbitas son
monomios de potencias menores que uno, que pasan por el punto y0 y se acercan desde “infinito”a
AN
cero.
Estudiemos a continuación el caso de autovalores complejos. Para resolver el sistema y 0 = Dy,
ED
esto es 0
y1 = αy1 + βy2
y20 = −βy1 + αy2
to.
y1 = ρ cos θ,
y2 = ρ sen θ,
n
cio
na
es decir,
ter
q
In
ρ= y12 + y22 = |y| y θ = arctan (y2 /y1 ) .
4.0
De aquı́,
al
Igu
1 2y1 y10 + 2y2 y20
0
ρ = 2 (y 2 + y 2 )1/2 = αρ;
tir
r
1 2
pa
1 y20 y1 − y10 y2
m
θ0 = = −β.
Co
1 + y22 /y12 y12
al-
i
erc
Fijado y0 ∈ RN \ {0}, el problema de Cauchy para el sistema y 0 = Dy con dato inicial y(0) = y0
om
equivale a
oC
(
ρ0 = αρ, ρ(0) = ρ0 ,
-N
θ0 = −β, θ(0) = θ0 ,
n
ció
bu
con (ρ0 , θ0 ) las coordenadas polares de y0 (en particular, ρ0 = |y0 | ∈ (0, ∞)). Es fácil resolver el
tri
sA
anterior problema de Cauchy, obteniendo la siguiente solución maximal:
on
(
ρ(t; 0, ρ0 , θ0 ) = ρ0 eαt ,
mm
(3.4)
Co
θ(t; 0, ρ0 , θ0 ) = −tβ + θ0 ,
1. Caso α, β > 0: la órbita es una espiral que viene desde (0, 0) y se va alejando en el sentido de
n
2. Caso α > 0, β < 0: la órbita es una espiral que viene desde (0, 0) y se va alejando en el sentido
illa
3. Caso α < 0, β > 0: la órbita es una espiral que se acerca a (0, 0) en el sentido de las agujas
del reloj.
eS
4. Caso α < 0, β < 0: la órbita es una espiral que se acerca a (0, 0) en el sentido contrario a las
dd
5. Caso α = 0: la órbita es una circunferencia de centro (0, 0) y radio ρ0 que gira en el sentido
de las agujas del reloj si β > 0 y en el sentido contrario a las agujas del reloj si β < 0.
i
ers
6. Caso β = 0. En este caso son semirrectas que parten del (0, 0) (sin contenerlo) y se alejan a
infinito si α > 0 y se acercan a (0, 0) si α < 0.
niv
Realizando este estudio en los diferentes casos, podemos deducir de forma resumida lo siguiente:
,U
a) λ1 < λ2 < 0: el (0, 0) es un nodo estable, todas las trayectorias se acercan al origen.
b) 0 < λ1 < λ2 : el (0, 0) es un nodo inestable, todas las trayectorias se alejan del origen.
ED
n
cio
na
ter
In
4.0
al
Igu
r tir
pa
m
órbitas para la matriz de diagonal [1,2]
Co
1.5
al-
i
erc
1
om
oC
-N
0.5
n
ció
bu
y2
tri
sA
on
-0.5
mm
Co
-1
t ive
ea
Cr
-1.5
-1.5 -1 -0.5 0 0.5 1 1.5
y1
n cia
ce
Figura 3.2: Órbitas de un sistema plano con D = diag(λ1 , λ2 ) con 0 < λ1 < λ2 .
Li
illa
ev
eS
dd
1.5
da
1
i
ers
0.5
niv y2
-0.5
,U
-1
AN
-1.5
ED
-2
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
y1
to.
Figura 3.3: Órbitas de un sistema plano con D = diag(λ1 , λ2 ) con λ1 < 0 < λ2 .
Dp
n
cio
na
b) Si la matriz no es múltiplo de la identidad, tenemos un nodo impropio (estable si λ < 0
ter
In
e inestable si λ > 0), con una curva en forma de S acercándose o alejándose del centro.
4.0
3. Autovalores complejos conjugados
al
Igu
tir
a) α < 0 da una espiral estable, todas las trayectorias se acercan al origen, en el sentido de
r
pa
las agujas del reloj si β > 0 o en el contrario si β < 0.
m
Co
b) α > 0 da una espiral inestable, todas las trayectorias se alejan del origen, en el sentido
al-
de las agujas del reloj si β > 0 o en el contrario si β < 0.
i
erc
om
c) α = 0 da un centro, las trayectorias se cierran y tenemos una familia de órbitas periódicas.
oC
-N
n
Ejemplo 3.1.6. Consideremos el sistema
ció
bu
(
y10 = y2 + y1 (1 − y12 − y22 ),
tri
(3.5)
sA
y20 = −y1 + y2 (1 − y12 − y22 ).
on
mm
Para este sistema seremos capaces de hacer el cálculo explı́cito de la solución maximal en función
Co
del dato inicial y, por tanto, el cálculo de las órbitas asociadas. Obsérvese que si llamamos f a la
ive
función vectorial que proporciona el sistema, se tiene que f ∈ C ∞ (D; R2 ), con D ≡ R2 . Estamos
t
ea
por tanto en las condiciones del sistema (3.1).
Cr
Comencemos calculando los puntos crı́ticos de este sistema. Para ello, multiplicamos la primera
cia
n
y12 + y22 = 0.
illa
De aquı́ deducimos que el único posible punto crı́tico es (0, 0). Evidentemente, f (0, 0) = 0. Ası́, el
ev
y1 = ρ cos θ,
i
y2 = ρ sen θ,
ers
es decir,
niv
q
ρ= y12 + y22 = |y| y θ = arctan (y2 /y1 ) .
,U
De aquı́,
1/2
0
= y12 + y22 1 − y12 − y22 = ρ(1 − ρ2 );
ρ = 2 2 1/2
2 (y1 + y2 )
1 y20 y1 − y10 y2
ED
θ0 =
= −1.
1 + y22 /y12 y12
to.
Fijado y0 ∈ RN \ {0}, el problema de Cauchy para el sistema (3.5) con dato inicial y(0) = y0
equivale a
Dp
(
ρ0 = ρ(1 − ρ2 ), ρ(0) = ρ0 ,
θ0 = −1, θ(0) = θ0 ,
n
cio
na
ter
In
4.0
al
Igu
r tir
mpa
órbitas para la matriz D compleja con ,=1.1 -=4.5 órbitas para la matriz D compleja con ,=1.1 -=-4.5
Co
50 50
al-
40 40
i
erc
30 30
om
20 20
oC
10 10
y2
y2
-N
0 0
n
-10 -10
ció
-20 -20
bu
-30 -30
tri
sA
-40 -40
-50 -50
on
-50 -40 -30 -20 -10 0 10 20 30 40 50 -50 -40 -30 -20 -10 0 10 20 30 40 50
y1 y1
mm
Co
t ive
ea
Cr
n cia
ce
órbitas para la matriz D compleja con ,=-1.1 -=4.5 órbitas para la matriz D compleja con ,=-1.1 -=-4.5
1 1
0.8 0.8
0.6 0.6
da
0.4 0.4
i
0.2 0.2
ers
y2
y2
0 0
-0.2 -0.2
niv
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
,U
-1 -1
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1 -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
y1 y1
AN
ED
to.
Figura 3.4: Órbitas para sistemas planos con D = (α, β; −β, α).
n
cio
na
con (ρ0 , θ0 ) las coordenadas polares de y0 (en particular, ρ0 = |y0 | ∈ (0, ∞)). Es fácil resolver el
ter
In
anterior problema de Cauchy, obteniendo la siguiente solución maximal:
4.0
ρ0
al
ρ(t; 0, ρ0 , θ0 ) = q ,
Igu
ρ20 + 1 − ρ20 e−2t
(3.6)
r tir
pa
θ(t; 0, ρ0 , θ0 ) = −t + θ0 ,
m
Co
con t ∈ I(ρ0 , θ0 ), donde:
al-
i
erc
(
si ρ0 ∈ (0, 1],
om
R,
I(ρ0 , θ0 ) =
oC
1
ln 1 − 1/ρ20 .
(T (ρ0 ), ∞) , si ρ0 ∈ (1, ∞) con T (ρ0 ) = 2
-N
n
ció
Con estos datos, podemos deducir:
bu
tri
1. Si |y0 | = 1, es decir, si ρ0 = 1, entonces ρ(t; 0, ρ0 , θ0 ) = 1 para cualquier t ∈ I(ρ0 , θ0 ) ≡ R.
sA
De esta forma, es fácil comprobar que la órbita que pasa por y0 está dada por γ(y0 ) = S1 ,
on
mm
siendo S1 la circunferencia de centro (0, 0) y radio 1. Además, esta circunferencia se recorre
Co
en sentido negativo (sentido de las agujas del reloj). Véase Figura 3.5.
ive
2. Si 0 < |y0 | < 1, entonces es fácil comprobar que ρ(t; 0, ρ0 , θ0 ) ∈ (0, 1), para cualquier t ∈
ea
t
I(ρ0 , θ0 ) ≡ R. En particular, ρ0 = ρ(1 − ρ2 ) > 0 y la función ρ(t; 0, ρ0 , θ0 ) es estrictamente
Cr
cia
En este caso se tiene que γ(y0 ) es una espiral en la bola unidad que viene del origen de
ce
Li
3. Si |y0 | > 1, entonces se tiene que ρ(t; 0, ρ0 , θ0 ) ∈ (1, ∞), para cualquier t ∈ I(ρ0 , θ0 ) ≡
ev
decreciente en (T (ρ0 ), ∞). Igual que en el caso anterior, se tiene lı́mt→T (ρ0 )− ρ(t; 0, ρ0 , θ0 ) = ∞
y lı́mt→∞ ρ(t; 0, ρ0 , θ0 ) = 1. Ası́, de nuevo γ(y0 ) es una espiral (esta vez en el exterior de la
dd
bola unidad) que viene desde el infinito y que se acerca hacia S1 . Como en los casos anteriores,
la espiral se recorre en el sentido de las agujas del reloj.
i da
ers
En esta sección introduciremos los conceptos de órbita cı́clica y conjunto lı́mite para el sistema
autónomo (3.1). También estudiaremos las principales propiedades de estos conjuntos. Comencemos
,U
recordando el Corolario 1.3.14 que establece una importante propiedad de los sistemas autóno-
mos:
AN
Proposición 3.2.1. Consideremos el sistema autónomo (3.1) con f ∈ Liploc (D). Para t0 ∈ R e
ED
y0 ∈ D, sea ϕ(·; t0 , y0 ) la solución maximal del problema de Cauchy asociado a (3.1). Entonces,
A diferencia del anterior, la siguiente proposición establece un resultado que es válido para
cualquier s.d.o., sea autónomo o no:
c
na
t er
In
4.0
al
Igu
tir
r
pa
om
a l-C
rci
Órbitas Ejemplo 3.2
me
2
Co
1.5
No
n-
1
ció
u
0.5
rib
At
0
ns
y2
mo
-0.5
m
Co
-1
e
tiv
-1.5
ea
-2
Cr
cia
-2.5
-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2
cen
y1
Li
il la
Proposición 3.2.2. Consideremos el sistema autónomo (3.1) con f ∈ Liploc (D). Sean t0 ∈ R e
y0 ∈ D. Entonces, si t1 ∈ I(t0 , y0 ) e y1 = ϕ(t1 ; t0 , y0 ), se tiene I(t0 , y0 ) = I(t1 , y1 ) y
eS
valores iniciales:
(
ers
y 0 = f (y),
(P C)1
y(t1 ) = y1 .
niv
Es claro que (I(t1 , y1 ), ϕ(·, ; t1 , y1 )) es la solución maximal de (P C)1 . También, de las hipótesis
,U
del enunciado deducimos que (I(t0 , y0 ), ϕ(·, ; t0 , y0 )) es una solución local del mismo problema. Del
resultado de unicidad de solución (Teorema 1.1.2) deducimos que I(t1 , y1 ) ⊇ I(t0 , y0 ) y
AN
(P C)0
y(t0 ) = y0 .
Dp
c
na
t er
In
A lo largo del presente tema utilizaremos ambos resultados de manera esencial. Como primera
.0
consecuencia obtenemos el
4
al
Igu
Corolario 3.2.3. En las condiciones de la Proposición 3.2.1, sean y0 ∈ D, t1 ∈ I(y0 ) e y1 =
tir
ϕ(t1 ; 0, y0 ). Entonces, I(y0 ) = t1 + I(y1 ) y
r
pa
om
ϕ(t; 0, y1 ) = ϕ(t + t1 ; 0, y0 ), ∀t ∈ I(y1 );
a l-C
rci
(equivalentemente, ϕ(t; 0, y0 ) = ϕ(t − t1 ; 0, y1 ) para cualquier t ∈ I(y0 )).
me
Co
Demostración: Deduciremos el resultado como consecuencia de las dos proposiciones anterio-
No
res. Efectivamente, en las condiciones del enunciado y como consecuencia de la Proposición 3.2.2
n-
deducimos
ció
u
rib
I(t1 , y1 ) = I(0, y0 ) ≡ I(y0 ) y ϕ(t; t1 , y1 ) = ϕ(t; 0, y0 ), ∀t ∈ I(t1 , y1 ).
At
ns
mo
Por otro lado, aplicando la Proposición 3.2.1, también obtenemos
m
Co
I(t1 , y1 ) = t1 + I(0, y1 ) ≡ t1 + I(y1 ) y ϕ(t; t1 , y1 ) = ϕ(t − t1 ; 0, y1 ), ∀t ∈ I(t1 , y1 ).
e
tiv
ea
La combinación de ambas propiedades proporciona la prueba.
Cr
cia
Establezcamos ahora una serie de propiedades del conjunto γ(y0 ). En estas propiedades utili-
cen
Demostración: El resultado es una consecuencia directa del Corolario 3.2.3. Comencemos pro-
dd
por tanto, y1 ∈ γ(y0 ), es decir, y1 = ϕ(t1 ; 0, y0 ) con t1 ∈ I(y0 ). Del Corolario 3.2.3 podemos escribir:
ers
(
γ(y1 ) = {ϕ(t; 0, y1 ) : t ∈ I(y1 )} = {ϕ(t + t1 ; 0, y0 ) : t ∈ I(y0 ) − t1 }
= {ϕ(s; 0, y0 ) : s ∈ I(y0 )} ≡ γ(y0 ).
niv
Para el segundo apartado, basta probar que γ(y0 ) ∩ γ(y1 ) 6= ∅ implica γ(y0 ) = γ(y1 ) ya que
la implicación contraria es evidente. Supongamos por tanto que existe y2 ∈ γ(y0 ) ∩ γ(y1 ). Por el
primer apartado, tenemos que y2 ∈ γ(y0 ) e y2 ∈ γ(y1 ) implican
AN
de las órbitas del sistema autónomo (3.1): Dos órbitas distintas de (3.1) nunca se cortan.
Siguiendo con las definiciones, presentamos ahora la definición de las semiórbitas positiva y
Dp
n
cio
na
Definición 3.2.5. Dado y0 ∈ D, definimos la semiórbita positiva (resp., semiórbita negativa) del
ter
sistema (3.1) asociada a y0 al conjunto γ + (y0 ) (resp., al conjunto γ − (y0 )) dado por:
In
4.0
γ + (y0 ) = {ϕ(t; 0, y0 ) : t ∈ I(y0 ), t ≥ 0},
al
Igu
tir
(resp., γ − (y0 ) = {ϕ(t; 0, y0 ) : t ∈ I(y0 ), t ≤ 0}.
r
pa
m
Como consecuencia del Corolario 3.2.3 se puede fácilmente deducir la propiedad:
Co
al-
Proposición 3.2.6. Sea y0 ∈ D y consideremos y1 = ϕ(t1 ; 0, y0 ) ∈ γ(y0 ), con t1 ∈ I(y0 ). Entonces,
i
erc
om
1. Si t1 ≥ 0, entonces γ + (y0 ) = γ + (y1 ) ∪ {ϕ(t; 0, y0 ) : t ∈ [0, t1 ]}.
oC
-N
2. Si t1 ≤ 0, entonces γ + (y1 ) = γ + (y0 ) ∪ {ϕ(t; 0, y0 ) : t ∈ [t1 , 0]}.
n
ció
Ejercicio 3.2.7. Pruébese la Proposición 3.2.6.
bu
tri
sA
Introduzcamos ahora el concepto de órbita cı́clica:
on
mm
Definición 3.2.8. Sea y0 ∈ D. Se dice que la órbita γ(y0 ) de (3.1) es cı́clica o cerrada si I(y0 ) = R
y existe T > 0 tal que se tiene
Co
ive
ϕ(t + T ; 0, y0 ) = ϕ(t; 0, y0 ), ∀t ∈ R.
t
ea
Cr
Observación 3.2.9. 1. Las órbitas cı́clicas corresponden a las soluciones periódicas del sistema
Li
autónomo (3.1). Como primer ejemplo trivial está el caso de los puntos crı́ticos del sistema:
illa
para designar las órbitas cı́clicas que se reducen a un punto (punto crı́tico de (3.1)).
Por otro lado, en el Ejemplo 3.1.6 vimos que si y0 ∈ C = {y ∈ R2 : |y| = 1}, entonces,
dd
2. Si para y0 ∈ D la órbita γ(y0 ) es cı́clica, entonces se tiene γ(y0 ) = γ + (y0 ) = γ − (y0 ). Además,
i
si y1 ∈ γ(y0 ) se tiene γ + (y0 ) = γ + (y1 ). Veremos un poco más abajo que las implicaciones
ers
ϕ(t1 ; 0, y0 ) = ϕ(t2 ; 0, y0 ).
c
na
t er
In
ϕ(t; 0, y0 ) = ϕ(t − t1 ; 0, y1 ) y ϕ(t; 0, y0 ) = ϕ(t − t2 ; 0, y2 ), para cualquier t ∈ I(y0 ).
4.0
Probemos por tanto el resultado. Sean t1 , t2 ∈ I(y0 ) tal que t1 6= t2 y ϕ(t1 ; 0, y0 ) = ϕ(t2 ; 0, y0 ).
al
Igu
Por simplicidad, podemos suponer que t2 > t1 . Con la notación,
tir
r
pa
y1 = ϕ(t1 ; 0, y0 ) = ϕ(t2 ; 0, y0 ) = y2 ,
om
l-C
del primer punto obtenemos
a
rci
me
I(y0 ) = t1 + I(y1 ) = t2 + I(y2 ) = t2 + I(y1 ),
Co
No
es decir, t1 + I(y1 ) ≡ t2 + I(y1 ). Al ser t2 6= t1 , deducimos que I(y1 ) = R y, ası́, I(y0 ) ≡ R.
n-
Sea T = t2 − t1 . Utilizando el segundo punto anterior y la igualdad y1 = y2 , deducimos
ció
u
rib
ϕ(t + T ; 0, y0 ) = ϕ(t + t2 − t1 ; 0, y0 ) = ϕ(t − t1 ; 0, y2 ) ≡ ϕ(t − t1 ; 0, y1 ) = ϕ(t; 0, y0 ),
At
ns
igualdades válidas para cualquier t ∈ R. Esto prueba que la órbita γ(y0 ) de (3.1) es cı́clica.
mo
Como consecuencia de la anterior propiedad de órbitas cı́clicas es fácil comprobar la nueva
m
Co
propiedad formulada en el
e
tiv
Ejercicio 3.2.12. Pruébese la propiedad: “Sea y0 ∈ D. La órbita γ(y0 ) del sistema (3.1) es cı́clica
ea
si y solo si γ + (y0 ) = γ(y0 ) (resp., γ − (y0 ) = γ(y0 ))”. Cr
cia
cen
el sistema (3.1):
il la
(a) Se dice que Γ es un conjunto invariante para el sistema autónomo (3.1) si para cualquier y0 ∈ Γ
ev
se satisface γ(y0 ) ⊆ Γ.
eS
(b) Se dice que Γ es un conjunto positivamente invariante (resp., negativamente invariante) para
el sistema (3.1) si se tiene que γ + (y0 ) ⊆ Γ (resp., γ − (y0 ) ⊆ Γ), para cualquier y0 ∈ Γ.
dd
2. Sea y0 un punto de D. Utilizando la Proposición 3.2.4, obtenemos que la órbita γ(y0 ) de (3.1)
es un conjunto invariante de ese sistema.
AN
ED
Ejemplo 3.2.14. Volvemos al Ejemplo 3.1.6. En este caso los cálculos que hicimos muestran que
los tres conjuntos
{y0 ∈ R2 : |y0 | < 1}, {y0 ∈ R2 : |y0 | = 1}, {y0 ∈ R2 : |y0 | > 1}
to.
son invariantes es decir, si y0 pertenece a uno de estos conjuntos, entonces toda la órbita está
Dp
contenida en el conjunto.
n
cio
na
ter
In
Órbitas Ejemplo 3.2
2
4.0
1.5
al
Igu
1
tir
0.5
r
pa
0
y2
m
-0.5
Co
-1
al-
i
-1.5
erc
om
-2
oC
-2.5
-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2
y1
-N
n
ció
bu
tri
Figura 3.6:
sA
on
mm
La Figura 3.6 nos muestra la órbita correspondiente a un punto y0 con |y0 | < 1, un punto y0
Co
con |y0 | = 1 y un punto y0 con |y0 | > 1. En el dibujo da la impresión de que las tres trayectorias
ive
se cortan en la circunferencia S1 , lo cual nos dice la teorı́a que no es cierto. Esto se debe a que
t
ea
como vemos por la expresión de ρ que aparece en (3.6) la solución correspondiente a tomar y0 con
Cr
|y0 | < 1 o |y0 | > 1 se acerca de forma exponencial a la circunferencia cuando t tiende a infinito, con
cia
lo cual la distancia entre ambas órbitas es tan pequeña que en el dibujo parece nula.
n
ce
Li
illa
la identidad [
eS
Γ= γ(y0 ).
y0 ∈Γ
dd
Equivalencias análogas se tienen para conjuntos que son positiva o negativamente invariantes para
el sistema.
da
Definición 3.2.16. 1. Se dice que p ∈ RN es un punto lı́mite positivo (resp., punto lı́mite
i
ers
negativo) asociado al sistema (3.1) y al punto y0 ∈ D si existe una sucesión {tn }n≥1 ⊂ I(y0 )
tal que
niv
2. Dado y0 ∈ D, se denomina conjunto lı́mite positivo (resp., conjunto lı́mite negativo) asociado
al sistema (3.1) y al punto y0 al conjunto
ED
[
Λ± (A) = Λ± (y0 ).
y0 ∈A
n
cio
na
Observación 3.2.17. 1. De la propia Definición 3.2.16 deducimos que Λ+ (y0 ) ⊆ γ(y0 ) ⊆ D
ter
(aunque Λ (y0 ) podrı́a ser vacı́o). Una propiedad análoga se tiene para Λ− (y0 ). En realidad
In
+
4.0
se puede escribir algo mejor:
al
Igu
Λ+ (y0 ) ⊆ γ + (y0 ), (Λ− (y0 ) ⊆ γ − (y0 )).
rtir
pa
Efectivamente, si p ∈ Λ+ (y0 ), entonces p = lı́m ϕ(tn ; 0, y0 ) donde la sucesión {tn }n≥1 ⊂ I(y0 )
m
Co
y lı́m tn = sup I(y0 ). Evidentemente, existe n0 tal que tn ≥ 0 para cualquier n ≥ n0 . Si nos
al-
fijamos en la sucesión {ϕ(tn ; 0, y0 )}n≥n0 se tiene
i
erc
om
{ϕ(tn ; 0, y0 )}n≥n0 ⊂ γ + (y0 ) y p = lı́m ϕ(tn ; 0, y0 ) ∈ γ + (y0 ).
oC
-N
n
Tenemos ası́ la contención.
ció
bu
2. Si la órbita γ(y0 ) es cı́clica, entonces se tiene Λ+ (y0 ) ≡ Λ− (y0 ) ≡ γ(y0 ).
tri
sA
Efectivamente, probemos que Λ+ (y0 ) ≡ γ(y0 ), la otra equivalencia es similar. Sea T > 0 un
on
mm
periodo de la órbita.
Co
Primero observamos que dado t ∈ R y tomando k ∈ Z tal que kT ≤ t < (k + 1)T , se tiene
ive
que
t
ea
ϕ(t, 0, y0 ) = ϕ(t − kT, 0, y0 )
Cr
cia
Esto muestra que γ(y0 ) es la imagen del intervalo [0, T ], que es un compacto, por la aplicación
ev
3. En el caso del Ejemplo 3.1.6, se tiene que Λ+ (y0 ) = S1 para todo y0 ∈ R2 \ {0}, mientras que
,U
Proposición 3.2.18. Consideremos el sistema autónomo (3.1), con f ∈ Liploc (D), y sea y0 ∈ D.
Se tiene:
to.
n
cio
na
Demostración: Utilizaremos de manera fundamental el Corolario 3.2.3.
ter
In
1. Fijemos y0 ∈ D y comencemos probando la propiedad:
4.0
Propiedad 1: “Si y1 ∈ γ(y0 ), entonces, Λ+ (y1 ) ⊆ Λ+ (y0 )”.
al
Igu
Efectivamente, si y1 ∈ γ(y0 ), entonces y1 = ϕ(e t ∈ I(y0 ). Sea ahora p ∈ Λ+ (y1 ) y
t; 0, y0 ) con e
tir
+
veamos que p ∈ Λ (y0 ). Por un lado, existe una sucesión {tn }n≥1 ⊂ I(y1 ) tal que tn → sup I(y1 ) y
r
pa
p = lı́m ϕ(tn ; 0, y1 ). Del Corolario 3.2.3 deducimos
m
Co
al-
I(y0 ) = e
t + I(y1 ) y ϕ(t; 0, y1 ) = ϕ(t + e
t; 0, y0 ), ∀t ∈ I(y1 ).
i
erc
om
Ası́, si e
tn = tn + e tn ∈ I(y0 ), e
t tenemos e tn → e
t + sup I(y1 ) ≡ sup I(y0 ) y
oC
-N
p = lı́m ϕ(tn ; 0, y1 ) = lı́m ϕ(tn + e
t; 0, y0 ) = lı́m ϕ(e
tn ; 0, y0 ),
n
ció
bu
Por tanto, p ∈ Λ+ (y0 ).
tri
Utilizando la propiedad 1 es fácil deducir el punto 1 de la proposición.
sA
on
Ejercicio 3.2.19. Utilizando la propiedad 1, pruébese el punto 1 de la Proposición 3.2.18.
mm
Co
2. Veamos el segundo apartado de la Proposición 3.2.18. Utilizando el primer punto de la Obser-
ive
vación 3.2.17 deducimos directamente la inclusión
t
ea
Cr
p = lı́m ϕ(tn ; 0, y0 ),
ev
con {tn }n≥1 ⊂ I(y0 )∩[0, ∞). Por comodidad, denotemos β = sup I(y0 ) y b = supn≥1 tn . Claramente,
0 ≤ b ≤ β. Hay dos casos posibles:
eS
(a) 0 ≤ b < β : En este caso, {tn }n≥1 ⊂ [0, b] ⊂ [0, β). Deducimos la existencia de una subsucesión
dd
{tnk }k≥1 de {tn }n≥1 tal que lı́mk→∞ tnk = τ ∈ [0, b] ⊂ [0, β) ≡ I(y0 ) ∩ [0, ∞). Ası́,
k→∞
i
(b) b = β : Entonces, existe una subsucesión {tnk }k≥1 de {tn }n≥1 tal que lı́mk→∞ tnk = β. Como
niv
antes,
lı́m ϕ(tnk ; 0, y0 ) = lı́m ϕ(tn ; 0, y0 ) = p.
,U
k→∞
Teorema 3.2.20. Consideremos el sistema autónomo (3.1) con f ∈ Liploc (D). Sea y0 ∈ D y
to.
1. sup I(y0 ) = ∞.
n
cio
na
3. Λ+ (y0 ) ⊆ K es invariante para el sistema (3.1).
ter
In
4. lı́m dist ϕ(t; 0, y0 ), Λ+ (y0 ) = 0.
4.0
t→+∞
al
Igu
Demostración:
tir
1. Supongamos que β = sup I(y0 ) < ∞. Entonces, la semitrayectoria derecha asociada a la solución
r
pa
maximal satisface
m
Co
al-
τϕ+ = {(t, ϕ(t; 0, y0 )) : t ∈ I(y0 ) ∩ [0, ∞)} ⊆ [0, β] × K ⊂ R × D ≡ Ω,
i
erc
om
(recordemos que Ω ≡ R × D es el dominio maximal de existencia del sistema (3.1)). Del Teo-
oC
rema 1.1.5 deducimos que (I(y0 ), ϕ(·; 0, y0 )) es una solución prolongable por la derecha. Esto,
-N
n
evidentemente, es absurdo.
ció
bu
2. Comencemos probando que Λ+ (y0 ) es un conjunto compacto (evidentemente contenido en D).
tri
Por un lado, Λ+ (y0 ) ⊆ γ + (y0 ) ⊂ K y, por tanto, Λ+ (y0 ) está acotado.
sA
Veamos que Λ+ (y0 ) es cerrado. Sea pm ∈ Λ+ (y0 ) tal que pm → p ∈ K. Por definición de Λ+ (y0 )
on
mm
existen sucesiones (tm
n )n → +∞ cuando n → ∞ tales que tn ≥ m y
m
Co
1
ive
|ϕ(tm
n ; 0, y0 ) − pm | ≤ .
ea m
t
Cr
pues sk ≥ k y además
n
ce
Li
Comprobemos ahora que el conjunto lı́mite positivo Λ+ (y0 ) es no vacı́o. Para ello, fijemos una
eS
sucesión {tn }n≥1 ⊂ I(y0 ) ∩ [0, ∞) tal que lı́m tn = +∞. De la hipótesis sobre γ + (y0 ) deducimos que
la sucesión de RN
dd
lı́m ϕ(tnk ; 0, y0 ) = p ∈ RN .
i
ers
k→∞
Obsérvese que también lı́mk→∞ tnk = lı́m tn = +∞. Por tanto, de la definición de punto lı́mite
niv
Teorema 1.1.9. Sea y1 ∈ Λ+ (y0 ) ⊂ D y comprobemos que γ(y1 ) ⊂ Λ+ (y0 ). Sea p ∈ γ(y1 ); nuestro
objetivo es probar que p ∈ Λ+ (y0 ).
AN
Obsérvese que, como hipótesis, tenemos y1 ∈ Λ+ (y0 ) y p ∈ γ(y1 ), es decir, para una sucesión
{tn }n≥1 ⊂ I(y0 ) y un tiempo t∗ ∈ I(y1 ) se tiene
ED
n
cio
na
Existe entonces n0 ∈ N tal que (t∗ , 0, ϕ(tn ; 0, y0 )) ∈ Θ para cualquier n ≥ n0 , es decir,
ter
In
t∗ ∈ I(ϕ(tn ; 0, y0 )) ≡ I(y0 ) − tn ,
4.0
∀n ≥ n0 ,
al
Igu
(en esta última igualdad hemos vuelto a usar el Corolario 3.2.3). Finalmente, para n ≥ n0 , podemos
tir
escribir:
r
pa
p = ϕ(t∗ ; 0, y1 ) = lı́m ϕ (t∗ ; 0, ϕ(tn ; 0, y0 )) = lı́m ϕ(tn + t∗ ; 0, y0 ).
m
Co
Como t∗ + tn ∈ I(y0 ) y t∗ + tn → +∞, de la propiedad anterior deducimos p ∈ Λ+ (y0 ). Esto finaliza
al-
i
erc
la prueba de este punto.
om
4. Hagamos la prueba por reducción al absurdo. Supongamos que, o bien no existe el
oC
-N
lı́m dist ϕ(t; 0, y0 ), Λ+ (y0 ) ,
n
t→+∞
ció
bu
o bien el lı́mite existe pero no es cero. En cualquiera de los dos casos, podemos asegurar que existe
tri
sA
ε0 > 0 y una sucesión de tiempos {tn }n≥1 ⊂ I(y0 ) ∩ [0, ∞) tales que lı́m tn = +∞ y
on
mm
dist ϕ(tn ; 0, y0 ), Λ+ (y0 ) ≥ ε0 > 0.
Co
Razonando como en el punto anterior, también obtenemos que existe una nueva subsucesión
ive
{ϕ(tnk ; 0, y0 )}k≥1 y p ∈ Λ+ (y0 ) tal que lı́mk→∞ ϕ(tnk ; 0, y0 ) = p. Ası́,
ea
t
Cr
k→∞
n
ce
Li
Obtenemos por tanto un absurdo y la prueba del cuarto punto del resultado.
illa
Corolario 3.2.21. En las condiciones del Teorema 3.2.20, si Λ+ (y0 ) = {y1 }, entonces y1 es un
punto crı́tico del sistema.
ev
eS
cias
da
En esta sección estudiaremos uno de los resultados más importantes de este capı́tulo: El Princi-
pio de Invarianza de LaSalle. El resultado asegura que, bajo ciertas condiciones, existen conjuntos
i
ers
invariantes respecto del sistema autónomo considerado que atraen las órbitas del sistema. Como con-
secuencia de este resultado completaremos el Teorema de estabilidad de Liapunov (Teorema 2.2.1)
niv
dando una nueva condición que asegure que la solución nula del sistema autónomo es uniformemente
asintóticamente estable.
,U
Se tiene:
Teorema 3.3.1 (Teorema de LaSalle). Consideremos el s.d.o. (3.1) con f ∈ Liploc (D). Sea
ED
K ⊂ D un compacto no vacı́o y sea V ∈ C 1 (D) tal que V̇ (y) ≤ 0 para cualquier y ∈ K (derivada
de V respecto del sistema (3.1)). Sea y0 ∈ D tal que γ + (y0 ) ⊆ K. Denotemos por
to.
E = {y ∈ K : V̇ (y) = 0},
Dp
y sea M el mayor subconjunto invariante para el sistema (3.1) de E (i.e., M es la unión de todos
los subconjuntos invariantes para (3.1) contenidos en E). Entonces:
n
cio
na
1. I(y0 ) ⊃ [0, ∞).
ter
In
2. Λ+ (y0 ) ⊆ M (y por tanto, M 6= ∅).
4.0
al
Igu
3. lı́m dist (ϕ(t; 0, y0 ), M ) = 0.
tir
t→∞
r
pa
Demostración: Para deducir la prueba usaremos principalmente el Teorema 3.2.20.
m
Co
De la hipótesis γ + (y0 ) ⊆ K, con K ⊂ D un compacto no vacı́o, deducimos que la semiórbita
al-
γ (y0 ) está acotada. Aplicando el Teorema 3.2.20 deducimos que Λ+ (y0 ) ⊆ K es un compacto no
+
i
erc
vacı́o, que sup I(y0 ) = ∞ (se tiene ası́ el primer punto del enunciado) y
om
oC
lı́m dist ϕ(t; 0, y0 ), Λ+ (y0 ) = 0.
(3.7)
-N
t→∞
n
ció
Por otro lado, del Teorema 3.2.20 también obtenemos que Λ+ (y0 ) ⊆ K es un conjunto invariante
bu
tri
para el sistema (3.1).
sA
Supongamos que hemos probado
on
mm
(3.8) Λ+ (y0 ) ⊆ E,
Co
ive
entonces, al ser Λ+ (y0 ) un conjunto invariante del sistema y de la propia definición de M , se tendrá
t
ea
Λ+ (y0 ) ⊆ M , es decir, se tendrá el punto 2 del enunciado. Finalmente,
Cr
cia
Por tanto, tomando lı́mite en la desigualdad anterior y teniendo en cuenta (3.7), deducimos el tercer
illa
real
eS
De las hipótesis del enunciado y de las propiedades probadas anteriormente se tiene que v está bien
definida en el intervalo [0, ∞) y satisface v ∈ C 1 ([0, ∞)). Como en otras ocasiones (ver Observa-
ción 2.1.7), se tiene
da
Ası́, v es una función decreciente en el intervalo [0, ∞) y podemos decir que existe
niv
positivo deducimos que p = lı́m ϕ(tn ; 0, y0 ) con tn ∈ [0, ∞), para cualquier n ≥ 1, y lı́m tn = ∞ ≡
sup I(y0 ). Si ahora tenemos en cuenta (3.9) y el Teorema fundamental del lı́mite, obtenemos
ED
c
na
t er
Probemos ya la contención (3.8), es decir, probemos que V̇ (p) = 0 para cualquier p ∈ Λ+ (y0 ).
In
.0
Utilizaremos que Λ+ (y0 ) es un conjunto invariante para el sistema autónomo (3.1). Ası́, si p ∈
4
Λ+ (y0 ), tenemos
al
Igu
ϕ(t; 0, p) ∈ Λ+ (y0 ), ∀t ∈ I(p),
tir
r
pa
que junto a la propiedad (3.10) proporciona V (ϕ(t; 0, p)) = L, para cualquier t ∈ I(p). Sin más que
om
derivar respecto a t (se trata de una función derivable en el intervalo I(p)) y, como en ocasiones
l-C
anteriores, llegamos a
a
rci
V̇ (ϕ(t; 0, p)) = 0, ∀t ∈ I(p).
me
Co
Sin más que considerar el tiempo t = 0, deducimos V̇ (p) = 0. Eso prueba la propiedad (3.8) y
No
finaliza la prueba del Teorema de LaSalle.
n-
ció
Observación 3.3.2. Es interesante resaltar que, en las condiciones del Teorema de LaSalle, el
u
rib
conjunto invariante M de (3.1) depende del compacto K y de la función V , pero no del punto y0 ,
At
con lo que M es un “atractor”de todas las semiórbitas positivas contenidas en el compacto K de
ns
(3.1). Si además el compacto K ⊂ D es positivamente invariante, entonces M es un “atractor”de
m mo
todas las semiórbitas de K.
Co
Las siguientes consecuencias del Teorema 3.3.1 proporcionan una mejora del segundo aparta-
e
tiv
do del Teorema de Liapunov (Teorema 2.2.1) y del teorema de Tchetaev que resultan bastante
ea
importantes desde el punto de vista de las aplicaciones. Cr
cia
Corolario 3.3.3. Supongamos f ∈ Liploc (D) con 0 ∈ B ρ ⊂ D, f (0) = 0 y que existe V ∈ C 1 (Bρ )
cen
Li
E = y ∈ Bρ : V̇ (y) = 0 ,
ev
se tiene que {0} es el único subconjunto invariante de E. Entonces, si el equilibrio nulo es estable
se tiene que es u.a.e.
eS
Demostración: Como el sistema es autónomo basta probar que el equilibrio nulo es atractivo y
más concretamente que existe γ ∈ (0, ρ) tal que para todo y0 ∈ Bγ se tiene
dd
t→∞
Gracias a que el equilbrio nulo es estable, existe δ ∈ (0, ρ/2) tal que si y0 ∈ Bδ entonces
ers
ρ
[0, ∞) ⊂ I(y0 ), |ϕ(t; 0, y0 )| ≤ , ∀ t ≥ 0.
2
niv
Esto prueba que γ + (y0 ) está contenido en el compacto B ρ/2 ⊂ Bρ . El teorema de LaSalle implica
entonces
,U
Λ+ (y0 ) = 0 .
Teniendo en cuenta el hecho de que γ + (y0 ) relativamente compacto de D implica también que si
AN
tn ≥ 0 tiende a infinito, entonces existe una subsucesión tnk de tn y p ∈ Λ+ (y0 ) tal que ϕ(tnk ; 0, y0 )
tiende a p, se deduce
ED
lı́m ϕ(tn , 0, y0 ) = 0,
n→∞
para toda sucesión tn ≥ 0 que tiende a infinito. lo que por el teorema fundamental de lı́mite es
to.
equivalente a
lı́m ϕ(t; 0, y0 ) = 0.
Dp
t→∞
n
cio
na
Corolario 3.3.4. Consideremos el s.d.o. (3.1) con f ∈ Liploc (D). Supongamos además que 0 ∈ D,
ter
In
f (0) = 0 y existe ρ > 0 tal que Bρ ⊂ D. Supongamos también que existe V ∈ C 1 (Bρ ) tal que
4.0
(a) V es definida positiva en Bρ .
al
Igu
tir
(b) V̇ (y) ≤ 0 para cualquier y ∈ Bρ .
r
pa
m
(c) El conjunto {0} es el único subconjunto invariante de E = {y ∈ Bρ : V̇ (y) = 0}.
Co
al-
Entonces, la solución nula ϕ0 del sistema (3.1) es uniformemente asintóticamente estable.
i
erc
om
Demostración: Gracias al teorema de Lyapunov, el equilibrio nulo es estable. El Corolario anterior
oC
prueba entonces que también es u.a.e.
-N
n
ció
Corolario 3.3.5. Consideremos el s.d.o. (3.1) con f ∈ Liploc (D). Supongamos además que 0 ∈ D,
bu
f (0) = 0 y existe ρ > 0 tal que Bρ ⊂ D. Supongamos también que existe V ∈ C 1 (Bρ ) tal que
tri
sA
(a) V (0) = 0 y para todo δ > 0 existe yδ ∈ Bδ tal que V (yδ ) > 0.
on
mm
(b) V̇ (y) ≥ 0 en Bρ .
Co
ive
(c) El conjunto {0} es el único subconjunto invariante de E = {y ∈ Bρ : V̇ (y) = 0}.
t
ea
Cr
Demostración: Por reducción al absurdo supongamos que el equilibrio nulo es estable entonces el
Li
Corolario 3.3.3 con V reemplazada por −V prueba que el equilibrio nulo es u.a.e. y por tanto que
illa
ρ
|ϕ(t; 0, y0 )| ≤ , lı́m ϕ(t; 0, y0 ) = 0.
2 t→∞
eS
Sin embargo tomando y0 ∈ Bδ tal que V (y0 ) > 0, el cual existe por hipótesis, tenemos gracias a V̇
dd
no negativa en Bρ
0 < V (y0 ) ≤ V (ϕ(t; 0, y0 )), ∀t ≥ 0,
da
y por tanto no es posible que ϕ(t; 0, y0 ) tienda a cero, porque en tal caso V (ϕ(t; 0, y0 )) → V (0) = 0,
i
Ejemplo 3.3.6. Como aplicación del Corolario 3.3.4 consideremos la ecuación del péndulo simple
niv
con rozamiento
x00 + βx0 + k sen x = 0,
,U
(
y10 = y2 ,
y20 = −βy2 − k sen y1 .
ED
Ya vimos (ver Ejemplo 2.2.3) que la función V (y1 , y2 ) = y22 + k(1 − cos y1 ) es definida positiva
2
en Bπ . Además,
Dp
c
na
t er
In
Tenemos ası́ que V satisface los apartados (a) y (b) del Corolario 3.3.4 en Bπ . Comprobemos el
.0
apartado (c) de este resultado. Está claro que (0, 0) es un punto crı́tico del sistema. Por tanto
4
al
{(0, 0)} es un subconjunto invariante respecto del sistema que está contenido en
Igu
tir
E = {y ∈ Bπ : V̇ (y) = 0} ≡ {(y1 , 0) : y1 ∈ (−π, π)}.
r
pa
om
Veamos que {(0, 0)} es el único subconjunto invariante del sistema en E. Para este fin, consideremos
l-C
y0 = (y01 , 0) ∈ E, con y01 ∈ (−π, π) \ {0}, y comprobemos que γ(y0 ) 6⊆ E. Si usamos la notación
a
rci
ϕ(t; 0, y0 ) = (ϕ1 (t), ϕ2 (t)), la propiedad γ(y0 ) 6⊆ E equivale a probar que existe e t ∈ I(y0 ) tal que
me
ϕ2 (t) 6= 0. Comprobémoslo.
Co
e
No
La función (ϕ1 (t), ϕ2 (t)) satisface el sistema anterior y la condición inicial (ϕ1 (0), ϕ2 (0)) = y0 =
n-
(y01 , 0). Ası́,
ció
u
rib
(
ϕ01 (0) = ϕ2 (0) = 0,
At
ϕ02 (0) = −kϕ2 (0) − k sen ϕ1 (0) = −k sen y01 6= 0 (y01 ∈ (−π, π) \ {0}).
ns
m mo
Como consecuencia se tiene que la función real de variable real ϕ2 es estrictamente monótona en
Co
un entorno de t = 0. Como ϕ2 (0) = 0 deducimos que existe e t ∈ I(y0 ) tal que ϕ2 (e
t) 6= 0. Se tiene
e
tiv
ası́ la prueba del apartado (c) del Corolario 3.3.4.
ea
Cr
cia
3.4. El caso N = 1
cen
Li
(
y 0 = f (y)
eS
y(0) = y0
dd
donde f ∈ Liploc (a, b), −∞ ≤ a < b ≤ ∞, y0 ∈ (a, b) y denotemos ψ(·) = ϕ(·; 0, y0 ). Se tiene:
ida
a) Si existe algún punto crı́tico de f mayor que y0 (resp., menor que y0 ), entonces I(y0 ) ⊃
niv
con ȳ el menor de los puntos crı́ticos de f que son mayores que y0 (resp., con ŷ el mayor
de los puntos crı́ticos de f que son menores que y0 ).
b) Si no existe ningún punto crı́tico de f mayor que y0 (resp., menor que y0 ), entonces
ED
donde sup I(y0 ) (resp., ı́nf I(y0 )) puede ser finito o no.
Dp
n
cio
na
a) Si existe algún punto crı́tico de f menor que y0 (resp., mayor que y0 ), entonces I(y0 ) ⊃
ter
In
[0, +∞) (resp., I(y0 ) ⊃ (−∞, 0]) y
4.0
al
∃ lı́m ψ(t) = ȳ (resp., ∃ lı́m ψ(t) = ŷ),
Igu
t→∞ t→−∞
tir
con ȳ el mayor de los puntos crı́ticos de f que son menores que y0 (resp., ŷ el menor de
r
pa
m
los puntos crı́ticos de f que son mayores que y0 ).
Co
b) Si no existe ningún punto crı́tico de f menor que y0 (resp., mayor que y0 ), entonces
al-
i
erc
lı́m ψ(t) = a, (resp., lı́m ψ(t) = b),
om
t→sup I(y0 ) t→ı́nf I(y0 )
oC
-N
donde sup I(y0 ) (resp., ı́nf I(y0 )) puede ser finito o no.
n
ció
bu
Demostración: El caso f (y0 ) = 0 es evidente. Los casos f (y0 ) > 0 y f (y0 ) < 0 son similares.
tri
sA
Por tanto, razonaremos en el caso f (y0 ) > 0. Por otro lado, haremos la prueba para la semiórbita
positiva γ + (y0 ). El razonamiento para γ − (y0 ) es análogo.
on
mm
Co
1. Supongamos que existe algún punto crı́tico de f mayor que y0 y sea y + el menor de los puntos
crı́ticos de f mayores que y0 . Como y + es otro punto crı́tico de f se tiene que
ive
t
ea
Cr
Por tanto, del Teorema 3.2.20 deducimos que sup I(y0 ) = +∞.
ce
Li
Es claro que f > 0 en (y0 , y + ). Por tanto, ψ(t) es creciente en [0, ∞) y existe
illa
lı́m ψ(t) = y ∗ ≤ y + .
t→∞
ev
En particular, Λ+ (y0 ) = {y ∗ }. Ahora bien, gracias al Corolario 3.2.21, se tiene que y ∗ es punto
eS
2. Supongamos ahora que no existe ningún punto crı́tico de f mayor que y0 . En este caso, f > 0
en (y0 , b), por lo que deducimos que ψ es creciente en I(y0 ) y, por tanto, existe
da
lı́m ψ(t) = b∗ ≤ b.
i
t→sup I(y0 )
ers
Si b∗ < b, tendrı́amos nuevamente que b∗ es un punto crı́tico de f , y esto serı́a absurdo. Por
niv
tanto, b∗ = b.
,U
caré-Bendixson
ED
En el Ejemplo 3.1.6, y en otros ejemplos vistos en las clases de problemas, hemos visto que el
comportamiento de las soluciones de sistemas autónomos planos es bastante “regular”: O bien la
órbita se acerca a un punto crı́tico o bien se acerca a una órbita cı́clica. Veremos que esta situación
to.
es tı́pica de los sistemas autónomos. Ası́, el objetivo de esta sección será clasificar los conjuntos
lı́mite (positivo o negativo) de las órbitas de los sistemas autónomos planos. Esta clasificación la
Dp
n
cio
na
de Jordan de curvas cerradas (toda curva cerrada simple -es decir, sin autointersecciones- de R2
ter
In
divide el plano en dos regiones conexas).
4.0
El marco general de esta sección es el siguiente. Seguimos considerando el sistema diferen-
al
cial (3.1) pero ahora supondremos que se trata de un sistema plano, es decir,
Igu
tir
f : D ⊂ R2 → R2 ,
r
pa
m
Co
con D un abierto conexo no vacı́o de R2 y f ∈ C 1 (D; R2 ).
al-
Comenzaremos viendo la definición de segmento transversal respecto a la función f :
i
erc
om
Definición 3.5.1. Se dice que el segmento compacto
oC
-N
L = [a, b] = {y = a + λ(b − a) : λ ∈ [0, 1]} ⊂ D,
n
ció
bu
(a, b ∈ D) es transversal respecto de la función f si L no contiene puntos crı́ticos del sistema (3.1)
tri
sA
y, para cualquier y ∈ L, el vector f (y) no es paralelo a la dirección del segmento L (es decir, el
on
vector f (y) no es proporcional al vector b − a).
mm
Co
Con esta definición podemos introducir la definición de acercamiento en espiral de una semiórbi-
ta a una órbita cı́clica. Dice ası́:
ive
t
ea
Definición 3.5.2. Consideremos y0 , y1 ∈ D y supongamos que γ(y1 ) es una órbita cı́clica no
Cr
degenerada del sistema (3.1) (no se reduce a un punto). Se dice que la semiórbita γ + (y0 ) se acerca
ncia
en espiral hacia γ(y1 ) si para cualquier p ∈ γ(y1 ) y cualquier segmento transversal L respecto de f
ce
Li
1. int (L) ∩ γ(y1 ) = {p}, es decir, int (L) ∩ γ(y1 ) es un conjunto unitario.
ev
2. L ∩ γ + (y0 ) es una sucesión (numerable) de puntos que cumple que existe una sucesión estric-
eS
Definición 3.5.3. Una definición análoga se tiene para la convergencia en espiral de γ − (y0 ) hacia
la órbita cı́clica no degenerada γ(y1 ).
niv
(ii) O bien γ(y0 ) es una órbita cı́clica (y en ese caso γ(y0 ) = Λ+ (y0 )) (resp., γ(y0 ) = Λ− (y0 )), o
Dp
bien γ + (y0 ) (resp., γ − (y0 )) se acerca en espiral hacia Λ+ (y0 ) (resp., Λ− (y0 )), en cuyo caso
se dice que Λ+ (y0 ) (resp., Λ− (y0 )) es un ciclo-lı́mite.
n
cio
na
Para una prueba de este resultado véase, p.e., [14].
ter
In
Observación 3.5.5. Obsérvese que si consideramos un sistema autónomo en RN , en las condiciones
4.0
del Teorema de Poincaré-Bendixson, si la órbita γ + (y0 ) está contenida en un compacto, entonces
al
Igu
Λ+ (y0 ) es un conjunto compacto no vacı́o invariante para el sistema (3.1) (es decir, Λ+ (y0 ) es la
tir
unión de puntos crı́ticos y órbitas completas del sistema). Si el sistema es plano, entonces podemos
r
pa
dar más información sobre Λ+ (y0 ): Si el conjunto lı́mite no contiene puntos crı́ticos, entonces este
m
Co
conjunto lı́mite es una órbita cı́clica no degenerada del sistema.
al-
i
erc
om
oC
-N
n
ció
bu
tri
sA
on
mm
Co
ive
t
ea
Cr
cia
n
ce
Li
illa
ev
eS
dd
i da
ers
niv
,U
AN
ED
to.
Dp
pa
m
Co
al-
i
erc
El problema de Cauchy para EDP de
om
oC
-N
primer orden.
n
ció
bu
tri
sA
on
4.1. Introducción
mm
Co
El objetivo del presente tema es analizar la existencia y unicidad de solución para problemas
ive
relativos a ecuaciones en derivadas parciales (EDP) de primer orden. En su forma general, dado un
t
ea
conjunto abierto Ω ⊂ RN × R × RN y una función H ∈ C 0 (Ω), estas ecuaciones se escriben en la
Cr
cia
forma
n
ce
donde recordamos que ∇u es el vector formado por todas las derivadas parciales de primer orden
illa
de u.
Desde el punto de vista fı́sico gran cantidad de ecuaciones de este tipo provienen de las denomi-
ev
nadas leyes de conservación referidas a cantidades ligadas al movimiento de un fluido. De ahı́ que
eS
en esos casos sea usual referirse a ellas como leyes de conservación o ecuaciones de transporte.
Consideremos un fluido (gas, lı́quido) que se está desplazando en el espacio. El fluido se considera
dd
un medio continuo en el sentido de que cada punto del espacio está ocupado por una y solo una
partı́cula. Denominamos por u = u(t, x) una función con valores en RN que expresa la velocidad
da
(4.2)
y(0) = y0 .
,U
Denotemos por ρ = ρ(t, x) la densidad de una cierta sustancia que se desplaza con el medio
(por ejemplo la densidad del propio medio o la de otra sustancia disuelta en él). Esto significa que
AN
U
El problema es obtener un ecuación que nos describa como varı́a esta cantidad a lo largo del tiempo.
Dado U abierto y acotado de RN suficientemente regular (por ejemplo una bola) se tendrá
to.
Z
d
ρ(t, x)dx = Sustancia que entra en U por unidad de tiempo
Dp
(4.3) dt U
−sustancia que sale de U por unidad de tiempo.
67
al.
68 4.1. Introducción
n
cio
na
El segundo miembro lo podemos dividir en tres sumandos:
ter
In
4.0
Sustancia que atraviesa la frontera al moverse el fluido: Vendrá dada por el flujo
al
Z
Igu
− ρu · ν ds(x)
tir
∂U
r
pa
con ν el vector unitario normal a la frontera que apunta hacia el exterior de U . Observar
m
Co
que, suponiendo ρ ≥ 0, la sustancia está saliendo cuando el vector u está dirigido hacia fuera
al-
(u · ν > 0) y entrando cuando es negativo (u · ν < 0), de ahı́ el signo menos usado.
i
erc
om
Sustancia que se está aportando o eliminando de U por unidad de tiempo a través de la
oC
frontera. Se suele modelar por el flujo de otra función vectorial σ, es decir como
-N
n
ció
Z
− σ(t, x) · ν ds(x),
bu
∂U
tri
sA
donde como antes estaremos aportando o sacando sustancia dependiendo del signo de σ · ν.
on
mm
Sustancia que se aporta o elimina en cada punto de U por unidad de tiempo. Vendrá dada
Co
por una integral de volumen del tipo
ive
Z
t
ea
f (t, x) dx,
Cr
U
cia
Z Z Z Z
d
(4.4) ρ(t, x)dx = − ρu · ν ds(x) − σ(t, x) · ν ds(x) + f (t, x) dx.
ev
dt U ∂U ∂U U
eS
Suponiendo que ρ es tal que se puede aplicar el teorema de derivación con respecto a parámetros,
el primer término se escribe
dd
Z Z
d
(4.5) ρ(t, x)dx = ∂t ρ dx.
dt U U
da
Z Z
niv
N
X
divx h = ∂xi hi , h = (h1 , ..., hN ).
AN
i=1
Usando el teorema de la divergencia junto con (4.5) podemos entonces escribir (4.4) como
ED
Z
∂t ρ + divx ρu + σ − f dx = 0.
U
to.
Puesto que esta igualdad debe ser cierta tomando por ejemplo U cualquier bola de RN llegamos a
Dp
n
cio
na
La regla de la cadena establece
ter
In
4.0
N
X N
X
divx (ρu) = ui · ∂xi ρ + ρ ∂xi ui = u · ∇ρ + divx u ρ
al
Igu
i=1 i=1
r tir
y por tanto, podemos también escribir la ecuación como
pa
m
Co
∂t ρ + u∇x ρ + divx u ρ + divx σ = f,
al-
i
erc
que es del tipo (4.1) en la incógnita ρ.
om
En general, las funciones u, σ y f podrı́an también depender de la variable ρ (e incluso de sus
oC
-N
derivadas, lo que puede llevar a ecuaciones de orden mayor que uno). En el caso de lı́quidos se suele
n
suponer divx u = 0, lo que significa que el volumen del fluido no cambia con el tiempo. En este caso
ció
bu
el tercer término desaparece.
tri
sA
Como casos particulares importantes consideramos por ejemplo:
on
mm
1. Ecuación de conservación de masas. En este caso ρ ≥ 0 es la densidad del fluido que se está
Co
desplazando. Suponiendo que no hay aportes ni pérdidas de masa de ningún tipo, la ecuación
ive
queda
t
ea
Cr
una incógnita, de forma que hay que completar la ecuación con otras, obteniéndose sistemas
illa
de ecuaciones de gran complejidad que van más allá de los objetivos de la asignatura.
2. Modelo de tráfico. Ahora las partı́culas representan vehı́culos que por simplificar suponemos
ev
se mueven en una carretera recta y en una sola dirección. Por tanto x, u ∈ R. La función ρ
eS
representa la densidad de los vehı́culos. Se supone u = v(ρ) con v una función no-negativa
decreciente de ρ (cuantos más vehı́culos hay, más lentos se mueven). La ecuación se escribe
dd
por tanto
da
(4.8) ∂t ρ + ∂x (ρ v(ρ)) = 0
i
∂t ρ + v(ρ) + ρv 0 (ρ) ∂x ρ = 0.
niv
,U
3. Ecuación de Burgers. La segunda ley de Newton sostiene que la derivada del impulso mecánico
(o cantidad de movimiento) respecto del tiempo coincide con la fuerza que actúa sobre el
sistema. Consideremos un caso unidimensional (x ∈ R, u ∈ R) y recordemos que el impulso
AN
mecánico está definido como el producto de la masa por la velocidad. Definiendo f como la
fuerza por unidad de masa podemos aplicar la ecuación general (4.6) con ρ reemplazado por
ED
∂t (ρu) + ∂x (ρu2 ) = ρf
to.
n
cio
na
de donde usando la ecuación de conservación de la masa (4.7) y ρ > 0 llegamos finalmente a
ter
In
la denominada ecuación de Burgers
4.0
∂t u + u∂x u = f.
al
Igu
Comentar que esta ecuación no tiene en cuenta las fuerzas internas en el fluido que se suelen
tir
modelar por diversas elecciones de σ. A veces se llama ecuación de Burgers al caso f = 0.
r
pa
m
4. Dispersión de una sustancia quı́mica. En este caso ρ es la densidad de una sustancia quı́mica
Co
al-
que se encuentra en el medio. Si se están produciendo reacciones quı́micas dentro del medio
i
erc
entonces se está creando o destruyendo sustancia con respecto al tiempo. Usualmente se
om
modela con una función f proporcional a una potencia fraccionaria de ρ. Tenemos entonces
oC
∂t ρ + divx (ρu) = cρr
-N
n
ció
con c > 0 o c < 0 dependiendo de si está produciendo o destruyendo sustancia.
bu
tri
5. Ecuación del calor. En este caso ρ es la temperatura del medio y f una fuente de calor externa
sA
(por ejemplo la radiación solar). Se sabe también que la temperatura pasa de las partes más
on
calientes a las más frı́as (fenómeno de difusión). Teniendo en cuenta que ∇x ρ es un vector
mm
que se encuentra en la dirección de mayor aumento de ρ, este fenómeno se suele modelar
Co
suponiendo (hipótesis de Fourier) que σ en (4.6) es proporcional a −∇x ρ. Usando
ive
t
ea
divx (∇x ρ) = ∆x ρ
Cr
N
n
ce
X
∆x ρ = ∂x2i xi ρ,
Li
i=1
illa
con K > 0. El término K∆x ρ representa la variación de temperatura por difusión. Mientras
eS
que divx (uρ) representa la variación por las corrientes de aire (u representa la velocidad del
aire): es lo que se conoce como un término convectivo. Ahora se trata de una EDP de segundo
dd
Los términos de difusión son usuales en otros tipos de ecuaciones, como el caso de las sustan-
cias quı́micas mencionado anteriormente.
i
ers
Condiciones iniciales para ecuaciones de primer orden. Como en el caso de las ecuaciones
niv
diferenciales ordinarias, las ecuaciones en derivadas parciales no tienen una única solución. Ası́, si
consideramos en RN la ecuación
,U
∂x1 u = 0,
el conjunto de soluciones viene dado por todas las funciones que no dependen de x1 , i.e. u =
AN
u(x2 , ..., xN ). Esto significa que para tener unicidad de solución deberemos disponer de alguna
información adicional. Lo más usual consiste en dar el valor de la solución en una determinada
hipersuperficie, que es lo que se conoce como una condición inicial. Esto conduce a lo que se conoce
ED
u|S = u0 ,
Dp
donde S es una hipersuperficie en RN y u0 una función dada. Ası́, en los ejemplos anteriores donde
las variables eran (t, x), es usual tomar como condición inicial el valor de la incógnita en t = 0.
c
na
t er
In
4.2. Derivabilidad de las soluciones de un SDO respecto de con-
.0
diciones iniciales y parámetros.
4
al
Igu
En el Teorema 1.1.9, vimos sin demostración el resultado de continuidad con respecto a condicio-
tir
r
nes iniciales para las soluciones de un SDO. En esta sección vamos a exponer los correspondientes a
pa
om
la derivabilidad. Antes, y por razones de completitud, exponemos el siguiente resultado que mejora
l-C
el Teorema 1.1.9.
a
rci
Teorema 4.2.1 (Continuidad respecto de datos iniciales y parámetros). Sea Ω ⊂ R1+N +k abierto,
me
Co
cuyos puntos denotamos por (t, y, λ), t ∈ R, y ∈ RN , λ ∈ Rk . Consideremos f ∈ C 0 (Ω; RN ) ∩
No
Liploc ((y, λ); Ω). Para cada (t0 , y0 , λ), denotamos por ϕ(., t0 , y0 , λ) la solución maximal del problema
n-
ció
de Cauchy
u
rib
( 0
y = f (t, y, λ)
At
(4.9)
ns
y(t0 ) = y0
m mo
Co
y por I(t0 , y0 , λ) su intervalo de definición. Entonces se tiene que el conjunto
e
tiv
Θ = (t, t0 , y0 , λ) ∈ RN +k+2 : t ∈ I(t0 , y0 , λ)
ea
Cr
es abierto y la función ϕ : (t, t0 , y0 , λ) ∈ Θ 7→ ϕ(t, t0 , y0 , λ) ∈ RN es localmente Lipschitz.
cia
cen
Li
Demostración: Observar que la solución y = y(t) de (4.9) está formada por las N primeras
il la
0 f (t, z)
z =
eS
0
(4.10)
y 0
dd
z(t0 ) = .
λ
ida
Teorema 4.2.2 (Derivabilidad respecto de datos iniciales y parámetros). En las condiciones del
Teorema 4.2.1, si suponemos además que existen ∂y f , ∂λ f , y que son continuas en Ω, entonces
ϕ ∈ C 1 (Θ; RN ) y existen las derivadas cruzadas ∂tt
2 ϕ = ∂ 2 ϕ, ∂ 2 ϕ = ∂ 2 ϕ, ∂ 2 ϕ = ∂ 2 ϕ. Las
,U
0 t0 t ty0 y0 t tλ λt
derivadas parciales de ϕ se pueden obtener de la siguiente forma:
AN
∂t ∂t ϕ(t, t0 , y0 , λ) = ∂y f (t, ϕ(t, t0 , y0 , λ), λ) ∂t ϕ(t, t0 , y0 , λ)
0 0
Dp
(4.12)
∂t0 ϕ(t0 , t0 , y0 , λ) = −f (t0 , y0 , λ).
c
na
t er
In
La derivada ∂y0 ϕ(t, t0 , y0 , λ) se obtiene resolviendo el problema lineal
4.0
al
∂t ∂y ϕ(t, t0 , y0 , λ) = ∂y f (t, ϕ(t, t0 , y0 , λ), λ) ∂y ϕ(t, t0 , y0 , λ)
Igu
0 0
(4.13)
tir
∂y0 ϕ(t0 , t0 , y0 , λ) = IN ,
r
pa
om
con IN la matriz identidad de orden N .
a l-C
rci
La derivada ∂λ ϕ(t, t0 , y0 , λ) se obtiene resolviendo el problema lineal
me
Co
∂ ∂ ϕ(t, t , y , λ) = ∂y f (t, ϕ(t, t0 , y0 , λ), λ) ∂λ ϕ(t, t0 , y0 , λ)
No
t λ 0 0
n-
(4.14) +∂λ f (t, ϕ(t, t0 , y0 , λ), λ)
ció
u
rib
∂λ ϕ(t0 , t0 , y0 , λ) = 0N,k .
At
ns
con 0N,k la matriz nula de dimensiones N × k.
m mo
Observación 4.2.3. En el teorema anterior se ha usando la notación
Co
e
tiv
∂y1 f1 · · · ∂yN f1 ∂λ1 f1 · · · ∂λk f1
ea
Cr
∂y f = .. .. .. .. .. ..
, ∂λ f =
. . . . . .
cia
cen
il la
∂t ϕ1 ∂t0 ϕ1
∂t ϕ = .. ..
, ∂t0 ϕ = ,
. .
ev
∂t ϕN ∂t0 ϕN
eS
∂y01 ϕ1 ··· ∂y0N ϕ1 ∂λ1 ϕ1 ··· ∂λk ϕ1
dd
∂y0 ϕ = .. .. .. .. .. ..
, ∂λ ϕ = .
. . . . . .
ida
∂t ∂y ϕ(t, t0 , y0 , λ) = ∂y f (t, ϕ(t, t0 , y0 , λ), λ) ∂y ϕ(t, t0 , y0 , λ)
niv
0i 0i
∂y0i ϕ(t0 , t0 , y0 , λ) = ei ,
,U
Observación 4.2.4. Aunque no vamos a dar la demostación del Teorema 4.2.2, veamos que su-
puesta la existencia de las derivadas, éstas deben ser solución de los sistemas que aparecen en el
ED
teorema.
Por definición de ϕ sabemos que
∂t ϕ = f (t, ϕ, λ).
to.
Derivando respecto a t0 en esta igualdad, gracias a la regla de la cadena y usando ∂t20 t ϕ = ∂tt
2 ϕ=
0
∂t (∂t0 ϕ), tenemos
Dp
c
na
t er
In
Esto proporciona un sistema diferencial para ∂t0 ϕ. Para poder identificar esta derivada a través de
.0
este sistema, necesitamos también una condición inicial. Usando
4
al
Igu
ϕ(t0 , t0 , y0 , λ) = y0
tir
y derivando respecto a t0 tenemos
r
pa
om
∂t ϕ(t0 , t0 , y0 , λ) + ∂t0 ϕ(t0 , t0 , y0 , λ) = 0,
a l-C
que gracias a
rci
me
∂t ϕ(t0 , t0 , y0 , λ) = f (t0 , ϕ(t0 , t0 , y0 ), λ) = f (t0 , y0 , λ),
Co
implica
No
∂t0 ϕ(t0 , t0 , y0 , λ) = −f (t0 , y0 , λ).
n-
ció
Los problemas que aparecen en (4.13) y (4.14) se obtienen de la forma análoga.
u
rib
At
4.3. El problema de Cauchy para una EDP quasi-lineal de primer
ns
mo
orden.
m
Co
e
Dado un abierto Ω ⊂ RN +1 , cuyas variables denotamos por (x, u), x ∈ RN , u ∈ R y funciones
tiv
ea
f1 , . . . , fN , g ∈ C 1 (Ω), vamos a tratar en esta sección con una EDP de la forma
Cr
cia
N
X
cen
i=1
il la
Estas ecuaciones se llaman ecuaciones quasi-lineales. La ecuación se dice semi-lineal si las funciones
eS
1.
ida
(x, u(x)) ∈ Ω, ∀ x ∈ U,
2.
ers
Como ya dijimos en la introducción, una EDP de este tipo tendrá en general infinitas soluciones.
Para obtener un resultado de unicidad necesitaremos imponer alguna condición suplementaria.
Concretamente, dados O ⊂ RN abierto, F ∈ C 1 (O), definimos la hipersuperficie S por
,U
S = x ∈ O : F (x) = 0 .
AN
Dada una función u0 ∈ C 1 (O), el problema que nos plantearemos será buscar una solución u de
(4.15) que coincida con u0 en los puntos de S. Es decir buscar u tal que
ED
(
f (x, u) · ∇u = g(x, u)
(4.16)
u|S = u0
to.
Es lo que se conoce como un problema de condiciones iniciales o de Cauchy para (4.15). El resultado
principal de esta sección es el siguiente teorema de existencia y unicidad local de solución para
Dp
c
na
t er
Teorema 4.3.1. Sean Ω ⊂ RN +1 , O ⊂ RN abiertos, f ∈ C 1 (Ω; RN ), g ∈ C 1 (Ω), F ∈ C 1 (O),
In
.0
u0 ∈ C 1 (O) y definamos S por
4
al
Igu
(4.17) S = x ∈ O : F (x) = 0 .
tir
r
pa
Suponemos que existe x0 ∈ S tal que (x0 , u0 (x0 )) pertenece a Ω y se verifica la condición de
om
transversalidad
a l-C
rci
(4.18) ∇x F (x0 ) · f (x0 , u0 (x0 )) 6= 0.
me
Co
Entonces, existen U ⊂ RN abierto, con x0 ∈ U y u ∈ C 1 (U ), solución de (4.16) en el siguiente
No
sentido:
n-
ció
u
(4.19) (x, u(x)) ∈ Ω, ∀ x ∈ U,
rib
At
ns
mo
(4.20) f (x, u(x)) · ∇u(x) = g(x, u(x)), ∀ x ∈ U.
m
Co
e
tiv
(4.21) u(x) = u0 (x), ∀ x ∈ S ∩ U.
ea
Cr
Además esta función es única en el sentido de que si existe otra solución w en un abierto W ⊃ U ,
cia
entonces w = u en U .
cen
Li
y por tanto que alguna derivada parcial de F es no nula. Suponiendo, por simplificar la notación,
∂xN F (x0 ) 6= 0 y notando x0 = (x01 , .., x0N ), podemos aplicar el teorema de la función implı́cita
ev
para deducir que existen un abierto E ⊂ RN −1 , con (x01 , .., x0(N −1) ) ∈ E, δ > 0 y ψ : E →
eS
1.
dd
E × (x0N − δ, x0N + δ) ⊂ O,
ida
2.
ψ(x01 , .., x0(N −1) ) = x0N
ers
3.
F (x1 , .., xN −1 , ψ(x1 , ..., xN −1 )) = 0, ∀ (x1 , ..., xN −1 ) ∈ E
niv
4.
,U
)
(x1 , ..., xN ) ∈ E × (x0N − δ, x0N + δ)
⇒ xN = ψ(x1 , ..., xN −1 ).
F (x1 , ..., xN ) = 0
AN
En el caso en que ∇F (x0 ) = 0, la condición F (x) = 0 puede no definir una hipersuperficie. Por
ejemplo, si F (x) = |x − x0 |2 (con |.| la norma euclı́dea) el conjunto {F (x) = 0} se reduce al punto
Dp
x0 .
n
cio
na
Observación 4.3.3. La solución local dada por el Teorema 4.3.1 se puede obtener por el llamado
ter
In
Método de las Caracterı́sticas que describimos a continuación:
4.0
Consideramos para z ∈ S tal que (z, u0 (z)) ∈ Ω, la solución (y, v) del problema de Cauchy
al
Igu
(sistema caracterı́stico)
r tir
0
y = f (y, v)
pa
m
v 0 = g(y, v)
Co
(4.22)
al-
i
y(0) = z, v(0) = u0 (z)
erc
om
que denotamos por y = y(t, z), v = v(t, z). Dado x ∈ U, buscamos t ∈ R, z ∈ S tales que y(t, z) = x,
oC
(la pareja (t, z) es única en un entorno de (0, x0 )) entonces u(x) = v(t, z).
-N
n
Observar que resolver el sistema y(t, z) = x, con z ∈ S es equivalente a
ció
bu
(
tri
x = y(t, z)
sA
(4.23)
F (z) = 0
on
mm
y por tanto se trata de un sistema de N + 1 ecuaciones con N + 1 incógnitas.
Co
Vamos a ver que, efectivamente, si existe solución u, entonces se debe poder calcular mediante
ive
el procedimiento mencionado. Para ello, dado z ∈ S, consideremos la solución ỹ del sistema
t
ea
Cr
( 0
ỹ (t) = f (ỹ(t), u(ỹ(t))
cia
n
ỹ(0) = z,
ce
Li
y definamos ṽ(t) = u(ỹ(t)). Entonces, gracias a que u es una solución de (4.16), se tiene
illa
N N
dṽ X ∂u dỹi X ∂u
ev
(t) = (ỹ(t)) (t) = (ỹ(t))fi (ỹ(t), u(ỹ(t)) = g(ỹ(t), u(ỹ(t)) = g(ỹ(t), ṽ(t)),
dt ∂xi dt ∂xi
i=1 i=1
eS
Esto prueba que (ỹ, ṽ) es también solución de (4.22). Por unicidad, debemos tener
da
La demostración del Teorema 4.3.1 consistirá en probar que la aplicación x 7→ (t, z) está bien
,U
como
∇x F (x0 ) · ∂t y(0, x0 ) 6= 0.
to.
Recordando que ∇x F (x0 ) es un vector ortogonal a la superficie, esto significa que la caracterı́stica y
en el instante inicial no se encuentra en el hiperplano tangente a la superficie en x0 (i.e. la corta de
Dp
forma transversal). En otro caso, las trayectorias podrı́an no salir de S y por tanto no transmitirse
la información al resto del espacio.
n
cio
na
Demostración del Teorema 4.3.1. Para (y0 , v0 ) ∈ Ω, consideramos el problema de Cauchy para
ter
In
un SDO autónomo 0
4.0
y = f (y, v),
al
v 0 = g(y, v),
Igu
tir
y(0) = y0 , v(0) = v0 .
r
pa
m
Notando I(y0 , v0 ) al intervalo de definición de la solución, tomamos
Co
al-
ϑ := (t, y0 , v0 ) : t ∈ I(y0 , v0 ), (y0 , v0 ) ∈ Ω
i
erc
om
e (Y (t, y0 , v0 ), V (t, y0 , v0 )) la solución del problema anterior en el punto t ∈ I(y0 , v0 ). Por los
oC
teoremas de derivabilidad y continuidad respecto a condiciones iniciales, se tiene que ϑ es abierto
-N
n
y (Y, V ) es de clase C 1 en ϑ.
ció
Como (0, x0 , u0 (x0 )) ∈ ϑ, ϑ es abierto y u0 es continua, existe δ > 0 tal que
bu
tri
sA
(t, z, u0 (z)) ∈ ϑ, ∀ t ∈ (−δ, δ), z ∈ B(x0 , δ).
on
mm
Podemos entonces definir (y, v) : (−δ, δ) × B(x0 , δ) → RN × R por
Co
y(t, z) = Y (t, z, u0 (z)), v(t, z) = V (t, z, u0 (z)).
ive
t
ea
Teniendo en cuenta que u0 es de clase uno, se deduce de la regla de la cadena que las funciones y,
Cr
v son de clase uno en (−δ, δ) × B(x0 , δ). Además, por definición de (Y, V ) se cumple
n cia
ce
∂t y(t, z) = f (y(t, z), v(t, z)),
Li
illa
∂t v(t, z) = g(y(t, z), v(t, z))
(4.24)
y(0, z) = z, v(0, z) = u0 (z)
ev
∀ (t, z) ∈ (−δ, δ) × B(x0 , δ).
eS
Usando
i
! !
∂t y(0, x0 ) ∂z y(0, x0 ) f (x0 , y0 ) I
Dt,z G(0, x0 ) = = .
,U
Esto permite aplicar el teorema de la función inversa para deducir que reemplazando δ por un
valor aún más pequeño si hace falta, entonces G es biyectiva de (−δ, δ) × B(x0 , δ) en un abierto
to.
n
cio
na
el cual es un abierto de RN que contiene a x0 , y tomamos u ∈ C 1 (U ) dada por
ter
In
u(x) = v(G−1 (x, 0)),
4.0
(4.26) ∀ x ∈ U.
al
Igu
Vamos a ver que se verifican (4.19), (4.20) y (4.21). Observamos primero que por definición de G,
tir
se tiene
r
pa
m
x ∈ B(x0 , δ)
Co
al-
(
x∈U t ∈ (−δ, δ)
i
⇐⇒
erc
(4.27)
G−1 (x, 0) = (t, z) z ∈ S ∩ B(x0 , δ)
om
oC
y(t, z) = x.
-N
n
ció
Para probar (4.19), observar que la definición (4.24) de (y, v) implica (y(t, z), v(t, z)) ∈ Ω para
bu
todo (t, z) ∈ (−δ, δ) × B(x0 , δ). Si ahora x ∈ U , entonces usando (4.27), sabemos que
tri
sA
(t, z) := G−1 (x, 0) ∈ (−δ, δ) × B(x0 , δ), (y(G−1 (x, 0)), v(G−1 (x, 0))) = (x, u(x)) ∈ Ω.
on
mm
Si x ∈ U ∩ S, entonces gracias a U ⊂ B(x0 , δ), F (x) = 0, se tiene (y(0, x), F (x)) = (x, 0), y por
Co
tanto G−1 (x, 0) = (0, x) de donde gracias a (4.24)
ive
t
ea
u(x) = v(0, x) = u0 (x),
Cr
cia
Sea ahora x ∈ U y tomemos (t̄, z̄) = G−1 (x, 0). En particular, gracias a (4.27) tenemos que
Li
F (z̄) = 0 y por tanto, para todo t ∈ (−δ, δ), se tiene G(t, z̄) = (y(t, z̄), 0), lo que por la definición
illa
(4.26) de u implica
ev
∇u(y(t, z̄)) · f (y(t, z̄), v(t, z̄)) = g(y(t, z̄), v(t, z̄)), ∀ t ∈ (−δ, δ).
Tomando t = t̄ en esta igualdad y recordando que gracias a (t̄, z̄) = G−1 (x, 0), (4.27) y (4.28), se
da
(4.16) en un abierto W ⊃ U . Tomemos x ∈ U y (t̄, z̄) = G−1 (x, 0). Sabemos entonces que
AN
Por otra parte, definimos ỹ como la solución maximal del problema de Cauchy
ED
( 0
ỹ = f (ỹ, w(ỹ))
to.
ỹ(0) = z̄
Dp
n
cio
na
Como además ṽ(0) = w(ỹ(0)) = w(z̄) = u0 (z̄), se tiene que (ỹ, ṽ) es solución del problema de
ter
In
Cauchy
4.0
0
ỹ (s) = f (ỹ(s), ṽ(s))
al
ṽ 0 (s) = g(ỹ(s), ṽ(s))
Igu
tir
ỹ(0) = z̄, ṽ(0) = u0 (z̄)
r
pa
m
Teniendo en cuenta (4.24) y la unicidad de este problema, tenemos entonces que el intervalo de
Co
al-
definición de (ỹ, ṽ) contiene a (−δ, δ) y
i
erc
ỹ(s) = y(s, z̄), ṽ(s) = v(s, z̄).
om
oC
-N
Gracias a (4.29) y a la definición de ṽ, se tiene entonces
n
ció
w(x) = w(y(t̄, z̄)) = w(ỹ(t̄)) = ṽ(t̄) = v(t̄, z̄) = u(x).
bu
tri
sA
on
Como ya vimos en la introducción, en gran cantidad de aplicaciones la variable se descompone
mm
como (t, x) siendo t ∈ R una variable temporal y x ∈ RN una variable espacial. Además, en este
Co
caso la hipersuperficie S suele venir dada por {t = 0}. En estas condiciones, el teorema anterior
ive
proporciona el siguiente resultado de existencia y unicidad local. ea
t
Cr
(
∂t u + f (t, x, u) · ∇x u = g(t, x, u)
(4.30)
ev
u(0, x) = u0 (x),
eS
en el siguiente sentido.
(4.32) ∂t u(t, x) + f t, x, u(t, x) · ∇x u(t, x) = g(t, x, u(x, t)), ∀ (t, x) ∈ U.
i
ers
Además esta función es única en el sentido de que si existe otra solución w en un abierto W ⊃ U ,
entonces w = u en W .
,U
Observación 4.3.6. La función u del Corolario 4.3.5 se puede obtener de la siguiente forma:
AN
Consideramos para z ∈ ω tal que (0, z, u0 (z)) ∈ Ω la solución (y, v) del problema de Cauchy
(sistema caracterı́stico)
ED
0
y = f (s, y, v)
(4.34) v 0 = g(s, y, v)
to.
y(0) = z, v(0) = u0 (z)
Dp
que denotamos por y = y(t, z), v = v(t, z). Dado (t, x) ∈ U buscamos z ∈ ω tal que y(t, z) = x, (z
es único en un entorno de x0 ) entonces se cumple u(t, x) = v(t, z).
n
cio
na
Demostación del Corolario 4.3.5. Aplicamos el Teorema 4.3.1 con RN reemplazado por RN +1
ter
In
y donde los puntos del espacio se denotan por (t, x) ∈ R × RN . El problema (4.30) es entonces
4.0
un caso particular de (4.16) con f (x, u) reemplazada por (1, f (t, x, u)), g(x, u) por g(t, x, u). La
al
función F viene dada por F (t, x) = t y por tanto
Igu
tir
(1, f (0, x0 , u0 (x))) · ∇t,x F (0, x0 ) = (1, f (0, x0 , u0 (x))) · (1, 0) = 1 6= 0,
r
pa
m
Co
de forma que la condición de transversalidad siempre se verifica en este caso.
al-
El sistema caracterı́stico (4.22) se escribe
i
erc
om
0
ȳ = 1
oC
y 0 = f (ȳ, y, v)
-N
n
ció
v 0 = g(ȳ, y, v)
bu
tri
y(0) = z, ȳ(0) = 0, v(0) = u0 (z)
sA
on
donde hemos reemplazado y por (ȳ, y) ∈ RN +1 ya que ahora la variable es (t, x) y donde entendemos
mm
que las funciones (y, v) dependen de s en lugar de t porque t tiene ya el valor asignado a la variable
Co
temporal de la función buscada u. La condición inicial para (ȳ, y) la hemos tomado de la forma
ive
(0, y) ya que debe ser un punto de S. Claramente, el sistema anterior implica ȳ(s) = s y por tanto
t
ea
se reduce a
Cr
cia
0
y = f (s, y, v)
n
ce
v 0 = g(s, y, v)
Li
(4.35)
illa
y(0) = z, v(0) = u0 (z)
ev
ȳ(s, z) = t, y(s, z) = x,
dd
(
∂t ρ + u(t, x) · ∇x ρ = −divx u(t, x) ρ
ers
ρ(0, x) = ρ0 (x)
niv
Observar que ahora la variable se llama ρ y que u es una función dada. Suponiendo D ⊂ RN +1 ,
,U
0
y = u(t, y)
v 0 = −divx u(t, y) v
ED
y(0) = z, v(0) = ρ0 (z).
to.
Supuesto conocida y La segunda ecuación es una ecuación lineal en v que teniendo en cuenta la
condición inicial v(0) = ρ0 (z) proporciona la expresión de v
Dp
Rt
v(t, z) = ρ0 (z)e− 0 divx u(s,y(s,z)) ds
.
n
cio
na
Para calcular el valor de ρ en el punto (t, x) tendremos que encontrar z tal que y(t, z) = x y en ese
ter
In
caso se tendrá ρ(t, x) = v(t, z). La expresión de ρ queda entonces como sigue:
4.0
Sea y = y(s, z) la solución de
al
Igu
( 0
y = u(s, y)
tir
(4.36)
r
pa
y(0) = z.
m
Co
Dado (t, x) ∈ D buscamos z tal que y(t, z) = x, entonces
al-
i
erc
Rt
ρ(t, x) = ρ0 (z)e−
om
divx u(s,y(s,z)) ds
0 .
oC
-N
Recordando que la ecuación de conservación de masas u(t, x) representa la velocidad de la partı́cula
n
ció
que en el instante t se encuentra en la posición x, la solución de (4.36) no es otra cosa que la
bu
función posición en cada instante de la partı́cula que en el momento inicial inicial se encontraba en
tri
sA
la posición z y que por elección de z, en el instante t se enontrará en la posición x. Fı́sicamente,
on
el método de las caracterı́sticas no es otra cosa que seguir el movimiento de la partı́cula lo que
mm
conservará la masa. Sin embargo en el movimiento no se conserva en general el volumen y por
Co
tanto tampoco la densidad. La conservación de la masa a través de la caracterı́stica solo se tendrá
ive
cuando la divergencia de u sea nula, en cuyo caso ρ(t, x) = ρ0 (z). Ello corresponde al caso en que
t
ea
no hay variaciones de volumen en el movimiento del fluido, caso usual en el desplazamiento de
Cr
lı́quidos.
cia
El punto z en la expresión de ρ puede en realidad ser fácilmente caracterizado, para ello observar
n
ce
que dado (t, x) ∈ D, la elección de z y la unicidad de solución del problema de Cauchy para un
Li
( 0
y = u(s, y)
ev
(4.37)
y(t) = x.
eS
El punto z no es otra cosa que y(0, x). Por tanto la expresión de ρ queda como
dd
Rt
ρ(t, x) = ρ0 (y(0))e− 0 divx u(s,y(s)) ds
,
da
el método solo proporcione una solución en un subconjunto de D (que en este ejemplo no depende
de x0 ).
,U
Ejemplo 4.3.8. Consideremos ahora el caso de la ecuación de Burgers (con segundo miembro
nulo).
AN
(
∂t u + u ∂x u = 0
ED
u|t=0 = u0 .
El sistema caracterı́stico corresponde a
to.
0
y =v
Dp
v0 = 0
y(0) = z, v(0) = u0 (z),
n
cio
na
cuya solución es
ter
In
v(s, z) = u0 (z), y(s, z) = u0 (z)s + z.
4.0
La función u viene entonces dada por
al
Igu
u(t, x) = u0 (z), z solución de u0 (z)t + z = x
r tir
pa
Para saber donde está definida u, el problema es la existencia y unicidad de solución de esta última
m
Co
ecuación.
al-
Para ello, dado (t, x) ∈ R2 , definimos h : R → R por
i
erc
om
h(z) = u0 (z)t + z − x.
oC
-N
y nos planteamos la existencia de z ∈ R tal que h(z) = 0.
n
ció
Si suponemos que se verifica
bu
tri
|u0 (z)|
sA
(4.38) lı́m = 0,
z→∞ |z|
on
mm
entonces
Co
lı́m h(z) = −∞, lı́m h(z) = +∞,
ive
z→−∞ z→∞
t
ea
de forma que siempre hay solución. El problema es la unicidad. Derivando, tenemos
Cr
Si imponemos u0 creciente entonces h0 ≥ 1 para t ∈ [0, ∞) de forma que la solución está definida
Li
illa
1
(4.39) |t| < ,
sup |u00 |
eS
R
dd
y podemos asegurar la unicidad en este intervalo, pero en general no más allá. Observar que por
el teorema del punto fijo de Banach, (4.39) proporciona existencia y unicidad para el problema de
da
punto fijo
z = x − u0 (z)t
i
ers
z
u0 (z) = − ,
1 + z2
,U
que verifica las propiedades (4.38) y (4.39). Si queremos calcular u(t, 0), tenemos que resolver
zt
AN
− + z = 0,
1 + z2
ED
y entonces tomar u(t, 0) = u0 (z). Si t ≤ 1 la ecuación solo tiene la solución z = 0 lo que lleva a
u(t, 0) = 0. Sin embargo para t > 1 tenemos tres soluciones
√ √
to.
z = − t − 1, z = 0, z = t − 1,
Dp
que conduce a √ √
t−1 t−1
u(t, 0) = − , u(t, 0) = 0, u(t, 0) = .
t t
c
na
t er
Para u0 , u00 acotadas, el procedimiento usual para elegir una solución para todo tiempo t ∈ [0, ∞)
In
.0
consiste en aproximar la ecuación de Burgers por una ecuación del tipo
4
al
Igu
2
∂t u − ε∂xx u + u∂x u = 0,
tir
r
pa
con ε > 0. Pasando al lı́mite cuando ε tiende a cero se prueba que las soluciones correspondientes
om
convergen a una función que verifica propiedades particulares que es la que se elige como solución.
a l-C
Desde el punto de vista fı́sico la idea es que las ecuaciones de transporte provienen en general de
rci
ecuaciones de difusión con coeficientes pequeños, los cuales se han despreciado. La teorı́a corres-
me
Co
pondiente sobrepasa el nivel de la presente asignatura y del grado en general.
No
n-
ció
4.4. Integrales Primeras.
u
rib
At
Un problema importante en el estudio de Ecuaciones Diferenciales y sus aplicaciones es el de
ns
obtener cantidades que son conservadas a través de las soluciones de la ecuación (trayectorias). Ello
m mo
conduce al concepto de integral primera respecto a un sistema diferencial ordinario.
Co
e
Definición 4.4.1. Sean Ω ⊂ RN +1 abierto y f ∈ C 0 (Ω; RN )∩Liploc (y, Ω). Una función V ∈ C 0 (Ω)
tiv
ea
se dice que es una integral primera respecto al SDO
Cr
cia
si para toda solución y ∈ C(I; RN ) de esta ecuación, I ⊂ R abierto, se tiene que existe C ∈ R (que
il la
d
V (t, ϕ(t)) = ∂t V (t, ϕ(t))+∇x V (t, ϕ(t))·ϕ0 (t) = ∂t V (t, ϕ(t))+∇x V (t, ϕ(t))·f (t, ϕ(t)) = V̇ (t, ϕ(t)).
dt
ED
(4.42) V̇ (t, y) = 0 en Ω.
n
cio
na
Observación 4.4.5. A partir del resultado anterior, deducimos que la existencia de integrales
ter
In
primeras se traduce en la existencia de solución de la EDP de primer orden
4.0
∂t V + f (t, y) · ∇y V = 0,
al
Igu
tir
ecuación que es del tipo estudiado en la Sección 4.3. Más concretamente, se trata de una EDP
r
pa
lineal de primer orden homogénea. En particular, el conjunto de soluciones es un espacio vectorial.
m
Co
El resultado siguiente prueba que de hecho se tiene una propiedad mucho más fuerte, el conjunto
al-
de integrales primeras es estable por composición.
i
erc
om
Proposición 4.4.6. Supongamos V1 , . . . , Vm ∈ C 1 (Ω), integrales primeras del sistema (4.40) en Ω
oC
y sea O ⊂ Rm abierto tal que
-N
n
ció
(V1 (t, y), · · · , Vm (t, y)) ∈ O, ∀ (t, y) ∈ Ω.
bu
tri
Entonces, si ψ = ψ(s1 , . . . , sm ) es una función arbitraria de clase C 1 en O, la función Ψ : Ω → R
sA
definida por
on
Ψ(t, y) = ψ(V1 (t, y), . . . , Vm (t, y)), ∀ (t, y) ∈ Ω,
mm
Co
es también una integral primera.
ive
t
Demostración. Usando la regla de cadena, se tiene ea
Cr
cia
m
X m
X
n
j=1 j=1
illa
m
X
= ∂sj ψ(V1 , · · · , Vm )V̇j = 0.
ev
j=1
eS
Observación 4.4.7. En realidad no hace falta pedir a las integrales primeras que sean C 1 (Ω). Eso
dd
se ha hecho por la forma de demostrarlo. Usando que Vi (t, ϕ(t)) = ci ∈ R sobre cualquier solución
(I, ϕ), se tiene que para ψ ∈ C(O), cualquier composición Ψ(t, y) = ψ(V1 (t, y), . . . , Vm (t, y)) es
da
En el caso de que se pueda resolver de manera explı́cita el SDO, una forma de encontrar
integrales primeras consiste en escribir las distintas constantes que aparecen en la resolución como
niv
Ejemplo. Consideramos una sustancia que se encuentra repartida en dos receptáculos de volúmenes
respectivos V1 y V2 . Las partı́culas que se encuentran cerca de la membrana, pueden atravesarla con
AN
una probabilidad que depende de las propiedades de la sustancia y la membrana. Siendo y1 = y1 (t),
y2 = y2 (t) la cantidad de sustancia en cada receptáculo, se tiene
ED
λ λ
0
y1 = V y2 − V y1
2 1
(4.43)
λ λ
to.
y20 =
y1 − y2 ,
V1 V2
Dp
n
cio
na
Sumando las ecuaciones tenemos
ter
y10 + y20 = 0
In
4.0
y por tanto existe C1 ∈ R tal que
al
Igu
tir
(4.44) y1 + y2 = C1 ,
r
pa
m
condición que no es otra cosa que la conservación de la masa.
Co
De esta condición se deduce y2 = C1 −y1 que sustituido en la primera ecuación de (4.43) conduce
al-
i
erc
a la ecuación lineal de primer orden
om
oC
0 λC1 1 1
y1 = −λ + y1 ,
-N
V2 V2 V1
n
ció
bu
cuya solución es
tri
sA
C1 V1 −λ( 1 + 1 )t
(4.45) y1 = + C2 e V 2 V 1
on
V1 + V2
mm
Co
con C2 otra constante.
ive
Despejando C1 de la ecuación (4.45) se obtiene la integral primera
t
ea
Cr
(4.46) V1 (t, y1 , y2 ) = y1 + y2
ncia
ce
y1 V2 − y2 V1 λ( V1 + V1 )t
(4.47) V2 (t, y1 , y2 ) = e 2 1 .
ev
V1 + V2
eS
A partir de la Proposición 4.4.6 tenemos de hecho infinitas integrales primeras. Basta con considerar
una función cualquiera Ψ = Ψ(s1 , s2 ) de clase uno en R2 y tomar
dd
y1 V2 − y2 V1 λ( V1 + V1 )t
V (t, y1 , y2 ) = Ψ y1 + y2 , e 2 1 ,
V1 + V2
da
Una pregunta importante es si cualquier integral primera es de hecho de esta forma. Una respuesta
i
ers
afirmativa, al menos localmente, viene dada por el teorema siguiente junto con el Corolario 4.4.10.
Como es usual, denotamos por {e1 , ..., eN } los vectores de la base canónica de RN .
niv
(4.48) ∇x ui (t0 , y0 ) = ei , 1 ≤ i ≤ N.
(u1 (t, y), . . . , uN (t, y)) : (t, y) ∈ ω = B(y0 , δ)
to.
y se tiene que una función V ∈ C 1 (ω) es una integral primera del sistema (4.40) si y sólo existe
Ψ ∈ C 1 (B(y0 , δ)) tal que
Dp
(4.49) V (t, y) = Ψ u1 (t, y), · · · , uN (t, y) , ∀ (t, y) ∈ ω.
c
na
t er
Demostración. Aplicando el Corolario 4.3.5 sabemos que para toda u0 ∈ C 1 (Ω), existen un abierto
In
.0
ω ⊂ Ω con (t0 , y0 ) ∈ ω y u ∈ C 1 (ω) única solución del problema
4
al
Igu
(
∂t u + f (t, y) · ∇y u = 0 en ω
tir
(4.50)
u(t0 , y) = u0 (t0 , y), ∀ y ∈ RN tal que (t0 , y) ∈ ω.
r
pa
om
Sabemos además que la solución se puede obtener por el método de las caracterı́cas. En el presente
a l-C
caso usando una simple traslación en el tiempo, se sabe de la Observación 4.3.6 que el método se
rci
me
reduce a lo siguiente:
Co
Existe δ > 0 tal que para todo z ∈ B(y0 , δ) la solución del sistema
No
( 0
n-
y = f (t, y)
ció
(4.51)
u
y(t0 ) = z,
rib
At
está definida en un intervalo que contiene a (t0 − δ, t0 + δ). La aplicación
ns
mo
R : (t, z) ∈ (t0 − δ, t0 + δ) × B(y0 , δ) 7→ (t, y(t, z))
m
Co
es biyectiva sobre ω. Las funciones R y R−1 son de clase uno y se tiene u(t, x) = u0 (R−1 (t, x)).
e
tiv
ea
Tomamos ui , i = 1, . . . , N , como las soluciones de (4.50) correspondientes a u0 (t, x) = xi , las
Cr
cuales vienen dadas por
cia
cen
De esta forma, para u0 ∈ C 1 (ω) arbitrario, la solución de (4.50) viene dada por
il la
Por construcción, las funciones ui son integrales primeras del sistema en ω. Además si V es otra
eS
integral primera en ω entonces V es la solución de (4.50) correspondiente a u0 (t, y) = V (t, y). Por
tanto
dd
respecto a x, ∇x ui (t0 , x) = ei .
niv
Observación 4.4.9. El Teorema 4.4.8 muestra que localmente todas las integrales primeras se
pueden obtener como función de N integrales particulares. Esto proviene del hecho de que las
,U
soluciones del sistema (4.40) están definidas salvo N constantes. Recalcar que no podemos usar
menos, es decir ninguna de las funciones ui se puede escribir en función de las otras. Para probarlo
AN
supongamos por ejemplo que existe Ψ = Ψ(y1 , · · · , yN −1 ) tal que en un entorno de (t0 , y0 ), se tiene
(si en lugar de uN fuera otra de las funciones el razonamiento serı́a similar pero la notación algo
más compleja). En particular, tomando t = t0 tenemos
to.
c
na
t er
In
En el Teorema 4.4.8 se han tomado las funciones ui verificando (4.48). El siguiente corolario nos
.0
dice que el resultado es cierto tomando cualesquiera N integrales primeras tales que sus gradientes
4
al
con respecto a y sean linealmente independientes.
Igu
tir
Corolario 4.4.10. Sean Ω ⊂ RN +1 abierto, f ∈ C 1 (Ω; RN ), (t0 , y0 ) ∈ Ω y supongamos v1 , . . . , vN
r
pa
integrales primeras de (4.40) en un entorno U ⊂ Ω de (t0 , y0 ) tales que v = (v1 , . . . , vN ) verifica
om
l-C
(4.53) detDy v(t0 , y0 ) 6= 0.
a
rci
me
Entonces existe un abierto W ⊂ U conteniendo a (t0 , y0 ), tal que v(W ) es abierto y tal que una
Co
función V ∈ C 1 (W ) es una integral primera de (4.40) en W si y solo si existe Ψ ∈ C 1 (v(W ))
No
verificando
n-
ció
V (t, y) = Ψ(v(t, y)), ∀ (t, y) ∈ W.
u
rib
At
Demostración. Sean u1 , . . . , uN y ω dados por el Teorema 4.4.8 y denotemos u = (u1 , · · · , uN ).
ns
Como las funciones vi son integrales primeras, existen φ1 , . . . , φN tales que vi = φi (u) en ω, lo que
mo
tomando φ = (φ1 , . . . , φN ) se puede escribir como
m
Co
e
(4.54) v(t, y) = φ(u(t, y)), ∀ (t, y) ∈ ω.
tiv
ea
Cr
Derivando respecto a y en (t0 , y0 ) y recordando que se verifica (4.48), se deduce
cia
cen
como Dy v(t0 , y0 ) es invertible, deducimos entonces que también Dy φ(u(t0 , y0 )) es invertible y por
il la
Por el teorema 4.4.8 una función V es una integral primera de (4.40) en ω si y sólo si es de la forma
ida
Observación 4.4.11. Hemos visto como al menos localmente el problema de encontrar todas las
integrales primeras para (4.40) se reduce al de encontrar N integrales primeras cuya matriz jaco-
AN
biana respecto de y sea invertible. Por otra parte, si tenemos N integrales primeras v1 , . . . , vN en
un abierto ω ⊂ Ω e y = (y1 (t), . . . , yN (t)), t ∈ I, es una solución de (4.40), entonces sabemos que
ED
n
cio
na
Si podemos despejar y(t) de esta ecuación podemos entonces encontrar las soluciones del SDO como
ter
In
función de t y c a partir de las integrales primeras.
4.0
Supongamos de hecho (t0 , y0 ) ∈ Ω tal que Dy v(t0 , y0 ) es invertible. Podemos entonces aplicar el
al
teorema de la función implı́cita en el punto (t0 , y0 , v(t0 )) a la aplicación
Igu
tir
F : (t, c, y) ∈ Ω × RN → v(t, y) − c,
r
pa
m
para probar que existen δ > 0, un entorno U de y0 y una aplicación
Co
al-
i
ψ : (t0 − δ, t0 + δ) × B(v(t0 , y0 )) → U
erc
om
de clase uno tal que
oC
-N
v(t, y) = c, (t, c, y) ∈ (t0 − δ, t0 + δ) × B(v(t0 , y0 )) → U ⇐⇒ y = ψ(t, c).
n
ció
bu
Esto prueba que al menos localmente podemos efectivamente despejar y de (4.56) obteniéndose
tri
sA
y(t) = ψ(t, c).
on
En la práctica solo se suelen conocer algunas integrales primeras, ası́ si tenemos k < N inte-
mm
grales primeras, vi con gradientes independientes, lo que podemos hacer es usar el sistema
Co
vi (t, y1 (t), . . . , yN (t)) = ci , ∀ t ∈ I, 1 ≤ i ≤ k,
ive
t
ea
para escribir k funciones yi en función de las restantes y pasar a un sistema con N − k ecuaciones.
Cr
Como antes, el teorema de la función implı́cita asegura que esto es posible al menos localmente.
n cia
Comentar también que si tenemos una integral primera en un entorno de un punto crı́tico
ce
Li
definida positiva, entonces dicha función es una función de Liapunov y por tanto el equilibrio es
illa
estable.
buscar integrales primeras que no dependen de t, i.e. tales que sean soluciones de la EDP
eS
Se tiene
da
(4.58) y 0 = f (y),
niv
encontrar otra función uN ∈ C 1 (O) tal que ∇uN (y0 ) es independiente de los vectores ∇ui (y0 ) y tal
que vN (t, y) = t + uN (y) es también integral primera del sistema.
AN
S = y ∈ RN : f (y0 ) · (y − y0 ) = 0 .
y consideremos ξ1 , · · · , ξN −1 , una base del espacio ortonormal al vector f (y0 ) 6= 0. El Teorema 4.3.1
to.
prueba que para cada i ∈ {1, · · · , N − 1} existe una solución local ui del problema
Dp
(
∇y ui · f = 0
(4.59)
(ui )|S = ξi · y.
n
cio
na
Definimos también uN como la solución de
ter
In
(
∇y uN · f = −1
4.0
(4.60)
al
(ui )|S = 0.
Igu
tir
Claramente las funciones ui , 1 ≤ i ≤ N − 1 y t + uN (y) son integrales primeras. Veamos que los
r
pa
vectores ∇ui (y0 ), 1 ≤ i ≤ N son independientes.
m
Co
Si 1 ≤ i ≤ N , usamos que
al-
ui (y0 + rξ) = ξi · (y0 + rξ),
i
erc
om
para r en un entorno de cero y ξ ortogonal a f (y0 ). Derivando respecto a r en r = 0 tenemos
oC
-N
∇ui (y0 ) · ξ = ξi · ξ, ∀ ξ ortogonal a f (y0 ).
n
ció
Esto prueba que ∇ui (y0 ) − ξi es paralelo a f (y0 ). Usando entonces que la EDP en (4.59) implica
bu
tri
que ∇ui (y0 ) es ortogonal a f (y0 ) y que también ξ es ortogonal a f (y0 ) concluimos
sA
on
∇ui (y0 ) = ξi , 1 ≤ i ≤ N − 1.
mm
Co
Un razonamiento similar prueba que ∇uN (y0 ) es paralelo a f (y0 ) lo que junto a ∇un (y0 )·f (y0 ) = −1
ive
prueba
f (y0 ) t
ea
∇uN (y0 ) = − .
Cr
|f (y0 )|2
cia
4.4.12 no se aplica en general. El resultado de hecho depende de la estructura del punto crı́tico, ası́
por ejemplo si consideramos el sistema y 0 = 0 (donde todos los puntos son crı́ticos) se tiene que la
ev
EDP que verifican las integrales primeras se reduce a ∂t V = 0 y por tanto las integrales primeras
eS
son todas las funciones que sólo dependen de y. En este caso existen N integrales primeras ui
dependientes sólo de y tales que los vectores ∇ui (y0 ) son independientes en cada y0 ∈ RN . Basta
dd
sistema autónomo y 0 = f (y) con f ∈ Liploc (D), D ⊂ RN abierto. Entonces, para toda integral
primera continua V de y 0 = f (y) en un entorno O de y0 , existe B(y0 , δ) ⊂ O tal que V es constante
niv
Demostración. Sea ρ > 0 tal que B(y0 , ρ) ⊂ O. Como y0 es asintóticamente estable. existe δ > 0
tal que si ŷ0 ∈ B(y0 , δ) entonces [0, ∞) ⊂ I(ŷ0 ) y se tiene
AN
n
cio
na
luego V es constante en B(y0 , δ).
ter
In
Ejemplo 1. Consideremos una masa sobre la que actúa una fuerza radial. En coordenadas polares
4.0
el movimiento de la partı́cula verifica el sistema de segundo orden
al
Igu
00 0 2
r = r|θ | + f (r)
r tir
pa
0 0
θ00 = − 2r θ ,
m
Co
r
al-
i
donde la fuerza por unidad de masa viene dada por el vector f (r)(cos θ, sen θ).
erc
Introduciendo r1 = r, r2 = r0 , θ1 = θ, θ2 = θ0 tenemos el sistema de cuarto orden
om
oC
0
-N
r1 = r2
n
ció
r20 = r1 |θ2 |2 + f (r1 )
bu
tri
θ10 = θ2
sA
θ0 = − 2r2 θ2 ,
on
mm
2
r1
Co
En este caso, tomando F una primitiva de f se tienen las dos integrales primeras
ive
t
ea
1 2
r + r12 θ22 ) − F (r1 )
Cr
V1 (t, r1 , r2 , θ1 , θ2 ) =
2 2
cia
n
V2 (t, r1 , r2 , θ1 , θ2 ) = r12 θ2
ce
Li
r22
W1 (t, r1 , r2 , θ1 , θ2 ) = − F (r1 ), V2 (t, r1 , r2 , θ1 , θ2 ) = r12 θ2
eS
2
A partir de ellas, tenemos que si (r1 , r2 , θ1 , θ2 ) es una solución del sistema entonces existen c1 , c2 ∈ R
dd
tales que
(4.61)
i
C2
r10 = ± C1 + 2F (r1 ), θ10 =
p
niv
.
r12
,U
La primera es una ecuación de variables separadas que permite calcular r1 que sustituido en la
segunda proporcionarı́a θ1 . Sustituyendo en (4.61) obtenemos ahora r2 y θ2 .
AN
( 0
u = −αu + βuv
v 0 = γv − δuv,
to.
Teniendo en cuenta que las semirrectas {u > 0, v = 0}, {v > 0, u = 0} y el punto crı́tico {0}
son órbitas cuya unión es la frontera del primer cuadrante y que órbitas distintas no se cortan, se
n
cio
na
deduce que u, v son positivas si partimos de datos positivos algo que es fácil ver que ocurre siempre
ter
In
si partimos de datos iniciales positivos, tal y como es de esperar desde el punto de vista biológico.
4.0
Una forma de conseguir una integral primera para el sistema consiste en buscar u en función
al
de v. Usando
Igu
du
du −αu + βuv
tir
dt
= dv = ,
r
dv γv − δuv
pa
dt
m
se tiene
Co
γ − δu −α + βv
al-
du = dv,
i
u v
erc
om
o integrando
oC
-N
(4.62) γ ln u − δu = −α ln v + βv + c.
n
ció
bu
Esto conduce a la integral primera
tri
sA
V (u, v) = γ ln u − δu + α ln v − βv.
on
mm
A partir de ella (o directamente de (4.62)) se deduce que para toda solución (u, v) existe una
Co
constante C > 0, dependiendo de la solución tal que
ive
t
ea
δu βv
Cr
(4.63) − γ ln − δu + γ − α ln − βv + α = C.
γ α
cia
n
ce
Esta igualdad nos da de forma implı́cita las órbitas del sistema, que usando que para todo a > 0
Li
la función
s
illa
Φa (s) = s − a ln − a
a
ev
tiene la forma dada por la figura 4.1, donde el mı́nimo se encuentra en s = a, se comprueba que
las órbitas son cı́clicas. Además, el primer miembro en (4.63) corresponde a una función definida
eS
positiva en torno al punto crı́tico del sistema (γ/δ, α/β) de forma que este punto es estable (al ser
las órbitas cı́clicas no puede ser atractivo).
dd
i da
ers
niv
,U
AN
ED
to.
n
cio
na
4.5. Problema de Cauchy para una EDP no lineal de primer orden
ter
In
general.
4.0
al
Consideramos en esta sección el problema de Cauchy correspondiente una ecuación completa-
Igu
tir
mente no lineal.
r
pa
(
H(x, u, ∇u) = 0
m
Co
(4.64)
al-
u|S = u0 .
i
erc
Suponemos H ∈ C 2 (Ω) con Ω ⊂ R2N +1 abierto, u0 ∈ C 2 (O), O ⊂ RN abierto,
om
oC
-N
S = {x ∈ O : F (x) = 0},
n
ció
con F ∈ C 2 (O). Similarmente al problema estudiado en la sección 4.3 el problema se puede resolver
bu
tri
usando una extensión del método de las caracterı́sticas. Concretamente, supongamos que existe
sA
una solución u de clase 2 y consideremos para cada z ∈ S, la solución y del SDO (tomamos
on
H = H(x, u, p))
mm
( 0
y = ∇p H(y, u(y), ∇u(y))
Co
ive
y(0) = z
t
ea
Tomando v = u(y(t)), p = ∇u(y(t)), vamos a ver que las funciones y, v, p verifican un cierto sistema
Cr
cia
d d
pi (t) = ∂xi u(y(t)) = ∂xi ∇x u(y(t)) · y 0 (t) = ∂xi ∇x u(y(t)) · ∇p H(y, v, p)
da
dt dt
i
dt
Necesitamos también condiciones iniciales para v y p. En el caso de v se tiene
to.
La condición inicial para p es más delicada. Se debe tener p(0) = ∇u(z) pero la igualdad u(x) =
u0 (x) sólo es cierta en los puntos de S lo que solo permite obtener las derivadas de u en las
c
na
t er
In
direcciones del hiperplano tangente a S en x0 . Concretamente, si ξ es un vector tangente a la
.0
superfice en z, i.e. tal que ∇F (z) · ξ = 0, entonces, usando el teorema de la función implı́cita, se
4
puede probar que existen ε > 0 y una curva φ ∈ C 1 ((−ε, ε); RN )) tal que
al
Igu
tir
φ(t) ∈ S, ∀ t ∈ (−ε, ε), φ(0) = z, φ0 (0) = ξ.
r
pa
om
Derivando entonces en la igualdad
a l-C
rci
u(φ(t)) = u0 (ϕ(t)), ∀ t ∈ (−ε, ε),
me
Co
deducimos
No
∇u(φ(t)) · φ0 (t) = ∇u0 (φ(t)) · φ0 (t), ∀ t ∈ (−ε, ε),
n-
ció
u
lo que tomando t = 0 prueba
rib
At
∀ ξ ∈ RN , ∇F (z) · ξ = 0.
∇u(z) − ∇u0 (z) · ξ = 0,
ns
m mo
Esto prueba es que ∇u(z) − ∇u0 (z) es paralelo a ∇F (z), es decir
Co
e
tiv
(4.65) ∇u(z) = ∇u0 (z) + λ∇F (z), para algún λ ∈ R.
ea
Cr
Para determinar λ, usamos que u es solución de H(x, u(x), ∇u(x)) = 0, lo que tomando x = z y
cia
cen
Con estas observaciones, deducimos deducimos finalmente que (y, v, p) verifican el sistema carac-
ev
terı́stico
eS
0
y = ∇p H(y, v, p),
v 0 = ∇p H(y, v, p) · p,
dd
(4.66) p0 = −∇x H(y, v, p) − ∂u H(y, v, p)p,
ida
y(0) = z, v(0) = u0 (z), p(0) = ∇x u0 (z) + λ∇x F (z)
F (z) = 0, H z, u0 (z), ∇u0 (z) + λ∇F (z) = 0.
ers
Tomando (y, v, p) como funciones de (t, z), la forma de obtener u(x) serı́a buscar (t, z) tal que
y(t, z) = x. En este caso u(x) = v(t, z) (y ∇u(x) = p(t, z)).
,U
Con las ideas anteriores se puede probar el siguiente resultado. La demostración sigue las lı́neas
de la del Teorema 4.3.1 aunque algo más complejo y no la llevaremos a cabo.
AN
definamos S por
(4.67) S = x ∈ O : F (x) = 0 .
to.
(4.68) (x0 , u0 (x0 ), ∇u0 (x0 ) + λ0 ∇F (x0 )) ∈ Ω, H(x0 , u0 (x0 ), ∇u0 (x0 ) + λ0 ∇F (x0 )) = 0,
n
cio
na
ası́ como la condición de transversalidad
ter
In
4.0
(4.69) ∇p H(x0 , u0 (x0 ), ∇u0 (x0 ) + λ0 ∇F (x0 )) · ∇F (x0 ) 6= 0.
al
Igu
Entonces, existen U ⊂ RN abierto, con x0 ∈ U y u ∈ C 2 (U ) solución de (4.64) en el siguiente
tir
sentido:
r
pa
m
(4.70) (x, u(x), ∇u(x)) ∈ Ω, ∀ x ∈ U,
Co
al-
i
erc
(4.71) H(x, u(x), ∇u(x)) = 0, ∀ x ∈ U.
om
oC
-N
(4.72) u(x) = u0 (x), ∀ x ∈ S ∩ U.
n
ció
bu
tri
(4.73) ∇u(x0 ) = ∇u0 (x0 ) + λ0 ∇F (x0 ).
sA
on
Además u es única en el sentido de que si existe otra solución w en un abierto W ⊃ U , entonces
mm
w = u en U .
Co
ive
t
Observación 4.5.2. La función u se obtiene por el método descrito anteriormente, resaltar que
ea
Cr
la ecuación
cia
podrı́a tener más de una solución. En este caso el teorema no proporciona una sola solución en un
entorno de x0 sino que habrı́a una para cada valor de λ0 .
illa
ev
Ejemplo. Uno de los ejemplos más importantes de ecuación no lineal corresponde a la ecuación
de Hamilton-Jacobi que aparece en Mecánica y más generalmente en Cálculo de Variaciones.
eS
(4.74) ∂t u + H(t, x, ∇x u) = 0,
dd
partı́culas cuyas posiciones en el instante t vienen dadas por el vector x y sus impulsos por p. Ası́
por ejemplo, en el caso simple de un muelle tenemos
i
ers
p2 kx2
(4.75) H(t, x, p) = + ,
niv
2m 2
donde k > 0 es la constante del muelle y m su masa.
,U
el problema
∂t u + H(t, x, ∇x u) = 0
(
ED
(4.76)
u(0, x) = u0 (x)
to.
Observar que aquı́ la variable x en (4.64) corresponde a (t, x) ∈ RN +1 . De la misma forma en el gra-
diente de u hay que distinguir la derivada respecto a t de las derivadas espaciales ∇u = (∂t u, ∇x u).
Dp
De esta forma, la función H que aparecı́a en (4.64) será en realidad de la forma H(t, x, u, p0 , p) con
p0 ∈ R (corresponde a la derivada temporal) y p ∈ RN (correspondiente a la derivada espacial).
n
cio
na
Concretamente en el caso de la ecuación de Hamilton-Jacobi tenemos
ter
In
H(t, x, u, p0 , p) = p0 + H(t, x, p).
4.0
al
Para aplicar el Teorema 4.5.1, teniendo en cuenta que en este caso F (t, x) = t implica (∂t F, ∇x F ) =
Igu
(1, 0) y que u0 no depende de t, deducimos que debemos escoger x0 ∈ O y λ0 ∈ R verificando
r tir
pa
(0, x0 , ∇x u0 (x0 )) ∈ Ω, λ0 = −H(0, x0 , ∇x u0 (x0 )).
m
Co
La condición de transversalidad es automáticamente satisfecha.
al-
Observar que en este caso λ0 corresponde a ∂t u(0, x0 ).
i
erc
El sistema (4.66) se escribe (en lugar de y tomamos (y0 , y) para distinguir la variable temporal
om
de las espaciales).
oC
-N
n
0
ció
y0 = 1,
bu
y 0 = ∇p H(y0 , y, p)
tri
sA
v 0 = p0 + ∇p H(y0 , y, p) · p,
on
mm
p00 = −∂t H(y0 , y, p)
Co
p0 = −∇x H(y0 , y, p),
ive
t
ea
y0 (0) = 0, y(0) = z, v(0) = u0 (z), p0 (0) = −H(0, z, ∇x u0 (z)), p(0) = ∇x u0 (z).
Cr
cia
y 0 = ∇p H(s, y, p)
Li
v 0 = p0 + ∇p H(s, y, p) · p,
illa
(4.77) p00 = −∂t H(s, y, p)
ev
p0 = −∇x H(s, y, p),
eS
y(0) = z, v(0) = u0 (z), p0 (0) = −H(0, z, ∇x u0 (z)), p(0) = ∇x u0 (z).
dd
Una vez resuelto este sistema, la correspondiente función u(t, y) se obtendrı́a buscando z tal que
y(t, z) = x y entonces u(t, x) = v(t, z).
da
p0 = −∇x H(s, y, p)
se denominan ecuaciones canónicas y proporcionan el movimiento de las partı́culas del sistema
niv
p
y0 =
m
ED
p2
0
v = p + ,
0
m
p00 = 0
to.
p0 = −ky,
Dp
0 2 2
y(0) = z, v(0) = u0 (z), p0 (0) = − |u0 (z)| − kz , p(0) = u00 (z).
2m 2
n
cio
na
Por tanto
ter
|u00 (z)|2 kz 2
In
p0 (s, z) = − − .
4.0
2m 2
al
Derivando la primea ecuación y usando la cuarta, tenemos (corresponde a la ecuación del movi-
Igu
miento)
tir
p0 k
r
pa
y 00 = =− y
m
m m
Co
que junto con las condiciones iniciales
al-
i
erc
p(0) u0 (z)
om
y(0) = z, y 0 (0) = = 0
m m
oC
-N
proporciona
n
ció
u00 (z)
bu
y(s, z) = z cos(ωs) + sen(ωs),
mω
tri
sA
con r
on
k
ω= .
mm
m
Co
La condición p = my 0 da ahora
ive
t
ea
p(s, z) = −zmω sen (ωs) + u00 (z) cos(ωs).
Cr
cia
2m 2 m
|u0 (z)|2
0
− kz 2 cos(2ωs) − zωu00 (z) sen (2ωs).
ev
=
m
eS
1 |u00 (z)|2
v(s, z) = − kz 2 sen (2ωs) − zu00 (z)sen2 (ωs) + u0 (z).
2ω m
da
Para calcular u(t, x), tenemos que buscar z tal que y(t, z) = x y entonces u(t, x) = v(t, z). La
i
u00 (z)
niv
1 |u00 (z)|2
AN
mω
Observar que definiendo
to.
u00 (z)
g(t, x, z) = z cos(ωt) + sen(ωt) − x
mω
Dp
se tiene
g(0, x0 , x0 ) = 0, ∂z g(0, x0 , x0 ) = 1 6= 0.
n
cio
na
Por tanto, el teorema de la función implı́cita prueba que para todo x0 existen δ, ε > 0 y φ :
ter
In
(B((0, x0 ), δ) → (x0 − ε, x0 + ε) de clase uno tal que
4.0
al
φ(0, x0 ) = x0 , g(t, x, φ(t, x)) = 0, ∀ (t, x) ∈ B((0, x0 ), δ),
Igu
tir
)
g(t, x, z) = 0
r
pa
⇒ z = φ(t, x).
m
(t, x) ∈ B((0, x0 ), δ), |z − x0 | < ε
Co
al-
Esto prueba que efectivamente (4.78) define una única z en un entorno de (0, x0 ).
i
erc
Ecuación de la iconal (o eikonal).
om
oC
Es la ecuación principal de la óptica geométrica, la cual estudia el movimiento de la luz como
-N
si se tratara de rayos que se desplazan en el tiempo en lugar de ondas. Matemáticamente aparece
n
ció
cuando nos interesamos por ondas con muy baja longitud de onda. La ecuación se escribe
bu
tri
|∂t u|2 − c(x)2 |∇x u|2 ,
sA
on
mm
donde c es una función positiva que representa la velocidad de la luz. En este caso depende del el
Co
punto x ya que está atravesando un medio no homogéneo. La función está definida en un abierto
de R3 .
La ecuación iconal se escribe también como ive
t
ea
Cr
cia
∂t u ± c(x)|∇x u|,
n
ce
Li
Para poder aplicar el Teorema 4.5.1 necesitamos que exista O ⊂ R3 abierto con c, u0 ∈ C 2 (O),
x0 ∈ U y ∇u(x0 ) 6= 0.
dd
|p|
0
i
v = p0 + c(y)|p|,
ers
(4.79) p00 = 0
niv
0
p = −∇x c(y)|p|,
,U
La ecuación para p0 da
AN
p · p0
c(y)|p|)0 = |p|∇x c(y) · y 0 + c(y) = c(y)∇x c(y) · p − c(y)∇x c(y) · p = 0.
to.
|p|
Por tanto
Dp
n
cio
na
Junto con la expresión de p0 tenemos entonces v 0 = 0, luego
ter
In
4.0
v = u0 (z).
al
Igu
Dado (t, x), el cálculo de u(t, x) queda entonces como sigue:
tir
Buscamos z tal que la solución de (son las ecuaciones del movimiento)
r
pa
m
0 p
Co
y = c(y) |p|
al-
i
erc
p0 = −∇x c(y)|p|,
om
oC
y(0) = z, p(0) = ∇x u0 (z).
-N
n
verifique y(t) = x, entonces u(t, x) = u0 (z).
ció
bu
Como caso particular, supongamos c = c(y1 ), u0 = u0 (y1 ). Como el sistema necesita que la
tri
derivada de u0 no se anule, suponemos también que el signo de u00 es una constante s que tomará
sA
los valores 1 ó -1 (u00 es creciente o decreciente). Tenemos
on
mm
p2 (s) = p3 (s) = 0, y2 (s) = z2 , y3 (s) = z3 .
Co
ive
El problema para y1 se reduce a
t
ea
Cr
donde la ecuación es de variables separadas. Para calcular u(t, x) debemos encontrar z1 tal que la
Li
solución del problema anterior verifique y1 (t) = x1 . En ese caso u(t, x) = u0 (z1 ). Como z1 y t solo
illa
n
cio
na
ter
In
4.0
al
Igu
r tir
pa
m
Co
al-
i
erc
om
oC
-N
n
ció
bu
tri
sA
on
mm
Co
ive
t
ea
Cr
cia
n
ce
Li
illa
ev
eS
dd
i da
ers
niv
,U
AN
ED
to.
Dp
m
Co
al-
i
erc
om
oC
[1] Brauer F., Nohel J.A., Qualitative Theory of Ordinary Differential Equations, W.A. Ben-
-N
jamin Inc., New York 1969.
n
ció
bu
[2] Braun M., Differential Equations and Their Applications, 3rd Edition, Springer-Verlag, New
tri
York 1986.
sA
on
[3] Coddington E.A., Levinson N., Theory of Ordinary Differential Equations, McGraw-Hill,
mm
New York 1955.
Co
ive
[4] Corduneanu C., Principles of Differential and Integral Equations, Chelsea Publishing Com-
t
ea
pany, New York 1977.
Cr
cia
[5] Fernández Pérez C., Ecuaciones Diferenciales I: Ecuaciones Lineales, Ediciones Pirámide,
n
ce
[6] Fernández Pérez C., Vegas Montaner J.M., Ecuaciones Diferenciales II: Ecuaciones
no Lineales, Ediciones Pirámide, S.A., Madrid 1996.
ev
[8] Guzmán M. de, Peral I., Walias M., Problemas de Ecuaciones Diferenciales Ordinarias,
Alhambra, Madrid 1978.
da
[9] Hartman P., Ordinary Differential Equations, John Wiley & Sons, New York 1964.
i
ers
[10] John F., Partial Differential Eqautions, Springer-Verlag, New York 1982.
niv
[11] Kiseliov A., Krasnov M., Makarenko G., Problemas de Ecuaciones Diferenciales Ordi-
narias, Mir, Moscú 1973.
,U
[12] LaSalle J., Lefschetz S., Stability by Liapunov’s Direct Method with Applications, Acade-
AN
[13] Martı́nez Carracedo C., Sanz Alix M.A., Introducción a las Ecuaciones Diferenciales
ED
[14] Miller R.K., Michel A.N., Ordinary Differential Equations, Academic Press, New York
to.
1982.
Dp
[15] Novo S., Obaya R., Rojo J., Ecuaciones y Sistemas Diferenciales, McGraw-Hill, Madrid
1995.
99
al.
100 BIBLIOGRAFÍA
n
cio
na
[16] Rao R.M., Ordinary Differential Equations, Theory and Applications, Edward Arnold, Lon-
ter
In
don 1980.
4.0
[17] Robinson J.C.,, An Introduction to Ordinary Differential Equations, Cambridge University
al
Igu
Press, Cambridge-New York 2004.
rtir
pa
[18] Rouche N., Mawhin J., Équations Différentielles Ordinaires, Tomes I et II, Masson, Paris
m
1973.
Co
al-
i
[19] Simmons G.F., Ecuaciones Diferenciales con Aplicaciones y Notas Históricas, McGraw-Hill,
erc
om
Madrid 1993.
oC
[20] Sneddon I.N., Elements of Partial Differential Equations, McGraw-Hill, New York 1957.
-N
n
ció
bu
tri
sA
on
mm
Co
ive
t
ea
Cr
cia
n
ce
Li
illa
ev
eS
dd
i da
ers
niv
,U
AN
ED
to.
Dp