Lizana Libro
Lizana Libro
FACULTAD DE CIENCIAS
DEPARTAMENTO DE MATEMATICAS
x′
Introducción 6
1 Preliminares 7
§ 1.1 Espacio de las Funciones Continuas y Teoremas de Punto Fijo . . . . . 7
§ 1.2 Condición de Lipschitz . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
§ 1.3 Desigualdades Integrales . . . . . . . . . . . . . . . . . . . . . . . . . . 10
§ 1.4 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 12
§ 1.5 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Teorı́a General 15
§ 2.1 Existencia y Unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
§ 2.2 Prolongación de Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . 19
§ 2.3 Continuidad de las Soluciones Respecto a los Datos Iniciales. . . . . . . 24
§ 2.4 Dependencia Continua de las Soluciones Respecto a Parámetros . . . . 28
§ 2.5 Derivabilidad de las Soluciones Respecto a los Datos Iniciales y a Pará-
metros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
§ 2.6 Fórmula de Alekseev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
§ 2.7 Desigualdades Diferenciales Escalares . . . . . . . . . . . . . . . . . . . 34
§ 2.8 Ecuaciones Diferenciales con Parte Derecha Discontinua . . . . . . . . . 36
§ 2.9 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3 Sistemas Lineales 43
§ 3.1 Sistemas Lineales Homogéneos . . . . . . . . . . . . . . . . . . . . . . . 43
§ 3.2 Sistemas Lineales No-Homogéneos . . . . . . . . . . . . . . . . . . . . . 46
§ 3.3 Sistema Lineal Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . 46
§ 3.4 Sistemas Reducibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
§ 3.5 Sistemas Lineales Homogéneos a Coeficientes Periódicos . . . . . . . . . 48
§ 3.6 Sistemas Lineales ω-Periódicos No Homogéneos . . . . . . . . . . . . . . 52
§ 3.7 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 58
§ 3.8 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4 Sistemas Autónomos 61
§ 4.1 Clasificación de Orbitas. Conjuntos α y ω Lı́mites . . . . . . . . . . . . 61
§ 4.2 Teorema de Poincaré-Bendixson . . . . . . . . . . . . . . . . . . . . . . 70
3
4 Contenido
10 Apéndices 183
§ 10.1 Fórmulas de Viète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
§ 10.2 Soluciones del sistema Ax = b. . . . . . . . . . . . . . . . . . . . . . . 183
§ 10.3 Lema de Barbalat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
§ 10.4 Teorema de Hurwitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
§ 10.5 Unicidad de Orbitas Periódicas. . . . . . . . . . . . . . . . . . . . . . . 186
Introducción
Es bien conocido en el quehacer cientı́fico, bien sea en Fı́sica, Biologı́a, Quı́mica, In-
genierı́a, etc., la utilidad de las Ecuaciones Diferenciales. También es conocido que
mientras mas fiable sea el modelo, mas compleja es su formulación matemática; y por
ende mas complejo su análisis. A pesar que hoy contamos con formidables recursos
computacionales, ellos no pasan de darnos meras evidencias de la existencia de ciertos
fenómenos. Por ejemplo, si no conocemos el comportamiento de las soluciones: ¿Cómo
vamos a decidir, cuándo una solución es real o espuria?.
El estudio de las Ecuaciones Diferenciales ha influenciado el desarrollo de otras áreas
de la Matemática, por ejemplo Topologı́a (Analisis Situs, como originalmente la llamó
Henri Poincaré), Análisis, Algebra, etc. . En el prefacio del libro de Yurii Daleckii y
Mark Krein1 [7] se explica como problemas de estabilidad para Ecuaciones Diferenciales
condujeron al desarrollo de la teorı́a espectral de operadores acotados en Espacios de
Banach. Jean Dieudonné en [8] refiriéndose a la historia del Análisis Funcional dedica
seis de los nueve parágrafos a la evolución de las Ecuaciones Diferenciales. No se
pretende decir que los únicos problemas importantes de las Matemáticas son los que
surgen en el área de las Ecuaciones Diferenciales, sólo queremos ayudar a terminar
con aquella idea, que los problemas de ecuaciones diferenciales se reducen a un largo y
tedioso ejercicio de integración.
El objetivo de estas guı́as teórico-prácticas es reunir en un curso de un semestre los
fundamentos básicos de la teorı́a cualitativa de ecuaciones diferenciales, de modo que
el estudiante al final del curso esté en condiciones de abordar el estudio de la dinámica
local y/o global de modelos concretos. Se procura que estas guı́as sean autocontenidas a
fin de evitar la dispersión, ya que la bibliografı́a existente en ecuaciones diferenciales es
extensa. Casi, cada Capı́tulo está acompañado de una sección de ejercicios y problemas
seleccionados cuidadosamente para que su grado de complejidad no exceda los objetivos
de estas guı́as y de una sección de comentarios y sugerencias que sirva de guı́a al
estudiante para estudios posteriores mas avanzados sobre ecuaciones diferenciales.
El primer borrador de los Capı́tulos II y III en [1] fueron redactados por el Lic.
Rodolfo Rodrı́guez y además nos comunicó un importante ejemplo en la teorı́a de
estabilidad ver pag. 95. Posteriormente, conjuntamente con el Dr. José Aguilera
redactamos [1], él cual fue editado por la Imprenta Universitaria de la UCV en 1990.
Todo ese material sirvió de base para la actual versión de estas notas. La versión
[1] fue totalmente revisada. Fueron agregados los Capı́tulos 6,7,9 y 10. Los restantes
Capı́tulos también fueron modificados. A lo largo del texto se pueden ver los cambios
introducidos. Mis agradecimientos a todos quienes me comunicaron errores existentes,
la lista es larga...Gracias a todos Ellos...
1
Referencia muy citada y por muy pocos leı́da
Capı́tulo 1
Preliminares
7
8 Capı́tulo 1. Preliminares
Definición 1.4 Diremos que f es una función localmente Lipschitz sobre J × D, si para
punto P ∈ J × D, existe un entorno VP del punto P , tal que la restricción de f a VP
todo
(f V ) es globalmente Lipschitz.
P
§ 1.2. Condición de Lipschitz 9
1. El punto (t, x2 ) ∈ B2ε (Pi ). Luego existe una constante Ki > 0 tal que
2. El punto (t, x2 ) ∈
/ B2ε (Pi ). En este caso se verifica que ||x1 − x2 || ≥ ε. Pongamos
M = max{||f (t, x)|| : (t, x) ∈ A}. Ası́ se sigue que
Demostración 2.
Por reducción al absurdo. Supongamos que para todo K > 0, existen (t, x1 ) y (t, x2 )
en A, tales que
||f (t, x1 ) − f (t, x2 )|| > K||x1 − x2 ||.
En particular, para cada k ∈ N, existen puntos (tk , xki ) ∈ A, i = 1, 2, tales que
||f (tk , xk1 ) − f (tk , xk2 )|| > k||xk1 − xk2 ||. (1.1)
Como A es compacto, también lo es A × A. Por lo tanto, la sucesión {zk }k≥1 posee una
k k
subsucesión convergente en A × A, donde zk = (tk , x1 ), (tk , x2 ) . Sin pérdida de gene-
ralidad podemos suponer que zk es convergente. Llamemos z ∗ = (t∗ , x ∗1 ), (t∗ , x∗2 ) ∈ A
al lı́mite de la sucesión {zk }k≥1 . Sea M = max ||f (t, x)|| : (t, x) ∈ A . Entonces por
(1.1) obtenemos que
2M
||xk1 − xk2 || ≤ .
k
De donde se sigue que lim ||xk1 − xk2 || = 0.
k→∞
Por otra parte, de la desigualdad
∗
||x1 − x∗2 || − ||xk1 − xk2 || ≤ ||(x∗1 − xk1 ) − (x∗2 − xk2 )||,
10 Capı́tulo 1. Preliminares
se obtiene que
||x∗1 − x∗2 || = lim ||xk1 − xk2 || = 0.
k→∞
Lo cual implica que x∗1= x∗2 .
Ahora, por ser f localmente Lipschitz, existe un entorno
V ∗ del punto (t∗ , x∗1 ) ∈ A y una constante K ∗ = K(V ∗ ) > 0, tal que
Por lo tanto, debido a que (tk , xki ) → (t∗ , x∗i ), existe N > 0, tal que (tk , xki ) ∈ V ∗ para
k ≥ N, i = 1, 2 y además
Demostración. Sea τ ∈ [t0 , t]. Por ser α(t) creciente, se tiene que
Z τ Z τ
u(τ ) ≤ α(τ ) + β(s)u(s)ds ≤ α(t) + β(s)u(s)ds. (1.4)
t0 t0
Definamos Z τ
R(τ ) = α(t) + β(s)u(s)ds
t0
y observemos que βu ∈ L1 [t0 , t]. Entonces R′ (τ ) = β(τ )u(τ ), casi siempre sobre [t0 , t].
Multiplicando (1.4) por β(τ ), hobtenemos
R
queiR′ (τ ) ≤ β(τ )R(τ ) casi siempre sobre [t0 , t].
τ
β(s)ds ′
Lo cual a su vez implica que R(τ )e t0 ≤ 0 casi siempre sobre [t0 , t]. Integrando
entre t0 y t esta última desigualdad, obtenemos que
Z t Z t
u(t) ≤ R(t) ≤ R(t0 ) exp β(s)ds = α(t) exp β(s)ds .
t0 t0
§ 1.3. Desigualdades Integrales 11
Eligiendo α(t) = C, el siguiente Lema es una consecuencia inmediata del Lema 1.8.
entonces Z
t
u(t) ≤ C exp β(s)ds t ≥ t0 .
t0
Concluiremos esta sección demostrando una versión integral del Teorema del Valor
Medio. Sea f : J × D → Rn una función continua, donde J = (a, b) y D es un
subconjunto abierto de Rn . Denotemos por
∂f ∂fi
(t, x) = (t, x) .
∂x ∂xj i,j=1,...,n
Hemos mencionado que, a pesar de lo sencillo del enunciado del teorema de Brouwer,
su demostración está lejos de ser elemental. Invitamos al lector a que demuestre el
Teorema de Brouwer en el caso que U = [a, b].
En el libro de Courant-Robbins [4] se puede consultar una prueba en el caso bidi-
mensional, la cual no se generaliza a dimensiones mayores a 2. Una demostración en
el caso general U ⊂ Rn , con n > 2, puede consultarse por ejemplo en Ch.S. Hönig
[14], D.R. Smart [30]. Sin embargo, recientemente J. Milnor [22] dió una prueba más
sencilla, la que a su vez fue simplificada por C. Rogers [29].
Para resultados más refinados que el Teorema de Brouwer, recomendamos consultar
el libro de D. R. Smart [30].
En este capı́tulo hemos mencionado sólo las desigualdades integrales mas usadas
a lo largo de esta exposición. Sin embargo, ésta es una técnica muy importante. Un
lugar adecuado para consultar mas detalle acerca de este tema es el libro de V. Laksh-
mikantham & S. Leela [18].
§ 1.5. Ejercicios y Problemas 13
Teorı́a General
con
x(t0 ) = x0 , (2.2)
15
16 Capı́tulo 2. Teorı́a General
x x
b
x0
t t
b
x0
t = −c c>0 c<0 t = −c
Figura 2.1
se sigue que por cada punto (0, x0 ) pasan infinitas soluciones. Por ejemplo, la función
ϕ(· , a, b) : R → R, definida por:
(t − a)3 , si t<a
ϕ(t, a, b) = 0 , si a ≤ t ≤ b
(t − b)3 , si t>b
a b a b x0
b b
t
b
√ b
t
− 3 x0
Figura 2.2
Vemos que en este caso, sı́ existen soluciones globales pero no hay unicidad global.
Sin embargo, dependiendo de la posición de x0 , puede haber unicidad local. En efecto,
si x0 6= 0, entonces existe un entorno de t0 = 0, de modo que por el punto (0, x0 ) pasa
una única solución de x′ = 3x2/3 . En cambio, cuando x0 = 0, por el punto (0, 0) pasan
infinitas soluciones de x′ = 3x2/3 , (ver fig. 2.2 ).
Un cálculo directo muestra que f (t, x) = 3x2/3 es localmente Lipschitz sólo sobre
intervalos que no contengan a cero.
De los ejemplos 2.1 y 2.2 concluimos que para e.d.o. de la forma (2.1), la continuidad
del campo vectorial f no garantiza en general, ni la existencia de soluciones globales,
ni la unicidad.
El siguiente Lema nos provee una equivalencia entre la existencia de soluciones de
la ecuación diferencial (2.1) y la existencia de soluciones de una ecuación integral.
a) ϕ(t0 ) = x0 ,
b) ||ϕ(t) − x0 || ≤ s , t ∈ J1 .
Es claro que los puntos fijos del operador T son soluciones del p.v.i. (2.1)-(2.2). Ahora,
probaremos que T : C ∗ → C ∗ es una contracción. Es fácil ver que T ϕ ∈ C ∗ , para todo
ϕ ∈ C ∗ . Además, C ∗ es un subconjunto cerrado de C[J1 , Rn ]. Por lo tanto C ∗ es un
espacio métrico completo, con la métrica inducida por la norma del espacio C[J1 , Rn ].
Por otra parte, para todo ϕ1 , ϕ2 ∈ C ∗ y t ∈ J1 , se verifica que
Z t
||T ϕ1 (t) − T ϕ2 (t)|| ≤ ||f (s, ϕ1 (s)) − f (s, ϕ2 (s))||ds
t0
Z t
≤ K ||ϕ1 (s) − ϕ2 (s)||ds
t0
≤ K|t − t0 | · ||ϕ1 − ϕ2 ||0 ≤ Kδ||ϕ1 − ϕ2 ||0 , ∀ t ∈ J1 .
e Como T C
lo cual prueba la equicontinuidad de T C. e es acotado, se sigue que la clausura
e es compacta.
de T C
Finalmente, mostremos que T es continuo. Como f es uniformemente continua
sobre D ∗ , entonces para todo ε > 0, existe δ > 0, tal que
ε e
||f (s, ϕ1 (s)) − f (s, ϕ2 (s))|| < , ∀ s ∈ J, (2.5)
δ∗
si ||ϕ1 (s) − ϕ2 (s)|| < δ , ∀ s ∈ Je. Por otra parte, tenemos que
Z t
||T ϕ1 (t) − T ϕ2 (t)|| ≤ ||f (s, ϕ1 (s)) − f (s, ϕ2 (s))||ds . (2.6)
t0
Lema 2.4
Sea J ∗ = (α, β) y ϕ ∈ C 1 [J ∗ , Rn ]. Si ||ϕ′ (t)|| ≤ M , ∀ t ∈ J ∗ , entonces los lı́mites
lim ϕ(t) y lim ϕ(t) existen.
t→α+ t→β −
Demostración. Demostraremos solamente la existencia de uno de los lı́mites. La
existencia del otro se prueba de manera completamente análoga.
Probemos que lim ϕ(t) existe. Sea {tn }n≥1 una sucesión de J ∗ , tal que lim tn = β.
t→β − n→∞
Probemos en primer lugar que la sucesión {ϕ(tn )}n≥1 es convergente, para lo cual basta
20 Capı́tulo 2. Teorı́a General
||ϕ(t) − B|| ≤ ||ϕ(t) − ϕ(tk )|| + ||ϕ(tk ) − B|| < M |t − tk | + ||ϕ(tk ) − B|| < ε.
ψi (β) − ψi (β − h)
= ψi′ (β + h(θi − 1)) = ϕ′i (β + h(θi − 1)),
h
§ 2.2. Prolongación de Soluciones 21
ψi (β) − ψi (β − h)
ψi′ (β) = lim = lim ϕ′i (β + h(θi − 1))
h→0+ h h→0+
para cada i = 1, . . . , n .
Análogamente se prueba que ψ ′ (α) = f (α, ψ(α)) .
Observemos que bajo las hipótesis del Lema 2.4, ϕ no sólo admite una prolongación
a un intervalo cerrado, sino que en realidad puede prolongarse a un intervalo abierto que
contenga a [α, β]. En efecto, denotemos con ψ2 : [β, β + δ2 ) → D , ψ1 : (α − δ1 , α] → D
a las soluciones de los p.v.i.
′ ′
x (t) = f (t, x) x (t) = f (t, x)
, .
x(β) = B x(α) = A
Análogamente se prueba que existe una única solución de (2.1)-(2.2), definida sobre
(α, t0 ] no prolongable a la izquierda de α .
Un breve análisis del Lema 2.5 y del Teorema 2.6 nos conduce a enunciar el siguiente
sencillo, pero importante resultado.
Por lo tanto
||ϕ′ (t)|| = ||f (t, ϕ(t))|| ≤ M, t ∈ [t0 , β).
Del Lema 2.4, se sigue que lim ϕ(t) = B y pertenece a D ∗ , ya que D ∗ es compacto.
t→β −
Esto muestra que (β, B) ∈ J × D. Aplicando el Lema 2.5, concluimos que ϕ se puede
prolongar a un intervalo [t0 , β + δ), para algún δ > 0. Lo cual es una contradicción, ya
que por Hipótesis ϕ es una solución no prolongable.
Corolario 2.9 Si α > a ó β < b, entonces para todo conjunto compacto D ∗ ⊂ D, existe
un t ∈ (α, t0 ] ó t ∈ [t0 , β) tal que ϕ(t) 6∈ D ∗ .
§ 2.2. Prolongación de Soluciones 23
Entonces todas las soluciones de (2.1) son globales; es decir, el dominio maximal de cada
solución es todo J.
Demostración. Por reducción al absurdo. Sea ϕ la única solución no prolongable del
p.v.i. (2.1)-(2.2) definida sobre el intervalo (α, β). Supongamos por ejemplo, que β < b.
Pongamos M1 = max{M (t) : t ∈ [t0 , β]}, N1 = max{N (t) : t ∈ [t0 , β]}. Como ϕ es
solución de (2.1)-(2.2) y teniendo en cuenta las condiciones del Teorema, se sigue que
Z t Z th i
||ϕ(t)|| ≤ ||x0 || + ||f (s, ϕ(s))||ds ≤ ||x0 || + M (s) + N (s)||ϕ(s)|| ds
t0 t0
Z t Z t
≤ ||x0 || + M (s)ds + N (s)||ϕ(s)||ds
t0 t0
Z t
≤ ||x0 || + M1 (β − t0 ) + N (s)||ϕ(s)||ds , ∀ t ∈ [t0 , β).
t0
Esto muestra que ϕ(t) pertenece a un compacto para todo t ∈ [t0 , β). Por el Teorema
2.8 se sigue que β = b, lo cual es una contradicción.
||f (t, x)|| ≤ ||f (t, x) − f (t, 0)|| + ||f (t, 0)||, ∀ (t, x) ∈ J × Rn .
Las afirmaciones del Teorema 2.10 y del Corolario 2.11 en general son falsas si el
campo vectorial no está definido sobre todo Rn en su segunda variable. Por ejemplo,
considere la ecuación x′ = x2 con el campo vectorial restringido al intervalo (−1, 1). Es
claro que allı́ el campo vectorial es Globalmente Lipschitz, sin embargo las soluciones
no están definidas para todo t ∈ R.
24 Capı́tulo 2. Teorı́a General
x0 b
t
t0
x∗0 b
Figura 2.3
En lo que sigue, procederemos a mostrar que bajo las hipótesis del Teorema de
Existencia y Unicidad las soluciones de (2.1) dependen continuamente de los datos
iniciales.
Probemos en primer lugar el siguiente Lema auxiliar.
posee una subsucesión convergente. Sin pérdida de generalidad podemos suponer que
ella misma es convergente; es decir, lim (tk0 , xk0 ) = (t̃0 , x̃0 ) ∈ U. Tiene lugar
k→∞
a) ϕ(0) = 0,
ϕ′ (t) = f (t + t0 , ϕ(t) + x0 ),
de donde se sigue que x(t) = ϕ(t − t0 ) + x0 es solución del p.v.i. (2.1)-(2.2), para todo
t ∈ [t0 − δ, t0 + δ].
Utilizando razonamientos análogos a los de la prueba del Teorema 2.2, se obtiene
que Ty : C ∗ → C ∗ es una contracción uniforme respecto a y, con y ∈ U. Además, Ty es
continuo en y. En efecto, realizando la transformación u = s − t0 en (2.7), obtenemos
Z th i
Ty ϕ(t) − Ty∗ ϕ(t) = f (u + t0 , ϕ(u) + x0 ) − f (u + t∗0 , ϕ(u) + x∗0 ) du
0
Z th i
= f (u + t0 , ϕ(u) + x0 ) − f (u + t0 , ϕ(u) + x∗0 ) du + (2.8)
0
Z th i
f (u + t0 , ϕ(u) + x∗0 ) − f (u + t∗0 , ϕ(u) + x∗0 ) du. (2.9)
0
t, x(t, t0 , x0 )
b b b b
(t0 , x0 ) b
b
b b
α t
t0 t0 + kδ τ β
t0 + nδ
t0 + δ t0 + (k + 1)δ
t0 + 2δ t0 + (n − 1)δ
Graf x(·, t0 , x0 )
Figura 2.4
Sea τ ∈ (α, β). Sin pérdida de generalidad, supongamos que τ > t0 , el caso τ < t0 se
analiza de manera análoga. Pongamos U = {(t, x(t, t0 , x0 )) : t ∈ [t0 , τ ]}, el cuál es un
subconjunto compacto de J × D. Por lo demostrado previamente, x(t, ξ, η) es continua
en (ξ, η) sobre U, uniformemente en t, con t ∈ [ξ − δ, ξ + δ].
Para probar que x(t, ξ, η) es continua en (ξ, η) uniformemente sobre [t0 , τ ] particio-
nemos el intervalo [t0 , τ ] como sigue
Supongamos que el campo vectorial f satisface las condiciones del Teorema de exis-
tencia y unicidad. Sea (t0 , x0 ) en J ×D y denotemos por (α(t0 , x0 ), β(t0 , x0 )) al intervalo
maximal de existencia y unicidad de x(t, t0 , x0 ). Definamos el siguiente conjunto
Ω(f ) = (t, t0 , x0 ) : α(t0 , x0 ) < t < β(t0 , x0 ), (t0 , x0 ) ∈ J × D .
28 Capı́tulo 2. Teorı́a General
x(t0 ) = x0 . (2.11)
El sistema (2.10) representa una de las formas en que puede aparecer un parámetro µ
en las ecuaciones diferenciales. También podrı́a estar multiplicando a x′ (t). En general
(2.10) representa a una familia multiparamétrica de campos vectoriales.
Supongamos que para cada valor del parámetro µ, el sistema (2.10)-(2.11) posee una
única solución, la cual denotaremos por x(t, t0 , x0 , µ). Nuestro objetivo será averiguar
bajo qué condiciones y para qué valores de t se satisface que
R
C i L C I L
(a) (b)
Figura 2.5
1
LI ′′ (t) + RI ′ (t) + I(t) = 0. (2.13)
C
§ 2.4. Dependencia Continua de las Soluciones Respecto a Parámetros 29
i′ I′
i(0), i′ (0) I(0), I ′ (0) b
b
I
i
Figura 2.6
Este análisis nos permite concluir que no se puede despreciar la resistencia ejercida por
la lı́nea que conduce la corriente, por pequeña que sea, cuando t → +∞.
En lo que sigue mostraremos que el problema de la dependencia de las soluciones
respecto a un parámetro, se reduce al estudio de la continuidad de las soluciones de un
nuevo sistema de ecuaciones diferenciales equivalente al sistema original, respecto a los
datos iniciales. Denotemos por
x f (t, x, µ) x0
y= , F (t, y) = , y(t0 ) = y0 = .
µ 0 µ0
y(t0 ) = y0 . (2.15)
Teniendo en cuenta esta observación y el Teorema de la dependencia continua de las
soluciones respecto a los datos iniciales, es inmediato el siguiente
30 Capı́tulo 2. Teorı́a General
a) f ∈ C[J × D × D1 , Rn ],
En esta sección mostraremos que las soluciones de (2.1) como funciones de los datos
iniciales heredan la suavidad que posea el campo vectorial f (t, x).
i) f ∈ C[J × D, Rn ],
∂f
ii) existe y es continua sobre J × D.
∂x
Entonces la solución x(t; t0 , x0 ) del p.v.i. (2.1)-(2.2) es continuamente diferenciable en
todas sus variables. Además se verifica que
∂x ∂x
(t, t0 , x0 ) = − (t, t0 , x0 )f (t0 , x0 ). (2.17)
∂t0 ∂x0
Demostración. Primero probaremos que ∂x (t, t0 , x0 ) existe, que es continua y sa-
∂x0
tisface (2.16). Sea h 6= 0 un número real arbitrario. Denotemos por
Con (·)T denotamos el vector transpuesto. Para mayor sencillez en los cálculos, denote-
mos por
x(t, h) = x(t, t0 , x0 + hek ) , x0 (t) = x(t, t0 , x0 ).
§ 2.5. Derivabilidad de las Soluciones Respecto a los Datos Iniciales y a Parámetros 31
Aplicando el Lema 1.10 a la parte derecha de la expresión (2.18), con x2 = x(t, h),
x1 = x0 (t), obtenemos
Z 1
′ ∂f
x(t, h) − x0 (t) = (t, sx2 + (1 − s)x1 )ds x(t, h) − x0 (t) . (2.19)
0 ∂x
Poniendo
x(t, h) − x0 (t)
xh (t) = , con h 6= 0,
h
vemos que xh (t) es solución de (2.19), con xh (t0 ) = ek . Sea ϕ la única solución de (2.16)
tal que ϕ(t0 ) = ek . Mostremos que xh (t) → ϕ(t) cuando h → 0, uniformemente en t
sobre intervalos compactos contenidos en el dominio de x0 (t).
Sabemos que
Z t Z 1
∂f
xh (t) = ek + (τ, sx2 + (1 − s)x1 )ds xh (τ )dτ,
t0 0 ∂x
y Z t
∂f
ϕ(t) = ek + (τ, x(τ, t0 , x0 )) ϕ(τ )dτ.
t0 ∂x
Ası́, se tiene que
Z t Z 1
∂f
||xh (t) − ϕ(t)|| ≤ || (t, sx2 + (1 − s)x1 )ds|| · ||xh (t) − ϕ(t)||dt
t0 0 ∂x
(2.20)
Z t Z 1
∂f ∂f
+ || (t, sx2 + (1 − s)x1 ) − (t, x(t, t0 , x0 )) ds|| · ||ϕ(t)||dt .
t0 0 ∂x ∂x
Pongamos
Z 1
∂f ∗
M = max || (t, sx2 + (1 − s)x1 )ds|| : t ∈ J , h ∈ [−h0 , h0 ] . (2.22)
0 ∂x
Por lo tanto, en virtud de (2.19),(2.21) y (2.22), obtenemos
Z t
||xh (t) − ϕ(t)|| ≤ εM1 γ + M ||xh (t) − ϕ(t)||dt , ∀t ∈ J ∗ ,
t0
Ası́
1h i
x̃h (t) = x(t, t0 + h, x0 ) − x t, t0 + h, x(t0 + h, t0 , x0 ) . (2.23)
h
Aplicando el Lema 1.10 a (2.23), obtenemos
Z 1
1 ∂x
x̃h (t) = (t, t0 + h, sx0 + (1 − s)x(t0 + h, t0 , x0 ))ds x0 − x(t0 + h, t0 , x0 )
h 0 ∂x0
Z 1
1 ∂x
=− (t, t0 + h, sx0 + (1 − s)x(t0 + h, t0 , x0 ))ds x(t0 +h, t0 , x0 )−x(t0 , t0 , x0 )
h 0 ∂x0
Z 1 Z 1
∂x
=− (t, t0 + h, sx0 + (1 − s)x(t0 + h, t0 , x0 ))ds x′ t0 + (1 − s)h, t0 , x0 ds.
0 ∂x0 0
De esta expresión, haciendo tender h → 0, obtenemos el resultado deseado.
∂f ∂f
Corolario 2.16 Si f ∈ C[J × D × D1 , Rn ] y ∂x , ∂µ existen y son continuas sobre
J × D × D1 , entonces x(t, t0 , x0 , µ0 ) es continuamente diferenciable en todas sus variables.
Además se tiene que
§ 2.6. Fórmula de Alekseev 33
En esta sección vamos a estudiar desigualdades diferenciales escalares, las cuales serán
muy útiles para comparar el crecimiento y/o decrecimiento de las soluciones de e.d.o.
escalares.
Consideremos una función u ∈ C[(t0 , β), R], con β > t0 . Las derivadas de una
función en el sentido de Dini siempre existen y las denotaremos como sigue
u(t + h) − u(t)
D + u(t) = lim sup (2.28)
h→0+ h
u(t + h) − u(t)
D+ u(t) = lim inf (2.29)
h→0+ h
u(t + h) − u(t)
D− u(t) = lim sup (2.30)
h→0− h
u(t + h) − u(t)
D− u(t) = lim inf (2.31)
h→0− h
Cuando D+ u(t) = D+ u(t), a la derivada lateral derecha la denotaremos por u′+ (t).
Análogamente, a la derivada lateral izquierda la denotaremos por u′− (t).
Teorema 2.18 Sea Ω un conjunto abierto del plano (t, u) y sea g ∈ C[Ω, R]. Supon-
gamos que se verifican las siguientes condiciones
a) Las funciones v, w ∈ C [t0 , β), R , y (t, v(t)), (t, w(t)) ∈ Ω, ∀t ∈ [t0 , β).
b) v(t0 ) < w(t0 ) y para todo t ∈ [t0 , β) se verifican las siguientes desigualdades
Teorema 2.19 Sea Ω un conjunto abierto del plano (t, u) y sea g ∈ C[Ω, R]. Supon-
gamos que se verifican las siguientes condiciones
a) Las funciones v, w ∈ C [t0 , β), R , y (t, v(t)), (t, w(t)) ∈ Ω, ∀t ∈ [t0 , β).
b) w(t0 ) < v(t0 ) y para todo t ∈ [t0 , β) se verifican las siguientes desigualdades
D− v(t) > g(t, v(t)), (2.34)
D− w(t) ≤ g(t, w(t)). (2.35)
Teorema 2.20 Sea Ω un conjunto abierto del plano (t, u) y sea g ∈ C 1 [Ω, R]. Sea u(t)
la única solución no prolongable del p.v.i.
u′ = g(t, u) , u(t0 ) = u0 ,
definida sobre el intervalo [t0 , β).
Supongamos que existe una función v ∈ C[[t0 , β), R], v(t0 ) ≤ u0 , (t, v(t)) ∈ Ω, para
todo t ∈ [t0 , β), y
D− v(t) ≤ g(t, v(t)) , ∀t ∈ [t0 , β). (2.36)
Entonces u(t) y v(t) satisfacen la siguiente desigualdad
v(t) ≤ u(t), ∀t ∈ [t0 , β).
Demostración. Consideremos el siguiente p.v.i.
u′ = g(t, u) + ε , u(t0 ) = u0 + ε. (2.37)
Como g ∈ C 1 , se sigue que (2.37) posee una única solución uε (t) definida para todo
t ∈ [t0 , β) y uε (t) → u(t) cuando ε → 0, uniformemente sobre intervalos compactos
contenidos en [t0 , β). Además, de (2.37) se sigue que uε (t) satisface
u′ε (t) > g(t, uε (t)) , ∀t ∈ [t0 , β) y uε (t0 ) > v(t0 ). (2.38)
Aplicando el Teorema 2.18 a (2.36) y (2.38), obtenemos que
v(t) < uε (t) , ∀t ∈ [t0 , τ ] ⊂ [t0 , β).
De esta desigualdad y de la convergencia uniforme sobre compactos de uε (t), se sigue
nuestra afirmación.
Teorema 2.21 Sea Ω un conjunto abierto del plano (t, u) y sea g ∈ C 1 [Ω, R]. Sea u(t)
la única solución no prolongable del p.v.i.
u′ = g(t, u) , u(t0 ) = u0 ,
En las secciones §2.1- §2.5, solo hemos considerado campos vectoriales continuos. Bajo
esta condición el p.v.i.(2.1)-(2.2) es equivalente a la ecuación integral
Z t
x(t) = x0 + f (s, x(s))ds.
t0
c) Para todo conjunto compacto U ⊂ J × D, existe una función m ∈ L1 [J¯], tal que
Esbozo de la prueba
Primero se prueba la existencia y unicidad local. Para ello se fija un compacto U
como en el Teorema 2.22. Sean m y k en L1 las funciones dadas por la condición de
Caratheodory y Lipschitz generalizada, respectivamente. Sean a∗ > 0 y b∗ > 0, tales
que D∗ = {(t, x) :| t − t0 |≤ a∗ , ||x − x0 || ≤ b∗ } ⊂ U. Eligiendo una constante δ de modo
R t +δ R t +δ
que 0 < δ < a∗ , t00 m(s)ds ≤ b∗ y t00 k(s)ds < 1 postulando exactamente igual
que en la prueba del Teorema 2.2, se obtiene la existencia y unicidad local.
38 Capı́tulo 2. Teorı́a General
Pruebe que x(t) = 0 es la única solución del p.v.i. x′ = f (t, x), x(0) = 0.
§ 2.9. Ejercicios y Problemas 39
x′ = g(x) ,
y ′ = f (x)y ′ ,
x(n) + sen(x) = 0
x′′ + x2 x′ + x = 0,
x′ = x(1 − x) − xf (x)
Pruebe que todas las soluciones de x′ = f (t, x) están definida para todo t ∈ J.
donde k ∈ C[R, R+ + +
0 ] , δ ∈ C[R0 , R0 ] , δ(0) = 0 ; δ(v) > 0, ∀ v > 0 y
Z ∞
dv
= ∞.
0 δ(v)
Pruebe que todas las soluciones del sistema x′ = f (t, x) son prolongables a +∞.
Indicación: Estime el crecimiento de la función v 2 =< x, x > a lo largo de las
soluciones del sistema.
18. Sea f : R → R una función continua y acotada. Sea ϕn : [0, 1] → R una sucesión
de soluciones de la e.d.o. x′ = f (x).
Pruebe que: si ϕn converge para algún t∗ ∈ [0, 1], entonces existe una subsucesión,
que converge a una solución de x′ = f (x).
Indicación: Aplique el Lema de Arzela-Ascoli al conjunto H = {ϕ1 , ϕ2 , · · · }.
19. Sea x′ (t) = 2t+µx2 , x(t0 ) = x0 , y Denotemos su solución por x(t, t0 , x0 , µ). Halle
∂x(t, t0 , x0 , µ)
∂µ en el punto (t, 0, −1, 0).
§ 2.9. Ejercicios y Problemas 41
20. Sea x′′ + 3x′ = 2 sin t + µ(x′ )2 , x(t0 ) = x0 , x′ (t0 ) = x′0 . Halle ∂x , ∂x′ , ∂x en el
∂x0 ∂x0 ∂µ
punto (t, 0, 0, 0, 0).
Sistemas Lineales
donde || · ||∗ es cualquier norma para matrices. Luego, por el Teorema de prolongación
global 2.10, se sigue que (3.2) admite una única solución definida sobre el intervalo J.
En otras palabras el intervalo de continuidad de las funciones A(t) y f (t) determina el
intervalo maximal de existencia y unicidad de las soluciones del sistema (3.2).
Lema 3.1 P Con las operaciones usuales de suma y producto por un escalar de funciones
el conjunto = {ϕ : J → Rn tal que ϕ satisface (3.1)} es un espacio vectorial de
dimensión n.
P
Demostración.P Es obvio que es un subespacio vectorial del espacio C[J, Rn ].
Mostremos que n
es isomorfo a R . Para ello consideremos los siguientes p.v.i.
x′ = A(t)x , x(t0 ) = ej ,
donde {ej }nj=1 es la base canónica de Rn . Es claro que para cada j existe P una única
solución del p.v.i.,
P a esta solución la denotaremos por ϕj . Entonces ϕj ∈ , yP
el ope-
rador T : Rn → , definido por T ej = ϕj , induce un isomorfismo Pn entre R n y . En
n
efecto, si x0 ∈ R , existen constantes c1 , . . . , cn , tales
P P que x0 = i=1 ci ei . LuegoP por
ser T lineal, T x0 = ni=1 ci ϕi . Definiendo ϕ(t) = ni=1 ci ϕi , obtenemos que ϕ ∈ y
satisface la condición inicial x(t0 ) = x0 .
43
44 Capı́tulo 3. Sistemas Lineales
P
Definición
P 3.1 A cualquier conjunto de funciones ϕj ∈ , j = 1, . . . , n, que sea base
de lo llamaremos sistema fundamental de soluciones del sistema (3.1).
n×n cuyas columnas son las componentes de
P A la matriz Φ : J → R
Definición 3.2
alguna base de se le llama matriz fundamental del sistema (3.1). Cuando Φ(t0 ) = I, a
Φ se le llama matriz fundamental principal del sistema (3.1).
De la definición de matriz fundamental se sigue inmediatamente que Φ′ (t) = A(t)Φ(t).
Entonces toda solución del sistema homogéneo (3.1), tiene la forma x(t) = Φ(t)C,
donde C es un vector constante en Rn a determinar. En particular, cuando x(t0 ) = x0 ,
se obtiene que C = Φ−1 (t0 )x0 . Ası́, la única solución del sistema lineal homogéneo (3.1)
tal que x(t0 ) = x0 , viene dada por la expresión
d) K(t0 , t0 ) = I,
e) ∂K (t, t0 ) = A(t)K(t, t0 ).
∂t
Una propiedad interesante de las matrices soluciones del sistema (3.1) es que son siem-
pre singulares o no-singulares. Es decir, es suficiente que una matriz solución sea no
singular en un instante t0 para que ella sea no singular para todo t en J. Esta afirmación
se sigue inmediatamente del siguiente
Teorema 3.2 (Liouville). Sea Φ(t) una matriz solución del sistema (3.1). Entonces
Z t
W (t) = det Φ(t) = W (t0 ) exp trA(s)ds , ∀ t ∈ J.
t0
multiplicando la primera fila por −ai1 , la segunda por −ai2 y ası́ sucesivamente, excepto
la i−ésima fila; y sumándoselas a la i−ésima fila, obtenemos que
ϕ11 · · · ϕ1n
. . . . . . . . . .
′
ϕ · · · ϕ′in = aii W (t).
i1
. . . . . . . . . .
ϕn1 · · · ϕnn
Lo cual inmediatamente implica que W ′ (t) = trA(t)W(t). Esto prueba nuestra afir-
mación.
Supongamos ahora que A(t) es una matriz constante y la seguiremos denotando con la
misma letra. Definamos
X∞
At An tn
e = .
n=0
n!
∞
X ∞
X
An tn−1 An−1 tn−1
Φ′ (t) = n =A = AΦ(t) , Φ(0) = I.
n! (n − 1)!
n=1 n=1
Ası́, hemos mostrado que para sistemas lineales a coeficientes constantes la matriz
fundamental principal viene dada por Φ(t) = eAt .
46 Capı́tulo 3. Sistemas Lineales
Integrando esta expresión obtenemos que y(t) = Φ(t)C(t) es solución del sistema (3.2)
si y sólo si
Z t
C(t) = C0 + Φ−1 (s)f (s) ds , t ∈ J,
t0
Si además de (3.2) tenemos el dato inicial y(t0 ) = y0 , entonces C0 = Φ−1 (t0 )y0 y la
única solución de (3.2) tal que y(t0 ) = y0 viene dada por
Z t
y(t, t0 , y0 ) = K(t, t0 )y0 + K(t, s)f (s) ds , t ∈ J. (3.5)
t0
Definición 3.3 Diremos que dos funciones x(t) y z(t) son conjugadas, si
Sea x(t) una solución del sistema (3.1) y z(t) una función diferenciable. Si x(t) y z(t)
son funciones conjugadas , entonces
y para toda solución x(t) de (3.1). Lo cual implica que necesariamente z(t) debe
satisfacer la siguiente ecuación diferencial
Sea x(t) la solución del sistema (3.1) tal que x(t∗ ) = z0 . Luego
Φ(t)Φ−1 (t) = I,
se obtiene que
Definición 3.4 Diremos que el sistema (3.1) es reducible, si existe una matriz L ∈
C 1 [R, Rn×n ], no singular, con L y L′ acotadas, tal que la transformación x = L(t)z,
reduce el sistema (3.1) a un sistema con coeficientes constantes de la forma z ′ = Bz,
donde B = L−1 (AL − L′ ) .
Una vez vistas las ventajas que presentan los sistemas lineales a coeficientes constantes
resulta natural buscar condiciones que permitan caracterizar a los sistemas reducibles.
En este sentido tenemos el siguiente
48 Capı́tulo 3. Sistemas Lineales
Lo cual muestra que Φ(t) = L(t)eBt es matriz fundamental del sistema (3.1). Luego,
la matriz de transición de (3.1) satisface (3.7). En efecto,
K(t, t0 ) = Φ(t)Φ−1 (t0 ) = L(t)eBt e−Bt0 L−1 (t0 ) = L(t)eB(t−t0 ) L−1 (t0 ) .
Lema 3.4 Sea C una matriz real e invertible. Entonces existe una matriz B, en general
compleja, tal que eB = C.
§ 3.5. Sistemas Lineales Homogéneos a Coeficientes Periódicos 49
Teorema 3.5 (Floquet 1883) Si Φ(t) es una matriz fundamental del sistema ω−periódico
(3.1), entonces existe una matriz invertible P ∈ C 1 [R, Rn×n ] tal que P (t + ω) = P (t) y
una matriz constante B tal que
Φ(t) = P (t)eBt . (3.9)
50 Capı́tulo 3. Sistemas Lineales
Sea ahora Φ1 una matriz fundamental arbitraria del sistema (3.1). Luego se tiene que
Denotando con P1 (t) = P (t)Φ1 (0) , B1 = Φ−1 1 (0)BΦ1 (0), obtenemos que Φ1 (t) =
P1 (t)eB1 t . Lo cual concluye la prueba del teorema.
Definición 3.5 (Matriz de Monodromı́a) Se sabe que si Φ(t) es una matriz fundamental
de (3.1), Φ(t + ω) también lo es. Por lo tanto existe una matriz invertible C tal que
Φ(t + ω) = Φ(t)C. A la matriz C se le llama matriz de monodromı́a.
Recordemos que en general la matriz B es compleja. Pero es obvio que existe una
relación entre los multiplicadores caracterı́sticos y los exponentes caracterı́sticos. Te-
niendo en cuenta que
1
B = LnΦ(ω),
ω
donde Ln es el logaritmo de una matriz compleja, la cual es una función matricial multi-
valuada. Luego, usando las propiedades de los autovalores de una matriz compleja,
se obtiene que: si λ es un multiplicador caracterı́stico, entonces el correspondiente
exponente caracterı́stico viene dado por
1 1 arg λ 2kπ
ρ= Lnλ = ln |λ| + i+ i , k ∈ Z.
ω ω ω ω
Corolario 3.8 El sistema (3.1) admite una solución ω−periódica no constante si y sólo
si existe al menos un multiplicador caracterı́stico es igual a 1.
52 Capı́tulo 3. Sistemas Lineales
Teorema 3.9 Si la única solución ω−periódica del sistema homogéneo (3.1) es la solución
trivial, entonces el sistema (3.10) admite una única solución ω−periódica no constante.
Demostración. Sea ψ(t) una solución de (3.10) tal que ψ(0) = y0 . La cual viene dada
por Z t
ψ(t) = Φ(t)y0 + Φ(t)Φ−1 (s)f (s)ds, (3.11)
0
donde Φ(t) es la matriz fundamental principal del sistema (3.1). Se sabe que ψ(t) es una
solución ω−periódica de (3.10) si y sólo si ψ(ω) = ψ(0). Teniendo en cuenta este hecho
y (3.11), obtenemos que los datos iniciales y0 que pueden generar soluciones periódicas
deben ser soluciones de la siguiente ecuación
Z ω
y0 = Φ(ω)y0 + Φ(ω)Φ−1 (s)f (s)ds.
0
De donde se sigue Z ω
[I − Φ(ω)]y0 = Φ(ω)Φ−1 (s)f (s)ds.
0
Como el sistema homogéneo no posee soluciones ω−periódicas, entonces los multipli-
cadores caracterı́sticos son distintos de 1 y por ende det[I − Φ(ω)] 6= 0. Por lo tanto
existe un único dato inicial que genera una solución ω−periódica y viene dado por la
siguiente expresión
Z ω
−1
y0 = [I − Φ(ω)] Φ(ω)Φ−1 (s)f (s)ds.
0
§ 3.6. Sistemas Lineales ω-Periódicos No Homogéneos 53
Sea Φ la matriz fundamental principal del sistema (3.1). Definamos una matriz
G(t, s) : [0, ω] × [0, ω] → Rn×n como sigue
(
Φ(t)[I − Φ(ω)]−1 Φ−1 (s) si 0 ≤ s ≤ t ≤ ω,
G(t, s) = −1 −1
(3.13)
Φ(t + ω)[I − Φ(ω)] Φ (s) si 0 ≤ t < s ≤ ω.
Es fácil mostrar que G(t, s) es la matriz de Green asociada al sistema (3.1), ver ejerci-
cio 7.
Lema 3.10 Si la única solución ω−periódica del sistema homogéneo (3.1) es la solución
trivial, entonces la única solución ω−periódica no constante del sistema (3.10) viene dada
por Z ω
ψ(t) = G(t, s)f (s)ds , t ∈ [0, ω], (3.14)
0
donde la matriz G(t, s) está definida en (3.13).
Demostración. En efecto, de (3.12) obtenemos
Z ω Z t
−1 −1 −1
ψ(t) = Φ(t)[I − Φ(ω)] Φ(ω)Φ (s)f (s)ds + [I − Φ(ω)] Φ (s)f (s)ds
0 0
Z ω Z t
−1 −1 −1
= Φ(t)[I − Φ(ω)] Φ(ω)Φ (s)f (s)ds + Φ (s)f (s)ds .
t 0
obtenemos que
Z t Z ω Z ω
ψ(t) = G(t, s)f (s)ds + G(t, s)f (s)ds = G(t, s)f (s)ds.
0 t 0
donde Φ(t) es la matriz fundamental principal del sistema ω−periódico (3.1). Por otra
parte, la expresión (3.15) es una ecuación lineal del tipo Ez = b, E es un operador
lineal, la cual posee solución si y sólo si < b, ξ >= 0 para cualquier solución ξ de la
ecuación ET ξ = 0.1 Poniendo E = I − Φ(ω) y ξ = ψ(0), obtenemos que (3.15) posee
soluciones si y sólo si
Z ω Z ω
< ψ(0), Φ(ω)Φ−1 (s)f (s)ds >= ψ T (0)Φ(ω)Φ−1 (s)f (s)ds = 0, (3.16)
0 0
para cualquier ψ(0) tal que [I − φ(ω)]T ψ(0) = 0, o bien lo que es lo mismo
ψ T (0)[I − Φ(ω)] = 0.
Toda solución z(t) del sistema conjugado (3.6) con z(0)R = ψ(0) viene dada por z(t) =
ω
[Φ−1 (t)]T ψ(0). Sustituyendo z(t) en (3.17), obtenemos 0 z T (s)f (s)ds = 0.
Hasta el momento todas las condiciones que tenemos para garantizar la existencia de
soluciones periódicas para sistemas lineales involucra el cálculo de los multiplicadores
caracterı́sticos, la cual es una tarea extremadamente complicada.2 El siguiente resul-
tado nos provee una condición suficiente para la existencia de soluciones periódicas, la
cual en la práctica es mas fácil de chequear.
Teorema 3.13 Supongamos que el sistema (3.10) posee al menos una solución acotada
en [0, +∞). Entonces dicho sistema admite una solución ω−periódica no constante.
Demostración. Sea Φ(t) la matriz fundamental principal del sistema homogéneo y
ψ(t) una solución de (3.10) acotada sobre [0, +∞) tal que ψ(0) = y0 . Entonces
Z ω
ψ(ω) = Φ(ω)y0 + Φ(ω)Φ−1 (s)f (s)ds.
0
Poniendo t = ω, obtenemos
Z ω
ψ(2ω) = Φ(ω)ψ(ω) + Φ(ω)Φ−1 (s)f (s)ds = Φ2 (ω)y0 + [Φ(ω) + I]V,
0
donde Z ω
V = Φ(ω)Φ−1 (s)f (s)ds.
0
Procediendo por inducción, obtenemos
k−1
X
k
ψ(kω) = Φ (ω)y0 + Φi (ω)V , k ∈ N.
i=0
[I − Φ(ω)]z 6= V , ∀ z ∈ Rn . (3.18)
De donde se sigue que C = ΦT (ω)C y por ende C = [ΦT (ω)]k C, para todo k ∈ N.
Teniendo en cuenta la definición de ψ(kω), obtenemos que
k−1
X
< ψ(kω), C > = < Φk (ω)y0 + Φi (ω)V, C >
i=0
k−1
X
T k
= < y0 , [Φ (ω)] C > + < V, [ΦT (ω)]i C >
i=0
k−1
X
= < y0 , C > + < V, C >=< y0 + kV, C >→ +∞,
i=0
ϕ′n (t) = ϕ′ (t + nω) = f (t + nω, ϕ(t + nω)) = f (t, ϕ(t + nω)) = f (t, ϕn (t)).
1.- Existe un t0 ≥ a tal que ϕ(t0 ) = ϕ1 (t0 ). Por el Teorema de Existencia y Unicidad
obtenemos Z t
∗ ∗
ϕ (t) = ϕ (a) + f (t, ϕ∗ (s))ds, ∀t ∈ [a, a + ω].
a
Por lo tanto, ϕ∗ es solución de la ecuación x′ = f (t, x) y además es ω− periódica, ya
que
ϕ∗ (t) = lim ϕn (t) = lim ϕn+1 (t) = lim ϕn (t + ω) = ϕ∗ (t + ω).
n→∞ n→∞ n→∞
58 Capı́tulo 3. Sistemas Lineales
En este capı́tulo sólo hemos considerado sistemas lineales del tipo (3.2) donde A(t)
y f (t) son continuas sobre J. Cuando A(t) y f (t) son localmente integrables todos
los resultados de las secciones §3.1 al §3.5 siguen siendo válidos. La única variación
consiste en que las soluciones se entenderán como funciones absolutamente continuas
que satisfacen (3.2) casi en todas partes sobre J.
En la sección §3.6 nos referimos a la reducibilidad de sistemas lineales en el sentido
de Liapunov. Sin embargo, es importante en la práctica considerar la reducibilidad en
un sentido más amplio. Más concretamente, cuando el sistema (3.1) se reduce a uno
cuya matriz es de la forma
C1 (t) 0
.
0 C2 (t)
Notemos que este concepto de reducibilidad es compatible con el que se introduce en
Algebra Lineal, ver [17]. Esto tiene importantes conexiones con la teorı́a de dicotomı́as
exponenciales, para su estudio recomendamos ver el excelente libro escrito por Coppel
[5].
Para finalizar, acotemos que respecto a los sistemas ω−periódicos solo hemos tocado
los resultados más elementales. En general, el problema de hallar soluciones periódicas
dista de estar totalmente resuelto; muy por el contrario, es profusa la bibliografı́a
referente a este tema. Incluso, el problema de hallar o estimar a los multiplicadores
caracterı́sticos es un problema resuelto solo en casos muy particulares (ver [15], pág.
121).
§ 3.8. Ejercicios y Problemas 59
(a) x′1 = x2 ,
x′2 = −x1 .
(b) x′1 = 2x1 + x2 ,
x′2 = x1 + 4x2 .
3. Pruebe que la matriz de transición satisface las propiedades a) − e), página 44.
7. Pruebe que la matriz G(t, s) definida en la sección §3.6, pag. 53 por la fórmula
(3.13) es una matriz de Green.
13. Suponga que se verifican las condiciones del ejercicio 12, y que existen constantes
a < b tales que f (t, a) > 0 y f (t, b) < 0 para todo t ∈ R. Pruebe que para todo
y0 ∈ [a, b]
ϕ(t, y0 ) ∈ [a, b], ∀t ≥ 0.
En este caso se dice que el intervalo es positivamente invariante bajo el flujo
generado por la ecuación diferencial y ′ = f (t, y).
Pruebe que la ecuación diferencial y ′ = f (t, y) posee al menos una solución
ω−periódica.
Indicación: Utilice la invariancia del intervalo [a, b] para construir la aplicación
de Poincaré.
donde ϕ1 (0) = 1 , ϕ′1 (0) = 0 , ϕ2 (0) = 0 , ϕ′2 (0) = 1. Muestre que la ecuación
2
′
Rω viene dada por λ −Aλ+B = 0,
para determinar los multiplicadores caracterı́sticos
donde A = ϕ1 (ω) + ϕ2 (ω) , B = exp − 0 a1 (t) .
Indicación: Reduzca la ecuación a un sistema bidimensional y utilice el Teorema
de Liouville.
Capı́tulo 4
Sistemas Autónomos
61
62 Capı́tulo 4. Sistemas Autónomos
Definición 4.1 (Orbitas) Sea ϕ una solución de (4.1), ϕ(0) = p, definida para todo
t ∈ R. Definimos la semiórbita positiva de ϕ como:
Definición 4.2 (Punto de Equilibrio) Diremos que x0 es un punto de equilibrio del sis-
tema (4.1), si g(x0 ) = 0. También se suele decir que x0 es un punto singular del campo
vectorial, si g(x0 ) = 0. Cuando g(x0 ) 6= 0 se dice que x0 es un punto regular del campo
vectorial.
El siguiente teorema nos dice que dos órbitas del sistema (4.1), o nunca se intersecan o
bien coinciden. Además, justifica el estudio de los sistemas autónomos por separado, ya
que proyectando sobre el espacio de fase las soluciones del sistema todavı́a nos permite
obtener información valiosa del comportamiento cualitativo de las soluciones del sistema
original. Lo cual no es posible para las ecuaciones diferenciales no-autónomas
Teorema 4.1 Supongamos que g ∈ C 1 [D, Rn ]. Por cada p ∈ D, pasa una única órbita
del sistema (4.1).
Demostración. La existencia de una órbita de (4.1) a través del punto p ∈ D se sigue
de la existencia y unicidad de las soluciones de (4.1).
Supongamos que por un punto p pasan dos órbitas γ1 6≡ γ2 , tales que γ1 ∩ γ2 6= ∅.
Entonces existen t1 , t2 ∈ Domϕ1 ∩ Domϕ2 tales que ϕ1 (t1 ) = ϕ2 (t2 ) = p ; donde ϕ1 y
ϕ2 son soluciones de (4.1) que generan las órbitas γ1 y γ2 , respectivamente. Definamos
ψ(t) = ϕ1 (t − t2 + t1 ). Es obvio que ψ es solución de (4.1) y ψ(t2 ) = ϕ1 (t1 ) = ϕ2 (t2 ).
Luego, por la unicidad de las soluciones de (4.1) se tiene que ψ(t) = ϕ2 (t), ∀t ∈ R.
De modo que la órbita de ψ coincide con la de ϕ2 . Pero ψ es igual a ϕ1 salvo desplaza-
mientos de fase. Por lo tanto la órbita de ψ coincide con la órbita de ϕ1 . Contradicción
Corolario 4.2 Si x0 es un punto de equilibrio del sistema (4.1), entonces la única órbita
que pasa por x0 es ella misma.
§ 4.1. Clasificación de Orbitas. Conjuntos α y ω Lı́mites 63
Teorema 4.3 Si ϕ : (α, β) → Rn es una solución no prolongable del sistema (4.1), tal
que
(a) lim ϕ(t) = B y/o
t→β −
ya que g es continua.
Probemos que g(B) = 0. Como lim ϕ′ (t) = g(B), entonces para todo ε > 0 existe
t→+∞
T > 0 tal que ||ϕ′ (t) − g(B)|| < ε, ∀t ≥ T.
Supongamos que existe i, 1 ≤ i ≤ n, tal que gi (B) 6= 0. Entonces gi (B) > 0 ó
gi (B) < 0.
Si ocurre que gi (B) > 0, entonces existe T1 > 0 tal que
gi (B)
gi (ϕ(t)) ≥ , ∀t ≥ T1 .
2
Luego, se tiene que
gi (B)
ϕ′i (t) = gi (ϕ(t)) ≥ , ∀t ≥ T1 ,
2
de donde sigue
gi (B)
ϕ′i (t) ≥ , ∀t ≥ T1 .
2
Integrando la última inecuación obtenemos
gi (B)
ϕi (t) ≥ ϕi (T1 )) + (t − T1 ), ∀t ≥ T1 .
2
lo cual implica que no existe el lı́mite de ϕ(t) cuando t → +∞, lo que es una con-
tradicción. Análogamente se hace la prueba si gi (B) < 0.
Teorema 4.4 (Clasificación de Orbitas ) Sea ϕ una solución no prolongable del sistema
(4.1), definida sobre (α, β), −∞ ≤ α, β ≤ +∞. Entonces se verifica una de las siguientes
opciones :
64 Capı́tulo 4. Sistemas Autónomos
(1) ϕ es inyectiva,
(2) ϕ es constante,
por lo que c1 + c2 ∈ T.
Sea c ∈ T. Luego ϕ(t + c) = ϕ(t), ∀t ∈ R. Entonces
por lo que −c ∈ T.
Veamos que T es cerrado topológicamente en R. En efecto, sea (cn ) una sucesión de
puntos de T y cn → c cuando n → +∞. Como cn ∈ T , entonces ϕ(t) = ϕ(t + cn ). Luego
por la continuidad de ϕ y haciendo tender n → ∞, obtenemos ϕ(t) = ϕ(t + c), ∀ t ∈ R.
Por lo tanto c ∈ T.
Pongamos τ = inf(T ∩ R+ ). Como T es cerrado se sigue que τ ∈ T. Mostremos que
i) Si τ > 0, entonces T = τ Z.
ii) Si τ = 0, entonces T = R.
Recordemos que dos órbitas coinciden o son disjuntas. Luego, D = Domg se puede
descomponer en una unión disjunta de curvas diferenciables: imagen biunı́voca de un
intervalo de R ó punto de equilibrio ó curva difeomorfa a un cı́rculo (órbita cerrada
generada por una solución periódica). A partir de esta observación, se puede definir
rigurosamente el concepto de diagrama de fase.
Teorema 4.6 Los conjuntos α y ω lı́mites de una órbita son cerrados e invariantes.
Además, si γ + (γ − ) está acotado, entonces el conjunto ω (α)− lı́mite de γ es no vacı́o,
66 Capı́tulo 4. Sistemas Autónomos
compacto, conexo y
dist[x(t, p), ω(γ)] → 0, t → +∞,
dist[x(t, p), α(γ)] → 0, t → −∞.
Demostración. Sea {xk }k∈N ⊂ ω(γ), tal que xk → x, k → +∞. Mostremos que
x ∈ ω(γ). Como xk ∈ ω(γ), entonces existe una sucesión tki → +∞, cuando i → +∞,
tal que lim ϕ(tki ) = xk . Por lo tanto, dado ε > 0, existe N (k) > 0, tal que
i→+∞
ε
||ϕ(tki ) − xk || < , ∀i ≥ N (k).
2
Por otra parte, como lim xk = x, existe N1 > 0, tal que ||xk − x|| < 2ε , ∀k ≥ N1 .
k→∞
Fijemos un k∗ ≥ N1 . Entonces
||x(t, p)|| ≤ M,
∀t ≥ 0.
n o
Sea {tk }k∈N , tk → +∞. Entonces la sucesión numérica x(tk , p) está acotada. Por
k∈N
lo tanto existe una subsucesión de {tk }k∈N , a la cual denotaremos de la misma manera,
tal que lim x(tk , p) = x, para algún x ∈ Rn . Lo cual implica que ω(γ) 6= ∅. Además,
k→∞
de este argumento se obtiene que ω(γ) es un conjunto acotado. Como ya habı́amos
probado que ω(γ) es cerrado, concluimos la compacidad de ω(γ).
Supongamos que dist[x(t, p), ω(γ)] 6→ 0, t → +∞. Entonces existe una sucesión
{tk }k∈N y un ε > 0 tal que
Como ||x(tk , p)|| ≤ M, ∀k ∈ N, existe una subsucesión {tki }i∈N tal que lim x(tki , p) =
i→∞
x ∈ ω(γ). Lo cual es una contradicción.
La conectividad de ω(γ) sigue inmediatamente del hecho que
Figura 4.1: Ejemplo de una órbita no acotada, cuyo conjunto ω-lı́mite no es vacı́o. Sin
embargo el ω-lı́mite no es conexo.
Lema 4.8 Si A es un conjunto compacto, invariante respecto del sistema (4.1), entonces
A posee un subconjunto minimal.
Demostración. Sea F una familia de subconjuntos definida como sigue
F = {B : B ⊂ A, B-compacto e invariante}.
Definamos en F una relación de orden “<” como sigue : Para cada B1 , B2 en F, decimos
que B2 < B1 , si B2 ⊂ B1 . Para cualquier subfamilia F1 de F totalmente ordenada por
“<”, pongamos C = ∩B∈F1 B.
La familia F1 tiene la propiedad de la intersección finita. En efecto, si B1 , B2 ∈ F1 ,
entonces B1 < B2 ó B2 < B1 . En ambos casos B1 ∩ B2 6= ∅ y B1 ∩ B2 ∈ F.
Ası́, C 6= ∅, compacto e invariante; y para cada B ∈ F1 se sigue que C < B. Su-
pongamos ahora que D es un subconjunto perteneciente a F, tal que D < B, ∀B ∈ F1 .
Entonces D ⊂ B, para todo B ∈ F1 , lo cual implica que D ⊂ C. Por lo tanto C es
el elemento minimal de F1 . Como toda subfamilia de F totalmente ordenada, posee
un mı́nimo, se sigue por el lema de Zorn que existe un mı́nimo en F. Este elemento
minimal de F al cual llamaremos M, posee todas las propiedades requeridas.
68 Capı́tulo 4. Sistemas Autónomos
Ejemplo 4.1 Consideremos la ecuación logı́stica x′ (t) = αx(1 − x), con α > 0.
• •
0 1
Figura 4.2:
Del diagrama de fase se ve que el conjunto ω (α) lı́mite de las órbitas con dato inicial
en el intervalo (0, 1) es el punto {1} ({0}). El conjunto ω-lı́mite de cualquier órbita con
dato inicial negativo es vacı́o. Análogamente se analizan las otras situaciones. Además, los
conjunto {1}, {0} son minimales.
donde ε > 0, r 2 = x21 + x22 . Haciendo x1 = r cos θ, x2 = r sin θ, obtenemos que el sistema
anterior es equivalente a:
θ′ = 1
r ′ = εr(1 − r 2 ).
A partir de este sistema, vemos que el diagrama de fase luce como se muestra en la fig. 4.3
x2
x1
Figura 4.3:
Llamemos A = {(x1 , x2 ) : x21 + x22 = 1}, B = {0}. Tanto A como B son conjuntos
minimales A es el conjunto ω− lı́mite de cualquier órbita del sistema, excepto x1 = x2 = 0,
y B es el conjunto α− lı́mite de todas las órbitas encerradas por la circunferencia.
§ 4.1. Clasificación de Orbitas. Conjuntos α y ω Lı́mites 69
i) ω(γ + ) = γ + , ó
ii) ω(γ + ) = γ + \γ + .
En ambos casos el conjunto ω− lı́mite es una órbita periódica, el caso (ii) se llama ciclo
lı́mite.
Demostración. Como γ + está acotada, entonces ω(γ + ) 6= ∅ es compacto e invariante.
Por lo tanto, en virtud del Lema 4.8, ω(γ + ) posee un subconjunto minimal M. Además,
M no contiene puntos crı́ticos, ya que ω(γ + ) tampoco los posee. Ası́, por la parte (b)
del Teorema 4.10, M es una órbita periódica γ0 . Finalmente nuestra afirmación sigue
de la parte (c) del Teorema 4.10.
1
Un punto x0 se dice regular si f (x0 ) 6= 0.
§ 4.3. Criterios de Bendixson y Dulac 71
Supongamos, sin pérdida de generalidad, que div(gf )(x∗ ) > 0, para algún x∗ ∈ Ω. Por
la continuidad de la función gf, existe una constante ν > 0 y una bola BR (x∗ ) ⊂ Ω
tales que div(gf )(x) > ν, ∀x ∈ BR (x∗ ). De aquı́ se desprende que
ZZ ZZ
[div(gf )(x)] dx ≥ [div(gf )(x)] dx ≥ ν · medida(BR (x∗ )) > 0.
Ω BR (x∗ )
Con el fin de clasificar el punto de equilibrio trivial del sistema (4.4) analizaremos varios
casos. Supongamos en primer lugar que λ1 y λ2 son reales y distintos. Sin pérdida de
generalidad asumiremos que λ1 > λ2 .
Como los autovalores de A son reales y distintos, entonces existe una matriz no
singular T de modo que el cambio de variables x = T −1 y transforma el sistema x′ = Ax
en el sistema desacoplado
y1′ = λ1 y1 , y2′ = λ2 y2 .
De donde obtenemos que:
Supongamos que λ2 < 0 < λ1 . Pongamos r = −λ2 /λ1 . Es claro que r > 0. De (4.5)
se obtiene que
−r r
1 y1 y1 c1 c2 cr1
t= ln , y2 = c2 = c2 = .
λ1 c1 c1 y1 y1r
No es difı́cil verificar que el diagrama de fase luce como en la figura 4.3. Las flechas indi-
can la dirección en que se recorren las órbitas, variando t desde −∞ a +∞. Supongamos
y2
y1
ahora que λ2 < λ1 < 0. Un análisis similar al realizado anteriormente, nos conduce a
que
c2 y r
y2 = r 1 , r = λ2 /λ1 > 1.
c1
La figura 4.4 muestra el diagrama de fase del sistema transformado
y2
y1
y1
y1 = c1 exp(λt) , y2 = c2 exp(λt),
y2
y1
y2
y1
y1 = (c1 cos βt − c2 sin tβ) exp(αt) , y2 = (c1 sin βt − c2 cos tβ) exp(αt).
y2
y1
y2
y1
y2
y1
Consideremos el sistema
x′ = g(x) (4.6)
donde g ∈ C 1 [D, Rn ], D ⊂ Rn .
Definición 4.7 [ Integral] Diremos que una función E ∈ C 1 [D, R] es una integral de
(4.6) sobre la región D, si E no es constante sobre ningún subconjunto abierto de D y
E(x(t)) = cte. a lo largo de las soluciones de (4.6). Está última condición es equivalente a
∂H ∂H
p′i = − , qi′ = , i = 1, . . . , n. (4.7)
∂qi ∂pi
La función H : R2n → R es una integral del sistema (4.7). En efecto, denotemos por
(p, q) = (p1 , . . . , pn , q1 , . . . , qn )
∂H ∂H ∂H ∂H
g(p, q) = − ,...,− , ,..., .
∂q1 ∂qn ∂p1 ∂pn
Xn
∂H ∂H ∂H ∂H
< ∇H(p, q), g(p, q) >= · − + · = 0.
n=1
∂pi ∂qi ∂qi ∂pi
x′ = y,
y ′ = f (x). (4.9)
Rx
donde T (y) = y 2 /2, (energı́a cinética) y U (x) = − f (s)ds, (energı́a potencial). Es fácil
0
verificar que se satisface la siguiente identidad
Como (4.9) es un sistema conservativo, las órbitas de este sistema yacen sobre las curvas
de nivel de la función E.
Sea φ(t) = (x(t), y(t)) una solución de (4.9). Entonces
y 2 (t)
E(x(t), y(t)) = + U (x(t)) = c, ∀t ∈ Dom(φ),
2
donde c es una constante. De donde obtenemos que
p
y=± 2(c − U (x))
la cual está definida para todos los x tales que U (x) ≤ c. Los puntos de equilibrio de
(4.9) son de la forma (x0 , 0), con f (x0 ) = 0. Notemos también que si (x1 , y1 ) es punto
crı́tico de la energı́a total, x1 es un punto crı́tico de la energı́a potencial U.
Esto sugiere que para trazar las curvas de nivel de la energı́a total es conveniente
considerar el comportamiento de la gráfica de la energı́a potencial. Por lo cual proce-
deremos de la siguiente manera: graficamos la función U (x) y luego damos valores a c
para graficar las curvas de nivel de E(x, y) = c, comenzando por c igual al valor crı́tico
de la energı́a potencial U; es decir, cuando U ′ (ξ) = 0 y después le damos valores a c en
un entorno de ξ.
Por ejemplo, supongamos que U tiene tres puntos crı́ticos ξ1 , ξ2 , ξ3 , de modo que U
en ξ1 tiene un mı́nimo local, en ξ2 tiene un máximo local y en ξ3 tiene nuevamente un
mı́nimo local. Demos a E ahora valores iguales y valores cercanos a los valores crı́ticos
de U en la forma indicada, en la siguiente figura.
§ 4.5. Sistemas Conservativos 79
ξ1 ξ2 ξ3
| | |
E2 x
E1
|
E3
|
A
◦ ◦ ◦C
x
B
Hemos tomado
c1 = U (ξ1 ), c2 = U (ξ2 ), c3 = U (ξ3 ).
Observemos que los puntos en los cuales U tiene mı́nimo dan origen a puntos que son
centros en el espacio de fase, es el caso de los puntos A y C y en los puntos donde U
tiene máximo se generan puntos sillas, es el caso del punto B.
Utilizando el método descrito previamente, en las figuras 4.12-4.13 se esboza el
diagrama de fase de las ecuaciones
x′
x′
x′
x
x
Figura 4.13: Diagrama de fase de las ecuaciones x′′ = αx(1 − x), α > 0, y x′′ = x(1 − x2 ) en el
plano (x, x′ ), respectivamente.
Lo cual implica que los ejes de coordenadas N y P son invariantes, y por ende el primer
cuadrante es invariante también. Es decir el sistema (4.10)-(4.11) está biológicamente
bien planteado. Es fácil verificar que (0, 0) y (N ∗ , P ∗ ) = (d/c, a/b) son los únicos puntos
de equilibrio del sistema (4.10)-(4.11). Ahora, multiplicando (4.10) por (cN − d)/N y
(4.11) por (bP − a)/P y sumándolas, obtenemos
d
cN (t) − d ln N (t) + bP (t) − a ln P (t) = 0.
dt
Lo cual implica que la función
E(N, P ) = cN − d ln N + bP − a ln P
2.5
P 1.5
0.5
Su demostración verla en las p.p. 269-271, del libro de James Robinson [27].
El Teorema 4.13 básicamente nos dice que la dinámica relevante del sistema (4.1)
está concentrada en un conjunto compacto. Pero no da información cual es la estructura
de órbitas sobre el atractor global. La descripción de la dinámica del sistema (4.1) sobre
el atractor global puede ser un problema bien complicado. Trataremos de describir
esta situación considerando el modelo de Lorenz, el cual viene descrito por el siguiente
sistema
x′ = σ(y − x)
y ′ = ax − y − xz (4.12)
′
z = xy − bz
V (x, y, z) = x2 + y 2 + (z − a − σ)2 .
§ 4.6. Disipatividad Puntual. Atractor Global 83
b
V (x(t), y(t), z(t)) ≤ V (x0 , y0 , z0 )e−αt + (a + σ)2 , ∀t ≥ 0.
α
De donde se sigue que (4.12) es puntualmente disipativo. Para ello es suficiente elegir
B como la bola con centro en (0, 0, a + σ) y radio R = αb (a + σ)2 . Lo cual a su vez
implica que las semi-órbitas positivas están acotadas. Y por ende sus respectivos con-
juntos ω−lı́mite son no vacı́os. A diferencia de los sistemas bidimensionales, aquı́ se
puede afirmar que hay órbitas cuyos ω−lı́mite no son puntos de equilibrio, ni órbitas
periódicas. Por lo tanto la dinámica de (4.12) puede ser muy complicada. Del Teorema
4.13, se sabe que el atractor global es compacto,invariante, conexo y atrae conjuntos
acotados. Toda la información relevante ha sido obtenida mediante métodos computa-
cionales. Analı́ticamente no se ha probado casi nada. Para tratar de entender este
asunto se introdujo un modelo geométrico, para mayor información ver [20]. En el
enlace [Link] se presenta una in-
teresante discusión y visualización. La siguiente figura ilustra el famoso atractor de
Lorenz con σ = 10, b = 8/3 y a = 28. Las figuras en blanco son las proyecciones del
atractor de Lorenz sobre los planos coordenados.
84 Capı́tulo 4. Sistemas Autónomos
2. El conjunto R2+ = {S, x) : S > 0, x > 0} es invariante bajo el flujo inducido por
el sistema (4.13)-(4.14).
Teniendo en cuenta que la solución u(t) está acotada para todo t ∈ [0, β), se sigue que
β = ∞. Además
Sabemos que eligiendo ε = 1, existe un T ≥ t0 , tal que 0 < S(t) < K + 1, para todo
t ≥ T. Lo cual implica que
m x(t) m x(t) m M
> ≥ = γ, ∀t ≥ T.
y a + S(t) y a+K +1 y a+K +1
El otro caso es cuando los ceros no están acotados. Luego, debe existir una sucesión
de intervalos Jn = [tn−1 , tn ], Ji ∩ Jj = ∅, i 6= j, tn → ∞, cuando n → ∞, tales que
En este capı́tulo hemos resumido sólo los hechos mas elementales de la teorı́a de sistemas
dinámicos. El lector comprenderá que en un primer curso de Ecuaciones Diferenciales
no es posible cubrir en detalle toda la teorı́a geométrica. Los problemas que surgen
son variados y complejos y han dado origen a un gran volumen de libros y artı́culos.
Para una primera lectura sobre sistemas dinámicos continuos recomendamos los libros
de Jorge Sotomayor [32], Jacob Palis [24], Hirsch, Smale y Devaney [16]. Para sistemas
dinámicos discretos se puede consultar el libro de Robert Devaney [8]. Una excelente
exposición, pero menos elemental, tanto para sistemas dinámicos continuos y discretos
es el libro de Clark Robinson [26].
88 Capı́tulo 4. Sistemas Autónomos
1. Pruebe que una órbita de (4.1) es una curva cerrada si y solo si ella corresponde
a una solución periódica no constante de (4.1).
2. Sea f ∈ C 1 [R, R]. Pruebe que la ecuación diferencial x′ = f (x) no puede tener
soluciones periódicas.
4. Sea γp la órbita generada por la solución x(t, p), definida para todo t ∈ R. Pruebe
que
5. Considere el sistema
θ ′ = sin2 θ + (1 − r)2 ,
r ′ = r(1 − r)
Muestre que el conjunto ω− lı́mite de cualquier órbita que no sean r = 1 y r = 0
es el cı́rculo r = 1. Además que los conjuntos minimales sobre el cı́rculo r = 1,
son (r = 1, θ = 0) y (r = 1, θ = π). ¿Puede concluir que todo conjunto ω− lı́mite
es necesariamente minimal?.
x′ = y
y ′ = −x + (1 − x2 − y 2 )y
tiene un único ciclo lı́mite el cual es el conjunto ω lı́mite de todas las órbitas del
sistema, excepto del punto de equilibrio (x, y) = (0, 0).
x′ = −y + x(1 − z 2 − x2 − y 2 ),
y ′ = x + y(1 − z 2 − x2 − y 2 ),
z ′ = 0.
x′ = −y + x(z − x2 − y 2 ),
y ′ = x + y(z − x2 − y 2 ),
z ′ = 0.
12. Sea A una matriz n × n tal que aij ≥ 0 para i 6= j. Pruebe que el conjunto
Ω = {x = (x1 , . . . , xn ) ∈ Rn : xi > 0, ∀i = 1, . . . , n}
13. Considere la ecuación x′′ = f (x) con f ∈ C 1 . Suponga que los puntos de máximos
y mı́nimos locales de la energı́a potencial son aislados. Pruebe que los puntos de
máximo (de mı́nimo) locales de la energı́a potencial son puntos de equilibrio del
tipo silla (centros).
90 Capı́tulo 4. Sistemas Autónomos
Capı́tulo 5
Consideremos el sistema
x′ = f (t, x), (5.1)
para simplificar la exposición supondremos que f ∈ C 1 [J × D, Rn ] , J = (τ, +∞),
τ ≥ −∞ y D es un subconjunto abierto y conexo de R.
Definición 5.1 Diremos que la solución x(t, t0 , x0 ) del sistema (5.1) es estable en el
instante t0 ∈ J, si dado ε > 0, existe δ = δ(ε, t0 ) > 0, tal que se verifica que
En las definiciones 5.1 y 5.2 cuando δ y ρ sean independientes de t0 , diremos que la solución
x(t, t0 , x0 ) es uniformemente estable y uniforme asintóticamente estable, respectivamente.
Observación 5.1 Notemos que el estudio de la estabilidad de una solución ϕ(t) de (5.1)
siempre se puede reducir al estudio de la estabilidad de la solución trivial de un sistema
equivalente a (5.1). En efecto, pongamos y(t) = x(t) − ϕ(t) , donde x(t) es una solución
arbitraria de (5.1). Entonces
y ′ (t) = f (t, x(t)) − f (t, ϕ(t)) = f (t, y(t) + ϕ(t)) − f (t, ϕ(t)).
Definiendo
g(t, y) = f (t, y + ϕ(t)) − f (t, ϕ(t))
y considerando el sistema y ′ = g(t, y), obtenemos lo deseado. Por lo tanto, sin pérdida de
generalidad de aquı́ en adelante supondremos que f (t, 0) = 0 para todo t > τ.
91
92 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov
Rn
ϕ0 (t)
ǫ
δ x0 t
x1
ϕ1 (t)
Figura 5.1
La inestabilidad dice que existe ε0 > 0, tal que para cualquier δ > 0 es posible escoger
T > t0 y un vector x1 con ||x1 || < δ para el cual se satisface que ||x(T, t0 , x1 )|| ≥ ε0 ,
ver figura 5.2 .
Rn
ǫ0
x1
T t
Figura 5.2
Definición 5.3 Diremos que una solución es estable, si ella es estable para todo t0 > τ.
Por otra parte, como x = 0 es estable en t0 , se tiene que para todo ε > 0, existe
δ(ε, t0 ) > 0 tal que: si ||x0 || < δ, entonces
De donde se sigue que para todo ε > 0, existe δ1∗ = δ1∗ (ε, t0 , t1 , δ) > 0 tal que
Por la unicidad y la dependencia continua de las soluciones respecto de los datos ini-
ciales, la aplicación x0 → x(t1 , t0 , x0 ) es un homeomorfismo para cada t1 , t0 fijos. Por
lo tanto, V (t1 , ε) es un abierto que contiene al punto x = 0. Lo cual implica que existe
δ1 = δ1 (ε, t0 ) > 0 tal que Bδ1 (0) ⊂ V (t1 , ε) . Con este δ1 = δ1 (ε, t0 ) > 0 tenemos que
Observación 5.2 La Proposición 5.1 podrı́a parecer a primera vista que es redundante.
Pero no lo es, cuando estudiamos ecuaciones diferenciales de tipo parabólico o ecuaciones
con retardo esta Proposición es falsa. Debido a que en general estas ecuaciones generan
semi-flujos que no son reversibles en la variable temporal.
Definición 5.4 Diremos que el sistema (5.2) es estable (asintóticamente estable), si toda
solución de (5.2) es estable (asintóticamente estable).
||x(t) − x(t, t0 , x0 )|| < ε, para todo t ≥ t0 . Lo cual implica que: ||y(t)|| < ε para t ≥ t0 ,
si ||y(t0 )|| < δ. La afirmación recı́proca es obvia.
El Teorema 5.2 es muy importante por cuanto nos dice que para el estudio de la
estabilidad de sistemas lineales no-homogéneos, basta con estudiar la estabilidad de la
solución trivial del sistema lineal homogéneo asociado.
Teorema 5.3 El sistema (5.3) es estable si y solo si todas sus soluciones son acotadas.
Demostración. Supongamos que la solución trivial de (5.3) es estable. Entonces
cuyo gráfico es
x
π
x0
t
−x0
−π
Figura 5.3
Del gráfico se observa que las soluciones están acotadas y sin embargo la solución trivial
no es estable.
Teorema 5.4
La solución trivial de (5.3) es asintóticamente estable si y solo si lim ||x(t, t0 , x0 )|| = 0,
t→+∞
para todo x0 ∈ Rn .
§ 5.2. Estabilidad para Sistemas Lineales 95
Ejemplo 5.1 El Teorema 5.4 no es válido para sistemas no lineales, tal como vere-
mos a continuación. Este ejemplo nos fue comunicado por el Lic. Rodolfo Rodrı́guez.
Consideremos el sistema
2 2
x′ = − xt + [2t − y 2 t3 (t − 1) − 1]y 2 t e(y t (1 − t))
(5.4)
′ y
y = −t
es la solución general de (5.4) y además lim ||z(t)|| = 0, para todo z(1) = (x0 , y0 )T ∈ R2 .
t→∞
Sin embargo para 0 < δ < 1/e, N suficientemente grande y z0 = z(1) = N 1 , √1 T , se
N
verifica que ||z0 || < δ y eligiendo t∗ = 1 + N, se tiene
1 1 1
||z(t∗ , 1, z0 )|| ≥ ||x(t∗ )|| = + > .
N (N + 1) e e
Proposición 5.5 Si todos los autovalores de la matriz A tienen parte real negativa,
entonces existen constantes K > 0 y σ > 0 tales que
||eAt || ≤ Ke−σt , ∀t ≥ 0.
Demostración. Supongamos que todos los autovalores de la matriz A tienen parte
real negativa. Es conocido que existe una matriz invertible T de modo que ella trans-
forma a la matriz A a su forma canónica de Jordan; es decir T −1 AT = J, donde
J = diag[J1 , . . . , Jm ], Ji = λi I + Si y Si es una matriz nilpotente del tipo
0 1 0 · 0 0
0 0 1 · 0 0
Si = · · · · · · ,
0 0 0 · 0 1
0 0 0 · 0 0
||eAt || = ||eT JT
−1 t
|| = ||T eJt T −1 || ≤ ||T || · ||T −1 || · ||eJt ||.
Sabemos que
eJt = diag[eJ1 t , · · · , eJi t , · · · , eJm t ].
Teniendo en cuenta que
eJi t = eλi t eSi t ,
y el hecho que Si es una matriz nilpotente, obtenemos que
P (t)
lim = 0.
t→+∞ eεt
Luego, dado ∆ > 0 existe un T > 0 tal que 0 ≤ P (t) ≤ ∆eεt , ∀t ≥ T. Eligiendo
K ∗ = max{M, ∆}, donde M = max{P (t) : t ∈ [0, T ]} se tiene que
||eAt || ≤ ||T || · ||T −1 || · ||eJt || ≤ ||T || · ||T −1 ||e−αt P (t) ≤ K ∗ ||T || · ||T −1 ||e(−α+ε)t , ∀t ≥ 0.
§ 5.3. Sistemas Lineales a Coeficientes Constantes 97
Teorema 5.6 El sistema (5.5) es uniforme asintóticamente estable si y solo si todos los
autovalores de la matriz A tienen parte real negativa.
Demostración. De la proposición 5.5 se sigue que: si todos los autovalores de la matriz
A tienen parte real negativa, entonces el sistema (5.5) es uniforme asintóticamente
estable.
Supongamos ahora que el sistema (5.5) es asintóticamente estable y sin embargo la
matriz A tiene un autovalor con parte real mayor o igual cero. Denotemos por J ∗ a uno
de los bloques elementales de Jordan generado por el autovalor con parte real mayor o
igual a cero. Supongamos que ya la matriz A fue transformada a su forma canónica de
Jordan. Entonces se verifica que
eJt = T −1 eAt T.
Proposición 5.7 Si la matriz A tiene un autovalor con parte real positiva el sistema
(5.5) es inestable.
Demostración. Sea λ∗ un autovalor con parte real positiva y J ∗ uno de sus corres-
pondientes bloques elementales de Jordan. Entonces se verifica que
cuando t → ∞. Lo cual implica que la solución trivial del sistema (5.5) es inestable.
x′ = A(t)x,
98 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov
donde
−1 −1 −5 cos t sent
A(t) = U (t)A0 U (t) , A0 = , U (t) = .
0 −1 −sent cos t
Es obvio que los autovalores de la matriz A(t) son ambos iguales a −1. Sin embargo la
matriz fundamental viene dada por
t
e (cos t + 12 sent) e−3t (cos t − 12 sent)
Φ(t) = .
t 1 −3t 1
e (sent − 2 cos t) e (sent + 2 cos t)
con ai ∈ R, es un polinomio de Hurwitz si todas sus raı́ces tienen parte real negativa.
Rezk < 0, k = 1, 2, . . . , p + q.
Sabemos que
βj βj
Pn (z) = a0 Πpk=1 (z − zk )αk Πqj=1 z − zp+j z − z p+j .
Pongamos zk = −bk , con bk > 0 , k = 1, . . . , p y zj+p = −bj+p + icj , con bj+p > 0 , j =
1, . . . , q. Ası́
α β
Pn (z) = a0 Πpk=1 z + bk k Πqj=1 z 2 + 2bj+p z + b2j+p + c2j j ;
Para n ≥ 3 la condición del Lema (5.8) es solo necesaria. Considere por ejemplo el
polinomio
P3 (z) = z 3 + z 2 + z + 1.
Todos sus coeficientes son positivos sin embargo sus raı́ces son z1 = −1, z2 = i, z3 = −i.
Denotemos por Hn al conjunto de todos los polinomios de Hurwitz de grado n.
Definición 5.5 Diremos que F (z) es un polinomio asociado a Pn (z), si existe α > 0 tal
que F (z) = (1 + αz)Pn (z) + Pn (−z).
Demostremos que Fµ (z) ∈ Hn+1 , para todo µ ∈ [0, 1]. Teniendo en cuenta que α > 0,
se sigue que F0 (z) = (1 + αz)Pn (z) ∈ Hn+1 .
Es conocido que las raı́ces de cualquier polinomio dependen continuamente de sus
coeficientes. Por lo tanto, los ceros de Fµ (z), zj : [0, 1] → C , j = 1, . . . , n + 1 son
funciones continuas.
Supongamos que existe un µ̃ ∈ (0, 1] y un ı́ndice 1 ≤ j ≤ n, tal que Re zj (µ̃) = 0 y
Re zj (µ) < 0, ∀µ ∈ [0, µ̃). Denotando con zj (µ̃) = iβ (β 6= 0), tenemos que Fµ̃ (zj ) = 0 y
Fµ̃ (z j ) = 0. Lo cual implica que
Lema 5.11 Si F (z) ∈ Hn+1 , entonces existe α > 0 y Pn ∈ Hn tal que F es el asociado
de Pn .
Demostración. Sea
De (5.7), obtenemos
F (−z) = (1 − αz)Pn (−z) + Pn (z). (5.8)
100 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov
Lo cual implica que eligiendo α = 2An /An+1 , los coeficientes del polinomio Pn (z) se
determinan unı́vocamente.
Definamos vµ (z) = (αz − 1)F (z) + µF (−z), µ ∈ [0, 1).
Mostremos que
a) vµ (z) tiene una raı́z positiva y (n + 1) raı́ces con parte real negativa, ∀µ ∈ [0, 1).
b) lim vµ (z) posee n raı́ces con parte real negativa y dos con parte real nula.
µ→1
Ası́
(αβi − 1)F (iβ) + µ̃F (−iβ) = 0,
y
−(αβi + 1)F (−iβ) + µ̃F (iβ) = 0.
De donde obtenemos que
[µ̃2 − 1 − α2 β 2 ]F (iβ) = 0.
Teniendo en cuenta que µ̃2 < 1, se sigue que [µ̃2 − 1 − α2 β 2 ] < 0. Lo cual a su vez
implica que F (iβ) = 0. Lo cual es una contradicción. Con esto queda probado a).
Sustituyendo F (z) y α = 2An /An+1 en vµ (z), obtenemos
2An n+2 2An
vµ (z) = A0 z +···+ − An−1 + µAn−1 z 2 + (1 − µ)An z + (µ − 1)An+1 .
An+1 An+1
Notemos que
v1 (z) = (αz − 1)F (z) + F (−z),
por lo cual v1 (z), de acuerdo a (5.9), lo podemos escribir como
2An
v1 (z) = α2 z 2 Pn (z), con α= .
An+1
§ 5.4. Criterio de Estabilidad de Routh-Hurwitz 101
Luego, v1 (z) posee dos raı́ces nulas ya que el término libre de Pn (z) es distinto de cero.
Ahora, teniendo en cuenta la disposición de las raı́ces de vµ para v ∈ [0, 1) y la
relación existente entre las raı́ces y los coeficientes de un polinomio1 , obtenemos que
n+2
X 1 An (1 − µ) An
=− = , ∀µ ∈ [0, 1).
zj (µ) An+1 (µ − 1) An+1
j=1
De donde sigue
n+2
X n+2
X
1 An 1 An
Re = , ∀µ ∈ [0, 1) y lim Re = .
zj (µ) An+1 µ→1− zj (µ) An+1
j=1 j=1
De aquı́ se desprende que las raı́ces que tienden a cero cuando µ → 1− son la raı́z positiva
y una raı́z negativa. Si fuesen dos raı́ces con parte real negativa las que tienden a cero,
tendrı́amos que
n+2
X 1
lim Re = −∞,
µ→1 − zj (µ)
j=1
Teorema 5.12 (Criterio de Routh-Hurwitz) Las raı́ces de Pn (z) poseen parte real nega-
tiva si y sólo si ∆i > 0, i = 1, . . . , n.
Demostración. (Necesidad) Supongamos que Pn ∈ Hn . Realicemos la prueba por
inducción. Sea P1 (z) = a0 z + a1 . Ası́ z = −a1 /a0 < 0 y ∆1 = a1 > 0. Consideremos
P2 (z) = a0 z 2 + a1 z + a2 . Luego por el Corolario 5.9 , ∆1 y ∆2 son positivos.
Supongamos que para todo Pn ∈ Hn , se verifica que ∆j > 0, j = 1, . . . , n. Sea
F ∈ Hn+1 . De acuerdo con el Lema 5.11, existe α > 0 y Pn ∈ Hn tal que
Supongamos por ejemplo que n es par, el caso n-impar se analiza en forma similar. De
(5.11) obtenemos que
F (z) = 2ca0 z n+1 + (2a0 + 2ca1 )z n + 2ca2 z n−1 + · · · + (2an−2 + 2can−1 )z 2 + 2can z + 2an
de donde sigue
2a0 + 2ca1 2ca0 0 · 0
2a2 + 2ca3 2ca2 2a0 + 2ca1 · ·
2a4 + 2ca5 2ca4 2a2 + 2ca3 · ·
MF =
.
· · · · ·
· · · · ·
0 0 0 · 2an
˜ j > 0, j = 1, . . . , n + 1.
Teniendo en cuenta que ∆j > 0, j = 1, . . . , n, se sigue que ∆
(Suficiencia) Sea Pn (z) un polinomio tal que
aj > 0, ∀ j = 1, . . . , n y ∆j > 0, ∀ j = 1, . . . , n.
2An
F (z) = (1 + αz)Pn (z) + Pn (−z), con α= > 0.
An+1
§ 5.5. Criterio de Routh 103
∆ ˜ 2 = (2c)2 ∆2 , . . . , ∆
˜ 1 = 2c∆1 , ∆ ˜ n = (2c)n ∆n , ∆
˜ n+1 = 2an ∆
˜ n.
El Criterio de Routh-Hurwitz sólo nos provee respuesta cuando las raı́ces del polinomio
tienen parte real negativa. Ahora esbozaremos el criterio de Routh, el cual nos permite
saber cuantas raı́ces tienen parte real positiva.
A continuación vamos a describir el diagrama de Routh. Al polinomio
Teorema 5.13 (Criterio de Routh) El número de raı́ces del polinomio Pn (z) que tienen
parte real positiva es igual al número de cambios de signos de la primera columna de la
matriz Hn+1 ; es decir de (a0 , a1 , b1 , c1 , · · · ).
104 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov
P3 (x) = x3 − x2 + x + 2.
En este caso la primera columna sufre dos cambios de signos, por lo tanto el
polinomio tiene dos raı́ces con parte real positiva. Pruebe que estas raı́ces son
complejas conjugadas.
P3 (x) = x3 − x2 − x + 1
El cual no nos permite aplicar el Criterio de Routh. Con las observaciones ante-
riores el diagrama sustitutivo es
1 −1 0 0
−1 1 0 0
H4 = ε
.
0 0 0
1 0 0 0
§ 5.6. Estabilidad de Sistemas Lineales Semi-Autónomos 105
De donde se sigue que el polinomio tiene dos raı́ces con parte real positiva.
Muestre que todas las raı́ces son reales.
Conjetura: Todo polinomio con coeficientes reales cuyas raı́ces son todas reales
siempre el diagrama de Routh es singular.
Teorema 5.14 Si la matriz A tiene todos sus autovalores con parte real negativa y
Z ∞
||C(t)||dt < ∞, (5.14)
0
Proposición 5.16
Sea Φ(t) la matriz fundamental del sistema (5.3) y K(t, s) = Φ(t)Φ−1 (s) la matriz de
transición. Entonces todas las soluciones de (5.3) son uniformemente estable si y sólo si
existe una constante M > 0, tal que
La demostración es una consecuencia inmediata del hecho que x(t, t0 , x0 ) = K(t, t0 )x0 .
Entonces
1 1
||x(t)|| < ||x(t0 + T )|| ≤ 2 ||x0 || , si t ≥ t0 + 2T.
2 2
El resto sigue por inducción.
Teniendo en cuenta que 2−r = exp(−r ln 2), obtenemos ||x(t)|| ≤ exp(−r ln 2)||x0 ||,
si t ≥ t0 + rT, r ∈ N.
Sea t ≥ t0 +T arbitrario. Entonces existe un r ∈ N tal que t0 +rT ≤ t < t0 +(r+1)T.
De donde se sigue que (t − t0 − T )/T ≤ r lo cual a su vez implica que exp(−r ln 2) ≤
exp[− ln 2(t − t0 − T )/T ], y por tanto
t − t0
||x(t)|| ≤ ||x0 || exp(ln 2) exp − ln 2 , si t ≥ t0 + T. (5.18)
T
||x(t)|| ≤ M ||x0 || , si t ≥ t0 .
t − t0
||x(t)|| ≤ M ||x0 || ≤ 2M ||x0 || exp − ln 2 . (5.19)
T
Teorema 5.18
(a) Si las soluciones de (5.3) son uniformemente estable y existe una función continua e
integrable m : [t0 , +∞) → R+ tal que
(b) Si las soluciones de (5.3) son uniforme asintóticamenteR t+1 estable, entonces bajo la
condición (5.20) siendo m una función continua y t m(s)ds ≤ C, ∀t ≥ t0 , la
solución trivial de (5.15) es uniforme asintóticamente estable.
108 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov
Demostración. Probemos (a). Sea x(t) la única solución de (5.15) tal que x(t0 ) = x0 .
Supongamos que [t0 , β) es el intervalo maximal de existencia de x(t). Haciendo variación
de parámetros, de (5.15) obtenemos que
Z t
x(t) = K(t, t0 )x0 + K(t, s)f (s, x(s))ds, t ∈ [t0 , β); (5.21)
t0
Teniendo en cuenta que la solución trivial de (5.3) es uniforme estable, existe una
constante M > 0 tal que
||K(t, t0 )|| ≤ M. (5.22)
Luego, de (5.21) y (5.22) se sigue
Z t
||x(t)|| ≤ M ||x0 || + M ||f (s, x(s))||ds, t ∈ [t0 , β). (5.23)
t0
Esto prueba que las soluciones del sistema (5.15) son prolongables a infinito y uniforme-
mente estable.
La prueba de (b) es análoga a la de (a), R t+1sólo se debe tener en cuenta que: si
+
m : [t0 , ∞) → R es una función continua y t m(s)ds ≤ C, ∀t ≥ t0 , entonces
Z t
C
e(−α(t−s)) m(s)ds ≤ , ∀ t ≥ 0 , α > 0.
t0 1 − exp(−α)
En efecto, del teorema del valor medio para integrales se sigue que:
Z t−k Z t−k
−α(t−s) −αk
e m(s)ds = e m(s)ds
t−k−1 ξ
Z t−k
≤ e−αk m(s)ds ≤ e−αm C
t−k−1
Para concluir esta sección probaremos un resultado conocido como el Teorema de Es-
tabilidad de la primera aproximación. Después de su demostración explicaremos el por
qué del nombre.
§ 5.7. Estabilidad de Sistemas Semi Lineales. Teorema de la Primera Aproximación. 109
Consideremos el sistema
x′ = g(x),
donde g ∈ C 1 [Rn , Rn ] y g(0) = 0. Es decir x = 0 es un punto de equilibrio del sistema
y vamos a suponer que es aislado. El sistema anterior lo podemos reescribir como sigue
x′ = g′ (0)x + G(x),
donde G(x) = g(x) − g′ (0)x. Es fácil probar que
||G(x)||
lim = 0.
||x||→0 ||x||
El siguiente resultado es una consecuencia inmediata del Teorema 5.19
Corolario 5.20 (Teorema de Perron) Si todos los autovalores de la matriz g′ (0) tienen
parte real negativa, entonces x = 0 es local exponencial asintóticamente estable.
Este Corolario nos dice que los términos de primer orden nos proveen información sobre
la estabilidad local del equilibrio trivial.
110 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov
En este capı́tulo nos hemos restringido a caracterizar los conceptos mas usuales de la
teorı́a de la estabilidad. Es muy grande la cantidad de definiciones que se han dado
con el fin de obtener los mejores resultados posibles en esta dirección. Una discusión
detallada, acompañada de una extensa bibliografı́a se encuentra en [28], [36].
Un problema muy interesante, que tampoco hemos tocado, es el concerniente a
la caracterización de las perturbaciones que preservan las propiedades del sistema sin
perturbar. Más concretamente, sean
x′ = A(t)x, (5.27)
8. Considere la ecuación
x′ = sen(ln t) + cos(ln t) − 2a x.
11. Describa en el plano de los parámetros (a, b) la disposición de la raı́ces del poli-
nomio caracterı́stico correspondiente a la la siguiente ecuación diferencial
y ′′′ + ay ′′ + by ′ + 6y + 4 − a = 0.
12. Describa en el plano de los parámetros (a, b) las regiones de estabilidad, estabili-
dad asintótica e inestabilidad de las soluciones de la siguiente ecuación diferencial
y ′′′ + ay ′′ + by ′ + 6y + 4 − a = 0 .
13. Pruebe que el sistema generado por la ecuación diferencial x′′ = x(1 − x) es
conservativo. Estudie la estabilidad de los puntos de equilibrio.
x′ = y
y ′ = −x − (1 − x2 − y 2 )y
y ′′ + ay ′ + bseny = 0, a ≥ 0 , b > 0.
17. Sea A(t) una matriz continua sobre el intervalo [0, ∞). Suponga el sistema x′ =
A(t)x posee una matriz fundamental de soluciones Φ(t) uniformemente acotada
sobre [0, ∞), y que
Z t
lim inf trazaA(s)ds > −∞.
t→∞ 0
Pruebe que Φ−1 está uniformemente acotada sobre el intervalo [0, ∞); y que la
única solución que puede tender a cero cuando t → ∞ es la solución trivial.
§ 5.9. Ejercicios y Problemas 113
19. Bajo las hipótesis de los ejercicios 17 y 18, pruebe que dada una solución ψ existe
una única solución ϕ tal que ϕ − ψ → 0 cuando t → ∞.
Indicación: Deduzca del ejercicio 18 que
Z ∞
ψ(t) = ϕ(t) − Φ(t)Φ−1 (s)[B(s) − A(s)]ψ(s)ds.
t
R∞
20. Pruebe que: si 0 ||B(t)||dt < ∞, entonces cualquier solución del sistema x′ =
B(t)x no idénticamente igual a cero converge a un vector distinto de cero cuando
t → ∞. Además, para todo c ∈ Rn , existe una única solución ψ la cual tiende a
c cuando t → ∞.
Indicación: En los ejercicios anteriores elija A = 0 y Φ = I.
y ′ = (A0 tm + A1 tm−1 + · · · + Am )y
23. Pruebe que si x′ = f (x), con x ∈ R2 tiene un único punto de equilibrio local
asintóticamente estable y el sistema no posee órbitas periódicas, entonces el equi-
librio es global asintóticamente estable.
x′1 = −a1 x1 + bn xn
x′i = −ai xi + bi−1 xi−1 , i = 2 . . . n,
Q
donde ai > 0, ∀i = 1 · · · n y ni=1 bi ≥ 0.
Pruebe que la solución trivial es exponencial asintóticamente estable si y solo si
n
Y n
Y
bi < ai .
i=1 i=1
descrito en la pag. 84. Donde S(t) y x(t) son las densidades de las poblaciones
presa y depredador, respectivamente. γ, K, m, y, a y D0 son constantes positivas.
Halle los puntos de equilibrio del sistema, dependiendo de las distintas configu-
raciones de parámetros, estudie su estabilidad local.
Capı́tulo 6
Consideremos el sistema
x′ = Ax (6.1)
donde A es una matriz n × n real. Todo el análisis que realizaremos es válido para
matrices complejas.
Definición 6.1 Diremos que el sistema (6.1) es hiperbólico, si todos los autovalores de
la matriz A tienen parte real distinta de cero. Cuando la matriz A posee k-autovalores con
parte real negativa y (n − k)-autovalores con parte real positiva, se dice que la solución
trivial del sistema (6.1) es un punto de equilibrio hiperbólico de tipo k.
Proposición 6.1 Supongamos que la solución trivial del sistema (6.1) es un punto de
equilibrio hiperbólico de tipo k. Entonces se verifican las siguientes propiedades
Rn = Es ⊕ Eu , (6.2)
para todo x ∈ Rn .
Demostración.
115
116 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable
Definamos
Es = {x ∈ Rn : x = U y, y = (y1 , 0)T , y1 ∈ Rk },
Eu = {x ∈ Rn : x = U y, y = (0, y2 )T , y2 ∈ Rn−k }.
x = x1 + x2 (6.5)
donde
x1 = U (y1 , 0)T ∈ Es , x2 = U (0, y2 )T ∈ Eu .
Mostremos ahora que Es ∩ Eu = {0}. Si x ∈ Es ∩ Eu , entonces
Ax = U diag[A− , A+ ]U −1 x
A− 0 y1 A− y1
= U =U ∈ Es .
0 A+ 0 0
x2 = W s Wu
x1
Figura 6.1: Diagrama de fase del sistema x′1 = x1 , x′2 = −x2 + x31 .
Denotemos por
a3 a3
ψt (a, b) = ae , (b − )e−t + e3t
t
4 4
el flujo correspondiente al sistema (6.7) y por
φt (a, b) = aet , be−t
es decir los flujos φt y ψt son conjugados. En otras palabras h transforma órbitas del
sistema x′1 = x1 , x′2 = −x2 en órbitas del sistema (6.7). Osea que topológicamente el
diagrama de fase de ambos sistemas son básicamente los mismos.
Es claro que para sistemas no-lineales no se puede esperar un resultado global como
el obtenido en el ejemplo anterior. Sin embargo localmente este resultado tiene validez.
Antes de enunciarlo con precisión, vamos a introducir un par de definiciones.
Definición 6.2 Se dice que un punto de equilibrio x0 del sistema x′ = F (x), es un punto
localmente hiperbólico de tipo k para el sistema x′ = F (x), si existen una vecindad acotada
y abierta V de x0 y dos subconjuntos Sk y Un−k de Rn tales que
1. Sk ∩ Un−k = {x0 }, dim Sk = k, dim Un−k = n − k, es decir, Sk y Un−k son
homeomorfos a las bolas abiertas unitarias de Rk y Rn−k , respectivamente.
Estamos suponiendo que Γ es tal que tiene sentido plantearse la existencia de los lı́mites
involucrados.
En el ejemplo del sistema (6.7) el conjunto Γ = (W u ) = {(x1 , x2 ) : x2 = x31 /4} es
tangente a la variedad inestable Eu = {(x1 , 0) : x1 ∈ R} del sistema x′1 = x1 , x′2 = −x2 ,
donde P x = (0, x2 ) , Qx = (x1 , 0).
El siguiente resultado caracteriza a una clase de funciones para la cual el sistema
x′ = Ax + f (x) (6.8)
tiene una dinámica que es localmente conjugada a la dinámica del sistema lineal x′ =
Ax. Es decir, existe un entorno V del punto x = 0 y un homeomorfismo h : V → V tal
que
ϕt (h(x)) = h(eAt x)
mientras eAt x permanezca en V. Donde ϕt es el flujo generado por el sistema (6.8).
Este resultado se conoce como el Teorema de Hartman-Grobman. Una prueba distinta
a la que se presenta aquı́ se puede consultar en [26], sección 5.7 .
Concretamente, tiene lugar el siguiente
120 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable
2. Sean Sk , Un−k las variedades estable e inestable del sistema (6.8) en x = 0, respec-
tivamente. Entonces Sk es tangente a Es y Un−k es tangente a Eu en x = 0. Donde
Es , Eu son las variedades estable e inestable del del sistema (6.1) en x = 0.
La prueba de este Teorema sigue las ideas del Teorema 6.1, p.p.111-114, en J.K.
Hale [15]. Pero en vez de considerar el espacios de las funciones continuas y acotadas,
aquı́ se sustituye por el espacios de las funciones continuas que decrecen a cero en el
infinito. Esta modificación simplificó la demostración original y evitó la recurrencia a
desigualdades sofisticadas para demostrar que las soluciones sobre la variedad estable
decrecen exponencialmente a cero cuando t → ∞.
Antes de probar este Teorema, vamos a demostrar un Lema auxiliar el cual es
muy útil no tan solo para demostrar el Teorema de Hartman-Grobman, también lo
emplearemos en la prueba de la estabilidad de órbitas periódicas.
Lema 6.3 Supongamos que x = 0 es un punto hiperbólico de tipo k del sistema (6.1) y
P, Q son los proyectores definidos en la proposición 6.1. Entonces
para algún x− ∈ Es = P Rn .
para todo t ≥ 0. Como Q es un operador continuo, existe una constante L tal que
||Qx|| ≤ L||x|| para todo x ∈ Rn . Lo cual implica que
Como f es continua, existe N > 0 tal que ||f (x)|| ≤ N para todo x ∈ BM (0). Por lo
tanto
||f (x(t))|| ≤ N para todo t ≥ 0. (6.12)
Por ser x(t) solución de (6.8), tenemos que para todo τ ∈ [0, ∞), ella se puede repre-
sentar como sigue
Z t
x(t) = eA(t−τ ) x(τ ) + eA(t−s) f (x(s))ds, t ∈ [0, ∞). (6.13)
τ
o equivalentemente Z ∞
Qx(t) = − e−As Qf (x(t + s))ds. (6.14)
0
Poniendo τ = 0 en (6.13) y aplicándole el operador P, obtenemos
Z t
At
P x(t) = e P x(0) + eA(t−s) P f (x(s))ds. (6.15)
0
Sustituyendo las expresiones (6.14) y (6.15) en x(t) = P x(t) + Qx(t), obtenemos (6.9),
con x− = P x(0). Derivando (6.9), obtenemos que (6.9) es solución del sistema (6.8).
122 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable
||f (x) − f (y)|| ≤ η(δ)||x − y||, ∀x, y ∈ Bδ = {x ∈ Rn : ||x|| < δ}. (6.16)
Sean δ > 0, 0 < µ < σ y x− ∈ Es ∩ Bδ/2K = {x : ||x|| < δ/2K}. Denotemos por
F(x− , δ) = φ ∈ C[[0, ∞), Rn ] : ||φ||∗ = sup eµt ||φ(t)|| ≤ δ , P φ(0) = x− .
0≤t<∞
Mostremos que F(x− , δ) es un subconjunto cerrado del espacio de Banach de las fun-
ciones continuas y acotadas de [0, ∞) en Rn con la topologı́a inducida por la norma
|| · ||∗ . En efecto, sea {φn } ⊂ F(x− , δ) una sucesión convergente a φ. Es claro que
φ ∈ C[[0, ∞), Rn ]. Por otra parte, se tiene
eµt ||φ(t)|| ≤ eµt ||φn (t) − φ(t)|| + eµt ||φn (t)|| ≤ eµt ||φn (t) − φ(t)|| + δ ≤ ||φn − φ||∗ + δ.
Lo cual prueba que φ ∈ F(x− , δ) y por lo tanto (F(x− , δ), ||·||∗ ) es un espacio de Banach.
Sea T : F(x− , δ) → C[[0, ∞), Rn ] definido como sigue
Z t Z ∞
At A(t−s)
T x(t) = e x− + e P f (x(s))ds − e−As Qf (x(t + s))ds, t ≥ 0. (6.18)
0 0
Es claro que T está bien definido. Mostremos que T : F(x− , δ) → F(x− , δ) con una
adecuada elección de δ. Aplicando el operador P a (6.18) y teniendo en cuenta que
P Q = 0, obtenemos
Z ∞
P T x(0) = P x− − e−As P Qf (x(s))ds = P x− = x− .
0
Eligiendo µ = σ/2 y teniendo en cuenta que limδ→0 η(δ) = 0, elijamos δ > 0 de modo
que η(δ) < σ/6K 2 . Con estas elecciones se obtiene que
3K 2 η(δ)δ δ 3K 2
eµt ||T x(t)|| ≤ K||x− || + ≤ + η(δ)δ ≤ δ, ∀t ≥ 0,
σ 2 σ
3K 2 1
||T x − T y||∗ ≤ η(δ)||x − y||∗ ≤ ||x − y||∗ .
σ 2
3K 2 η(δ) −µt ∗
||x∗ (t, x− ) − x∗ (t, x̃− )|| ≤ Ke−σt ||x− − x̃− || + e ||x (·, x− ) − x∗ (·, x̃− )||∗ ,
σ
1
eµt ||x∗ (t, x− ) − x∗ (t, x̃− )|| ≤ K||x− − x̃− || + ||x∗ (·, x− ) − x∗ (·, x̃− )||∗ ,
2
||x∗ (·, x− ) − x∗ (·, x̃− )||∗ ≤ 2K||x− − x̃− ||,
||x∗ (t, x− ) − x∗ (t, x̃− )|| ≤ 2Ke−σ/2t ||x− − x̃− ||. (6.21)
Poniendo x̃− = 0 en (6.21), obtenemos la estimación 3.a) del Teorema 6.2, con M = 2K
y γ = σ/2.
124 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable
Sea Sk el conjunto de todos los valores iniciales de las soluciones de (6.8) que
permanecen dentro de Bδ para todo t ≥ 0 y P x(0) ∈ Bδ/2K . Por lo visto previamente,
se sigue que
Sk = x ∈ Rn : x = x∗ (0, x− ), x− ∈ Es ∩ Bδ/2K .
Sea g : Es ∩ Bδ/2K → Sk la aplicación definida por
Z ∞
∗
g(x− ) = x (0, x− ) = x− − e−As Qf (x∗ (s, x− ))ds.
0
||f (x∗ (s, x− )) − f (x̃∗ (s, x̃− ))|| ≤ η(δ)||x∗ (s, x− ) − x̃∗ (s, x̃− ||
≤ 2Kη(δ)||x− − x̃− ||e−σs/2 .
y
4K 3 η(δ)
||g(x− ) − g(x̃− )|| ≥ ||x− − x̃− || 1 − .
3σ
Eligiendo δ de modo que 4K 3 η(δ)/3σ < 1/2, se sigue que
1
||g(x− ) − g(x̃− )|| ≥ ||x− − x̃− ||, ∀x− , x̃− ∈ Es ∩ Bδ/2K .
2
Lo cual prueba la inyectividad de g.
Teniendo en cuenta que g−1 = P, se sigue que existe un δ > 0 tal que
g : Es ∩ Bδ/2K → Sk
Por lo tanto
Por lo tanto
Z ∞
2K 3
||Qx∗ (0, x− )|| ≤ K 2 e−σs η(2K||x− ||)2K||x− ||ds = η(2K||x− ||)||x− ||
0 σ
y
||Qx∗ (0, x− )|| 2K 3
≤ η(2K||x− ||) → 0, ||x− || → 0.
||x− || σ
Lo cual prueba que Sk es tangente a Es en x = 0.
La parte concerniente a la variedad inestable se prueba de forma análoga, excepto ob-
vias modificaciones.
126 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable
Para sistemas a coeficientes variables también tiene sentido caracterizar a los sistemas
hiperbólicos. Para ello se introduce la definición de dicotomı́a exponencial.
Consideremos la ecuación diferencial
x′ = A(t)x (6.22)
donde A(t) es una matriz real n×n, continua sobre R. Sea Φ(t) una matriz fundamental
del sistema (6.22).
Definición 6.4 Diremos que el sistema (6.22) admite una dicotomı́a exponencial sobre
R, si existen proyectores P y Q = I − P y constantes positivas σ y K tales que
donde K(t, s) = Φ(t)Φ−1 (s) es la matriz de transición del sistema (6.22) y los proyec-
tores P (t) y Q(t) vienen dados por
Es claro que de (6.25) se sigue que K(t, s)Q(s) = Q(t)K(t, s), ∀t, s ∈ R.
Definamos Es (t) = P (t)Rn y Eu (t) = Q(t)Rn . Teniendo en cuenta (6.25)-(6.26),
obtenemos que Rn = Es (t) ⊕ Eu (t), donde Es (t) y Eu (t) son las variedades estables e
inestables del sistema (6.22) en x = 0, respectivamente. De aquı́ se desprende que si
x0 ∈ Es (s), entonces x(t, x0 ) ∈ Es (t), ∀t ≥ s.
Mostremos que los espacios Es (t) y Es (s) son isomorfos para todo t, s ∈ R.
§ 6.3. Comentarios y Sugerencias 127
1 = ||ξ1 || = ||P (t)ξ1 || = ||P (t)ξ|| ≤ ||P (t)|| · ||ξ1 − ξ2 || ≤ K||ξ1 − ξ2 ||.
Por lo tanto
α(Y (t), Z(t)) 1
2sen > − ε, ∀t ∈ R.
2 K
Eligiendo ε = 1/2K, se sigue que existe una constante α∗ > 0 tal que
Lo cual implica que los subespacios P (t)Rn y P (s)Rn son isomorfos para todo t en R .
Al lector interesado en estos temas se les sugiere consultar el libro de W. A. Coppel
[5] para sistemas x′ = A(t)x en dimensión finita. Cuándo A(t) es un operador acotado
actuando sobre un espacio de Banach, consultar la excelente monografı́a de M. G. Krein
& Yu. Daleckii [10].
128 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable
2. Sea f ∈ C 1 [Rn , Rn ] y f (0). Pruebe que existe una función η : [0, ∞) → [0, ∞)
continua, creciente, η(0) = 0 tal que
Consideremos el sistema
x′ = F (x) , x ∈ D, (7.1)
donde D es un subconjunto abierto y conexo de Rn y F ∈ C 1 [D, Rn ]. Sea p una solución
ω−periódica no trivial del sistema (7.1). Denotemos por ϕ(t, x0 ) a la solución de (7.1)
tal que ϕ(0, x0 ) = x0 . El objetivo de esta sección es el estudio del comportamiento de
las soluciones de (7.1) cercanas a p(t).
Mostremos en primer lugar que el concepto de estabilidad asintótica en el sentido de
Liapunov no es adecuado para estudiar la estabilidad de una órbita periódica. En efecto,
supongamos que p(t) es asintóticamente estable en el sentido de Liapunov, entonces
existe un δ > 0 tal que si ||p(0) − x0 || < δ, entonces
Como (7.1) es un sistema autónomo, entonces la función p(t+c) también es una solución
ω−periódica de (7.1), ∀c ∈ R. Eligiendo c de modo que ||p(0) − p(c)|| < δ se sigue
Por otra parte, tomando tn = nω y teniendo en cuenta que p(t) es una solución
ω−periódica, obtenemos que
Lo cual es una contradicción, ya que limn→∞ ||p(tn ) − p(tn + c)|| = 0. Para solventar
esta situación enunciaremos un concepto de estabilidad para soluciones periódicas, el
cual es mas adecuado en este contexto.
Definición 7.1 Diremos que γ es orbitalmente estable, si dado ε > 0, existe δ > 0 tal
que si dist(x0 , γ) < δ, entonces dist(ϕ(t, x0 ), γ) < ǫ, ∀t ≥ 0.
Si la solución es orbitalmente estable y además existe un ∆ > 0 tal que
en este caso se dice que la solución p(t) es orbital asintóticamente estable. Donde dist(x, A)
es la distancia de un punto x a un conjunto A.
129
130 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos
Como p es solución de (7.1), entonces p′ (t) = F (p(t)). Derivando esta ecuación, obte-
nemos que p′ (t) es solución de la ecuación variacional
∂F
y′ = p(t) y. (7.2)
∂x
Como p es ω−periódica, entonces p′ también lo es, y ası́, un multiplicador caracterı́stico
del sistema (7.2) es igual a uno.
El siguiente teorema provee condiciones suficientes que garantizan la estabilidad
orbital asintótica de una órbita periódica. Aquı́ se utilizarán las mismas ideas de la
demostración del Teorema 2.2, p.p.323-327, que aparece en el Libro de Coddington &
Levinson [6]. Solo, que las traduciremos en términos de dicotomı́as y aclararemos el
final de la prueba en [6], la cual es confusa.
Teorema 7.1 (Estabilidad Orbital Asintótica) Sean {ρj }n1 los multiplicadores caracterı́sticos
del sistema (7.2). Supongamos que ρ1 = 1 es simple y los restantes multiplicadores |ρj | < 1
para todo j = 2 . . . , n. Entonces existe un ǫ > 0 tal que si una solución ϕ de (7.1) satisface
||ϕ(t1 ) − p(t0 )|| < ǫ para algunos t0 y t1 , existe una constante c tal que
Es decir la solución periódica es asintóticamente estable en fase y por ende orbital asintóticamente
estable.
Demostración. Asumamos que hemos trasladado y rotado las coordenadas de modo
que p(0) = 0 y p′ (0) es múltiplo del vector unitario e1 = (1, 0, 0, . . . , 0)T .
Sea x una solución arbitraria de (7.1). Denotando por z = x − p(t) obtenemos que
z es solución del sistema
∂F
z ′ = F (z + p(t)) − F (p(t)) = p(t) z + f (t, z), (7.4)
∂x
∂f ∂F ∂F
(t, z) = (z + p(t)) − (p(t)).
∂z ∂x ∂x
∂F
Como ∂x es uniformemente continua sobre subconjuntos compactos de D, se sigue que
∂f
(t, z) → 0, cuando ||z|| → 0, (7.5)
∂z
uniformemente en t. Lo cual implica que
Teniendo en cuenta el Lema 1.10, f (t, 0) = 0 y (7.5), se sigue que existe una función
continua y creciente η : [0, ∞) → [0, ∞) , η(0) = 0 tal que
||f (t, z1 ) − f (t, z2 )|| < η(δ)||z1 − z2 ||, ∀t ∈ R y ||z1 ||, ||z2 || < δ. (7.7)
Sea Φ(t) la matriz fundamental principal de (7.2). De la sección §3.5 sabemos que
Φ(t + ω) = Φ(t)Φ(ω) y que existe una matriz constante B y una matriz ω−periódica
e invertible L ∈ C 1 [R, Rn×n ] tal que Φ(t) = L(t)eBt . Los autovalores de la matriz
Φ(ω) son los multiplicadores caracterı́sticos (ρ) del sistema (7.2) y los autovalores de la
matriz B sus correspondientes exponentes caracterı́sticos (λ). Los cuales se relacionan
mediante la siguiente fórmula
1 1 arg λ 2kπ
ρ= Lnλ = ln |λ| + i +i , k ∈ Z.
ω ω ω ω
Teniendo en cuenta que el multiplicador ρ1 = 1 es simple y los restantes n − 1 mul-
tiplicadores caracterı́sticos están dentro del disco unitario, se sigue que la matriz B
tiene un autovalor λ = 0 simple y los restantes tienen parte real negativa. Razonando
de manera análoga a la demostración de la Proposición 6.1, obtenemos que existe una
matriz real e invertible M tal que
0 0
B=M M −1
0 C
Rn = Es ⊕ Ec , (7.8)
para todo x ∈ Rn .
Ahora, teniendo en cuenta que L(t) es de clase C 1 , invertible y ω−periódica, existe
una constante h > 0 tal que ||L(t)||, ||L−1 (t)|| ≤ h, ∀t ∈ R. Por lo tanto, (7.9)-(7.10)
implican que existe una constante, la cual sin pérdida de generalidad la denotaremos
por K, tal que se verifican las siguientes estimaciones
Sean δ > 0, 0 < µ < σ y x− ∈ Es ∩ Bδ/2K = {x : ||x|| < δ/2K}. Denotemos por
F(x− , δ) = φ ∈ C[[0, ∞), Rn ] : ||φ||∗ = sup eµt ||φ(t)|| ≤ δ , P φ(0) = x− .
0≤t<∞
Definamos un operador T : F(x− , δ) → C [0, ∞), Rn como sigue
Z t Z ∞
−1
T φ(t) = Φ(t)x− + Φ(t)P Φ (s)f (s, φ(s))ds − Φ(t)QΦ−1 (s)f (s, φ(s))ds.
0 t
ση(δ)K 4Kη(δ)
||T φ(t)||eµt ≤ Ke(µ−σ)t ||x− || + ||φ||∗ ≤ δ/2 + δ ≤ δ, ∀t ≥ 0.
µ(σ − µ) σ
4Kη(δ) 1
||T φ1 − T φ2 ||∗ ≤ ||φ1 − φ2 ||∗ ≤ ||φ1 − φ2 ||∗ , ∀ φ1 , φ2 ∈ F(x− , δ).
σ 2
Por lo tanto T es una contracción sobre F(x− , δ). Denotemos por φ∗ (t, x− ) al único
punto fijo de la aplicación T, el cual se representa como sigue
Z t Z ∞
∗ −1 ∗
φ (t, x− ) = Φ(t)x− + Φ(t)P Φ (s)f (s, φ (s, x− ))ds− Φ(t)QΦ−1 (s)f (s, φ∗ (s, x− ))ds
0 t
(7.13)
y verifica que
||φ∗ (t, x− )|| ≤ δe−µt , t ≥ 0. (7.14)
§ 7.1. Estabilidad Orbital 133
||φ∗ (t, x− ) − φ∗ (t, x̃− )|| ≤ 2Ke−σ/2t ||x− − x̃− ||, ∀t ≥ 0. (7.15)
||f (x∗ (s, x− )) − f (x̃∗ (s, x̃− ))|| ≤ η(δ)||x∗ (s, x− ) − x̃∗ (s, x̃− || ≤ 2Kη(δ)||x− − x̃− ||e−σs/2 .
g : Es ∩ Bδ/2K → S
Por lo tanto
Siguiendo con este procedimiento obtenemos que la solución ϕ(t) está definida para
todo t ∈ R. Lo cual nos permite asegurar que la solución ψ(t) cruza la superficie S para
algún t2 ∈ [t0 − ω/2, t0 + ω/2].
Teniendo en cuenta que z(t) = ψ(t) − p(t) es solución del sistema (7.4), debe existir
un t∗ tal que z(t∗ ) ∈ S. Lo cual implica que
F (x0 )
x0
γ
Observación 7.1 La sección transversal Σ también puede definirse como una hipersu-
perficie suave de dimensión n − 1 que pasa por el punto x0 , que no sea tangente a γ en
x0 . En este caso debe cumplirse que < F (x), n(x) >6= 0, donde n(x) es el vector normal
a Σ en x.
F (x0 )
x0
γ
136 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos
Definición 7.3 Sean γ una órbita periódica de periodo ω que pasa por x0 , Σ una sección
transversal a γ en x0 y U una vecindad de x0 , con U ⊂ Σ. La aplicación de Poincaré
P : U → Σ se define como
P (x) = ϕ(τ (x), x),
donde τ (x) es el tiempo del primer retorno del flujo ϕ(t, x) a Σ.
Por lo tanto los puntos fijos de la aplicación de Poincaré corresponden a órbitas periódicas
de (7.1).
Entonces, existe un entorno Nδ (x0 ) del punto x0 y una única función τ (x) : Nδ (x0 ) → R,
de clase C 1 tal que
δ
F (x0 )
x0
γ
Como F ∈ C 1 [D, Rn ], se sigue que las soluciones son derivables respecto de los datos
iniciales y por ende G ∈ C 1 [R × D, R]. Además, por la periodicidad de ϕ se sigue que
G(ω, x0 ) = 0.
§ 7.2. Aplicación de Poincaré. 137
x̃
γ̃ F (x0 )
γ x0
Por el teorema de la Función Implı́cita se sigue que existe un entorno Nδ (x0 ) del punto
x0 y una única función τ (x) : Nδ (x0 ) → R, de clase C 1 , tal que G(τ (x), x) = 0 para todo
x ∈ Nδ (x0 ) y τ (x0 ) = ω. Lo cual a su vez implica que ϕ(τ (x), x) ∈ Σ, ∀ x ∈ Nδ (x0 ).
x′ = H(x), (7.17)
donde H ∈ C 1 [D, R2 ], H = (H1 , H2 )T y D es un subconjunto abierto y conexo de R2 .
Tiene lugar
Lema 7.4 Si el sistema bidimensional (7.17) posee una órbita periódica γx0 , el segundo
multiplicador caracterı́stico viene dado por la siguiente expresión
Z ω
ρ2 = exp div H(ϕ(t, x0 ))ds . (7.18)
0
138 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos
Demostración. Sabemos que ϕ′ (t, x0 ) es una solución ω−periódica del sistema varia-
cional
∂H
y′ = (ϕ(t, x0 ))y. (7.19)
∂x
Sea Φ(t) la matriz fundamental principal del sistema (7.19), y sean ρ1 = 1 y ρ2 sus
multiplicadores caracterı́sticos. Por la fórmula de Viète1 y por la Fórmula de Liouville,
se obtiene que
Z ω
ρ1 · ρ2 = det Φ(ω) = exp divH(ϕ(t, x0 ))ds . (7.20)
0
Esta fórmula se obtiene del siguiente hecho. El área A del paralelogramo formado por
los vectores µ′ (s), H(µ(s)), viene dada por
A = det µ′ (s), H(µ(s)) = ||µ′ (s)||H⊥ ◦µ(s) = H⊥ ◦µ(s). (7.22)
))
(s
(µ
H⊥ ◦µ(s)
H
µ′ (s)
1
Ver Apéndice §10.1
§ 7.2. Aplicación de Poincaré. 139
En el caso que Σ es una recta horizontal {(x, y ∗ ) : x1 < x < x2 }, entonces H⊥ (q) =
H2 (q). Y en el caso que Σ es una recta vertical {(x∗ , y) : y1 < y < y2 }, entonces
H⊥ (q) = −H1 (q).
Teorema 7.5 (Teorema 8.12, p.p. 179-180 en [26]) Sea µ : I → Σ′ una parametrización
de la sección transversal Σ′ , con ||µ′ (s)|| = 1. Entonces, para cada s ∈ I,
Z !
τ (µ(s))
′ H⊥ (µ(s))
||(P ◦µ) (s)|| = exp divH(ϕ(t, µ(s))dt .
H⊥ (P (µ(s)) 0
De 7.22, obtenemos
h i
||(P ◦µ)′ (s)|| H⊥ ◦P ◦µ(s) = det (P ◦µ)′ (s), H ◦P ◦µ(s) , (7.24)
H⊥ P ◦µ(s)
(P
H
(P ◦µ)′ (s)
140 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos
Luego,
∂ϕ(τ (µ(s)), µ(s))
det (P ◦µ)′ (s), H ◦P ◦µ(s) = det µ′ (s), H ◦P ◦µ(s)
∂x
Por el Lema 7.3
∂ϕ(τ (µ(s)), µ(s)) ∂ϕ(τ (µ(s)), µ(s))
det (P ◦µ)′ (s), H ◦P ◦µ(s) = det µ′ (s), (H ◦µ(s))
∂x ∂x
∂ϕ(τ (µ(s)), µ(s))
= det · det µ′ (s), H ◦µ(s)
"Z ∂x #
τ (µ(s))
= exp (divH(ϕ(t, µ(s))dt H⊥ ◦µ(s) (7.25)
0
x′ = −y + x(1 − x2 − y 2 )(4 − x2 − y 2 )
y ′ = x + y(1 − x2 − y 2 )(4 − x2 − y 2 )
tiene dos órbitas periódicas γ1 (t) = (cos(t), sen(t))T y γ2 (t) = (2 cos(t), 2sen(t))T .
Estudie su estabilidad.
4. Considere el sistema
x′ = −y + x(1 − x2 − y 2 )
y ′ = x + y(1 − x2 − y 2 )
descrito en la pag. 84. Donde S(t) y x(t) son las densidades de las poblaciones
presa y depredador, respectivamente. γ, K, m, y, a y D0 son constantes positivas.
Demuestre que si el sistema depredador-presa tiene una órbita periódica, ella
necesariamente es orbital asintóticamente estable.
Ayuda: Ver Apéndice §10.5. (Ojo: Problema sofisticado!)
142 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos
Capı́tulo 8
En todos los resultados que hemos mencionado sobre estabilidad hemos supuesto que
tenemos una representación integral para las soluciones de la ecuación diferencial en
función de la matriz fundamental y que se conoce el comportamiento en norma de ésta.
En general ésto no tiene por qué ser ası́. Por tal razón en lo que sigue nos ocuparemos
de estudiar la estabilidad de sistemas del tipo x′ = f (t, x) donde no se supone a priori
que se tengan expresiones explı́citas para las soluciones del sistema en cuestión.
El método que emplearemos para tal estudio posee la desventaja, que precisa de la
construcción de ciertas funciones para las cuales no existen métodos analı́ticos para su
construcción y todo depende de la habilidad del usuario, aunque en muchos casos el
problema en consideración sugiere la forma de la función adecuada.
§ 8.1 Preliminares
Definición 8.1 i) Se dice que W es una función no negativa (no positiva), si W (x) ≥
0 (W (x) ≤ 0), para todo x ∈ D.
ii) Diremos que W es definida positiva (definida negativa), si W (x) > 0 (W (x) < 0)
para todo x 6= 0 y W (0) = 0.
iv) Se dice que V es definida positiva (definida negativa), si existe una función W definida
positiva tal que V (t, x) ≥ W (x) (V (t, x) ≤ −W (x)) para todo (t, x) ∈ J × D y
V (t, 0) = W (0) = 0.
Notemos que la definición iv), geométricamente significa que las superficies de nivel
V (t, x) = C, para cada t ∈ J, están contenidas en las superficies de nivel W (x) = C,
ver figura 7.1.
x2
x1
Figura 7.1
143
144 Capı́tulo 8. Método de las Funciones de Liapunov
Lema 8.1 Si W ∈ C[D, R+ 0 ] es una función definida positiva, entonces existe una cons-
tante h > 0 tal que todas las superficies de nivel W (x) = C son cerradas geométricamente
respecto de x = 0, para todo C ∈ (0, h).
Demostración. Sea BR = {x ∈ Rn : ||x|| < R}. Elijamos un R > 0 de modo que
BR ⊂ D. Pongamos α = min{W (x) : x ∈ ∂BR }. Por la continuidad y el hecho que W
es definida positiva se sigue que α > 0. Si α = 0, entonces existe un x̃ ∈ ∂BR tal que
W (x̃) = 0, x̃ 6= 0. Lo cual es una contradicción.
Sea ϕ : [t0 , t1 ] → Rn una curva continua tal que ϕ(t0 ) = 0 y ϕ(t1 ) = P ∈ ∂BR . De
ésto sigue que W (P ) ≥ α. Sea 0 < C < α. Consideremos la función ψ(t) = W (ϕ(t)),
la cual es continua para todo t ∈ [t0 , t1 ] y ψ(t0 ) = 0, ψ(t1 ) = W (P ) ≥ α. Por lo tanto,
existe un t∗ ∈ (t0 , t1 ) tal que ψ(t∗ ) = C, o bien W (P ∗ ) = C, con P ∗ = ϕ(t∗ ). Eligiendo
h = α, obtenemos el resultado deseado.
De la prueba del Lema 8.1 se desprende que la parte cerrada de la superficie de nivel
W (x) = C está totalmente contenida en la bola BR . Sin embargo, no queda excluı́da la
posibilidad que otras partes de la superficie W (x) = C estén ubicadas fuera de BR . En
efecto, consideremos la función
x21 x22
W (x) = + .
(1 + x21 )2 (1 + x22 )2
Es fácil ver que una parte de W (x) = C, se dispone cerca del origen (0, 0) y otra en
regiones alejadas del origen; ya que
x21 x22
lim 2 = 0, lim = 0.
x1 →∞ (1 + x ) 2 x2 →∞ (1 + x2 )2
1 2
Otra observación tiene relación con el hecho de que si W (x) es definida positiva, en-
tonces no necesariamente todas sus superficies de nivel son cerradas. Para ello es sufi-
x2 x2
ciente considerar W (x) = 1+x1 2 + x22 . Las curvas de nivel 1+x1 2 + x22 = C son acotadas
1 1
y cerradas si C < 1 y no cerradas para C ≥ 1, ver figura 7.2.
x2
x1
Figura 7.2
§ 8.1. Preliminares 145
−1 1 x
Figura 7.3
Lema 8.2 Supongamos que V ∈ C[J × D, R+ 0 ] es definida positiva. Entonces para toda
bola BR ⊂ D, existe una función continua a : [0, R] → R+ 0 monótona creciente, a(0) = 0
tal que
V (t, x) ≥ a(||x||), ∀(t, x) ∈ J × BR .
Demostración. Como V (t, x) es definida positiva, existe una función W definida
positiva tal que
V (t, x) ≥ W (x), ∀(t, x) ∈ J × BR .
Definamos una función C : [0, R] → R+
0 como sigue: Para cada r ∈ [0, R] ponemos
Esta función está bien definida, ya que W está acotada inferiormente. Además es fácil
verificar que :
i) C(0) = 0;
Para concluir la prueba es suficiente observar que dada una función C con las propiedades
i)-iii), siempre existe una función a ∈ C[[0, R], R+
0 ], monótona creciente, a(0) = 0, tal
que a(r) ≤ C(r), ∀r ∈ [0, R], ver [9], p. 217.
146 Capı́tulo 8. Método de las Funciones de Liapunov
Sea V ∈ C 1 [J × D, R+
0 ] y sea x una solución del sistema
Sea x(·, t0 , x0 ) : [t0 , β) → D, la única solución no prolongable de (8.1) con ||x0 || < δ.
Teniendo en cuenta ii), se sigue que
De donde sigue que V (t, x(t)) ≤ V (t0 , x0 ). Ahora, en virtud de la elección de ε, de (8.2)
y (8.3), obtenemos
Notemos que este lı́mite siempre existe, ya que V a lo largo de las soluciones de (8.1)
es monótona decreciente y acotada inferiormente.
De (8.6), sigue que existe β > 0 tal que ||x(t)|| = ||x(t, t0 , x0 )|| ≥ β, para todo
t ≥ t0 . En caso contrario, existe una sucesión (tn )n∈N , tn → ∞ y lim ||x(tn )|| = 0. Lo
n→∞
cual es una contradicción, ya que 0 = lim V (tn , x(tn )) = lim V (t, x(t)) = α > 0. Por
n→∞ t→∞
lo tanto, si α > 0, existe una constante β > 0 tal que ||x(t)|| ≥ β > 0, ∀t ≥ t0 .
Por otra parte, de ii) se tiene que existe una función W ∈ C[Rn , R+ 0 ] definida
positiva tal que
V̇ (t, x) ≤ −W (x), ∀(t, x) ∈ J × D. (8.7)
Pongamos γ = inf W (x). De (8.7), obtenemos
β≤||x||≤R
iii) Existe un t0 en J tal que para cada ε, 0 < ε < R, existe un x0 ∈ Bε , tal que
Entonces x = 0 es inestable.
Demostración. Como V̇ es definida positiva, existe una función W ∈ C[Rn , R+
0]
definida positiva tal que V̇ (t, x) ≥ W (x), ∀(t, x) ∈ J × D.
Además, de i) se tiene que para todo ε > 0, existe un δ > 0, tal que
Además de iii), se sigue que para todo δ1 , 0 < δ1 < δ, existe un x0 ∈ Bδ1 , tal que
V (t0 , x0 ) = α > 0. Denotemos por ϕ(t) = x(t, t0 , x0 ). Para probar la inestabilidad de
x = 0, es suficiente mostrar que existe un t1 > t0 tal que ||ϕ(t1 )|| > δ. Hagámoslo por
reducción al absurdo. Supongamos que ||ϕ(t)|| ≤ δ, ∀t ≥ t0 .
De i) y ii) se sigue la existencia de β > 0 tal que
V̇ (t, ϕ(t)) ≥ γ, t ≥ t0 .
A los Teoremas 8.3, 8.4 y 8.5 se les llama comúnmente primer, segundo y tercer
Teorema de Liapunov, respectivamente.
c) V̇ es negativa ∀(t, x) ∈ J × D.
Ahora, por las propiedades de a y C, para cada ε, 0 < ε < R, podemos elegir un
δ = δ(ε) > 0, δ < ε, tal que
C(δ) < a(ε). (8.12)
Consideremos (t0 , x0 ) ∈ J × Bδ . Sea x(·, t0 , x0 ) : [t0 , β) → D. Teniendo en cuenta
que V̇ es decreciente a lo largo de las soluciones de (8.1), se sigue que x(t, t0 , x0 ) ∈
Bδ , ∀t ≥ t0 . Por lo tanto, en virtud de (8.11) y (8.12), se sigue
a(||x(t, t0 , x0 )||) ≤ V (t, x(t, t0 , x0 )) ≤ V (t0 , x0 ) ≤ C(||x0 ||) ≤ C(δ) < a(ε).
Teorema 8.7 (Estabilidad Asintótica Uniforme) Supongamos que se verifican las condi-
ciones i) y ii) del Teorema 8.6, y V̇ es definida negativa ∀ (t, x) ∈ J × D. Entonces x = 0
es uniforme asintóticamente estable.
Demostración. Según el Teorema 8.6, x = 0 es uniformemente estable. Por lo tanto,
dado ε = R, existe un δ0 (R) > 0 tal que si x ∈ Bδ0 , entonces ||x(t, t0 , x0 )|| < R, ∀t ≥ t0 .
Mostremos que lim ||x(t, t0 , x0 )|| = 0, ∀x0 ∈ Bδ0 , uniforme respecto a t0 en J. De la
t→∞+
prueba del Teorema 8.6 se desprende que δ0 lo podemos elegir de forma que
Como
a(||x||) ≤ V (t, x) ≤ C(||x||), ∀(t, x) ∈ J × BR , (8.14)
se sigue que a(R) ≤ C(R). Por lo tanto, 0 < δ0 < R.
Sea η ∈ (0, δ0 ]. Elijamos γ > 0, γ < η, de modo que
Denotemos por α∗ = inf{W (x) : γ ≤ ||x|| ≤ R} donde W viene dada por (8.7).
Elijamos T (η) > C(δ0 )/α∗ . Probemos que para cada x0 ∈ Bδ0 , existe un t1 ∈ [t0 , t0 +
T (η)], tal que ||x(t1 , t0 , x0 )|| < γ.
Supongamos que existe un x∗0 ∈ Bδ0 , tal que
Contradicción . Ası́, para cada x0 ∈ Bδ0 , existe t1 ∈ [t0 , T (η) + t0 ] tal que
Ejemplo 8.1
Consideremos la ecuación de segundo orden x′′ + f (x) = 0, con f ∈ C 1 (R), f (0) = 0 y
xf (x) > 0, si x 6= 0. El sistema equivalente a tal ecuación es
(
x′1 = x2
(8.16)
x′2 = −f (x1 ).
Por hipótesis (x1 , x2 ) = (0, 0) es el único punto de equilibrio del sistema (8.16). Por otra
parte, denotando por Z x1
U (x1 ) = f (s)ds
0
la energı́a potencial del sistema (8.16), la energı́a total del sistema viene dada por
x22
V (x1 , x2 ) = + U (x1 ).
2
Mostremos que V (x1 , x2 ) es una función de Liapunov asociada al sistema (8.16). En efecto,
i) La función V (x1 , x2 ) > 0 para (x1 , x2 ) 6= (0, 0), ya que xf (x) > 0. V (0, 0) = 0 y
V ∈ C 1 [R2 , R].
Ejemplo 8.2
Consideremos el sistema (
x′1 = −x2 − x31
(8.17)
x′2 = x1 − x32 .
Definamos V (x1 , x2 ) = x21 + x22 . La función V (x1 , x2 ) es definida positiva y
Definamos V (x1 , x2 ) = x21 − x22 . V ∈ C ∞ [R2 , R], V (0, 0) = 0 y toma valores positivos en
todo entorno del origen si |x1 | ≥ |x2 |. Además,
V̇ (x1 , x2 ) =< ∇V, (x′1 , x′2 ) >= (6x21 + 4x22 ) + (2x1 x22 − 2x2 x31 ).
En la sección anterior vimos que para obtener la estabilidad asintótica de las soluciones,
se precisaba exigir que la derivada de la función de Liapunov a lo largo de las solu-
ciones del sistema fuera definida negativa. En esta sección vamos a referirnos al ası́
llamado Principio de Invariancia de La Salle. Este principio permite relajar la exigen-
cia que la derivada de la función de Liapunov sea definida negativa. Desgraciadamente
este principio solo es aplicable a sistemas autónomos y sistemas periódicos. Aquı́ solo
trataremos el caso autónomo.
Consideremos el sistema autónomo
Luego, V (y) = c0 , para todo y ∈ ω(x0 ), y por ende V̇ (y) = 0. Como ω(x0 ) es invariante
y M es el conjunto maximal invariante contenido en Ωc , se sigue que ω(x0 ) ⊂ M. Lo
cual concluye la prueba de nuestra afirmación.
Analicemos el siguiente ejemplo, el cual nos mostrará las ventajas del Principio de
Invariancia de La Salle.
Consideremos la ecuación
x′′ + x′ + f (x) = 0,
donde f ∈ C 1 , f (0) = 0 y xf (x) > 0, ∀x 6= 0. Es claro que esta ecuación es equivalente
al siguiente sistema (
x′1 = x2
(8.20)
x′2 = −f (x1 ) − x2 .
Elijamos como función de Liapunov
Z x1
x2
V (x1 , x2 ) = 2 + f (s)ds.
2 0
De las hipótesis impuestas a la función f se sigue que V es definida positiva. Derivando
V a lo largo de las soluciones del sistema (8.20), obtenemos
V̇ (x1 , x2 ) = −x22 ≤ 0.
Ası́, los Teoremas de estabilidad de la sección §8.2 solo nos aseguran que la solución
trivial es estable. Sin embargo al aplicar el Principio de Invariancia, obtenemos que
la solución trivial es global asintóticamente estable. Es fácil chequear que todas las
condiciones del Teorema 8.8 se satisfacen.
§ 8.4. Funciones de Liapunov para Sistemas Lineales 153
Sea W (x) =< x, Cx >, C ∈ Rn×n simétrica y definida positiva. Ası́, la igualdad
V̇ (x) = −W (x),
es posible si y sólo si
AT B + BA = −C. (8.22)
La siguiente proposición da condiciones suficientes para que la ecuación (8.22) posea
soluciones.
Proposición 8.9 Si A es una matriz con todos sus autovalores con parte real negativa,
entonces la ecuación (8.22) tiene una única solución, la cual viene dada por
Z ∞
T
B= eA t CeAt dt .
0
Como los autovalores de la matriz A tienen todos partes real negativa, se sigue que
lim Z(t) = 0.
t→∞
Proposición 8.10 Toda forma cuadrática V (x) =< x, Bx > satisface las siguientes
desigualdades
i) λ1 ||x||2 ≤ V (x) ≤ λ2 ||x||2 ,
Además
||y||2 =< y, y >=< U x, U x >= ||x||2 .
Lo cual prueba i).
Por otra parte, se tiene que
donde q
||B|| = λmax (B T B) = λmax (B) = λ2 .
En efecto, se tiene que
< B T Bx, x >=< Bx, Bx >= ||Bx||2 .
p p
Por lo tanto ||Bx|| = < B T Bx, x >. De donde se sigue que ||B|| = λmax (B T B).
AT B + BA = −C (8.24)
F : Rn×n → Rn×n
como sigue
F (B) = AT B + BA.
Los autovalores de F son reales ya que F (B) es simétrica. En efecto,
A fin de demostrar que (8.24) tiene solución, es suficiente ver que F es invertible. Lo
cual es equivalente a mostrar que ningún autovalor de F es nulo ya que
Sea µ cualquier autovalor de F (B) y sea B 6= 0 tal que F (B) = µB, o bien lo que es lo
mismo
AT B + BA = µB.
Lo cual implica que
(AT − µI)B = −BA.
Eligiendo A1 = AT − µI, B1 = B 6= 0 y C1 = −A y aplicando la Proposición 8.12, se
sigue que (AT − µI) y (−A) poseen un autovalor común. Teniendo en cuenta esto y el
hecho que los autovalores de AT − µI son λi − µ y los de −A son −λk obtenemos que
µ = λi + λk 6= 0.
1. Sea A ∈ C[J, Rn×n ] con J = [t0 , ∞) y A(t) = A(t)T . Denotemos por λ+ (t) =
max{λ : λ ∈ σ(A(t))}. Pruebe que si existe h > 0 tal que λ+ (t) ≤ −h, para
todo t ≥ t0 , entonces la solución trivial del sistema y ′ = A(t)y es uniformemente
asintóticamente estable.
Indicación: Use como función de Liapunov V (y) =< y, y > .
x′ = y,
y ′ = −h(x) − f (x)y.
x′ = y − xf (x, y),
y ′ = −x − yf (x, y).
Pruebe que:
i) Si f (x, y) ≥ 0, ∀(x, y) ∈ R2 , entonces la solución trivial es estable.
ii) Si f (x, y) ≤ 0, ∀(x, y) ∈ R2 , entonces la solución trivial es inestable.
x′1 = x2
x′2 = x3 − ax2
x′3 = cx1 − F (x2 ),
Indicación:
R x2 Defina una función de Liapunov como una forma cuadrática más
0 F (s)ds.
160 Capı́tulo 8. Método de las Funciones de Liapunov
Capı́tulo 9
161
162 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones
µ = x2
Mostremos que en µ = 0 ocurre una bifurcación. Sean µ1 < 0 < µ2 y supongamos que
existe un homeomorfismo h : R → R tal que
φt (h(x), µ1 ) = h(φt (x, µ2 )), ∀x ∈ R, (9.5)
donde φt (x, µ) es el flujo inducido por la ecuación (9.4). De (9.5) se sigue que
φt (h(x1 ), µ1 ) = h(φt (x1 , µ2 ) = h(x1 ).
Es decir h(x1 ) es un punto fijo del flujo para µ1 < 0. Lo cual es una contradicción.
A este tipo de bifurcación se le denomina bifurcación silla-nodo. Ahora buscaremos
condiciones suficientes para que ocurra este tipo de bifurcación. Tiene lugar el siguiente
ya que
∂f ∂2f
(0, 0) 6= 0 , (0, 0) 6= 0 y µ′ (0) = 0.
∂µ ∂x2
Por lo tanto la función µ(x) es una función convexa ó cóncava en un entorno de x = 0.
Lo cual prueba nuestra afirmación.
x′ = µx − x2 = x(µ − x) (9.9)
µ=x
D
A C µ
E
B
Es obvio que la ecuación (9.9) posee dos familias de puntos de equilibrio, a saber (0, µ)
y (µ, µ). Notemos que en µ = 0 la estabilidad de los puntos de equilibrio cambia. A
este tipo de bifurcación se le denomina bifurcación transcrı́tica.
164 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones
x′ = f (x, µ) (9.10)
donde f ∈ C 3 [R × R, R].
Supongamos que existe un ∆ > 0 tal que f (0, µ) = 0, ∀µ ∈ (−∆, ∆) y
∂f ∂f ∂2f ∂2f
(0, 0) = 0 , (0, 0) = 0 , (0, 0) 6= 0 , (0, 0) 6= 0.
∂x ∂µ ∂x∂µ ∂x2
Entonces en µ = 0 ocurre una bifurcación transcrı́tica .
Demostración. Consideremos la siguiente función auxiliar
f (x, µ)
, si x 6= 0,
x
F (x, µ) = (9.11)
∂f (0, µ), si x = 0.
∂x
Es claro que F ∈ C 2 . Además F (0, 0) = 0 y
∂F ∂2f
(0, 0) = (0, 0) 6= 0.
∂µ ∂µ∂x
Por el teorema de la función implı́cita se sigue que existe un δ > 0 y una única función
µ ∈ C 2 [(−δ, δ), R], µ(0) = 0 y
Por lo tanto la curva µ(x) en el plano (x, µ) cruza en cero desde el tercer cuadrante
e ingresa en el primer cuadrante o cruza en cero desde el segundo cuadrante e ingresa
en el cuarto cuadrante. Teniendo en cuenta este comportamiento de la gráfica de la
función µ(x) y el hecho que la función f (x, µ) en un entorno del punto (0, 0) se puede
representar como sigue
x′ = µx − x3 = x(µ − x2 ) (9.13)
µ = x2
A C µ
x′ = f (x, µ) (9.14)
∂F ∂2f
F (0, 0) = , (0, 0) = (0, 0) 6= 0.
∂µ ∂µ∂x
166 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones
Por el teorema de la función implı́cita se sigue que existe un δ > 0 y una única función
µ ∈ C 2 [(−δ, δ), R], µ(0) = 0 y
De donde se infiere que la función µ(x) pasa por cero y es cóncava o convexa.
§ 9.4. Bifurcación de Andronov-Hopf 167
con F ∈ C 2 [R2 × R, R2 ].
Lema 9.4 Supongamos que F (0, 0) = 0 y que Fv (0, 0) tiene un par de autovalores puros
imaginarios. Entonces el sistema (9.19) se reduce al sistema
donde A(0) es una matriz 2 × 2 que tiene un par de autovalores puros imaginarios. Además
existe un µ0 > 0 tal que f (0, µ) = 0 para todo µ ∈ (−µ0 , µ0 ) y ∂f
∂u (0, µ) = 0 para todo
µ ∈ (−µ0 , µ0 ).
Demostración. Consideremos la ecuación F (v, µ) = 0. Teniendo en cuenta que
F (0, 0) = 0 y ∂F∂v (0, 0) es invertible, el Teorema de la Función Implı́cita implica que
existe un µ0 > 0 y una función vµ de clase C 2 tal que F (vµ , µ) = 0 , para todo
µ ∈ (−µ0 , µ0 ). Ahora, realicemos la transformación u = v − vµ en (9.19). Ası́, obtene-
mos que
u′ (t) = v ′ (t) = F (v, µ) = F (u + vµ , µ) = g(u, µ).
Es fácil ver que
u′ (t) = A(µ)u + f (u, µ),
∂g
donde f (u, µ) = g(u, µ) − A(µ)u y A(µ) = ∂u (0, µ) .
Ası́, hemos mostrado que para nuestros efectos, es suficiente considerar directamente
el sistema (9.20).
168 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones
1. Los autovalores de A(µ) son λ(µ) = β(µ) ± iν(µ) y se verifica que β(0) = 0,
ν(0) > 0 y β ′ (0) 6= 0.
cuando |a| → 0 . Además, para |µ| < µ0 , |ω − 2π| < δ0 , cualquier solución ω−periódica de
(9.20) con |u(t)| < δ0 viene dada por (9.21) excepto traslaciones de fase.
El Teorema 9.5 tiene lugar bajo condiciones razonablemente simples, pero no da infor-
mación sobre la estabilidad de la solución periódica que emerge de la bifurcación. En
este trabajo nosotros supondremos adicionalmente que la función f es al menos de clase
C 4 y desarrollaremos una prueba que es constructiva. Seguiremos la exposición de S.
Wiggins en [35] p.p.220-224 , 270-278. El enfoque que hemos seleccionado para probar
el Teorema de la Bifurcación de Hopf, además de proporcionar la existencia de la órbita
periódica, nos permitirá decidir sobre su estabilidad y la dirección de la bifurcación. Es
decir, determinar cuando la bifurcación es supercrı́tica o subcrı́tica.
Notemos que las soluciones periódicas que emergen de la bifurcación de Hopf son
soluciones de amplitud pequeña. Esto se ve claramente observando que (9.21) tiene
lugar cuando |a| → 0 .
o bien
z′ e2πθiµ 0 z F 1 (z, z; µ)
= |λ| + ,
z′ 0 e−2πθiµ z F 2 (z, z; µ)
donde F 1 y F 2 vienen dadas por las siguientes expresiones
F 1 (z, z; µ) = f1 (x(z, z), y(z, z); µ) + if2 (x(z, z), y(z, z); µ) ,
F 2 (z, z; µ) = f1 (x(z, z), y(z, z); µ) − if2 (x(z, z), y(z, z); µ) .
Teniendo en cuenta que la segunda componente del sistema anterior es la conjugada de
la primera ecuación, todo lo que tenemos que hacer es trabajar con el sistema siguiente
z ′ = |λ|e2πθi z + F 1 (z, z; µ) . (9.23)
Ahora, desarrollando F 1 (z, z; µ) en una serie de Taylor, obtenemos que
1 1 1 ∂F 1 ∂F 1
F (z, z; µ) = F (0, 0; µ) + (0, 0; µ)z + (0, 0; µ)z +
1! ∂z ∂z
1 ∂2F 1 2 ∂2F 1 ∂2F 1 2
z +2 zz + z + ··· .
2! ∂z 2 ∂z∂z ∂z 2
170 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones
1 ∂ 2 F2 2 ∂ 2 F2
F2 (z + h2 , z + h2 ) = (0, 0, µ)(z + h2 ) + (z + h2 )(z + h2 ) +
2 ∂z 2 ∂z∂z
1 ∂ 2 F2
(0, 0, µ)(z + h2 )2 .
2 ∂z 2
Ası́, se sigue
∂h2 ∂h2 ′
z ′ (1 + )+ z = λz + λh2 + F2 (z, z) + O(3) .
∂z ∂z
De la igualdad anterior obtenemos que
∂h2 −1 h ∂h2 ′ i
z ′ = (1 + ) λz + λh2 − z + F2 + O(3)
∂z ∂z
z ′ = λz + F 2 + O(3) . (9.27)
La transformación
∂h2 ∂h2
h2 → λh2 − λ z+λ z (9.31)
∂z ∂z
es una aplicación del espacio de los monomios en z y z en si mismo. Denotemos este
espacio por H2 . F2 puede ser interpretado como un elemento de este espacio. Luego, la
resolución de la ecuación (9.30) resulta ser un problema de álgebra lineal. Ası́, tenemos
que
H2 = span {z 2 , zz, z 2 } . (9.32)
Calculando la acción de la aplicación lineal (9.31) sobre cada uno de estos elementos
de la base, obtenemos que
∂ ∂
T z 2 = λz 2 − λ( z 2 )z + λ( z 2 )z = −λz 2 ,
∂z ∂z
∂zz ∂zz
T zz = λzz − λ( )z + λ( )z = −λzz ,
∂z ∂z
2 2 ∂z 2 ∂ 2
T z = λz − λ( )z + λ( z )z = (λ − 2λ)z 2 .
∂z ∂z
Ası́, (9.31) es diagonal en esta base y cuya representación matricial viene dada por
−λ(µ) 0 0
0 −λ(µ) 0 . (9.33)
0 0 λ(µ) − 2λ(µ)
Para µ = 0, se tiene que λ(0) 6= 0. Por lo tanto para µ suficientemente pequeño λ(µ) 6= 0
y λ(µ) − 2λ(µ) 6= 0 . Por lo tanto la matriz (9.33) es no singular para µ suficientemente
pequeño y por ende podemos eliminar todos los términos de segundo orden de (9.24),
para esos valores de µ .
z ′ = λz + F3 + O(4) . (9.34)
∂h3 ′ ∂h3 ′
z′ + z + z = λz + λh3 (z, z) + F3 (z, z) + O(4).
∂z ∂z
o bien
∂h3 −1 ∂h3 ′
z ′ = (1 + ) [λz + λh3 + F3 (z, z) − z + O(4)] .
∂z ∂z
Luego, teniendo en cuenta que
∂h3 −1 ∂h3 ∂ 2 h3 ∂ 3 h3
(1 + ) =1− + − + O(3) ,
∂z ∂z ∂z 2 ∂z 3
172 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones
∂h3 ∂h3
z ′ = λz − λz − λz + F3 (z, z) + λh3 + O(4) .
∂z ∂z
Podemos eliminar todos los términos de orden tres, sı́
∂h3 ∂h3
λh3 − λ z−λ z + F3 = 0 . (9.35)
∂z ∂z
∂ 3 ∂
T z 3 = λz 3 − λ( z )z − λ( z 3 )z = −2λz 3
∂z ∂z
∂ ∂
T z 2 z = λz 2 z − λ( z 2 z)z − λ( z 2 z)z = −(λ + λ)z 2 z
∂z ∂z
∂ ∂
T zz 2 = λzz 2 − λ( zz 2 )z − λ( zz 2 )z = −2λzz 2
∂z ∂z
∂ 3 ∂ 3
T z = λz − λ( z )z − λ( z )z = (λ − 3λ)z 3
3 3
(9.37)
∂z ∂z
Luego, la representación matricial para (9.36) viene dada por
−2λ(µ) 0 0 0
∂F 0 −(λ(µ) + λ(µ)) 0 0
=
.
(9.38)
∂H3 0 0 −2λ(µ) 0
0 0 0 λ(µ) − 3λ(µ)
Ahora, para µ = 0 ,
λ(0) + λ(0) = 0 ; (9.39)
sin embargo ninguna de las restantes columnas en (9.38) son identicamente cero en
µ = 0 . Por lo tanto, para µ suficientemente pequeño, los términos de tercer orden que
no sean de la forma
z2z (9.40)
pueden ser eliminados.
Luego, la forma normal hasta los términos de orden tres viene dada por
Ahora, nosotros simplificamos los términos de orden cuatro. Sin embargo, notemos
que, en cada orden, la simplificación depende de la ecuación
∂h ∂h
λh − (λz + λz ) = 0 (9.42)
∂z ∂z
para algún h = z n z m , donde m + n es el orden de los términos que nosotros queremos
simplificar. Sustituyendo ésto en la ecuación (9.42), obtenemos
λz n z m − (nλz n z m + mλz n z m ) = 0, (9.43)
n m
(λ − nλ − mλ)z z = 0, (9.44)
con µ = 0, λ = −λ. Por lo tanto no deberı́amos tener
1+m−n=0 . (9.45)
Es fácil ver que ésto nunca sucede, si m y n son números pares. Por la tanto, todos los
términos de orden par pueden ser removidos y la forma normal viene dada por
z ′ = λz + c(µ)z 2 z + O(5) (9.46)
para µ en un entorno de µ = 0 .
Sean
z = (x, y) , λ(µ) = α(µ) + iω(µ) , c(µ) = a(µ) + i b(µ).
Ası́, la forma normal viene dada por
x′ = αx − ωy + (ax − by)(x2 + y 2 ) + O(5)
(9.47)
y ′ = ωx + αy + (bx + ay)(x2 + y 2 ) + O(5)
Es fácil ver que en coordenadas polares (9.47) es equivalente al sistema
r ′ = α(µ)r + a(µ)r 3 + O(4) ,
(9.48)
θ ′ = ω(µ) + b(µ)r 2 + O(3) .
Al sistema (9.47) o equivalentemente (9.48) se le conoce como la forma normal del
campo vectorial, cuando la parte lineal posee dos autovalores puros imaginarios para
algún valor del parámetro.
• Estudio de (9.49) obviando los términos de orden superior; es decir, estudio del
sistema truncado inducido por (9.49).
• Mostrar que la dinámica del sistema truncado es heredada por el sistema original.
Paso 1
Despreciando los términos de orden superior en (9.49), obtenemos que el sistema trun-
cado viene dado por
r ′ = dµr + ar 3 ,
(9.50)
θ ′ = ω + cµ + br 2 ,
donde los coeficientes de (9.50) vienen definidos por
Ası́, hemos encontrado que bajo las hipótesis del Teorema de Andronov- Hopf, el sis-
tema (9.50) posee soluciones periódicas. Ahora, nos centraremos en el problema de la
estabilidad de la solución periódica.
Por lo tanto
p
i) Si a > 0, P ′ −µd/a > 1, y la órbita periódica es repulsora.
p
ii) Si a < 0, P ′ −µd/a < 1, y la solución periódica es atractora.
Como r > 0, la expresión (9.52) con α = r0 determina a la única solución periódica del
sistema (9.52). Por lo tanto, para µ 6= 0, (9.50) posee una única órbita periódica con
√
amplitud O( µ). Respecto a la estabilidad de la órbita periódica y si ésta existe o no
para µ > 0 ó µ < 0, de (9.52), es fácil ver que se presentan solo cuatro posibilidades.
Nosotros examinaremos cada caso por separado.
176 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones
Caso 3 d < 0, a > 0. En este caso el origen es un punto de equilibrio inestable para
µ < 0 y un punto de equilibrio asintóticamente estable para µ > 0, con una órbita
periódica inestable para µ > 0, ver figura 9.6 .
Notemos que los casos 2 y 4 corresponden a una bifurcación súper-crı́tica y los casos 1
y 3 a una bifurcación subcrı́tica.
Hasta el momento, hemos hecho un análisis bastante completo de la estructura de
órbitas del sistema truncado alrededor del punto (r, µ) = (0, 0). Ahora vamos a proceder
con la etapa número 2 del análisis de la forma normal (9.49). Más concretamente vamos
a mostrar que la dinámica del sistema truncado se preserva para el sistema (9.49).
Tiene lugar el siguiente
r1 r2
x
La región anular A es positivamente invariante bajo el flujo inducido por (9.50). Esto
se desprende del hecho que el campo vectorial de (9.50) apunta hacia el interior de
A, ver figura 9.8 . También, es fácil verificar que A no contiene puntos de equilibrio.
Luego, por el Teorema de Poincaré-Bendixson, A contiene una órbita periódica orbital-
asintóticamente estable.
Consideremos ahora (9.49). Tomando µ y r suficientemente pequeños, los términos
O(µ2 r, µr 3 , r 5 ) se pueden hacer tan pequeños como se desee. Por lo tanto, tomando
r1 y r2 suficientemente pequeños, A aún es una región positivamente invariante que no
§ 9.5. Cálculo del Valor de “a” 179
donde todas las derivadas parciales estan evaluadas en el punto (u, µ) = (0, 0). Y
f (u, 0) = (f1 , f2 )T . Esta fórmula está en [35], p.277, (3.1.107).
Como dijimos anteriormente el cálculo de “a” en (9.54) involucra el conocimiento
preciso de la forma normal (9.53). El siguiente razonamiento nos permitirá evitar ese
cálculo “monstruoso”.
Supongamos que tenemos un sistema bidimensional uniparamétrico
d X F (X, Y, p)
= , (9.55)
dt Y G(X, Y, p)
donde
u X − X0
= . (9.59)
v Y − Y0
La suposición que J0 tiene un par de autovalores conjugados imaginarios nos da
∂F/∂X ∂F/∂Y
D −B
J0 = = , (9.60)
C −D
∂G/∂X ∂G/∂Y (X ,Y ;p ) 0 0 0
donde
BC − D 2 = ω 2 , y ω>0. (9.61)
Si el autovector por la derecha de la matriz J0 correspondiente al autovalor iω , se
escribe como h + ik, donde h y k son vectores reales, y si la matriz P viene dada por
P = (k, h) , (9.62)
Ası́ ,
C/ω −D/ω
P −1 = , (9.65)
0 1
y un cálculo sencillo nos conduce a (9.63).
Por medio de la transformación
u x x ω/C + y D/C
=P = , (9.66)
v y y
Por lo tanto, podemos usar la regla de la cadena para calcular todas las derivadas en
(9.54). Notemos que las derivadas de segundo y tercer orden de F y G en el punto
(X, Y ; p) = (X0 , Y0 ; p0 ) son las mismas de M y N en (u, v) = (0, 0). La expansión
da una docena de términos, pero usando (9.61) y reordenando los términos, obtenemos
3 3
1 ∂ F ∂3G ∂ F ∂3G
A = 16a = B + + 2D + +
ω2C ∂X 3 ∂X 2 ∂Y ∂X 2 ∂Y ∂X∂Y 2
3
∂ F ∂3G
C + ω2 +
∂X∂Y 2 ∂Y 3
∂2F ∂2F ∂2F ∂2F ∂2F
D +C B + 2D +C −
∂X 2 ∂X∂Y ∂X 2 ∂X∂Y ∂Y 2
∂2G ∂2G ∂2G ∂2G ∂2G
D + B B + 2D + C −
∂Y 2 ∂X∂Y ∂X 2 ∂X∂Y ∂Y 2
2 2
2
2∂ F ∂ G ∂ F ∂2G ∂2F ∂2G
B − DB + +
∂X 2 ∂X 2 ∂X∂Y ∂X 2 ∂X 2 ∂X∂Y
2 2
2
2∂ F ∂ G ∂ F ∂2G ∂2F ∂2G
C + DC + , (9.68)
∂Y 2 ∂Y 2 ∂X∂Y ∂Y 2 ∂Y 2 ∂X∂Y
donde
∂F ∂G ∂F ∂G
D= =− , B=− , C= , ω 2 = BC − D2 , (9.69)
∂X ∂Y ∂Y ∂X
182 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones
Apéndices
Consideremos el polinomio
Pn (z) = a0 z n + a1 z n−1 + a2 z n−2 + · · · + an−1 z + an .
Sean λi , i = 1, · · · , n sus raı́ces. Entonces se verifican las siguientes igualdades
a1
Σni=1 λi = −
a0
a2
Σni6=j=1 λi λj = +
a0
n a2
Σi6=j=16=k λi λj λk = −
a0
······ ······
an
λ1 λ2 · · · λn−1 λn = (−1)n ,
a0
las cuales se obtienen de observar que
h
Pn (z) = a0 z n − Σni=1 λi z n−1 + Σni6=j=1 λi λj z n−2 − Σni6=j=16=k λi λj λk z n−3 + · · · +
i
(−1)n λ1 λ2 · · · λn−1 λn .
Proposición 10.1 El sistema (10.1) tiene al menos una solución si y solo si b ⊥ y, donde
AT y = 0.
Nuestra afirmación es consecuencia directa del siguiente Lema, ya que de él se deduce
que R(A) = [N(AT )]⊥ .
Lema 10.2 Sea A una matriz n × n. Entonces [R(A)]⊥ = N(AT ), donde R(A) y N (A)
denotan el rango y el núcleo de una matriz respectivamente.
Demostración. Sea y ∈ [R(A)]⊥ . Entonces para todo x ∈ Rn se tiene que hAx, yi = 0,
lo cual implica que hx, AT yi = 0. Ası́ AT y = 0, lo que muestra que y ∈ N(AT ).
Supongamos ahora que y ∈ N(AT ). Entonces hx, AT yi = 0. De donde obtenemos que
hAx, yi = 0. Lo cual implica que y ∈ [R(A)]⊥ .
183
184 Capı́tulo 10. Apéndices
Lema 10.3 (Barbalat) Sea f : [0, ∞) → R una función diferenciable tal que
1. limt→∞ f (t) = L.
2. f ′ es una función uniformemente continua sobre [0, ∞). Entonces
lim f ′ (t) = 0.
t→∞
Demostración. Como f ′ es una función uniformemente continua sobre [0, ∞), dado
ε > 0, existe δ = δ(ε) > 0, tal que
|f ′ (t) − f ′ (s)| < ε/2, si |t − s| < δ.
Sea {tn }n∈N una sucesión construida de modo que tn ∈ (nδ, (n + 1)δ) y
f ((n + 1)δ) − f (nδ) = δf ′ (tn ).
Teniendo en cuenta que limt→∞ f (t) = L, se sigue que limn→∞ f ′ (tn ) = 0. Por lo tanto,
existe un n0 tal que
|f ′ (tn )| < ε/2, ∀n ≥ n0 .
Sean t, tN > n0 δ y |t − tN | < δ. Luego,
|f ′ (t)| ≤ |f ′ (t) − f ′ (tN )| + |f ′ (tN )| < ε.
Lo cual prueba que limt→∞ f ′ (t) = 0.
limt→∞ ψ(t) = 0.
Demostración. Integrando (10.2), se tiene
Z t Z ∞
0≤b ψ(s)ds ≤ c ω(s)ds + ϕ(a) − ϕ(t).
a a
1
R ∞ se sigue que ψ ∈ L .
Teniendo en cuentaR que ϕ es una función acotada inferiormente,
t
Definamos f (t) = a ψ(s)ds. Es claro que limt→∞ f (t) = a ψ(s)ds < ∞. Además,
como f ′ (t) = ψ(t) y ψ ′ es acotada, se sigue que ψ es uniformemente continua. El
Lema de Barbalat implica que f ′ (t) → 0 cuando t → ∞. Lo cual a su vez implica que
ψ(t) → 0 cuando t → ∞.
§ 10.4. Teorema de Hurwitz 185
Teorema 10.7 (Teorema de Hurwitz) Sea (fn )n∈N una sucesión de funciones analı́ticas
definidas sobre Ω, la cual converge uniformemente sobre compactos contenidos en Ω a una
función f (z) no idénticamente igual a cero.
Entonces dada una curva cerrada de Jordan γ contenida en Ω que no contenga ceros de
f , existe un n0 > 0 tal que fn y f tienen la misma cantidad de ceros en la región acotada
por γ, para todo n ≥ n0 .
Demostración. Pongamos µ = min{|f (z)| : z ∈ γ}. Como γ no contiene ceros y γ es
compacto, se sigue que µ > 0.
Teniendo en cuenta la convergencia uniforme sobre compactos de la sucesión fn ,
debe existir un n0 tal que
[2] Ahlfors, Lars V., Complex Analysis: An Introduction to teh theory of analytic
functions of one complex variable. McGraw-Hill, Second Edition. 1966.
[3] Alekseev, V.M. An estimate for the perturbations of the solutions of ordinary
differential equations (Russian). Vestnik Moscow Univ. Ser. I Mat. Meh. No 2,
p.p. 28-36, 1961.
[4] Courant, Robbins What is the Mathematics. Oxford Univ. Press. 1941.
[5] Coppel W.A. Dichotomies in Stability Theory. Lect. Notes in Math. V.629,
Springer Verlag, 1978.
[7] Cheng, Kuo-Shung. Uniqueness of a limit cycle for a predator-prey system. SIAM
J. Math. Anal. Vol. 12, No 4, July 1981.
[9] Driver, R.D. Ordinary and Delay Differential Equation. App. Math. Sc. vol.20,
Springer-Verlag, 1977.
[10] Daleckii, Ju, Krein, M.G. Stability of Solutions of Differential Equations in Banach
Spaces. Trans. A.M.S., vol. 43, 1974.
[11] Dieudonné, J. Abrégé d’histoire des Mathématiques 1770-1900, Vol. II, Herman,
1978.
195
196 Bibliografı́a
[14] Hönig, Ch. S. Aplicações de Topologia à análise. IMPA, Projeto Euclide, Rio-
Janeiro, 1976.
[19] Liu W., Levin S.A., Iwaza Y. Influence of nonlinear incidence rates upon the
behavior of SIRS epidemiological models. J. Math. Biol.(1986) 23, 187-204.
[20] Lizana, Cristina. Cotas Inferiores para la dimensión de Hausdorff del atractor
geométrico de Lorenz. Tesis de Maestrı́a, bajo la dirección del Prof. Leonardo
Mora, Departamento de Matemáticas, Facultad de Ciencias, ULA. Enero de 2006.
[22] Milnor, J. Analytic Proofs of the Hairy ball theorem and the Brouwer fixed point
theorem. Am. Math. Monthly, vol. 85, p.p.521-524, 1978.
[24] Palis J., Del Melo, W. Introdução aos Sistemas Dinâmicos. Projeto Euclides, Rio
Janeiro, 1977.
[25] Perko, L. Differential equations and dynamical systems. Springer Verlag, Texts in
App. Math. 7, 1991.
[26] Robinson, C. Dynamical systems. Stability, symbolic dynamics, and chaos. CRC
Press, 1999.
[29] Rogers, C. A Less Stronge Version of Minor’s proof of Brouwer’s Fixed Point
Theorem. Am. Math. Monthly, vol. 87, p.p.525-5227, 1980.
[31] Siljak, D.D. Large Scale Dynamic Systems. Stability and Structure. North- Hol-
land, 1978.
[33] Tineo, A., Topologı́a de Espacios Métricos. Kari’ña Editores. ULA, Mérida-
Venezuela, 1995.
[35] Wiggins, S. Introduction to applied nonlinear dynamical systems and chaos. Texts
in App. Math. 2, Springer Verlag, 1990.
[36] Yoshizawa, T. Stability Theory and the Existence of Periodic Solutions and Almost
Periodic Solutions. App. Math. Sc. vol.14, Springer- Verlag, 1975.
Indice Alfabético
Bifurcación Ecuación
Cuchillo-Tenedor, 163 de Van der Pol, 39
de Andronov-Hopf, 165 del péndulo simple, 39
Silla-Nodo, 160 Logı́stica, 68
Transcrı́tica, 161 Estabilidad
Exponencial asintóticamente estable,
Centro, 76 104
Condición Orbital, 127
de Caratheodory, 36 Uniforme asintóticamente estable, 104
Condición Exponentes Caracterı́sticos, 128
de Lipschitz, 8 Exponentes Caracterı́sticos, 51
Conjunto
α lı́mite, 65 Fórmula
ω lı́mite, 65 de variación de parámetros, 46
Invariante, 65 de Alekseev, 33
Minimal, 67 Fórmulas de Viète, 181
Negativamente Invariante, 65 Foco, 76
Positivamente Invariante, 65 Formas Normales, 166
Contracción, 7 Función
Contracción Uniforme, 8 Definida negativa, 141
Criterio Definida positiva, 141
de Dulac, 71 No negativa, 141
de Bendixson, 71 No positiva, 141
de Routh, 101
de Routh-Hurwitz, 99 Invariancia, 60
Definición Lema
Estabilidad, 89 de Arzela-Ascoli, 7
Estabilidad Asintótica, 89 de Barbalat, 182
Dependencia Continua de las Soluciones
de los Datos Iniciales, 24 Matriz
198
Indice Alfabético 199
de Green, 53 de Caratheodory, 37
de Monodromı́a, 51 de Hurwitz, 183
de transición (Operador de Evolución), de Rouché, 182
44 Dependencia Continua de los Datos
Fundamental, 44 Iniciales, 26
Fundamental Principal, 44 Dependencia Continua Respecto a
Modelo Parámetros, 30
de Lorenz, 81 Eruguin, 48
Depredador-Presa, 83 Estabilidad Asintótica Uniforme vı́a
Lotka-Volterra, 80 Funciones de Liapunov, 147
Multiplicadores Caracterı́sticos, 128 Estabilidad Asintótica para Sistema
Multiplicadores Caracterı́sticos, 51 Lineales a Coeficientes constantes
vı́a funciones de Liapunov, 153
Nodo, 74 Estabilidad Asintótica vı́a Funciones
de Liapunov, 145
Orbita, 62
Estabilidad Orbital Asintótica, 128
Polinomio de Hurwitz, 96 Estabilidad Uniforme vı́a Funciones
Principio de Invariancia de La Salle, 150 de Liapunov, 146
Punto Estabilidad vı́a Funciones de Lia-
de Equilibrio, 62 punov, 144
Fijo, 7 Existencia de la Aplicación de Poincaré,
Hiperbólico, 113 134
Regular, 70 Existencia de puntos de equilibrio,
Tipo Silla, 73 69
Existencia y Unicidad de Soluciones
Sección transversal, 133 no Prolongables, 21
Sistema Existencia y Unicidad Global, 22
Conjugado, 47 Existencia y Unicidad Local, 17
Conservativo, 77 Floquet, 49
Hamiltoniano, 77 Hartman-Grobman, 118
Hipérbolico, 113 Inestabilidad vı́a Funciones de Lia-
Lineal Homogéneo, 43 punov, 146
Lineal homogéneo a coeficientes periódicos, Massera, 56
49 Peano-Existencia, 18
Lineal no-homogéneo, 46 Perron, 107
Lineal no-homogéneo a coeficientes Poincaré-Bendixson, 70
periódicos, 52 Primera Aproximación, 107
Reducible, 47 Punto fijo de Banach, 7
Superficie cerrada geométricamente, 142 Punto fijo de Brouwer, 8
Punto fijo de Schauder, 8
Teorema Unicidad de órbitas, 62
de Liouville, 44
Clasificación de órbitas, 64 Variedad
de Andronov-Hopf, 166 Estable, 113
200 Indice Alfabético
Wronskiano, 44