0% encontró este documento útil (0 votos)
260 vistas200 páginas

Lizana Libro

Este documento presenta una introducción a la teoría cualitativa de ecuaciones diferenciales ordinarias. Incluye secciones sobre teoría general, sistemas lineales, sistemas autónomos, estabilidad según Liapunov, sistemas hiperbólicos, estabilidad de soluciones periódicas y el método de las funciones de Liapunov. El documento proporciona definiciones, teoremas y ejemplos para cada uno de estos temas fundamentales de la teoría de ecuaciones diferenciales.

Cargado por

jesusdark44
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
260 vistas200 páginas

Lizana Libro

Este documento presenta una introducción a la teoría cualitativa de ecuaciones diferenciales ordinarias. Incluye secciones sobre teoría general, sistemas lineales, sistemas autónomos, estabilidad según Liapunov, sistemas hiperbólicos, estabilidad de soluciones periódicas y el método de las funciones de Liapunov. El documento proporciona definiciones, teoremas y ejemplos para cada uno de estos temas fundamentales de la teoría de ecuaciones diferenciales.

Cargado por

jesusdark44
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

UNIVERSIDAD DE LOS ANDES

FACULTAD DE CIENCIAS
DEPARTAMENTO DE MATEMATICAS

x′

Introducción a la Teorı́a Cualitativa de Ecuaciones


Diferenciales Ordinarias

Marcos Lizana Peña

Marzo 2015, Mérida – Venezuela


2
Contenido

Introducción 6

1 Preliminares 7
§ 1.1 Espacio de las Funciones Continuas y Teoremas de Punto Fijo . . . . . 7
§ 1.2 Condición de Lipschitz . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
§ 1.3 Desigualdades Integrales . . . . . . . . . . . . . . . . . . . . . . . . . . 10
§ 1.4 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 12
§ 1.5 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Teorı́a General 15
§ 2.1 Existencia y Unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
§ 2.2 Prolongación de Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . 19
§ 2.3 Continuidad de las Soluciones Respecto a los Datos Iniciales. . . . . . . 24
§ 2.4 Dependencia Continua de las Soluciones Respecto a Parámetros . . . . 28
§ 2.5 Derivabilidad de las Soluciones Respecto a los Datos Iniciales y a Pará-
metros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
§ 2.6 Fórmula de Alekseev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
§ 2.7 Desigualdades Diferenciales Escalares . . . . . . . . . . . . . . . . . . . 34
§ 2.8 Ecuaciones Diferenciales con Parte Derecha Discontinua . . . . . . . . . 36
§ 2.9 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

3 Sistemas Lineales 43
§ 3.1 Sistemas Lineales Homogéneos . . . . . . . . . . . . . . . . . . . . . . . 43
§ 3.2 Sistemas Lineales No-Homogéneos . . . . . . . . . . . . . . . . . . . . . 46
§ 3.3 Sistema Lineal Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . 46
§ 3.4 Sistemas Reducibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
§ 3.5 Sistemas Lineales Homogéneos a Coeficientes Periódicos . . . . . . . . . 48
§ 3.6 Sistemas Lineales ω-Periódicos No Homogéneos . . . . . . . . . . . . . . 52
§ 3.7 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 58
§ 3.8 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

4 Sistemas Autónomos 61
§ 4.1 Clasificación de Orbitas. Conjuntos α y ω Lı́mites . . . . . . . . . . . . 61
§ 4.2 Teorema de Poincaré-Bendixson . . . . . . . . . . . . . . . . . . . . . . 70

3
4 Contenido

§ 4.3 Criterios de Bendixson y Dulac . . . . . . . . . . . . . . . . . . . . . . . 71


§ 4.4 Clasificación de los Puntos de Equilibrio de Sistemas Bidimensionales
Lineales con Coeficientes Constantes. . . . . . . . . . . . . . . . . . . . 72
§ 4.5 Sistemas Conservativos . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
§ 4.6 Disipatividad Puntual. Atractor Global . . . . . . . . . . . . . . . . . . 82
§ 4.7 Aplicación: Modelo Depredador-Presa . . . . . . . . . . . . . . . . . . . 84
§ 4.8 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 87
§ 4.9 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

5 Teorı́a de la Estabilidad Según Liapunov 91


§ 5.1 Definiciones de Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . 91
§ 5.2 Estabilidad para Sistemas Lineales . . . . . . . . . . . . . . . . . . . . . 93
§ 5.3 Sistemas Lineales a Coeficientes Constantes . . . . . . . . . . . . . . . . 96
§ 5.4 Criterio de Estabilidad de Routh-Hurwitz . . . . . . . . . . . . . . . . . 98
§ 5.5 Criterio de Routh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
§ 5.6 Estabilidad de Sistemas Lineales Semi-Autónomos . . . . . . . . . . . . 105
§ 5.7 Estabilidad de Sistemas Semi Lineales. Teorema de la Primera Aproxi-
mación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
§ 5.8 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 110
§ 5.9 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

6 Sistemas Hiperbólicos. Variedad Estable e Inestable 115


§ 6.1 Sistemas Lineales Hiperbólicos . . . . . . . . . . . . . . . . . . . . . . . 115
§ 6.2 Sistemas No-Lineales Hiperbólicos. Teorema de Hartman-Grobman . . . 117
§ 6.3 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . . 126
§ 6.4 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

7 Estabilidad de Soluciones Periódicas de Sistemas Autónomos 129


§ 7.1 Estabilidad Orbital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
§ 7.2 Aplicación de Poincaré. . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
§ 7.3 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

8 Método de las Funciones de Liapunov 143


§ 8.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
§ 8.2 Estabilidad vı́a Funciones de Liapunov. . . . . . . . . . . . . . . . . . 146
§ 8.3 Principio de Invariancia de La Salle. . . . . . . . . . . . . . . . . . . . . 151
§ 8.4 Funciones de Liapunov para Sistemas Lineales . . . . . . . . . . . . . . 153
§ 8.5 Comentarios y Sugerencias . . . . . . . . . . . . . . . . . . . . . . . . . 156
§ 8.6 Ejercicios y Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

9 Introducción a la Teorı́a de Bifurcaciones 161


§ 9.1 Bifurcación Silla-Nodo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
§ 9.2 Bifurcación Transcrı́tica . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
§ 9.3 Bifurcación Cuchillo-Tenedor . . . . . . . . . . . . . . . . . . . . . . . . 165
§ 9.4 Bifurcación de Andronov-Hopf . . . . . . . . . . . . . . . . . . . . . . . 167
Contenido 5

§ 9.4.1 Reducción del sistema (9.20) a su forma normal . . . . . . . . . 168


§ 9.4.2 Bifurcación de Andronov-Hopf . . . . . . . . . . . . . . . . . . . 173
§ 9.5 Cálculo del Valor de “a” . . . . . . . . . . . . . . . . . . . . . . . . . . 179

10 Apéndices 183
§ 10.1 Fórmulas de Viète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
§ 10.2 Soluciones del sistema Ax = b. . . . . . . . . . . . . . . . . . . . . . . 183
§ 10.3 Lema de Barbalat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
§ 10.4 Teorema de Hurwitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
§ 10.5 Unicidad de Orbitas Periódicas. . . . . . . . . . . . . . . . . . . . . . . 186

Índice Alfabético 197


6 Contenido

Introducción

Es bien conocido en el quehacer cientı́fico, bien sea en Fı́sica, Biologı́a, Quı́mica, In-
genierı́a, etc., la utilidad de las Ecuaciones Diferenciales. También es conocido que
mientras mas fiable sea el modelo, mas compleja es su formulación matemática; y por
ende mas complejo su análisis. A pesar que hoy contamos con formidables recursos
computacionales, ellos no pasan de darnos meras evidencias de la existencia de ciertos
fenómenos. Por ejemplo, si no conocemos el comportamiento de las soluciones: ¿Cómo
vamos a decidir, cuándo una solución es real o espuria?.
El estudio de las Ecuaciones Diferenciales ha influenciado el desarrollo de otras áreas
de la Matemática, por ejemplo Topologı́a (Analisis Situs, como originalmente la llamó
Henri Poincaré), Análisis, Algebra, etc. . En el prefacio del libro de Yurii Daleckii y
Mark Krein1 [7] se explica como problemas de estabilidad para Ecuaciones Diferenciales
condujeron al desarrollo de la teorı́a espectral de operadores acotados en Espacios de
Banach. Jean Dieudonné en [8] refiriéndose a la historia del Análisis Funcional dedica
seis de los nueve parágrafos a la evolución de las Ecuaciones Diferenciales. No se
pretende decir que los únicos problemas importantes de las Matemáticas son los que
surgen en el área de las Ecuaciones Diferenciales, sólo queremos ayudar a terminar
con aquella idea, que los problemas de ecuaciones diferenciales se reducen a un largo y
tedioso ejercicio de integración.
El objetivo de estas guı́as teórico-prácticas es reunir en un curso de un semestre los
fundamentos básicos de la teorı́a cualitativa de ecuaciones diferenciales, de modo que
el estudiante al final del curso esté en condiciones de abordar el estudio de la dinámica
local y/o global de modelos concretos. Se procura que estas guı́as sean autocontenidas a
fin de evitar la dispersión, ya que la bibliografı́a existente en ecuaciones diferenciales es
extensa. Casi, cada Capı́tulo está acompañado de una sección de ejercicios y problemas
seleccionados cuidadosamente para que su grado de complejidad no exceda los objetivos
de estas guı́as y de una sección de comentarios y sugerencias que sirva de guı́a al
estudiante para estudios posteriores mas avanzados sobre ecuaciones diferenciales.
El primer borrador de los Capı́tulos II y III en [1] fueron redactados por el Lic.
Rodolfo Rodrı́guez y además nos comunicó un importante ejemplo en la teorı́a de
estabilidad ver pag. 95. Posteriormente, conjuntamente con el Dr. José Aguilera
redactamos [1], él cual fue editado por la Imprenta Universitaria de la UCV en 1990.
Todo ese material sirvió de base para la actual versión de estas notas. La versión
[1] fue totalmente revisada. Fueron agregados los Capı́tulos 6,7,9 y 10. Los restantes
Capı́tulos también fueron modificados. A lo largo del texto se pueden ver los cambios
introducidos. Mis agradecimientos a todos quienes me comunicaron errores existentes,
la lista es larga...Gracias a todos Ellos...

1
Referencia muy citada y por muy pocos leı́da
Capı́tulo 1

Preliminares

El objetivo de este capı́tulo es presentar algunos hechos básicos que se utilizarán


en el desarrollo de estas notas.

§ 1.1 Espacio de las Funciones Continuas y Teoremas de Punto Fijo

Consideremos A y B dos espacios topológicos y denotemos por C[A, B]al conjunto  de


todas las funciones continuas de A en B. En particular, el conjunto C [a, b], Rn con
las operaciones usuales de suma de funciones y producto por un escalar, es un espacio
vectorial. Además, con la norma kϕk0 = max{ ||ϕ(t)|| : t ∈ [a, b] } es un Espacio de
Banach separable, donde || · || es cualquier norma en Rn .
En Análisis es importante caracterizar los conjuntos compactos en espacios de fun-
ciones. En el caso concreto del espacio de las funciones continuas, esta caracterización
viene dada por el Lema de Arzela-Ascoli, el cual enunciaremos a continuación.

Definición 1.1 Sea A un subconjunto de C[ [a, b], Rn ]. Se dice que A es un conjunto


acotado, si existe una constante K > 0, tal que kϕk0 ≤ K, para toda ϕ ∈ A. Si para
todo ε > 0, existe δ = δ(ε) > 0, tal que |t − s| < δ implica que ||ϕ(t) − ϕ(s)|| < ε, para
cualquier ϕ ∈ A, entonces se dice que A es un conjunto equicontinuo.
 
Lema 1.1 (Arzela-Ascoli) Un conjunto A ⊂ C [a, b], Rn es relativamente compacto si
y sólo si es acotado y equicontinuo.

Una excelente exposición sobre el Lema de Arzela-Ascoli, en un contexto mucho más


general que el enunciado anteriormente, se puede consultar en [33], sección 4.5, p.p.
89-92.
En particular, del Lema de Arzela-Ascoli se sigue que toda sucesión {ϕn }n≥1 de un
conjunto A equicontinuo y acotado de C[ [a, b], Rn ], posee una subsucesión uniforme-
mente convergente sobre [a, b], puede ser que el lı́mite de la subsucesión no pertenezca
a A.
Enunciaremos en lo que sigue algunos teoremas de punto fijo. Para ello, considere-
mos un espacio métrico completo (E, d) y una transformación T : E → E.

Definición 1.2 Se dice que x ∈ E es un punto fijo de la transformación T, si T x = x.


Diremos que la aplicación T : E → E es una contracción, si existe una constante L ∈ [0, 1),
tal que d(T x, T y) ≤ L d(x, y), para todo x, y en E.

Teorema 1.2 (Banach1922,[33],p.p.70-71) Si T : E → E es una contracción, entonces


T posee un único punto fijo en E.

7
8 Capı́tulo 1. Preliminares

Supongamos ahora que G es un espacio topológico y consideremos una familia de ope-


radores Ty : E → E, con y ∈ G. Diremos que Ty es una contracción uniforme, si existe
una constante L ∈ (0, 1) tal que d(Ty x1 , Ty x2 ) ≤ L d(x1 , x2 ) para todo x1 , x2 ∈ E e
y ∈ G.

Teorema 1.3 Si Ty : E → E es una contracción uniforme y para cada x en E, Ty x es


continuo en y, entonces el único punto fijo de Ty , al cual denotaremos por g(y), es continuo

en y. Además, si G = (interior G) 6= ∅ y Ty x es continuamente diferenciable en x e y,

entonces g ∈ C 1 [G, E].
Observemos que no siempre es posible garantizar la contractilidad de una trans-
formación dada, por lo que se hace necesario recurrir a teoremas de punto fijo más
generales que los anteriores. Ası́, tenemos por ejemplo el siguiente

Teorema 1.4 (Brouwer1910,[14],p.p. 156-159) Sea E un espacio vectorial normado, finito


dimensional y B = {x ∈ E : ||x|| ≤ 1}. Consideremos un espacio métrico U homeomorfo
a B. Entonces toda transformación continua T : U → U posee al menos un punto fijo. En
particular, U puede ser un subconjunto convexo y compacto de E.
A pesar de la sencillez del enunciado del teorema de Brouwer, su demostración dista
mucho de ser elemental, al final de este capı́tulo se dan mas detalles sobre este teorema.
Su generalización a espacios normados infinito dimensionales se debe a Schauder .

Teorema 1.5 (Schauder 1930,[14],p.p. 164-165) Sean E un espacio normado y U un


subconjunto convexo y compacto de E. Si T : U → U es una transformación continua,
entonces T posee al menos un punto fijo.
Un resultado muy útil en las aplicaciones, el cual es consecuencia del teorema de
Schauder, es el siguiente

Corolario 1.6 Supongamos que U es un subconjunto cerrado, convexo y acotado de


un espacio normado E y T : U → U un operador completamente continuo, es decir, un
operador compacto y continuo. Entonces T posee al menos un punto fijo.

§ 1.2 Condición de Lipschitz

Definición 1.3 Sea J un intervalo y D un subconjunto de Rn . La función


f : J × D → Rn se dice que es globalmente Lipschitz, respecto a x ∈ D, uniformemente
en t ∈ J, sobre J × D, si existe una constante K > 0, tal que

||f (t, x1 ) − f (t, x2 )|| ≤ K||x1 − x2 || , ∀(t, xi ) ∈ J × D , i = 1, 2.

Definición 1.4 Diremos que f es una función localmente Lipschitz sobre J × D, si para
punto P ∈ J × D, existe un entorno VP del punto P , tal que la restricción de f a VP
todo
(f V ) es globalmente Lipschitz.
P
§ 1.2. Condición de Lipschitz 9

Los dos conceptos anteriores están relacionados como se muestra en el siguiente

Lema 1.7 Si A es un subconjunto compacto de J ×D y f ∈ C[J ×D, Rn ] es una función


localmente Lipschitz, entonces su restriccción al conjunto A es globalmente Lipschitz.
Demostración 1.
Sea A un subconjunto compacto de J × D. Como f es localmente Lipschitz, entonces
para cada P ∈ J × D, existe un entorno VP tal que f |VP es globalmente Lipschitz.
Claramente, {VP }P ∈A es un cubrimiento abierto de A. Como A es un conjunto com-
pacto, existe un ε > 0 tal que para cada P ∈ A, existe un VP con la propiedad que
B2ε (P ) ⊂ VP . Es obvio que Bε (P ) también es un cubrimiento abierto S de A. Luego, por
la compacidad de A, existen puntos P1 , . . . , Pm ∈ A tales que A ⊂ m i=1 Bε (Pi ).
Sean (t, x1 ), (t, x2 ) dos puntos arbitrarios en A. Sin pérdida de generalidad podemos
suponer que (t, x1 ) ∈ Bε (Pi ) para algún i ∈ {1, . . . , m}. Se presentan dos casos:

1. El punto (t, x2 ) ∈ B2ε (Pi ). Luego existe una constante Ki > 0 tal que

||f (t, x1 ) − f (t, x2 )|| ≤ Ki ||x1 − x2 ||.

2. El punto (t, x2 ) ∈
/ B2ε (Pi ). En este caso se verifica que ||x1 − x2 || ≥ ε. Pongamos
M = max{||f (t, x)|| : (t, x) ∈ A}. Ası́ se sigue que

||f (t, x1 ) − f (t, x2 )|| ≤ 2M ≤ 2M ||x1 − x2 ||/ε.

Eligiendo K = max{K1 , . . . , Km , 2M/ε} concluimos la prueba del Lema.

Demostración 2.
Por reducción al absurdo. Supongamos que para todo K > 0, existen (t, x1 ) y (t, x2 )
en A, tales que
||f (t, x1 ) − f (t, x2 )|| > K||x1 − x2 ||.
En particular, para cada k ∈ N, existen puntos (tk , xki ) ∈ A, i = 1, 2, tales que

||f (tk , xk1 ) − f (tk , xk2 )|| > k||xk1 − xk2 ||. (1.1)

Como A es compacto, también lo es A × A. Por lo tanto, la sucesión  {zk }k≥1 posee una
k k
subsucesión convergente en A × A, donde zk = (tk , x1 ), (tk , x2 ) . Sin pérdida de gene-
ralidad podemos suponer que zk es convergente. Llamemos z ∗ = (t∗ , x ∗1 ), (t∗ , x∗2 ) ∈ A
al lı́mite de la sucesión {zk }k≥1 . Sea M = max ||f (t, x)|| : (t, x) ∈ A . Entonces por
(1.1) obtenemos que
2M
||xk1 − xk2 || ≤ .
k
De donde se sigue que lim ||xk1 − xk2 || = 0.
k→∞
Por otra parte, de la desigualdad


||x1 − x∗2 || − ||xk1 − xk2 || ≤ ||(x∗1 − xk1 ) − (x∗2 − xk2 )||,
10 Capı́tulo 1. Preliminares

se obtiene que
||x∗1 − x∗2 || = lim ||xk1 − xk2 || = 0.
k→∞
Lo cual implica que x∗1= x∗2 .
Ahora, por ser f localmente Lipschitz, existe un entorno
V ∗ del punto (t∗ , x∗1 ) ∈ A y una constante K ∗ = K(V ∗ ) > 0, tal que

||f (t, x1 ) − f (t, x2 )|| ≤ K ∗ ||x1 − x2 || , ∀ (t, xi ) ∈ V ∗ , i = 1, 2.

Por lo tanto, debido a que (tk , xki ) → (t∗ , x∗i ), existe N > 0, tal que (tk , xki ) ∈ V ∗ para
k ≥ N, i = 1, 2 y además

||f (tk , xk1 ) − f (tk , xk2 )|| ≤ K ∗ ||xk1 − xk2 ||.

Esto contradice la desigualdad (1.1).

§ 1.3 Desigualdades Integrales

En esta sección enunciaremos algunos resultados sobre desigualdades integrales, los


cuales utilizaremos para estimar el crecimiento de las soluciones de ecuaciones diferen-
ciales. Primero demostraremos una desigualdad integral bastante general y a partir de
ella obtendremos la desigualdad de Gronwall.

Lema 1.8 Consideremos u, α ∈ C[R, R] y β ∈ L1loc [R, R+ ]. Si α es una función creciente


y Z t
u(t) ≤ α(t) + β(s)u(s)ds, ∀t ≥ t0 , (1.2)
t0
entonces Z 
t
u(t) ≤ α(t) exp β(s)ds , ∀t ≥ t0 . (1.3)
t0

Demostración. Sea τ ∈ [t0 , t]. Por ser α(t) creciente, se tiene que
Z τ Z τ
u(τ ) ≤ α(τ ) + β(s)u(s)ds ≤ α(t) + β(s)u(s)ds. (1.4)
t0 t0

Definamos Z τ
R(τ ) = α(t) + β(s)u(s)ds
t0

y observemos que βu ∈ L1 [t0 , t]. Entonces R′ (τ ) = β(τ )u(τ ), casi siempre sobre [t0 , t].
Multiplicando (1.4) por β(τ ), hobtenemos
R
queiR′ (τ ) ≤ β(τ )R(τ ) casi siempre sobre [t0 , t].
τ
β(s)ds ′
Lo cual a su vez implica que R(τ )e t0 ≤ 0 casi siempre sobre [t0 , t]. Integrando
entre t0 y t esta última desigualdad, obtenemos que
Z t  Z t 
u(t) ≤ R(t) ≤ R(t0 ) exp β(s)ds = α(t) exp β(s)ds .
t0 t0
§ 1.3. Desigualdades Integrales 11

Eligiendo α(t) = C, el siguiente Lema es una consecuencia inmediata del Lema 1.8.

Lema 1.9 (Desigualdad de Gronwall) Sean u , β ∈ C[R, R+ ] y C una constante no ne-


gativa. Supongamos que tiene lugar la siguiente desigualdad
Z t
u(t) ≤ C + β(s)u(s)ds, t ≥ t0 ,
t0

entonces Z 
t
u(t) ≤ C exp β(s)ds t ≥ t0 .
t0

Concluiremos esta sección demostrando una versión integral del Teorema del Valor
Medio. Sea f : J × D → Rn una función continua, donde J = (a, b) y D es un
subconjunto abierto de Rn . Denotemos por
 
∂f ∂fi
(t, x) = (t, x) .
∂x ∂xj i,j=1,...,n

Lema 1.10 Sea D un subconjunto abierto y convexo de Rn y f ∈ C[J × D, Rn ] tal que


∂f /∂x existe y es continua sobre J × D.
Entonces se verifica la siguiente identidad
Z 1   
∂f
f (t, x2 ) − f (t, x1 ) = (t, sx2 + (1 − s)x1 ) ds (x2 − x1 ), (1.5)
0 ∂x

para todo (t, xi ) ∈ J × D , i = 1, 2.


Demostración. Definamos la función F (s) = f (t, sx2 + (1 − s)x1 ) , s ∈ [0, 1]. Observe-
mos que F (0) = f (t, x1 ) y F (1) = f (t, x2 ). De las hipótesis del lema se sigue que F (s)
está bien definida en [0, 1] y se verifica que
 
′ ∂f
F (s) = (t, sx2 − (1 − s)x1 ) (x2 − x1 ). (1.6)
∂x

Integrando (1.6) entre s = 0 y s = 1, obtenemos (1.5).


12 Capı́tulo 1. Preliminares

§ 1.4 Comentarios y Sugerencias

Hemos mencionado que, a pesar de lo sencillo del enunciado del teorema de Brouwer,
su demostración está lejos de ser elemental. Invitamos al lector a que demuestre el
Teorema de Brouwer en el caso que U = [a, b].
En el libro de Courant-Robbins [4] se puede consultar una prueba en el caso bidi-
mensional, la cual no se generaliza a dimensiones mayores a 2. Una demostración en
el caso general U ⊂ Rn , con n > 2, puede consultarse por ejemplo en Ch.S. Hönig
[14], D.R. Smart [30]. Sin embargo, recientemente J. Milnor [22] dió una prueba más
sencilla, la que a su vez fue simplificada por C. Rogers [29].
Para resultados más refinados que el Teorema de Brouwer, recomendamos consultar
el libro de D. R. Smart [30].
En este capı́tulo hemos mencionado sólo las desigualdades integrales mas usadas
a lo largo de esta exposición. Sin embargo, ésta es una técnica muy importante. Un
lugar adecuado para consultar mas detalle acerca de este tema es el libro de V. Laksh-
mikantham & S. Leela [18].
§ 1.5. Ejercicios y Problemas 13

§ 1.5 Ejercicios y Problemas

1. Sea E un espacio métrico completo y T : E → E un operador continuo. Si existe


un n ∈ N tal que T n es una contracción, entonces T posee un único punto fijo en
E.
2. Sea D ⊂ Rn un conjunto compacto. Denotemos por S al conjunto de todas las
funciones ϕ : D → Rn globalmente Lipschitz con una misma constante K > 0.
Pruebe que si S es un conjunto acotado, entonces S es un conjunto compacto de
C[D, Rn ].
3. Sea f : [0, 1] → [0, 1] una función continua. Pruebe que f posee al menos un
punto fijo.
4. Pruebe el Teorema 1.3.
5. Sea f : J ×D → Rn una función continua, donde J = (a, b) y D es un subconjunto
abierto de Rn . Denotemos por
 
∂f ∂fi
(t, x) = (t, x) .
∂x ∂xj i,j=1,...,n

Demuestre las siguientes afirmaciones:


a) Sea D un conjunto convexo. Si ∂f ∂x existe, es continua y está acotada sobre
J × D, entonces f es globalmente Lipschitz sobre J × D.
b) Supongamos que ∂f ∂x existe y es uniformemente continua sobre J × D, con D
conjunto convexo. Si J × D es un subconjunto acotado de Rn+1 , entonces f
es globalmente Lipschitz sobre J × D. ¿ Es esencial la acotación de J × D ?.
c) Si ∂f
∂x es continua sobre J × D, entonces f es localmente Lipschitz sobre
J × D.
d) Si f : J ×D → Rn es localmente Lipschitz en x, uniformemente en t, entonces
∂f
∂x existe, excepto en un conjunto de medida nula.
e) Si ∂f
∂x existe y no es acotada sobre J ×D, entonces f no puede ser globalmente
Lipschitz sobre J × D.
Indicación: En los ejercicios 5.a-5.c use el Lema 1.10.
6. Muestre que el conjunto de las funciones globalmente Lipschitz es un subconjunto
propio del conjunto de las funciones localmente Lipschitz.
7. Supongamos que u, β ∈ C[R, R+ ] y C ≥ 0. Pruebe que si
Z t

u(t) ≤ C + β(s)u(s)ds , ∀ t ∈ R,
t0
entonces  Z t 

u(t) ≤ C exp β(s)ds ,
∀t ∈ R.
t0
14 Capı́tulo 1. Preliminares

8. Supongamos que u, β ∈ C[R, R+ ]. Demuestre que si se satisface la desigualdad


Z t

u(t) ≤ u(τ ) + β(s)u(s)ds , ∀t, τ ∈ R,
τ

entonces tiene lugar


 Z t  Z t 
u(t0 ) exp − β(s)ds ≤ u(t) ≤ u(t0 ) exp β(s)ds , ∀t ≥ t0 .
t0 t0
Capı́tulo 2

Teorı́a General

En este capı́tulo estudiaremos propiedades generales de las ecuaciones diferenciales or-


dinarias: existencia, unicidad, continuidad y derivabilidad de las soluciones, respecto
a los datos iniciales y parámetros. Además abordaremos brevemente los sistemas cuyo
campo vectorial es discontinuo en la variable temporal y algunos teoremas de com-
paración para ecuaciones diferenciales escalares.

§ 2.1 Existencia y Unicidad

Consideremos la siguiente ecuación diferencial ordinaria (e.d.o.)

x′ (t) = f (t, x(t)), (2.1)

con
x(t0 ) = x0 , (2.2)

donde f ∈ C[J × D, Rn ] , J = (a, b) con −∞ ≤ a < b ≤ +∞; D es un subconjunto


abierto y conexo de Rn y (t0 , x0 ) ∈ J × D.
Entenderemos por solución del problema de valor inicial (p.v.i.) (2.1)-(2.2), a una
función ϕ ∈ C 1 [J1 , D] tal que ϕ satisface la ecuación (2.1) para todo t ∈ J1 y la
condición (2.2), donde J1 ⊂ J. En el caso que J1 = J, diremos que ϕ es una solución
global del p.v.i. (2.1)-(2.2).
Por comodidad en la notación de aquı́ en adelante cuando no se preste a confusión
omitiremos los argumentos de la función x(t) y simplemente escribiremos x′ = f (t, x);
y a f lo llamaremos el campo vectorial.
Antes de enunciar un teorema de existencia y unicidad, discutiremos unos ejemplos
a fin de visualizar mejor el problema que estamos tratando.

Ejemplo 2.1 Sea J × D = R2 , f (t, x) = x2 . Es fácil mostrar que cualquier solución


no nula de la ecuación diferencial x′ = x2 es de la forma ϕ(t) = −[t + c]−1 con c ∈ R.
Además, ϕ(t) = 0 , ∀ t ∈ R, también es solución. Esto nos permite concluir que a pesar
de ser f (t, x) = x2 una función suave, no existen soluciones globales no nulas; es decir no
existen soluciones definidas sobre todo R (ver figura 2.1). Además, por cada punto (0, x0 )
pasa una única solución de x′ = x2 . Observemos finalmente que f (t, x) = x2 es localmente
Lipschitz sobre R2 .

Ejemplo 2.2 Sea f : R2 → R, dada por f (t, x) = 3x2/3 . Consideremos el siguiente


p.v.i. x′ = f (t, x), x(0) = x0 , x0 ∈ R. Integrando la ecuación diferencial obtenemos que
su solución general viene dada por x(t) = (t + c)3 , donde c es una constante. De donde

15
16 Capı́tulo 2. Teorı́a General

x x

b
x0
t t
b
x0

t = −c c>0 c<0 t = −c

Figura 2.1

se sigue que por cada punto (0, x0 ) pasan infinitas soluciones. Por ejemplo, la función
ϕ(· , a, b) : R → R, definida por:

 (t − a)3 , si t<a
ϕ(t, a, b) = 0 , si a ≤ t ≤ b

(t − b)3 , si t>b

es solución de x′ = 3x2/3 con x(0) = 0, para todo a ≤ 0 ≤ b, como se ve en la figura 2.2


x x

a b a b x0
b b

t
b
√ b

t
− 3 x0

Caso x0 = 0 Caso x0 > 0

Figura 2.2

Cuando x0 > 0, la función ψ(· , a) : R → R, dada por



 (t − a)3 , si t≤a

ψ(t, a) = 0 , si a < t < − 3 x0
 √ √
(t + 3 x0 )3 , si t ≥ − 3 x0

es solución de x′ = 3x2/3 con x(0) = x0 > 0, para todo a ≤ − 3 x0 . Análogamente se
trata el caso x0 < 0.
§ 2.1. Existencia y Unicidad 17

Vemos que en este caso, sı́ existen soluciones globales pero no hay unicidad global.
Sin embargo, dependiendo de la posición de x0 , puede haber unicidad local. En efecto,
si x0 6= 0, entonces existe un entorno de t0 = 0, de modo que por el punto (0, x0 ) pasa
una única solución de x′ = 3x2/3 . En cambio, cuando x0 = 0, por el punto (0, 0) pasan
infinitas soluciones de x′ = 3x2/3 , (ver fig. 2.2 ).
Un cálculo directo muestra que f (t, x) = 3x2/3 es localmente Lipschitz sólo sobre
intervalos que no contengan a cero.

De los ejemplos 2.1 y 2.2 concluimos que para e.d.o. de la forma (2.1), la continuidad
del campo vectorial f no garantiza en general, ni la existencia de soluciones globales,
ni la unicidad.
El siguiente Lema nos provee una equivalencia entre la existencia de soluciones de
la ecuación diferencial (2.1) y la existencia de soluciones de una ecuación integral.

Lema 2.1 Supongamos que f ∈ C[J × D, Rn ]. El p.v.i. (2.1)-(2.2) es equivalente a la


resolución de la ecuación integral
Z t
x(t) = x0 + f (s, x(s)) ds. (2.3)
t0

El resultado que presentaremos a continuación nos da la existencia y unicidad de solu-


ciones del p.v.i. (2.1)-(2.2) bajo condiciones bastante generales.

Teorema 2.2 (Teorema de Existencia y Unicidad Local)


Si f ∈ C[J × D, Rn ] es localmente Lipschitz en su segunda variable, uniformemente con
respecto a la primera, entonces para cualquier punto (t0 , x0 ) ∈ J × D, existe δ > 0 y una
única solución de (2.1)-(2.2) definida en J1 = (t0 − δ, t0 + δ).
Demostración. Elijamos constantes r > 0 y s > 0 de modo que el conjunto

D ∗ = (t, x) ∈ R × Rn : |t − t0 | ≤ r , ||x − x0 || ≤ s ,

esté contenido en J × D. Llamemos M = max ||f (t, x)|| : (t, x) ∈ D ∗ , y sea K > 0
la constante de Lipschitz de f |D∗ .
Elijamos ahora un número δ > 0, de modo que 0 < δ < min{r, s/M, 1/K} y
denotemos por J1 = [t0 − δ, t0 + δ].
Consideremos ahora el subconjunto C ∗ de C[J1 , Rn ] formado por las funciones que
satisfacen las condiciones siguientes:

a) ϕ(t0 ) = x0 ,

b) ||ϕ(t) − x0 || ≤ s , t ∈ J1 .

Teniendo en cuenta el Lema 2.1 definamos en C ∗ un operador T mediante la siguiente


fórmula Z t
T ϕ(t) = x0 + f (s, ϕ(s))ds , t ∈ J1 . (2.4)
t0
18 Capı́tulo 2. Teorı́a General

Es claro que los puntos fijos del operador T son soluciones del p.v.i. (2.1)-(2.2). Ahora,
probaremos que T : C ∗ → C ∗ es una contracción. Es fácil ver que T ϕ ∈ C ∗ , para todo
ϕ ∈ C ∗ . Además, C ∗ es un subconjunto cerrado de C[J1 , Rn ]. Por lo tanto C ∗ es un
espacio métrico completo, con la métrica inducida por la norma del espacio C[J1 , Rn ].
Por otra parte, para todo ϕ1 , ϕ2 ∈ C ∗ y t ∈ J1 , se verifica que
Z t

||T ϕ1 (t) − T ϕ2 (t)|| ≤ ||f (s, ϕ1 (s)) − f (s, ϕ2 (s))||ds

t0
Z t


≤ K ||ϕ1 (s) − ϕ2 (s)||ds
t0
≤ K|t − t0 | · ||ϕ1 − ϕ2 ||0 ≤ Kδ||ϕ1 − ϕ2 ||0 , ∀ t ∈ J1 .

Lo cual implica que


||T ϕ1 − T ϕ2 ||0 ≤ Kδ||ϕ1 − ϕ2 ||0 .
Teniendo en cuenta la elección de δ, obtenemos que T : C ∗ → C ∗ es una contracción.
Entonces, por el Teorema del punto fijo de Banach, T posee un único punto fijo en C ∗ ,
el cuál a su vez corresponde a la única solución del p.v.i. (2.1)-(2.2) definida en J1 .

Observemos que la condición de Lipschitz es una condición suficiente para obtener


la unicidad de las soluciones de (2.1) pero no es una condición necesaria, ver el ejercicio
4 de la sección §2.9. Además, el Teorema 2.2 es estrictamente local. En efecto, el p.v.i.
x′ = cos(t + x) con x(0) = 0, posee una única solución x(t) = 2arctg(t) − t, definida
para todo t. Sin embargo, no es difı́cil comprobar que el número δ dado por el Teorema
2.2 es menor o igual a 1.
Cabe preguntarse: Si f no es localmente Lipschitz, ¿Podrı́a el p.v.i. (2.1)-(2.2)
tener solución?. La respuesta es positiva y la da el siguiente

Teorema 2.3 (Peano)


Si f ∈ C[J × D, Rn ], entonces el p.v.i. (2.1)-(2.2) posee al menos una solución.
Demostración. Elijamos constantes r > 0 y s > 0 de modo que el conjunto

D∗ = (t, x) ∈ R × Rn : |t − t0 | ≤ r , ||x − x0 || ≤ s ,

esté contenido en J × D. Llamemos M = max ||f (t, x)|| : (t, x) ∈ D ∗ . Escojamos una
constante δ∗ de modo que 0 < δ∗ < min{r, s/M }, y Je = [t0 − δ∗ , t0 + δ∗ ]. Definamos el
conjunto

e = ϕ ∈ C[J,
C e Rn ] : ϕ(t0 ) = x0 , ||ϕ(t) − x0 || ≤ s , t ∈ Je .

Es inmediato que Ce es un conjunto convexo, cerrado y acotado. Para cada ϕ ∈ C,


e
definamos el operador T de la siguiente manera
Z t
T ϕ(t) = x0 + e
f (s, ϕ(s))ds, t ∈ J.
t0
§ 2.2. Prolongación de Soluciones 19

Mostremos que T C e⊂C e y que es un operador completamente continuo. Es obvio que


e
para todo ϕ ∈ C , T ϕ(t0 ) = x0 . También,
Z t

||T ϕ(t) − x0 || ≤ ||f (s, ϕ(s))||ds ≤ M |t − t0 | < M δ∗ ≤ s, ∀ t ∈ J.
e
t0

Lo cual implica que T C e ⊂ C.


e
Probemos ahora que T C e es un conjunto equicontinuo. Sean ϕ ∈ C, e e
t1 , t2 ∈ J.
Entonces Z t2


||T ϕ(t1 ) − T ϕ(t2 )|| ≤ ||f (s, ϕ(s))|| ds ≤ M |t1 − t2 | ,
t1

e Como T C
lo cual prueba la equicontinuidad de T C. e es acotado, se sigue que la clausura
e es compacta.
de T C
Finalmente, mostremos que T es continuo. Como f es uniformemente continua
sobre D ∗ , entonces para todo ε > 0, existe δ > 0, tal que
ε e
||f (s, ϕ1 (s)) − f (s, ϕ2 (s))|| < , ∀ s ∈ J, (2.5)
δ∗

si ||ϕ1 (s) − ϕ2 (s)|| < δ , ∀ s ∈ Je. Por otra parte, tenemos que
Z t

||T ϕ1 (t) − T ϕ2 (t)|| ≤ ||f (s, ϕ1 (s)) − f (s, ϕ2 (s))||ds . (2.6)
t0

Ası́ (2.5) y (2.6) prueban la continuidad de T.


Como todas las condiciones del Corolario 1.6 están satisfechas, se sigue que T posee
al menos un punto fijo en C.e Esto completa la demostración de nuestra afirmación.

§ 2.2 Prolongación de Soluciones

Sean ϕi : Ji → D, i = 1, 2, dos soluciones del p.v.i. (2.1)-(2.2), con J1 ⊂ J2 . Diremos


que ϕ2 es una prolongación de ϕ1 al intervalo J2 , si ϕ1 (t) = ϕ2 (t) , ∀ t ∈ J1 . Una
solución del problema (2.1)-(2.2) se dice que es no prolongable, si ella no admite una
prolongación; y en este caso, al intervalo J ∗ donde está definido ϕ, le llamaremos
intervalo maximal de existencia de la solución ϕ.

Lema 2.4
Sea J ∗ = (α, β) y ϕ ∈ C 1 [J ∗ , Rn ]. Si ||ϕ′ (t)|| ≤ M , ∀ t ∈ J ∗ , entonces los lı́mites
lim ϕ(t) y lim ϕ(t) existen.
t→α+ t→β −
Demostración. Demostraremos solamente la existencia de uno de los lı́mites. La
existencia del otro se prueba de manera completamente análoga.
Probemos que lim ϕ(t) existe. Sea {tn }n≥1 una sucesión de J ∗ , tal que lim tn = β.
t→β − n→∞
Probemos en primer lugar que la sucesión {ϕ(tn )}n≥1 es convergente, para lo cual basta
20 Capı́tulo 2. Teorı́a General

mostrar que es una sucesión de Cauchy. Sea ε > 0, arbitrario. Como ϕ ∈ C 1 [J ∗ , Rn ],


tenemos que Z tm

||ϕ(tn ) − ϕ(tm )|| ≤ ||ϕ (t)||dt ≤ M |tn − tm |,

tn

ya que ||ϕ′ (t)||


≤ M , ∀t ∈ J ∗.
Por otra parte, existe N (ε) > 0 tal que
ε
|tn − tm | < , ∀ n, m ≥ N.
M
Combinando las dos últimas desigualdades, se concluye la convergencia de la sucesión
{ϕ(tn )}n≥1 . Pongamos B = lim ϕ(tn ).
n→∞
Probemos que lim ϕ(t) = B. Sea t ∈ (β − ε/2M, β). Como lim tn = β, existe un
t→β − n→∞
tk ∈ (β − ε/2M, β), tal que ||ϕ(tk ) − B|| < ε/2.
Ası́, para todo t ∈ (β − ε/2M, β) se tiene que

||ϕ(t) − B|| ≤ ||ϕ(t) − ϕ(tk )|| + ||ϕ(tk ) − B|| < M |t − tk | + ||ϕ(tk ) − B|| < ε.

Lo que prueba que lim ϕ(t) = B.


t→β −

Observemos que la afirmación del Lema 2.4 es aún válida , si la función ϕ : J ∗ → Rn


es absolutamente continua y ϕ′ ∈ L1 [J ∗ , Rn ].

Lema 2.5 (Prolongación a un Intervalo Cerrado)


Sea ϕ : J ∗ → D una solución del p.v.i. (2.1)-(2.2). Supongamos que se verifican las
siguientes condiciones:

a) lim ϕ(t) = A , lim ϕ(t) = B;


t→α+ t→β −

b) Los puntos (α, A), (β, B) pertenecen a J × D. Entonces la función


ψ : [α, β] → D definida por

 A si t=α
ψ(t) = ϕ(t) si t ∈ (α, β)

B si t=β

es solución del p.v.i.(2.1)-(2.2), entendiéndose la derivada en los extremos del intervalo


como derivadas laterales.
Demostración. Probemos que ψ ′ (β) = f (β, ψ(β)) . Teniendo en cuenta la defini-
ción de ψ = (ψ1 , . . . , ψi , . . . , ψn )T y las propiedades de ϕ = (ϕ1 , . . . , ϕi , . . . , ϕn )T , del
Teorema del Valor Medio se sigue que:

ψi (β) − ψi (β − h)
= ψi′ (β + h(θi − 1)) = ϕ′i (β + h(θi − 1)),
h
§ 2.2. Prolongación de Soluciones 21

donde h > 0, 0 < θi < 1 , i = 1, . . . , n. Haciendo tender h → 0, obtenemos

ψi (β) − ψi (β − h)
ψi′ (β) = lim = lim ϕ′i (β + h(θi − 1))
h→0+ h h→0+

= lim fi (β + h(θi − 1), ϕ(β + h(θi − 1)))


h→0+
= fi (β, B) = fi (β, ψ(β)),

para cada i = 1, . . . , n .
Análogamente se prueba que ψ ′ (α) = f (α, ψ(α)) .

Observemos que bajo las hipótesis del Lema 2.4, ϕ no sólo admite una prolongación
a un intervalo cerrado, sino que en realidad puede prolongarse a un intervalo abierto que
contenga a [α, β]. En efecto, denotemos con ψ2 : [β, β + δ2 ) → D , ψ1 : (α − δ1 , α] → D
a las soluciones de los p.v.i.
 ′  ′
x (t) = f (t, x) x (t) = f (t, x)
, .
x(β) = B x(α) = A

respectivamente; δi > 0 , i = 1, 2. La existencia y unicidad de ψ1 y ψ2 vienen garanti-


zadas por el hecho que (α, A) y (β, B) ∈ J × D y f verifica las hipótesis del Teorema
de Existencia y Unicidad local.
Definamos ϕ2 : (α − δ1 , β + δ2 ) → D, como sigue

 ψ1 (t) si t ∈ (α − δ1 , α]
ϕ2 (t) = ϕ(t) si t ∈ (α, β)

ψ2 (t) si t ∈ [β, β + δ2 ).

Para concluir que ϕ2 es una prolongación de ϕ es suficiente mostrar que la derivada


lateral derecha (izquierda) de ϕ2 (de ϕ2 ) existe en t = α (t = β) y es igual a f (α, ϕ2 (α))
(f (β, ϕ2 (β))). Y esto se realiza de manera análoga a la prueba del Lema 2.5.

Teorema 2.6 (Existencia y Unicidad de Soluciones no Prolongables)


Bajo las hipótesis del Teorema de Existencia y Unicidad Local, el p.v.i. (2.1)-(2.2) admite
una única solución ϕ no prolongable, definida sobre el intervalo J ∗ = (α, β) ⊂ J = (a, b).
Demostración. Sea

A = s ≥ t0 : el p.v.i. (2.1)-(2.2) posee una única solución sobre [t0 , s) .

Por el Teorema 2.2, se tiene que A 6= ∅. Pongamos β = sup A . Definamos ahora la


función ϕ : [t0 , β) → D de la siguiente manera : Si t ∈ [t0 , β), entonces existe s∗ ∈ A,
tal que t < s∗ . Llamemos ϕs∗ a la única solución de (2.1)-(2.2) definida sobre [t0 , s∗ )
y pongamos ϕ(t) = ϕs∗ (t). Por la unicidad de ϕs∗ , la función ϕ está bien definida.
Además, por su construcción ϕ es solución del p.v.i. (2.1)-(2.2) sobre [t0 , β) y ella no
puede ser prolongada más allá de β, ya que β = sup A .
22 Capı́tulo 2. Teorı́a General

Análogamente se prueba que existe una única solución de (2.1)-(2.2), definida sobre
(α, t0 ] no prolongable a la izquierda de α .

Un breve análisis del Lema 2.5 y del Teorema 2.6 nos conduce a enunciar el siguiente
sencillo, pero importante resultado.

Corolario 2.7 Si (α, β) es el intervalo maximal de existencia y unicidad de una solución


+ −
 a la frontera de J × D, cuando t → α y t → β , e.d.
ϕ de (2.1), entonces, (t, ϕ(t)) tiende
lim dist (t, ϕ(t)), ∂(J × D) = 0, donde ∂(J × D) denota a la frontera del conjunto
t→α+ (β − )
J × D y dist(x, U ) denota a la distancia del punto x al conjunto U.

Hasta el momento, toda la discusión sobre la prolongabilidad de las soluciones de (2.1)


que hemos hecho, no nos permiten concluir nada acerca de la existencia de soluciones
globales. Esto es razonable, ya que en el ejemplo 2.1 estudiamos una ecuación con
parte derecha continua y localmente Lipschitz que no tiene soluciones globales. A
continuación probaremos un resultado bastante general, que garantiza precisamente la
existencia de soluciones globales de (2.1); e.d. garantiza la existencia de soluciones cuyo
dominio de definición es exactamente J.

Teorema 2.8 (Existencia y Unicidad Global)


Supongamos que f ∈ C[J × D, Rn ] es localmente Lipschitz en su segunda variable uni-
formemente con respecto a su primera variable. Sea ϕ : (α, β) → D la única solución
no prolongable del p.v.i. (2.1)-(2.2). Si existe un conjunto compacto D ∗ ⊂ D, tal que
ϕ(t) ∈ D ∗ para todo t ∈ (α, β), entonces ϕ es una solución global; es decir, α = a y β = b.

Demostración. La demostración la haremos por reducción al absurdo. Supongamos


que ϕ(t) ∈ D∗ para todo t ∈ (α, β), pero α > a ó β < b. Concretamente supondremos
que β < b.
Claramente [t0 , β] × D ∗ ⊂ J × D. Pongamos

M = max{||f (t, x)|| : (t, x) ∈ [t0 , β] × D ∗ }.

Por lo tanto
||ϕ′ (t)|| = ||f (t, ϕ(t))|| ≤ M, t ∈ [t0 , β).

Del Lema 2.4, se sigue que lim ϕ(t) = B y pertenece a D ∗ , ya que D ∗ es compacto.
t→β −
Esto muestra que (β, B) ∈ J × D. Aplicando el Lema 2.5, concluimos que ϕ se puede
prolongar a un intervalo [t0 , β + δ), para algún δ > 0. Lo cual es una contradicción, ya
que por Hipótesis ϕ es una solución no prolongable.

Corolario 2.9 Si α > a ó β < b, entonces para todo conjunto compacto D ∗ ⊂ D, existe
un t ∈ (α, t0 ] ó t ∈ [t0 , β) tal que ϕ(t) 6∈ D ∗ .
§ 2.2. Prolongación de Soluciones 23

Un inconveniente que presenta el Teorema de existencia global en las aplicaciones, tiene


que ver con el conjunto compacto D∗ ; ya que no se sabe en general como construirlo.
En lo que sigue daremos algunas condiciones suficientes que garanticen la existencia de
soluciones globales.

Teorema 2.10 Supongamos que f ∈ C[J × Rn , Rn ] es localmente Lipschitz en la se-


gunda variable uniformemente con respecto a la primera variable y que existen funciones
M y N ∈ C[J, R+ ] tales que

||f (t, x)|| ≤ M (t) + N (t)||x|| , ∀(t, x) ∈ J × Rn .

Entonces todas las soluciones de (2.1) son globales; es decir, el dominio maximal de cada
solución es todo J.
Demostración. Por reducción al absurdo. Sea ϕ la única solución no prolongable del
p.v.i. (2.1)-(2.2) definida sobre el intervalo (α, β). Supongamos por ejemplo, que β < b.
Pongamos M1 = max{M (t) : t ∈ [t0 , β]}, N1 = max{N (t) : t ∈ [t0 , β]}. Como ϕ es
solución de (2.1)-(2.2) y teniendo en cuenta las condiciones del Teorema, se sigue que
Z t Z th i
||ϕ(t)|| ≤ ||x0 || + ||f (s, ϕ(s))||ds ≤ ||x0 || + M (s) + N (s)||ϕ(s)|| ds
t0 t0
Z t Z t
≤ ||x0 || + M (s)ds + N (s)||ϕ(s)||ds
t0 t0
Z t
≤ ||x0 || + M1 (β − t0 ) + N (s)||ϕ(s)||ds , ∀ t ∈ [t0 , β).
t0

Aplicando el Lema de Gronwall a la desigualdad anterior obtenemos


h i 
||ϕ(t)|| ≤ ||x0 || + M1 (β − t0 ) exp N1 (β − t0 ) , ∀ t ∈ [t0 , β).

Esto muestra que ϕ(t) pertenece a un compacto para todo t ∈ [t0 , β). Por el Teorema
2.8 se sigue que β = b, lo cual es una contradicción.

Corolario 2.11 Si f ∈ C[J × Rn , Rn ] es globalmente Lipschitz en su segunda variable


uniformemente con respecto a su primera variable, entonces las soluciones de (2.1) son
globales; es decir están definidas sobre todo J.
Esto sigue inmediatamente del Teorema 2.10 y del hecho que

||f (t, x)|| ≤ ||f (t, x) − f (t, 0)|| + ||f (t, 0)||, ∀ (t, x) ∈ J × Rn .

Las afirmaciones del Teorema 2.10 y del Corolario 2.11 en general son falsas si el
campo vectorial no está definido sobre todo Rn en su segunda variable. Por ejemplo,
considere la ecuación x′ = x2 con el campo vectorial restringido al intervalo (−1, 1). Es
claro que allı́ el campo vectorial es Globalmente Lipschitz, sin embargo las soluciones
no están definidas para todo t ∈ R.
24 Capı́tulo 2. Teorı́a General

§ 2.3 Continuidad de las Soluciones Respecto a los Datos Iniciales.

Hasta el momento, siempre hemos fijado un punto (t0 , x0 ) ∈ J × D y buscado luego la


solución de (2.1). El objetivo de este parágrafo consiste en estudiar el comportamiento
de las soluciones de la e.d.o. (2.1) en relación con la variación de los datos iniciales. Si
variamos “poco” los valores iniciales, cabe preguntarse
• ¿Cómo se comportarán las soluciones que corresponden a datos iniciales “cer-
canos” a (t0 , x0 )?.
• ¿Se mantendrán cercanas dichas soluciones?.
• Si esto sucede, ¿Sobre qué tipo de sub-intervalos del dominio de definición de la
solución se mantendrá la cercanı́a?.
Antes de precisar qué es lo que entenderemos por dependencia continua de las
soluciones respecto a los datos iniciales, analicemos el siguiente ejemplo

x0 b

t
t0

x∗0 b

Figura 2.3

Ejemplo 2.3 Sea x′ = x con x(t0 ) = x0 . Denotemos con x(t, t0 , x0 ) a su solución. En


este caso x(t, t0 , x0 ) = x0 exp(t − t0 ), con t ∈ R.
Es claro que x0 y x∗0 pueden estar tan cercanos como se desee, sin embargo
|x(t, t0 , x0 ) − x(t, t0 , x∗0 )| = exp(t − t0 ) | x0 − x∗0 |→ +∞, cuando t → +∞.
Sea J ∗ = [t0 − T1 , t0 + T2 ], con T1 > 0, T2 > 0 arbitrarios. Dado ε > 0, si | x0 − x∗0 |<
exp(−T2 ), entonces | x(t, t0 , x0 ) − x(t, t0 , x∗0 ) |< ε, ∀ t ∈ J ∗ .

Definición 2.1 (Dependencia Continua de las Soluciones de los Datos Iniciales)


Diremos que la solución x(t, t0 , x0 ) del p.v.i. (2.1)-(2.2) depende continuamente de los
datos iniciales (t0 , x0 ), si para todo ε > 0 y para todo intervalo compacto J ∗ contenido
en el dominio de x(·, t0 , x0 ), existe un entorno V del punto (t0 , x0 ) tal que para todo
(t∗0 , x∗0 ) ∈ V, la solución x(t, t∗0 , x∗0 ) está definida para todo t ∈ J ∗ y además
||x(t, t0 , x0 ) − x(t, t∗0 , x∗0 )|| < ε, ∀ t ∈ J ∗.
§ 2.3. Continuidad de las Soluciones Respecto a los Datos Iniciales. 25

En lo que sigue, procederemos a mostrar que bajo las hipótesis del Teorema de
Existencia y Unicidad las soluciones de (2.1) dependen continuamente de los datos
iniciales.
Probemos en primer lugar el siguiente Lema auxiliar.

Lema 2.12 Sea U un conjunto compacto contenido en J × D. Entonces existen cons-


tantes a∗ > 0 y b∗ > 0 tales que el conjunto
[
A= B(t0 , x0 )
(t0 ,x0 )∈U

es un subconjunto compacto de J × D, donde

B(t0 , x0 ) = {(t, x) : |t − t0 | ≤ a∗ , ||x − x0 || ≤ b∗ }.


Demostración. Como J × D es abierto,  para cada (t0 , x0 ) ∈ U existen
constantes
α > 0 y β > 0, tales que el conjunto (t, x) : |t − t0 | < α , ||x− x0 || < β está contenido
en J × D. Por lo tanto la unión de todos estos conjuntos forman un cubrimiento abierto
de U. Teniendo en cuenta la compacidad del conjunto U y el Lema del número Lebesgue,
se obtiene que existen constantes a∗ > 0 y b∗ > 0 tales que A ⊂ J × D.
Probemos que A es un conjunto compacto. Sea (t, x) ∈ A. Entonces existe un punto
(t0 , x0 ) ∈ U tal que | t − t0 |≤ a∗ y ||x − x0 || ≤ b∗ . Esto implica que

| t |≤| t − t0 | + | t0 |≤ a∗ + | t0 | , ||x|| ≤ ||x − x0 || + ||x0 || ≤ b∗ + ||x0 ||.

Teniendo en cuenta la compacidad del conjunto U , se sigue que A es un conjunto


acotado.
Para concluir
 la prueba
de nuestra afirmación mostremos que A es un conjunto
cerrado. Sea (tk , xk ) k∈N ⊂ A, una sucesión tal que lim (tk , xk ) = (t∗ , x∗ ).
k→∞
Por la construcción del conjunto A se sigue que para cada k ∈ N, existe un punto
(t0 , xk0 ) ∈ U tal que | tk − tk0 |≤ a∗ y ||xk − xk0 || ≤ b∗ . Como {(tk0 , xk0 )}k∈N ⊂ U, ella
k

posee una subsucesión convergente. Sin pérdida de generalidad podemos suponer que
ella misma es convergente; es decir, lim (tk0 , xk0 ) = (t̃0 , x̃0 ) ∈ U. Tiene lugar
k→∞

| t∗ − t̃0 | ≤ | t∗ − tk | + | tk − tk0 | + | tk0 − t̃0 |,


||x∗ − x̃0 || ≤ ||x∗ − xk || + ||xk − xk0 || + ||xk0 − x̃0 ||.

Haciendo tender k → ∞, obtenemos que | t∗ − t̃0 |≤ a∗ y ||x∗ − x̃0 || ≤ b∗ . Lo cual


prueba que (t∗ , x∗ ) ∈ A.
26 Capı́tulo 2. Teorı́a General

Teorema 2.13 (Dependencia Continua de los Datos Iniciales)


Bajo las hipótesis del Teorema de existencia y unicidad, las soluciones de (2.1) dependen
continuamente de los datos iniciales.
Demostración. Consideremos un conjunto compacto U ⊆ J × D. Sea A el conjunto
compacto dado por el Lema 2.12. Denotemos por M = max{||f (t, x)|| : (t, x) ∈ A} y

sea K > 0 la constante de Lipschitz de f A . Escojamos una constante δ > 0 de modo
que δ < min{a∗ , b∗ /M, 1/K}, con a∗ > 0 y b∗ > 0 las constantes dadas por el Lema
2.12.  
Consideremos el subconjunto C ∗ de C [−δ, δ], Rn formado por las funciones ϕ tales
que

a) ϕ(0) = 0,

b) ||ϕ(t)|| ≤ b∗ , ∀ t ∈ [−δ, δ].

Para cada y = (t0 , x0 ) ∈ U, definamos sobre C ∗ un operador Ty de la siguiente manera


Z t+t0
Ty ϕ(t) = f (s, ϕ(s − t0 ) + x0 )ds , t ∈ [−δ, δ]. (2.7)
t0

Es claro que si ϕ es un punto fijo de Ty , entonces

ϕ′ (t) = f (t + t0 , ϕ(t) + x0 ),

de donde se sigue que x(t) = ϕ(t − t0 ) + x0 es solución del p.v.i. (2.1)-(2.2), para todo
t ∈ [t0 − δ, t0 + δ].
Utilizando razonamientos análogos a los de la prueba del Teorema 2.2, se obtiene
que Ty : C ∗ → C ∗ es una contracción uniforme respecto a y, con y ∈ U. Además, Ty es
continuo en y. En efecto, realizando la transformación u = s − t0 en (2.7), obtenemos
Z th i
Ty ϕ(t) − Ty∗ ϕ(t) = f (u + t0 , ϕ(u) + x0 ) − f (u + t∗0 , ϕ(u) + x∗0 ) du
0
Z th i
= f (u + t0 , ϕ(u) + x0 ) − f (u + t0 , ϕ(u) + x∗0 ) du + (2.8)
0
Z th i
f (u + t0 , ϕ(u) + x∗0 ) − f (u + t∗0 , ϕ(u) + x∗0 ) du. (2.9)
0

La integral (2.8) se estima utilizando el hecho que f |A es globalmente Lipschitz y la


integral (2.9) se estima invocando la continuidad uniforme de f |A . Complete los detalles.
Por lo tanto, en virtud del Teorema 1.3 se sigue que ϕ(t, t0 , x0 ) es continua en (t0 , x0 )
sobre U, uniformemente en t con t ∈ [−δ, δ]. De donde a su vez concluimos que la función
x(t, t0 , x0 ) = x0 + ϕ(t − t0 , t0 , x0 ) es continua en (t0 , x0 ) sobre U, uniformemente en t,
con t ∈ [t0 − δ, t0 + δ].
Sea (t0 , x0 ) un punto cualquiera en J × D. Según el Teorema 2.6, existe una única
solución x(t, t0 , x0 ) no prolongable del p.v.i. (2.1)-(2.2), definida sobre un intervalo
(α, β), con a ≤ α, β ≤ b.
§ 2.3. Continuidad de las Soluciones Respecto a los Datos Iniciales. 27


t, x(t, t0 , x0 )

b b b b
(t0 , x0 ) b
b
b b
α t
t0 t0 + kδ τ β
t0 + nδ
t0 + δ t0 + (k + 1)δ
t0 + 2δ t0 + (n − 1)δ

Graf x(·, t0 , x0 )

Figura 2.4
Sea τ ∈ (α, β). Sin pérdida de generalidad, supongamos que τ > t0 , el caso τ < t0 se
analiza de manera análoga. Pongamos U = {(t, x(t, t0 , x0 )) : t ∈ [t0 , τ ]}, el cuál es un
subconjunto compacto de J × D. Por lo demostrado previamente, x(t, ξ, η) es continua
en (ξ, η) sobre U, uniformemente en t, con t ∈ [ξ − δ, ξ + δ].
Para probar que x(t, ξ, η) es continua en (ξ, η) uniformemente sobre [t0 , τ ] particio-
nemos el intervalo [t0 , τ ] como sigue

t0 < t1 < t2 < · · · < tk = t0 + kδ < tk+1 < · · · < tp−1 ≤ τ,

donde p es el menor entero positivo tal que t0 + (p − 1)δ ≤ τ < t0 + pδ.


Teniendo en cuenta la unicidad de las soluciones de (2.1)-(2.2), se sigue que

x(t + t1 , t0 , x0 ) = x(t + t1 , t1 , x(t1 , t0 , x0 )).

Lo cual implica que la continuidad de x(t, t0 , x0 ) en (t0 , x0 ) es uniforme sobre el intervalo


[t0 , t0 + 2δ]. Por lo tanto, x(s, ξ, η) es continua en (ξ, η) sobre U, uniformemente en s,
con s ∈ [ξ − 2δ, ξ + 2δ] ∩ [t0 , τ ].
Supongamos ahora que x(s, ξ, η) es continua en (ξ, η) sobre U, uniformemente sobre
[ξ − kδ, ξ + kδ] ∩ [t0 , T ]. Nuevamente, por la unicidad de las soluciones tenemos que

x(t + tk , t0 , x0 ) = x(t + tk , tk , x(tk , t0 , x0 )),

lo cual implica la continuidad de x(s; ξ, η) respecto de (ξ, η) ∈ U, uniformemente sobre


el intervalo [ξ − (k + 1)δ, ξ + (k + 1)δ] ∩ [t0 , τ ]. Esto concluye la prueba del Teorema.

Supongamos que el campo vectorial f satisface las condiciones del Teorema de exis-
tencia y unicidad. Sea (t0 , x0 ) en J ×D y denotemos por (α(t0 , x0 ), β(t0 , x0 )) al intervalo
maximal de existencia y unicidad de x(t, t0 , x0 ). Definamos el siguiente conjunto

Ω(f ) = (t, t0 , x0 ) : α(t0 , x0 ) < t < β(t0 , x0 ), (t0 , x0 ) ∈ J × D .
28 Capı́tulo 2. Teorı́a General

Al conjunto Ω(f ) se le llama dominio de definición de x(t, t0 , x0 ).


A partir del Teorema de existencia y unicidad y el Teorema sobre la dependencia
continua de las soluciones respecto a los datos iniciales, se sigue que Ω(f ) es un conjunto
abierto.

§ 2.4 Dependencia Continua de las Soluciones Respecto a


Parámetros

Consideremos ahora el siguiente p.v.i.

x′ (t) = f (t, x, µ), (2.10)

x(t0 ) = x0 . (2.11)
El sistema (2.10) representa una de las formas en que puede aparecer un parámetro µ
en las ecuaciones diferenciales. También podrı́a estar multiplicando a x′ (t). En general
(2.10) representa a una familia multiparamétrica de campos vectoriales.
Supongamos que para cada valor del parámetro µ, el sistema (2.10)-(2.11) posee una
única solución, la cual denotaremos por x(t, t0 , x0 , µ). Nuestro objetivo será averiguar
bajo qué condiciones y para qué valores de t se satisface que

lim x(t, t0 , x0 , µ) = x(t, t0 , x0 , µ0 ),


µ→µ0

con los parámetros variando en un conjunto abierto D1 ⊂ Rm .


Consideremos un circuito eléctrico formado por un condensador C y una inductancia
L, conectados como se indica en la figura 2.5

R
C i L C I L

(a) (b)
Figura 2.5

Despreciando la resistencia del conductor, la corriente i(t) se determina resolviendo


la ecuación diferencial
1
Li′′ (t) + i(t) = 0. (2.12)
C
En el caso que no despreciemos la resistencia R, la corriente I(t) viene dada por

1
LI ′′ (t) + RI ′ (t) + I(t) = 0. (2.13)
C
§ 2.4. Dependencia Continua de las Soluciones Respecto a Parámetros 29

Analicemos cuándo podemos despreciar R. Como nos interesa el comportamiento de


las soluciones de (2.13) para R pequeño, podemos suponer sin pérdida de generalidad
L 1/2
que 0 ≤ R < 2( C ) .
Integrando (2.12) y (2.13) obtenemos que

a) i(t) = Asen(ωt + ϕ),


√ 
b) I(t) = A exp(−αt)sen ω 2 − α2 t + ϕ ,
1
donde A y ϕ, son constantes de integración, ω = (LC)− 2 y α = R(2L)−1 .
Es claro que por cercanos que estén los datos iniciales (i(0), i′ (0)) e (I(0), I ′ (0)),
incluso, siendo iguales, las funciones i(t) e I(t) no pueden permanecer cercanas para
todo t ≥ 0, ya que i(t) es 2π− periódica, mientras que I(t) → 0, si t → +∞, (ver fig.
2.6).

i′ I′
 
i(0), i′ (0) I(0), I ′ (0) b
b

I
i

Figura 2.6
Este análisis nos permite concluir que no se puede despreciar la resistencia ejercida por
la lı́nea que conduce la corriente, por pequeña que sea, cuando t → +∞.
En lo que sigue mostraremos que el problema de la dependencia de las soluciones
respecto a un parámetro, se reduce al estudio de la continuidad de las soluciones de un
nuevo sistema de ecuaciones diferenciales equivalente al sistema original, respecto a los
datos iniciales. Denotemos por
     
x f (t, x, µ) x0
y= , F (t, y) = , y(t0 ) = y0 = .
µ 0 µ0

Es fácil mostrar que el p.v.i. (2.10)-(2.11) es equivalente al siguiente p.v.i.

y ′ = F (t, y), (2.14)

y(t0 ) = y0 . (2.15)
Teniendo en cuenta esta observación y el Teorema de la dependencia continua de las
soluciones respecto a los datos iniciales, es inmediato el siguiente
30 Capı́tulo 2. Teorı́a General

Teorema 2.14 (Dependencia Continua Respecto a Parámetros). Supongamos que se


verifican las condiciones siguientes:

a) f ∈ C[J × D × D1 , Rn ],

b) La función f es localmente Lipschitz respecto a su segunda y tercera variable.

Entonces, para todo dato inicial p0 = (t0 , x0 , µ0 ) ∈ J × D × D1 y un intervalo compacto


J ∗ contenido en el dominio de x(·, p0 ), existe un entorno U ∗ ≡ U ∗ (p0 ) tal que para
todo p∗0 = (t∗0 , x∗0 , µ∗0 ) ∈ U ∗ se tiene que J ∗ ⊂ Dom x(·, p∗0 ) y ∗lim x(t, p∗0 ) = x(t, p0 ),
p0 →p0
uniformemente en t, sobre J ∗ .

§ 2.5 Derivabilidad de las Soluciones Respecto a los Datos Iniciales


y a Parámetros

En esta sección mostraremos que las soluciones de (2.1) como funciones de los datos
iniciales heredan la suavidad que posea el campo vectorial f (t, x).

Teorema 2.15 Supongamos que:

i) f ∈ C[J × D, Rn ],
∂f
ii) existe y es continua sobre J × D.
∂x
Entonces la solución x(t; t0 , x0 ) del p.v.i. (2.1)-(2.2) es continuamente diferenciable en
todas sus variables. Además se verifica que

a) La matriz ∂x (t, t0 , x0 ) satisface la ecuación diferencial matricial


∂x0
 
′ ∂f 
Y = t, x(t, t0 , x0 ) Y, (2.16)
∂x

con Y (t0 ) = I. A la ecuación (2.16) se le llama ecuación diferencial variacional.

b) También se satisface que

∂x ∂x
(t, t0 , x0 ) = − (t, t0 , x0 )f (t0 , x0 ). (2.17)
∂t0 ∂x0
Demostración. Primero probaremos que ∂x (t, t0 , x0 ) existe, que es continua y sa-
∂x0
tisface (2.16). Sea h 6= 0 un número real arbitrario. Denotemos por

ek = (e1k , · · · , ejk , · · · , enk )T , ejk = 1, si j = k y ejk = 0 si j 6= k.

Con (·)T denotamos el vector transpuesto. Para mayor sencillez en los cálculos, denote-
mos por
x(t, h) = x(t, t0 , x0 + hek ) , x0 (t) = x(t, t0 , x0 ).
§ 2.5. Derivabilidad de las Soluciones Respecto a los Datos Iniciales y a Parámetros 31

Elijamos h suficientemente pequeño de modo que (x0 + (1 − s)hek ) ∈ D, para todo


s ∈ [0, 1].
Teniendo en cuenta la definición de x(t, h), se sigue que
 ′
x(t, h) − x0 (t) = f (t, x(t, h)) − f (t, x0 (t)). (2.18)

Aplicando el Lema 1.10 a la parte derecha de la expresión (2.18), con x2 = x(t, h),
x1 = x0 (t), obtenemos
Z 1 
 ′ ∂f  
x(t, h) − x0 (t) = (t, sx2 + (1 − s)x1 )ds x(t, h) − x0 (t) . (2.19)
0 ∂x

Poniendo
x(t, h) − x0 (t)
xh (t) = , con h 6= 0,
h
vemos que xh (t) es solución de (2.19), con xh (t0 ) = ek . Sea ϕ la única solución de (2.16)
tal que ϕ(t0 ) = ek . Mostremos que xh (t) → ϕ(t) cuando h → 0, uniformemente en t
sobre intervalos compactos contenidos en el dominio de x0 (t).
Sabemos que
Z t Z 1 
∂f
xh (t) = ek + (τ, sx2 + (1 − s)x1 )ds xh (τ )dτ,
t0 0 ∂x

y Z t 
∂f
ϕ(t) = ek + (τ, x(τ, t0 , x0 )) ϕ(τ )dτ.
t0 ∂x
Ası́, se tiene que
Z t Z 1

∂f
||xh (t) − ϕ(t)|| ≤ || (t, sx2 + (1 − s)x1 )ds|| · ||xh (t) − ϕ(t)||dt
t0 0 ∂x
(2.20)
Z t Z 1 
∂f ∂f
+ || (t, sx2 + (1 − s)x1 ) − (t, x(t, t0 , x0 )) ds|| · ||ϕ(t)||dt .
t0 0 ∂x ∂x

Sea J ∗ un intervalo compacto cualquiera contenido en el dominio de x0 (t), tal que


t0 ∈ J ∗ . Teniendo en cuenta que
Z 1
∂f ∂f 
lim (t, sx2 + (1 − s)x1 )ds = t, x(t, t0 , x0 ) ,
h→0 0 ∂x ∂x
uniformemente en t, sobre J ∗ ; se sigue que: dado ε > 0, existe un h0 > 0 tal que si
|h| < h0 , entonces
Z 1
∂f ∂f
|| (t, sx2 + (1 − s)x1 ) − (t, x(t, t0 , x0 ))||ds < ε; (2.21)
∂x ∂x
0
para cada t ∈ J ∗ .
32 Capı́tulo 2. Teorı́a General

Pongamos
 Z 1 
∂f ∗
M = max || (t, sx2 + (1 − s)x1 )ds|| : t ∈ J , h ∈ [−h0 , h0 ] . (2.22)
0 ∂x
Por lo tanto, en virtud de (2.19),(2.21) y (2.22), obtenemos
Z t

||xh (t) − ϕ(t)|| ≤ εM1 γ + M ||xh (t) − ϕ(t)||dt , ∀t ∈ J ∗ ,
t0

donde M1 = max∗ ||ϕ(t)|| y γ = longitud de J ∗ .


t∈J
Finalmente, aplicando el Lema de Gronwall a la desigualdad anterior, se tiene que

||xh (t) − ϕ(t)|| ≤ εM1 γ exp(M γ),

Lo cual prueba la primera parte de nuestra afirmación.


Probemos ahora que ∂x existe, es continua y viene dada por la expresión (2.17). Sea
∂t0
h 6= 0 suficientemente pequeño y
x(t, t0 + h, x0 ) − x(t, t0 , x0 )
x̃h (t) = .
h
Por la unicidad de las soluciones, tenemos que

x(t, t0 , x0 ) = x t, t0 + h, x(t0 + h, t0 , x0 ) .

Ası́
1h i
x̃h (t) = x(t, t0 + h, x0 ) − x t, t0 + h, x(t0 + h, t0 , x0 ) . (2.23)
h
Aplicando el Lema 1.10 a (2.23), obtenemos
Z 1 
1 ∂x  
x̃h (t) = (t, t0 + h, sx0 + (1 − s)x(t0 + h, t0 , x0 ))ds x0 − x(t0 + h, t0 , x0 )
h 0 ∂x0
Z 1 
1 ∂x  
=− (t, t0 + h, sx0 + (1 − s)x(t0 + h, t0 , x0 ))ds x(t0 +h, t0 , x0 )−x(t0 , t0 , x0 )
h 0 ∂x0
Z 1 Z 1
∂x 
=− (t, t0 + h, sx0 + (1 − s)x(t0 + h, t0 , x0 ))ds x′ t0 + (1 − s)h, t0 , x0 ds.
0 ∂x0 0
De esta expresión, haciendo tender h → 0, obtenemos el resultado deseado.

Consideremos el p.v.i. x′ = f (t, x, µ), x(t0 ) = x0 , y denotemos por x(t, t0 , x0 , µ) a


su solución. Teniendo en cuenta que (2.10)-(2.11) es equivalente al sistema (2.14) con
y(t0 ) = y0 , se sigue del Teorema 2.15 el siguiente

∂f ∂f
Corolario 2.16 Si f ∈ C[J × D × D1 , Rn ] y ∂x , ∂µ existen y son continuas sobre
J × D × D1 , entonces x(t, t0 , x0 , µ0 ) es continuamente diferenciable en todas sus variables.
Además se tiene que
§ 2.6. Fórmula de Alekseev 33

a) La matriz ∂x (t, t0 , x0 , µ0 ) satisface a la ecuación diferencial matricial variacional


∂x0
 
′ ∂f 
Y = t, x(t, t0 , x0 , µ0 ), µ0 Y
∂x
con Y (t0 ) = I.
∂x (t, t , x , µ ) es solución de
b) La matriz ∂µ 0 0 0
 
′ ∂f  ∂f 
Y = t, x(t, t0 , x0 , µ0 ), µ0 Y + t, x(t, t0 , x0 , µ0 ), µ0
∂x ∂µ
con Y (t0 ) = 0.
c)
∂x ∂x
(t, t0 , x0 , µ0 ) = − (t, t0 , x0 , µ0 )f (t0 , x0 , µ0 ).
∂t0 ∂x0

§ 2.6 Fórmula de Alekseev

A continuación vamos a deducir la Fórmula de Alekseev, la cual se obtiene como una


aplicación de la derivabilidad de las soluciones respecto de los datos iniciales. Esta
fórmula es muy útil para comparar el comportamiento de las soluciones de un sistema
cuando el campo vectorial es perturbado. Consideremos los sistemas
x′ = f (t, x) (2.24)

y = f (t, y) + g(t, y) (2.25)
donde f, g ∈ C 1 [J × D, Rn ].

Lema 2.17 (Fórmula de Alekseev [3]) Sean x(t, t0 , y0 ) e y(t, t0 , y0 ) soluciones de


los sistemas (2.24) y (2.25), respectivamente. Entonces se verifica la siguiente igualdad
Z t
 
y(t, t0 , y0 ) = x(t, t0 , y0 ) + Φ t, s, y(s, t0 , y0 ) g s, y(s, t0 , y0 ) ds, (2.26)
t0
donde Φ es la matriz solución del sistema variacional
∂f 
Z′ = t, y(t, t0 , y0 ) Z , Z(t0 ) = I.
∂x
Demostración. Por comodidad escribiremos y(t) en vez de y(t, t0 , x0 ). Entonces se
tiene que
d  ∂   ∂  
x(t, s, y(s) = x(t, s, y(s) + x(t, s, y(s) y ′ (s)
ds ∂s ∂y
  
= −Φ t, s, y(s) f (s, y(s)) + Φ t, s, y(s) f (s, y(s)) + g(s, y(s))

= Φ t, s, y(s) g(s, y(s)). (2.27)
Integrando (2.27) entre t0 y t y teniendo en cuenta que y(t0 ) = y0 , obtenemos que
Z t

Φ t, s, y(s) g(s, y(s))ds = x(t, t, y(t, t0 , y0 ) − x(t, t0 , y0 ) = y(t, t0 , y0 ) − x(t, t0 , y0 ).
t0
34 Capı́tulo 2. Teorı́a General

§ 2.7 Desigualdades Diferenciales Escalares

En esta sección vamos a estudiar desigualdades diferenciales escalares, las cuales serán
muy útiles para comparar el crecimiento y/o decrecimiento de las soluciones de e.d.o.
escalares.
Consideremos una función u ∈ C[(t0 , β), R], con β > t0 . Las derivadas de una
función en el sentido de Dini siempre existen y las denotaremos como sigue

u(t + h) − u(t)
D + u(t) = lim sup (2.28)
h→0+ h
u(t + h) − u(t)
D+ u(t) = lim inf (2.29)
h→0+ h
u(t + h) − u(t)
D− u(t) = lim sup (2.30)
h→0− h
u(t + h) − u(t)
D− u(t) = lim inf (2.31)
h→0− h

Cuando D+ u(t) = D+ u(t), a la derivada lateral derecha la denotaremos por u′+ (t).
Análogamente, a la derivada lateral izquierda la denotaremos por u′− (t).

Teorema 2.18 Sea Ω un conjunto abierto del plano (t, u) y sea g ∈ C[Ω, R]. Supon-
gamos que se verifican las siguientes condiciones
 
a) Las funciones v, w ∈ C [t0 , β), R , y (t, v(t)), (t, w(t)) ∈ Ω, ∀t ∈ [t0 , β).

b) v(t0 ) < w(t0 ) y para todo t ∈ [t0 , β) se verifican las siguientes desigualdades

D− v(t) ≤ g(t, v(t)), (2.32)


D− w(t) > g(t, w(t)). (2.33)

Entonces las funciones v(t) y w(t) satisfacen la siguiente desigualdad

v(t) < w(t), ∀t ∈ [t0 , β).


Demostración. La prueba la realizaremos por reducción al absurdo. Es decir supon-
dremos que el conjunto 
T = t ∈ [t0 , β) : w(t) ≤ v(t)
no es vacı́o. Denotemos por t1 = inf T. Es obvio que t1 > t0 , v(t1 ) = w(t1 ) y
v(t) < w(t), ∀t ∈ [t0 , t1 ).
Eligiendo h < 0 suficientemente pequeño, obtenemos que

v(t1 + h) − v(t1 ) w(t1 + h) − w(t1 )


> .
h h
De donde se obtiene que
D− v(t1 ) ≥ D− w(t1 ).
§ 2.7. Desigualdades Diferenciales Escalares 35

Teniendo en cuenta la desigualdad anterior y (2.32)-(2.33), se sigue


g(t1 , v(t1 )) ≥ D− v(t1 ) ≥ D− w(t1 ) > g(t1 , w(t1 )).
Lo cual es una contradicción ya que v(t1 ) = w(t1 ).
Utilizando una prueba similar a la del Teorema anterior, salvo obvias modificaciones,
tiene lugar el siguiente

Teorema 2.19 Sea Ω un conjunto abierto del plano (t, u) y sea g ∈ C[Ω, R]. Supon-
gamos que se verifican las siguientes condiciones
 
a) Las funciones v, w ∈ C [t0 , β), R , y (t, v(t)), (t, w(t)) ∈ Ω, ∀t ∈ [t0 , β).
b) w(t0 ) < v(t0 ) y para todo t ∈ [t0 , β) se verifican las siguientes desigualdades
D− v(t) > g(t, v(t)), (2.34)
D− w(t) ≤ g(t, w(t)). (2.35)

Entonces las funciones v(t) y w(t) satisfacen la siguiente desigualdad


w(t) < v(t), ∀t ∈ [t0 , β).

Teorema 2.20 Sea Ω un conjunto abierto del plano (t, u) y sea g ∈ C 1 [Ω, R]. Sea u(t)
la única solución no prolongable del p.v.i.
u′ = g(t, u) , u(t0 ) = u0 ,
definida sobre el intervalo [t0 , β).
Supongamos que existe una función v ∈ C[[t0 , β), R], v(t0 ) ≤ u0 , (t, v(t)) ∈ Ω, para
todo t ∈ [t0 , β), y
D− v(t) ≤ g(t, v(t)) , ∀t ∈ [t0 , β). (2.36)
Entonces u(t) y v(t) satisfacen la siguiente desigualdad
v(t) ≤ u(t), ∀t ∈ [t0 , β).
Demostración. Consideremos el siguiente p.v.i.
u′ = g(t, u) + ε , u(t0 ) = u0 + ε. (2.37)
Como g ∈ C 1 , se sigue que (2.37) posee una única solución uε (t) definida para todo
t ∈ [t0 , β) y uε (t) → u(t) cuando ε → 0, uniformemente sobre intervalos compactos
contenidos en [t0 , β). Además, de (2.37) se sigue que uε (t) satisface
u′ε (t) > g(t, uε (t)) , ∀t ∈ [t0 , β) y uε (t0 ) > v(t0 ). (2.38)
Aplicando el Teorema 2.18 a (2.36) y (2.38), obtenemos que
v(t) < uε (t) , ∀t ∈ [t0 , τ ] ⊂ [t0 , β).
De esta desigualdad y de la convergencia uniforme sobre compactos de uε (t), se sigue
nuestra afirmación.

Tiene lugar el siguiente


36 Capı́tulo 2. Teorı́a General

Teorema 2.21 Sea Ω un conjunto abierto del plano (t, u) y sea g ∈ C 1 [Ω, R]. Sea u(t)
la única solución no prolongable del p.v.i.

u′ = g(t, u) , u(t0 ) = u0 ,

definida sobre el intervalo [t0 , β).  


Supongamos que existe una función v ∈ C [t0 , β), R , v(t0 ) ≥ u0 , (t, v(t)) ∈ Ω, para
todo t ∈ [t0 , β), y
D− v(t) ≥ g(t, v(t)) , ∀t ∈ [t0 , β). (2.39)
Entonces u(t) y v(t) satisfacen la siguiente desigualdad

v(t) ≥ u(t), ∀t ∈ [t0 , β).

Esta afirmación se prueba de forma análoga al Teorema anterior.

§ 2.8 Ecuaciones Diferenciales con Parte Derecha Discontinua

En las secciones §2.1- §2.5, solo hemos considerado campos vectoriales continuos. Bajo
esta condición el p.v.i.(2.1)-(2.2) es equivalente a la ecuación integral
Z t
x(t) = x0 + f (s, x(s))ds.
t0

En la teorı́a de control automático, teorı́a de control óptimo, etc., surge la necesidad de


considerar campos vectoriales en general discontinuos en t. En esta sección estudiaremos
e.d.o., cuyo campo vectorial pertenece a una clase más general que la considerada hasta
el momento.

Definición 2.2 (Condición de Caratheodory) Se dice que f : J × D → Rn satisface la


condición de Caratheodory sobre J × D, si

a) Para cada x ∈ D, la función f (·, x) es medible Lebesgue.

b) Para cada t ∈ J, f (t, ·) es continua.

c) Para todo conjunto compacto U ⊂ J × D, existe una función m ∈ L1 [J¯], tal que

||f (t, x)|| ≤ m(t), ∀(t, x) ∈ U.

No es difı́cil mostrar que la condición c) es equivalente a


¯
d) Para todo P ∈ J × D, existe un entorno U ∗ del punto P y una función m∗ ∈ L1 [J],
tales que:

||f (t, x)|| ≤ m∗ (t), para cada (t, x) ∈ Ū ∗ , con Ū ∗ ⊂ J × D.


§ 2.8. Ecuaciones Diferenciales con Parte Derecha Discontinua 37

Notemos que si f satisface la condición de Caratheodory, entonces toda solución de la


ecuación integral (2.3) es absolutamente continua. Por esta razón, debemos pensar a
las soluciones de la e.d.o., en un sentido generalizado. Más precisamente, diremos que
ϕ : J1 → D es solución de x′ = f (t, x), con x(t0 ) = x0 , si ϕ es absolutamente continua
y satisface a la e.d.o., excepto un conjunto de medida cero y ϕ(t0 ) = x0 .
El siguiente Teorema es el análogo del Teorema de Peano.

Teorema 2.22 (Caratheodory)


Si f satisface la condición de Caratheodory sobre J ×D, entonces el p.v.i. (2.1)-(2.2) posee
al menos una solución.
Idea de la demostración. ◦
Sea U un compacto cualquiera de J × D, tal que (t0 , x0 ) ∈U . Sea m ∈ L1 , la función
dada por la condición de Caratheodory. Elija a∗ > 0 y b∗ > 0 de modo que

D∗ = (t, x) : | t − t0 |≤ a∗ , ||x − x0 || ≤ b∗ ⊂ U.
R t +δ
Escoja una constante δ de forma que 0 < δ < a∗ y t00 m(s)ds ≤ b∗ . El resto de la
demostración es exactamente igual a la prueba del Teorema Peano.
El Teorema 2.22 no garantiza la unicidad de las soluciones, para ello es necesario
imponer alguna condición adicional a f.

Definición 2.3 (Condición de Lipschitz Generalizada)


Diremos que f : J × D → Rn satisface la condición de Lipschitz generalizada, si para cada
conjunto compacto U ⊂ J × D, existe una función k ∈ L1 , tal que

||f (t, x1 ) − f (t, x2 )|| ≤ k(t)||x1 − x2 ||,

para cada (t, x1 ) y (t, x2 ) ∈ U.

Teorema 2.23 (Existencia y Unicidad de Soluciones no Prolongables)


Supongamos que:

a) f satisface la condición de Caratheodory.

b) f verifica la condición de Lipschitz generalizada. Entonces el p.v.i. (2.1)-(2.2) posee


una única solución no prolongable, definida sobre (α, β), con a ≤ α < β ≤ b.

Esbozo de la prueba
Primero se prueba la existencia y unicidad local. Para ello se fija un compacto U
como en el Teorema 2.22. Sean m y k en L1 las funciones dadas por la condición de
Caratheodory y Lipschitz generalizada, respectivamente. Sean a∗ > 0 y b∗ > 0, tales
que D∗ = {(t, x) :| t − t0 |≤ a∗ , ||x − x0 || ≤ b∗ } ⊂ U. Eligiendo una constante δ de modo
R t +δ R t +δ
que 0 < δ < a∗ , t00 m(s)ds ≤ b∗ y t00 k(s)ds < 1 postulando exactamente igual
que en la prueba del Teorema 2.2, se obtiene la existencia y unicidad local.
38 Capı́tulo 2. Teorı́a General

§ 2.9 Ejercicios y Problemas

1. Pruebe el Lema 2.1

2. Estudie la existencia y unicidad de las soluciones de los siguientes p.v.i.


1
a) x′ = x 3 , x(0) = x0 .
1 , x(0) = 1 .
b) x′ = x
c) x′ = 1 + x2 , x(0) = 0 .
xy
d) x′ = ,
1 + x2 + y 2
y′ = 1 2 ,
1+x
x(0) = y(0) = 0 .
e) (cos t)x′ + (sent)x = 1 , x(0) = 1 .
2
f) 2t ln |x| − 1 + t x+ 1 x′ = 0 , x(2) = −e.

3. Considere el circuito eléctrico formado por un condensador C y una inductancia L


L 1/2
conectados como se indica en la figura 2.5, p. 28 . Suponga que 0 ≤ R < 2( C ) .
Pruebe que las soluciones de las ecuaciones (2.12) y (2.13) vienen dadas por las
siguientes expresiones

a) i(t) = Asen(ωt + ϕ),


√ 
b) I(t) = A exp(−αt)sen ω 2 − α2 t + ϕ ,
1
respectivamente. Donde A y ϕ son constantes de integración, ω = (LC)− 2 y
α = R(2L)−1 .

4. Muestre que la condición de Lipschitz no es una condición necesaria para garan-


tizar la unicidad de las soluciones de una ecuación diferencial.
Indicación: Integre las siguientes ecuaciones diferenciales
2
i) x′ = 1 + x 3 , x(0) = 0 .
ii) x′ = g(x), x(0) = x0 , donde
(
x ln |x| , si x 6= 0
g(x) =
0 , si x = 0 .

5. Sea U = (t, x) ∈ R2 : |t| ≤ a, |x| ≤ b| y f : U → R una función continua tal que

f (t, x) < 0, si tx > 0 y f (t, x) > 0, si tx < 0.

Pruebe que x(t) = 0 es la única solución del p.v.i. x′ = f (t, x), x(0) = 0.
§ 2.9. Ejercicios y Problemas 39

6. Considere el siguiente sistema

x′ = g(x) ,
y ′ = f (x)y ′ ,

donde g : Rn → Rn es una función globalmente Lipschitz y f ∈ C[Rn , R]. Pruebe


que todas las soluciones de este sistema están definidas sobre R.
7. Sea f ∈ C 1 [Rn , Rn ] una función acotada. Muestre que el sistema x′ = f (x) con
x(0) = x0 , posee una única solución definida sobre todo R y además es dos veces
continuamente diferenciable.
8. Pruebe que las soluciones de la ecuación diferencial

x(n) + sen(x) = 0

existen, son únicas y están definidas para todo t ∈ R.


9. Pruebe que todas las soluciones del sistema
 
′ 1
x = tg ,
1 + y2
 
′ xy
y = sec ,
1 + x2 + y 2

existen, son únicas y están definidas para todo t ∈ R.


10. El movimiento de un péndulo simple en ausencia de fricción está descrito por la
siguiente ecuación diferencial
g
θ ′′ (t) + senθ(t) = 0.
l
Donde θ es el ángulo de desplazamiento del péndulo medido respecto de la vertical,
l es la longitud del péndulo y g la aceleración de gravedad. Pruebe que las
soluciones de la ecuación del péndulo simple existen, son únicas y están definidas
para todo t ∈ R.
11. Pruebe que todas las soluciones de las ecuaciones de Van der Pol

x′′ + ε(x2 − 1)x′ + x = 0 , ε > 0,

son prolongables a +∞. Indicación: reduzca la ecuación a un sistema bidimen-


sional y estime el crecimiento de la norma Euclı́dea al cuadrado de las soluciones.

12. Pruebe que todas las soluciones de la ecuación

x′′ + x2 x′ + x = 0,

son prolongables a +∞.


40 Capı́tulo 2. Teorı́a General

13. Pruebe que las soluciones de la ecuación diferencial

x′ = x(1 − x) − xf (x)

están definidas para todo t ∈ R. Donde f ∈ C 1 [R, R+


0 ].
Indicación: Utilice los Teoremas de comparación.

14. Sea f ∈ C 1 [J × Rn ]. Supongamos que existe una función k ∈ L1 [J, R+


0 ] tal que

||f (t, x) − f (t, y)|| ≤ k(t)||x − y||, ∀(t, x), (t, y) ∈ J × Rn .

Pruebe que todas las soluciones de x′ = f (t, x) están definida para todo t ∈ J.

15. Supongamos que existe k ∈ C[J, R+ ], tal que

||f (t, x) − f (t, y)|| ≤ k(t)||x − y||, ∀ (t, x), (t, y) ∈ J × Rn .

Demuestre que si f es continua, entonces el p.v.i. y ′ = f (t, y) , y(t0 ) = y0 , posee


una única solución definida ∀ t ∈ J.

16. Sea f : R × Rn → Rn . Si ϕ es una solución no prolongable del sistema x′ = f (t, x)


definida sobre (α, β), −∞ < α < β < +∞, entonces

lim ||ϕ(t)|| = +∞ , lim ||ϕ(t)|| = +∞.


t→β − t→α+

17. Sea f ∈ C 1 [R × Rn , Rn ] tal que

||f (t, x)|| ≤ k(t)δ(||x||), ∀(t, x) ∈ R × Rn ,

donde k ∈ C[R, R+ + +
0 ] , δ ∈ C[R0 , R0 ] , δ(0) = 0 ; δ(v) > 0, ∀ v > 0 y
Z ∞
dv
= ∞.
0 δ(v)

Pruebe que todas las soluciones del sistema x′ = f (t, x) son prolongables a +∞.
Indicación: Estime el crecimiento de la función v 2 =< x, x > a lo largo de las
soluciones del sistema.

18. Sea f : R → R una función continua y acotada. Sea ϕn : [0, 1] → R una sucesión
de soluciones de la e.d.o. x′ = f (x).
Pruebe que: si ϕn converge para algún t∗ ∈ [0, 1], entonces existe una subsucesión,
que converge a una solución de x′ = f (x).
Indicación: Aplique el Lema de Arzela-Ascoli al conjunto H = {ϕ1 , ϕ2 , · · · }.

19. Sea x′ (t) = 2t+µx2 , x(t0 ) = x0 , y Denotemos su solución por x(t, t0 , x0 , µ). Halle
∂x(t, t0 , x0 , µ)
∂µ en el punto (t, 0, −1, 0).
§ 2.9. Ejercicios y Problemas 41

20. Sea x′′ + 3x′ = 2 sin t + µ(x′ )2 , x(t0 ) = x0 , x′ (t0 ) = x′0 . Halle ∂x , ∂x′ , ∂x en el
∂x0 ∂x0 ∂µ
punto (t, 0, 0, 0, 0).

21. Si el sistema x′ = f (x) no admite soluciones no prolongables a +∞, entonces


existe un cambio de la variable independiente, tal que las soluciones del sistema
transformado son prolongables a +∞.
Indicación: Realice una transformación de la variable temporal como sigue
Z tp
τ (t) = 1 + ||f (ϕ(s))||2 ds , t ∈ [0, β) , β < +∞.
0
42 Capı́tulo 2. Teorı́a General
Capı́tulo 3

Sistemas Lineales

En este capı́tulo estudiaremos sistemas lineales de ecuaciones diferenciales ordinarias.


En este caso se puede obtener información mas detallada sobre el comportamiento de
sus soluciones, la cuál será muy útil al momento de estudiar la dinámica de ecuaciones
diferenciales no lineales.
Un sistema de la forma
x′ = A(t)x, (3.1)
se denomina lineal homogéneo y uno del tipo

y ′ = A(t)y + f (t), (3.2)

se denomina sistema lineal no homogéneo, donde A ∈ C[J, Rn×n ] y f ∈ C[J, Rn ] .


Mostremos que (3.2) admite una única solución para cualquier problema de valor
inicial. En efecto, denotemos por F (t, y) = A(t)y + f (t). Como A y f son continuas,
se sigue que F también es continua y se verifica que

||F (t, y)|| ≤ kA(t)k∗ ||y|| + ||f (t)||, ∀ (t, y) ∈ J × Rn ,

donde || · ||∗ es cualquier norma para matrices. Luego, por el Teorema de prolongación
global 2.10, se sigue que (3.2) admite una única solución definida sobre el intervalo J.
En otras palabras el intervalo de continuidad de las funciones A(t) y f (t) determina el
intervalo maximal de existencia y unicidad de las soluciones del sistema (3.2).

§ 3.1 Sistemas Lineales Homogéneos

Lema 3.1 P Con las operaciones usuales de suma y producto por un escalar de funciones
el conjunto = {ϕ : J → Rn tal que ϕ satisface (3.1)} es un espacio vectorial de
dimensión n.
P
Demostración.P Es obvio que es un subespacio vectorial del espacio C[J, Rn ].
Mostremos que n
es isomorfo a R . Para ello consideremos los siguientes p.v.i.

x′ = A(t)x , x(t0 ) = ej ,

donde {ej }nj=1 es la base canónica de Rn . Es claro que para cada j existe P una única
solución del p.v.i.,
P a esta solución la denotaremos por ϕj . Entonces ϕj ∈ , yP
el ope-
rador T : Rn → , definido por T ej = ϕj , induce un isomorfismo Pn entre R n y . En
n
efecto, si x0 ∈ R , existen constantes c1 , . . . , cn , tales
P P que x0 = i=1 ci ei . LuegoP por
ser T lineal, T x0 = ni=1 ci ϕi . Definiendo ϕ(t) = ni=1 ci ϕi , obtenemos que ϕ ∈ y
satisface la condición inicial x(t0 ) = x0 .

Teniendo en cuenta la prueba del Lema 3.1 y el hecho que un isomorfismoPenvı́a


bases en bases, se sigue que {ϕ1 , . . . , ϕn } es una base del sub-espacio vectorial .

43
44 Capı́tulo 3. Sistemas Lineales

P
Definición
P 3.1 A cualquier conjunto de funciones ϕj ∈ , j = 1, . . . , n, que sea base
de lo llamaremos sistema fundamental de soluciones del sistema (3.1).
n×n cuyas columnas son las componentes de
P A la matriz Φ : J → R
Definición 3.2
alguna base de se le llama matriz fundamental del sistema (3.1). Cuando Φ(t0 ) = I, a
Φ se le llama matriz fundamental principal del sistema (3.1).
De la definición de matriz fundamental se sigue inmediatamente que Φ′ (t) = A(t)Φ(t).
Entonces toda solución del sistema homogéneo (3.1), tiene la forma x(t) = Φ(t)C,
donde C es un vector constante en Rn a determinar. En particular, cuando x(t0 ) = x0 ,
se obtiene que C = Φ−1 (t0 )x0 . Ası́, la única solución del sistema lineal homogéneo (3.1)
tal que x(t0 ) = x0 , viene dada por la expresión

x(t, t0 , x0 ) = Φ(t)Φ−1 (t0 )x0 . (3.3)

A la matriz K(t, t0 ) = Φ(t)Φ−1 (t0 ) se le llama matriz de transición (operador de


evolución) del sistema (3.1). Además, el operador de evolución K(t, t0 ) satisface las
siguientes propiedades

a) La matriz de transición es única.

b) K(t, t0 ) = K(t, s)K(s, t0 ) , ∀ t0 ≤ s ≤ t , (propiedad semigrupal).

c) K −1 (t, t0 ) = K(t0 , t),

d) K(t0 , t0 ) = I,

e) ∂K (t, t0 ) = A(t)K(t, t0 ).
∂t
Una propiedad interesante de las matrices soluciones del sistema (3.1) es que son siem-
pre singulares o no-singulares. Es decir, es suficiente que una matriz solución sea no
singular en un instante t0 para que ella sea no singular para todo t en J. Esta afirmación
se sigue inmediatamente del siguiente

Teorema 3.2 (Liouville). Sea Φ(t) una matriz solución del sistema (3.1). Entonces
Z t 
W (t) = det Φ(t) = W (t0 ) exp trA(s)ds , ∀ t ∈ J.
t0

A la función W (t) se le denomina el Wronskiano de Φ(t) y trA = traza de A(t) =


P n
i=1 aii (t) .
Demostración. Se sabe que
 
ϕ11 · · · ϕ1n ϕ11 · · · ϕ1n

Xn . . . . . . . . . . . . . . . . . . . .
  ′ ′  
W ′ (t) = det Φ(t) = ϕ · · · ϕ′in , donde Φ(t) =  · · · ϕin 
i1  ϕi1 .
i=1 . . . . . . . . . . . . . . . . . . . .
ϕn1 · · · ϕnn ϕn1 · · · ϕnn
§ 3.1. Sistemas Lineales Homogéneos 45

Como Φ es una matriz ′



Pn solución del sistema (3.1), se tiene que Φ = A(t)Φ. De donde
se sigue que ϕij = k=1 aik ϕkj . Sustituyendo estas expresiones en el determinante

ϕ11 · · · ϕ1n

. . . . . . . . . .

ϕ · · · ϕ′in ,
i1
. . . . . . . . . .

ϕn1 · · · ϕnn

multiplicando la primera fila por −ai1 , la segunda por −ai2 y ası́ sucesivamente, excepto
la i−ésima fila; y sumándoselas a la i−ésima fila, obtenemos que

ϕ11 · · · ϕ1n

. . . . . . . . . .

ϕ · · · ϕ′in = aii W (t).
i1
. . . . . . . . . .

ϕn1 · · · ϕnn

Lo cual inmediatamente implica que W ′ (t) = trA(t)W(t). Esto prueba nuestra afir-
mación.

Supongamos ahora que A(t) es una matriz constante y la seguiremos denotando con la
misma letra. Definamos
X∞
At An tn
e = .
n=0
n!

Teniendo en cuenta que

kAn tn k∗ kAkn∗ |t|n


i) ≤ ,
n! n!
P∞ kAkn∗ |t|n
ii) n=0 < ∞,
n!
P
obtenemos que eAt está bien definida. Más aún como ∞ n n
n=0 A t /n! converge uniforme-
mente sobre compactos, cada término de la serie es infinitamente diferenciable y la serie
de las derivadas término a término, también es uniformemente convergente. Lo cual
implica que Φ(t) = eAt satisface la ecuación matricial lineal homogénea


X ∞
X
An tn−1 An−1 tn−1
Φ′ (t) = n =A = AΦ(t) , Φ(0) = I.
n! (n − 1)!
n=1 n=1

Ası́, hemos mostrado que para sistemas lineales a coeficientes constantes la matriz
fundamental principal viene dada por Φ(t) = eAt .
46 Capı́tulo 3. Sistemas Lineales

§ 3.2 Sistemas Lineales No-Homogéneos

Consideremos el sistema lineal no homogéneo (3.2). Especı́ficamente, nuestro objetivo


es hallar una expresión para las soluciones de (3.2) en términos de las soluciones del
sistema lineal homogéneo (3.1). El método que emplearemos para nuestro propósito
es el método de variación de parámetros. Sea Φ(t) la matriz fundamental del sistema
(3.1). Busquemos las condiciones que debe satisfacer la función C : J → Rn para que
y(t) = Φ(t)C(t) , t ∈ J, sea solución del sistema (3.2). Luego, derivando y reemplazando
y(t) = Φ(t)C(t) en (3.2), obtenemos que

Φ′ (t)C(t) + Φ(t)C ′ (t) = A(t)Φ(t)C(t) + f (t) , t ∈ J.

Teniendo en cuenta que Φ′ = A(t)Φ , se sigue que

Φ(t)C ′ (t) = f (t) , t ∈ J.

Integrando esta expresión obtenemos que y(t) = Φ(t)C(t) es solución del sistema (3.2)
si y sólo si
Z t
C(t) = C0 + Φ−1 (s)f (s) ds , t ∈ J,
t0

donde C0 ∈ Rn es un vector constante.


Ası́, la expresión general para las soluciones de (3.2) es
Z t
y(t) = Φ(t)C0 + Φ(t) Φ−1 (s)f (s) ds , t ∈ J. (3.4)
t0

Si además de (3.2) tenemos el dato inicial y(t0 ) = y0 , entonces C0 = Φ−1 (t0 )y0 y la
única solución de (3.2) tal que y(t0 ) = y0 viene dada por
Z t
y(t, t0 , y0 ) = K(t, t0 )y0 + K(t, s)f (s) ds , t ∈ J. (3.5)
t0

§ 3.3 Sistema Lineal Conjugado

Definición 3.3 Diremos que dos funciones x(t) y z(t) son conjugadas, si

< x(t), z(t) >= cte.,

para todo t ∈ J. < ·, · > denota al producto escalar de Rn .

Sea x(t) una solución del sistema (3.1) y z(t) una función diferenciable. Si x(t) y z(t)
son funciones conjugadas , entonces

< x′ (t), z(t) > + < x(t), z ′ (t) >= 0 , t ∈ J.


§ 3.4. Sistemas Reducibles 47

Luego, como x(t) es solución de (3.1) se sigue que

< x(t), AT (t)z(t) + z ′ (t) >= 0 , t ∈ J,

y para toda solución x(t) de (3.1). Lo cual implica que necesariamente z(t) debe
satisfacer la siguiente ecuación diferencial

z ′ (t) = −AT (t)z(t) , t ∈ J. (3.6)

En efecto, supongamos que existe un t∗ tal que

z ′ (t∗ ) + AT (t∗ )z(t∗ ) = z0 6≡ 0.

Sea x(t) la solución del sistema (3.1) tal que x(t∗ ) = z0 . Luego

< x(t∗ ), AT (t∗ )z(t∗ ) + z ′ (t∗ ) >= ||z0 ||2 6= 0.

Lo cual es una contradicción.


Al sistema (3.6) se le llama sistema lineal conjugado. Sea Φ(t) la matriz fundamental
del sistema (3.1). Derivando la identidad

Φ(t)Φ−1 (t) = I,

se obtiene que

0 = Φ′ Φ−1 + Φ(Φ−1 )′ . = A(t) + Φ(Φ−1 )′

De donde se sigue que


(Φ−1 )′ = −Φ−1 A(t) , t ∈ J.
Es decir, (ΦT )−1 es la matriz fundamental del sistema lineal conjugado (3.6).

Observación 3.1 En teorı́a de control óptimo y en programación lineal, frecuentemente


asociado al problema que se desea resolver, se plantea otro problema llamado Problema
Dual. En algunas teorı́as este problema dual se obtiene o viene a dar condiciones necesarias
para resolver el problema original. Es de destacar aquı́ que tales problemas duales son en
realidad los sistema conjugados asociados al sistema original.

§ 3.4 Sistemas Reducibles

Definición 3.4 Diremos que el sistema (3.1) es reducible, si existe una matriz L ∈
C 1 [R, Rn×n ], no singular, con L y L′ acotadas, tal que la transformación x = L(t)z,
reduce el sistema (3.1) a un sistema con coeficientes constantes de la forma z ′ = Bz,
donde B = L−1 (AL − L′ ) .
Una vez vistas las ventajas que presentan los sistemas lineales a coeficientes constantes
resulta natural buscar condiciones que permitan caracterizar a los sistemas reducibles.
En este sentido tenemos el siguiente
48 Capı́tulo 3. Sistemas Lineales

Teorema 3.3 (Eruguin) El sistema (3.1) es reducible si y sólo si la matriz de transición


del sistema (3.1) se puede expresar como sigue

K(t, t0 ) = L(t)eB(t−t0 ) L−1 (t0 ), (3.7)

para alguna matriz constante B.


Demostración. Supongamos que el sistema (3.1) es reducible al sistema z ′ = Bz,
mediante la transformación x = L(t)z . Definamos Φ(t) = L(t)eBt . Derivando Φ y
teniendo en cuenta que L′ = AL − LB , obtenemos que

Φ′ = L′ eBt + LBeBt = ALeBt = AΦ.

Lo cual muestra que Φ(t) = L(t)eBt es matriz fundamental del sistema (3.1). Luego,
la matriz de transición de (3.1) satisface (3.7). En efecto,

K(t, t0 ) = Φ(t)Φ−1 (t0 ) = L(t)eBt e−Bt0 L−1 (t0 ) = L(t)eB(t−t0 ) L−1 (t0 ) .

Probemos ahora la suficiencia. Supongamos que se satisface la relación (3.7) y


definamos x = L(t)z. Entonces x′ = L′ (t)z + L(t)z ′ . De (3.1) y la expresión anterior,
se obtiene que
L(t)z ′ = A(t)x(t) − L′ (t)z = [A(t)L(t) − L′ (t)]z.
Lo cual implica que
z ′ = L−1 (t)[A(t)L(t) − L′ (t)]z. (3.8)
De (3.7), se sigue que
L(t) = K(t, t0 )L(t0 )e−B(t−t0 ) .
y

L′ (t) = A(t)K(t, t0 )L(t0 )e−B(t−t0 ) − K(t, t0 )L(t0 )Be−B(t−t0 ) = A(t)L(t) − L(t)B.

Finalmente, sustituyendo L′ (t) en la ecuación (3.8), obtenemos que z ′ = Bz . Lo cual


prueba la reducibilidad del sistema (3.1)

§ 3.5 Sistemas Lineales Homogéneos a Coeficientes Periódicos

La búsqueda de soluciones periódicas para sistemas del tipo y ′ = f (t, y) es equivalente


a resolver un problema de frontera del tipo y(0) = y(ω), donde ω > 0 representa el
perı́odo de la solución buscada. Este tipo de problemas es de gran importancia práctica.
En este parágrafo consideraremos el sistema (3.1) bajo la condición adicional que
A(t) es una matriz ω−periódica. En este caso decimos que el sistema (3.1) es ω−pe-
riódico. Mostraremos que los sistemas lineales ω-periódicos son reducibles a sistemas
con coeficientes constantes. Probemos en primer lugar el siguiente Lema auxiliar.

Lema 3.4 Sea C una matriz real e invertible. Entonces existe una matriz B, en general
compleja, tal que eB = C.
§ 3.5. Sistemas Lineales Homogéneos a Coeficientes Periódicos 49

Demostración. Dada la matriz C, denotemos por λ1 , · · · , λm a los autovalores de


la matriz que generan los bloques elementales de Jordan. Entonces existe una matriz
invertible T tal que T −1 CT = J, donde J = diag[J1 , . . . , Jm ], Ji = λi I + Si y Si es una
matriz nilpotente del tipo
 
0 1 0 0 0
 0 0 1 0 0 
 
Si =  0 0 0 1 0 .

 0 0 0 0 1 
0 0 0 0 0
Observemos que es suficiente probar el lema para un bloque elemental de Jordan. En
efecto, si para cada i = 1, . . . , m, existe una matriz Bi tal que Ji = eBi , entonces
C = T JT −1 = T diag [J1 , . . . , Jm ] T −1 = T diag [eB1 , . . . , eBm ]T −1
= T eB̃ T −1 = eT B̃T = eB
−1
,
donde B̃ = diag[B1 , . . . , Bm ] y B = T B̃T −1 .
Luego, podemos suponer sin perder  generalidad,
 que la matriz C tiene la forma
C = λI + S , (λ 6= 0), o bien C = λ I + S . Pongamos ahora
λ
 
S
B = (ln λ)I + ln I + .
λ
La matriz B está bien definida, ya que al ser S una matriz nilpotente existe p ∈ N tal
que S k = 0 , ∀ k ≥ p + 1 , lo cual implica que
 p
S  X (−1)k+1 S k
∞ X (−1)k+1 S k
S1 = ln I + = = .
λ kλk kλk
k=1 k=1

Por otra parte,



X p
X
Sk Sk
eB = e(ln λ)I+S1 = λeS1 = λ 1
=λ 1
.
k! k!
k=0 k=0
Sustituyendo en la expresión anterior el desarrollo de S1 y después de un tedioso cálculo
se obtiene que eB = λ(I + S/λ) = C.

Observación 3.2 La matriz B no está determinada de manera única, puesto que si


eB = C, también es cierto que para la matriz B1 = B + (2kπi)I, (k ∈ N) se satisface que
eB1 = C.

Teorema 3.5 (Floquet 1883) Si Φ(t) es una matriz fundamental del sistema ω−periódico
(3.1), entonces existe una matriz invertible P ∈ C 1 [R, Rn×n ] tal que P (t + ω) = P (t) y
una matriz constante B tal que
Φ(t) = P (t)eBt . (3.9)
50 Capı́tulo 3. Sistemas Lineales

Demostración. Supongamos en primer lugar que Φ(0) = I. Teniendo en cuenta la


periodicidad de la matriz A(t) se tiene que Φ′ (t + ω) = A(t + ω)Φ(t + ω) = A(t)Φ(t + ω).
Lo cual implica que Φ(t + ω) también es una matriz fundamental del sistema (3.1) y
por tanto, existe una matriz constante C tal que Φ(t + ω) = Φ(t)C. Luego, poniendo
t = 0 se sigue que Φ(ω) = Φ(0)C = C. Lo cual implica que Φ(t + ω) = Φ(t)Φ(ω), de
donde se obtiene que
Φ(t) = Φ(t + ω)Φ−1 (ω).
Por ser Φ(ω) una matriz no singular, por el Lema 3.4, existe una matriz B tal que
Φ(ω) = eBω . Definamos P (t) = Φ(t)e−Bt . Evidentemente P (t) es una matriz invertible
y satisface (3.9). Mostremos que P es ω−periódica

P (t + ω) = Φ(t + ω)e−Bω e−Bt = Φ(t + ω)Φ−1 (ω)e−Bt = Φ(t)e−Bt = P (t).

Sea ahora Φ1 una matriz fundamental arbitraria del sistema (3.1). Luego se tiene que

Φ1 (t) = Φ(t)Φ1 (0) = P (t)eBt Φ1 (0) = P (t)Φ1 (0)Φ−1 Bt


1 (0)e Φ1 (0)
−1
= P (t)Φ1 (0)eΦ1 (0)BtΦ1 (0)
.

Denotando con P1 (t) = P (t)Φ1 (0) , B1 = Φ−1 1 (0)BΦ1 (0), obtenemos que Φ1 (t) =
P1 (t)eB1 t . Lo cual concluye la prueba del teorema.

A partir del Teorema de Floquet se obtiene el siguiente


Corolario 3.6 Todo sistema ω−periódico es reducible a un sistema con coeficientes
constantes.
Demostración. Realicemos la transformación x = P (t)z, donde la matriz P (t) viene
dada por el Teorema de Floquet. Derivando a lo largo de las soluciones del sistema
ω−periódico (3.1), obtenemos

P (t)z ′ = x′ − P ′ (t)z = AP (t)z − P ′ z.

Teniendo en cuenta esta ecuación y que

P (t) = Φ(t)e−Bt , P ′ (t) = Φ′ (t)e−Bt − P (t)B , Φ′ (t) = A(t)Φ(t),

se obtiene que z ′ = Bz.

Definición 3.5 (Matriz de Monodromı́a) Se sabe que si Φ(t) es una matriz fundamental
de (3.1), Φ(t + ω) también lo es. Por lo tanto existe una matriz invertible C tal que
Φ(t + ω) = Φ(t)C. A la matriz C se le llama matriz de monodromı́a.

Definición 3.6 (Multiplicadores Caracterı́sticos) A los autovalores de la matriz de mo-


nodromı́a C los llamaremos multiplicadores caracterı́sticos del sistema (3.1).
§ 3.5. Sistemas Lineales Homogéneos a Coeficientes Periódicos 51

Mostremos que los multiplicadores caracterı́sticos no dependen de la elección de la


matriz fundamental. En efecto, sean Φ y Ψ dos matrices fundamentales de (3.1).
Luego, existen matrices C y D tales que Φ(t + ω) = Φ(t)C y Ψ(t) = Φ(t)D. De donde
se sigue que
Ψ(t + ω) = Φ(t + ω)D = Φ(t)CD = Ψ(t)D −1 CD .

Lo cual muestra que D−1 CD es una matriz de monodromı́a para Ψ semejante a la


matriz C. Lo cual prueba nuestra afirmación. Basándose en la observación ante-
rior podemos definir los multiplicadores caracterı́sticos de una forma equivalente a la
definición anterior.

Definición 3.7 (Multiplicadores y Exponentes Caracterı́sticos) Sea Φ la matriz funda-


mental principal del sistema (3.1). Llamaremos multiplicadores caracterı́sticos del sistema
(3.1) a los autovalores de la matriz Φ(ω) y exponentes caracterı́sticos del sistema (3.1) a
los autovalores de la matriz B que aparece en la representación (3.9).

Recordemos que en general la matriz B es compleja. Pero es obvio que existe una
relación entre los multiplicadores caracterı́sticos y los exponentes caracterı́sticos. Te-
niendo en cuenta que
1
B = LnΦ(ω),
ω
donde Ln es el logaritmo de una matriz compleja, la cual es una función matricial multi-
valuada. Luego, usando las propiedades de los autovalores de una matriz compleja,
se obtiene que: si λ es un multiplicador caracterı́stico, entonces el correspondiente
exponente caracterı́stico viene dado por

1 1 arg λ 2kπ
ρ= Lnλ = ln |λ| + i+ i , k ∈ Z.
ω ω ω ω

Teorema 3.7 λ es un multiplicador caracterı́stico del sistema ω−periódico (3.1) si y sólo


si existe una solución no trivial ϕ de (3.1) tal que ϕ(t + ω) = λϕ(t) , t ∈ R.
Demostración. Sea λ un multiplicador caracterı́stico de (3.1). Llamemos x0 al au-
tovector correspondiente a λ y sea ϕ la solución del p.v.i. x′ = A(t)x , x(0) = x0 .
Teniendo en cuenta que ϕ(t) = Φ(t)x0 , donde Φ es la matriz fundamental principal de
(3.1), se sigue que

ϕ(t + ω) = Φ(t + ω)x0 = Φ(t)Φ(ω)x0 = Φ(t)λx0 = λϕ(t), t ∈ R.

Para probar la afirmación recı́proca es suficiente poner t = 0 en la expresión ϕ(t + ω) =


λϕ(t) , t ∈ R.
Una consecuencia inmediata del Teorema 3.7 es el siguiente

Corolario 3.8 El sistema (3.1) admite una solución ω−periódica no constante si y sólo
si existe al menos un multiplicador caracterı́stico es igual a 1.
52 Capı́tulo 3. Sistemas Lineales

Observación 3.3 Si λ = −1 es un multiplicador caracterı́stico del sistema (3.1), del


Teorema 3.7 se sigue que existe una solución no nula ϕ tal que ϕ(t+ω) = −ϕ(t), ∀ t ∈ R. Lo
cual implica que ϕ(t+2ω) = −ϕ(t+ω) = ϕ(t), es decir, ϕ es 2ω−periódica. Análogamente,
si λ = epπi/q es un multiplicador caracterı́stico, con p, q ∈ N,entonces el sistema (3.1)
admite una solución 2qω−periódica. En efecto, sabemos que

ϕ(t + ω) = epπi/q ϕ(t).

En general, si reemplazamos ω por 2qω y procedemos por inducción, se obtiene que

ϕ(t + 2qω) = ϕ(t + (2q − 1)ω + ω) = λϕ(t + (2q − 1)ω) = · · ·


= λ2q ϕ(t) = e2pπi ϕ(t) = (cos 2pπ + isen2pπ)ϕ(t) = ϕ(t).

§ 3.6 Sistemas Lineales ω-Periódicos No Homogéneos

Consideremos el sistema no homogéneo

y ′ (t) = A(t)y(t) + f (t), (3.10)

con A y f continuas y ω-periódicas. Como es natural buscaremos información acerca de


la periodicidad de las soluciones del sistema (3.10) a partir de los resultados obtenidos
para el sistema lineal homogéneo. Ası́ tenemos el siguiente

Teorema 3.9 Si la única solución ω−periódica del sistema homogéneo (3.1) es la solución
trivial, entonces el sistema (3.10) admite una única solución ω−periódica no constante.
Demostración. Sea ψ(t) una solución de (3.10) tal que ψ(0) = y0 . La cual viene dada
por Z t
ψ(t) = Φ(t)y0 + Φ(t)Φ−1 (s)f (s)ds, (3.11)
0
donde Φ(t) es la matriz fundamental principal del sistema (3.1). Se sabe que ψ(t) es una
solución ω−periódica de (3.10) si y sólo si ψ(ω) = ψ(0). Teniendo en cuenta este hecho
y (3.11), obtenemos que los datos iniciales y0 que pueden generar soluciones periódicas
deben ser soluciones de la siguiente ecuación
Z ω
y0 = Φ(ω)y0 + Φ(ω)Φ−1 (s)f (s)ds.
0

De donde se sigue Z ω
[I − Φ(ω)]y0 = Φ(ω)Φ−1 (s)f (s)ds.
0
Como el sistema homogéneo no posee soluciones ω−periódicas, entonces los multipli-
cadores caracterı́sticos son distintos de 1 y por ende det[I − Φ(ω)] 6= 0. Por lo tanto
existe un único dato inicial que genera una solución ω−periódica y viene dado por la
siguiente expresión
Z ω
−1
y0 = [I − Φ(ω)] Φ(ω)Φ−1 (s)f (s)ds.
0
§ 3.6. Sistemas Lineales ω-Periódicos No Homogéneos 53

Reemplazando y0 dado por la expresión anterior en (3.11), obtenemos que la única


solución ω−periódica del sistema (3.10) es
Z ω Z t
−1 −1
ψ(t) = Φ(t)(I − Φ(ω)) Φ(ω)Φ (s)f (s)ds + Φ(t)Φ−1 (s)f (s)ds. (3.12)
0 0

Definamos la matriz de Green

G(t, s) : [0, ω] × [0, ω] → Rn×n

como la única matriz que satisface las siguientes propiedades

1. lim G(t, s) − lim G(t, s) = I,


t→s+ t→s−

2. G(0, s) = G(ω, s),

3. ∂G (t, s) = A(t)G(t, s), ∀ t 6= s,


∂t
∂G ∂G
4. lim (t, s) − lim (t, s) = A(s).
t→s+ ∂t t→s ∂t

Sea Φ la matriz fundamental principal del sistema (3.1). Definamos una matriz
G(t, s) : [0, ω] × [0, ω] → Rn×n como sigue
(
Φ(t)[I − Φ(ω)]−1 Φ−1 (s) si 0 ≤ s ≤ t ≤ ω,
G(t, s) = −1 −1
(3.13)
Φ(t + ω)[I − Φ(ω)] Φ (s) si 0 ≤ t < s ≤ ω.

Es fácil mostrar que G(t, s) es la matriz de Green asociada al sistema (3.1), ver ejerci-
cio 7.

Lema 3.10 Si la única solución ω−periódica del sistema homogéneo (3.1) es la solución
trivial, entonces la única solución ω−periódica no constante del sistema (3.10) viene dada
por Z ω
ψ(t) = G(t, s)f (s)ds , t ∈ [0, ω], (3.14)
0
donde la matriz G(t, s) está definida en (3.13).
Demostración. En efecto, de (3.12) obtenemos
Z ω Z t 
−1 −1 −1
ψ(t) = Φ(t)[I − Φ(ω)] Φ(ω)Φ (s)f (s)ds + [I − Φ(ω)] Φ (s)f (s)ds
0 0
Z ω Z t 
−1 −1 −1
= Φ(t)[I − Φ(ω)] Φ(ω)Φ (s)f (s)ds + Φ (s)f (s)ds .
t 0

Teniendo en cuenta la expresión anterior y el hecho que

[I − Φ(ω)]−1 Φ(ω) = Φ(ω)[I − Φ(ω)]−1 , Φ(t)Φ(ω) = Φ(t + ω),


54 Capı́tulo 3. Sistemas Lineales

obtenemos que
Z t Z ω Z ω
ψ(t) = G(t, s)f (s)ds + G(t, s)f (s)ds = G(t, s)f (s)ds.
0 t 0

Denotemos por Cω al conjunto de las funciones continuas y ω−periódicas definidas


sobre [0, ω]. Definamos un operador K : Cω → Cω como sigue
Z ω
(Kf )(t) = G(t, s)f (s)ds, t ∈ [0, ω].
0

Del Lema 3.10 y de la definición de la matriz de Green se desprende el siguiente

Lema 3.11 Si el sistema (3.1) no posee soluciones ω−periódicas no triviales, entonces


el operador lineal K está bien definido y existe una constante M > 0 que no depende de la
función f tal que
||Kf ||0 ≤ M ||f ||0 , ∀f ∈ Cω .
El siguiente Teorema relaciona las soluciones ω−periódicas del sistema lineal no ho-
mogéneo con las soluciones ω−periódicas del sistema conjugado asociado a (3.1).

Teorema 3.12 El sistema lineal no homogéneo (3.10) posee soluciónes ω−periódicas si


y sólo si para cualquier solución z(t) del sistema conjugado (3.6) se verifica que
Z ω
< z(s), f (s) > ds = 0.
0
Demostración. Se sabe que ψ(t) es una solución ω−periódica del sistema (3.10) si y
sólo si ψ(0) = ψ(ω). Lo cual es equivalente a
Z ω
[I − Φ(ω)]ψ(0) = Φ(ω)Φ−1 (s)f (s)ds, (3.15)
0

donde Φ(t) es la matriz fundamental principal del sistema ω−periódico (3.1). Por otra
parte, la expresión (3.15) es una ecuación lineal del tipo Ez = b, E es un operador
lineal, la cual posee solución si y sólo si < b, ξ >= 0 para cualquier solución ξ de la
ecuación ET ξ = 0.1 Poniendo E = I − Φ(ω) y ξ = ψ(0), obtenemos que (3.15) posee
soluciones si y sólo si
Z ω Z ω
< ψ(0), Φ(ω)Φ−1 (s)f (s)ds >= ψ T (0)Φ(ω)Φ−1 (s)f (s)ds = 0, (3.16)
0 0

para cualquier ψ(0) tal que [I − φ(ω)]T ψ(0) = 0, o bien lo que es lo mismo

ψ T (0)[I − Φ(ω)] = 0.

De donde se sigue que ψ T (0) = ψ T (0)Φ(ω). Reemplazando esta expresión en (3.16),


obtenemos Z ω
ψ T (0)Φ−1 (s)f (s)ds = 0. (3.17)
0
1
ver Apéndice §10.2
§ 3.6. Sistemas Lineales ω-Periódicos No Homogéneos 55

Toda solución z(t) del sistema conjugado (3.6) con z(0)R = ψ(0) viene dada por z(t) =
ω
[Φ−1 (t)]T ψ(0). Sustituyendo z(t) en (3.17), obtenemos 0 z T (s)f (s)ds = 0.

Hasta el momento todas las condiciones que tenemos para garantizar la existencia de
soluciones periódicas para sistemas lineales involucra el cálculo de los multiplicadores
caracterı́sticos, la cual es una tarea extremadamente complicada.2 El siguiente resul-
tado nos provee una condición suficiente para la existencia de soluciones periódicas, la
cual en la práctica es mas fácil de chequear.

Teorema 3.13 Supongamos que el sistema (3.10) posee al menos una solución acotada
en [0, +∞). Entonces dicho sistema admite una solución ω−periódica no constante.
Demostración. Sea Φ(t) la matriz fundamental principal del sistema homogéneo y
ψ(t) una solución de (3.10) acotada sobre [0, +∞) tal que ψ(0) = y0 . Entonces
Z ω
ψ(ω) = Φ(ω)y0 + Φ(ω)Φ−1 (s)f (s)ds.
0

Como el sistema (3.10) es ω−periódico, entonces ψ(t+ω) también es solución de (3.10).


De donde se sigue que
Z t
ψ(t + ω) = Φ(t)ψ(ω) + Φ(t)Φ−1 (s)f (s)ds.
0

Poniendo t = ω, obtenemos
Z ω
ψ(2ω) = Φ(ω)ψ(ω) + Φ(ω)Φ−1 (s)f (s)ds = Φ2 (ω)y0 + [Φ(ω) + I]V,
0

donde Z ω
V = Φ(ω)Φ−1 (s)f (s)ds.
0
Procediendo por inducción, obtenemos
k−1
X
k
ψ(kω) = Φ (ω)y0 + Φi (ω)V , k ∈ N.
i=0

Si se supone que el sistema (3.10) no posee soluciones ω−periódicas, entonces

[I − Φ(ω)]z 6= V , ∀ z ∈ Rn . (3.18)

En efecto, supongamos que


Z ω
[I − Φ(ω)]z = V = Φ(ω)Φ−1 (s)f (s)ds,
0
2
ver sección §3.7
56 Capı́tulo 3. Sistemas Lineales

para algún z ∈ Rn . Entonces la función


Z t
ϕ(t) = Φ(t)z + Φ(t)Φ−1 (s)f (s)ds
0

es una solución ω−periódica de (3.10).


De (3.18) se deduce que det[I − Φ(ω)] = 0; ya que de lo contrario la ecuación
[I − Φ(ω)]z = V tendrı́a solución. Por lo tanto existe C 6= 0 tal que

[I − Φ(ω)]T C = 0 y < V, C >6= 0.

De donde se sigue que C = ΦT (ω)C y por ende C = [ΦT (ω)]k C, para todo k ∈ N.
Teniendo en cuenta la definición de ψ(kω), obtenemos que
k−1
X
< ψ(kω), C > = < Φk (ω)y0 + Φi (ω)V, C >
i=0
k−1
X
T k
= < y0 , [Φ (ω)] C > + < V, [ΦT (ω)]i C >
i=0
k−1
X
= < y0 , C > + < V, C >=< y0 + kV, C >→ +∞,
i=0

cuando k → +∞. Lo que contradice la acotación de ψ sobre [0, +∞).

El resultado anterior se puede generalizar para ecuaciones diferenciales escalares no


lineales.
 
Teorema 3.14 (Massera) Supongamos que f ∈ C 1 R2 , R y f (t, x) es ω− periódica
en t. Si la ecuación x′ = f (t, x) tiene una solución acotada sobre el intervalo [a, +∞),
entonces x′ = f (t, x) posee una solución ω− periódica.
Demostración. Sea ϕ una solución acotada sobre J = [a, +∞). Definamos una
sucesión ϕn : J → R como sigue ϕn (t) = ϕ(t + nω). Es obvio que la sucesión está
uniformemente acotada en J. Además son soluciones de la ecuación x′ = f (t, x). En
efecto

ϕ′n (t) = ϕ′ (t + nω) = f (t + nω, ϕ(t + nω)) = f (t, ϕ(t + nω)) = f (t, ϕn (t)).

Consideremos dos casos:

1.- Existe un t0 ≥ a tal que ϕ(t0 ) = ϕ1 (t0 ). Por el Teorema de Existencia y Unicidad

ϕ(t) = ϕ1 (t) = ϕ(t + ω), ∀t ∈ J.

Lo cual implica que ϕ es ω− periódica.

2.- ϕ(t) 6= ϕ1 (t) para todo t ≥ a. Es decir


§ 3.6. Sistemas Lineales ω-Periódicos No Homogéneos 57

i) ϕ(t) < ϕ1 (t), ∀t ∈ J,


ii) ϕ(t) > ϕ(t), ∀t ∈ J.

Supongamos que ocurre i). En este caso se tiene que

ϕn (t) = ϕ(t + nω) < ϕ1 (t + nω) = ϕ(t + (n + 1)ω) = ϕn+1 (t) ∀t ∈ J.

Análogamente se prueba que si ocurre ii), ϕn (t) > ϕn+1 (t), ∀t ∈ J.


Por lo tanto, en ambos casos la sucesión {ϕn } es monótona y acotada. Lo cual
implica que la sucesión es convergente. Pongamos ϕ∗ (t) = limn→∞ ϕn (t).
La sucesión {ϕn } es uniformemente convergente. En efecto, consideremos el con-
junto
H = {ϕn : [a, a + ω] → R, n ≥ 1}.
Denotemos por
 
b = max |ϕ(t)| : t ∈ [a, ∞) , M = max |f (t, x)| : (t, x) ∈ [a, a + ω] × [−b, b] .

Teniendo en cuenta esto, obtenemos que

|ϕ′n (t)| = |f (t, ϕn (t))| ≤ M, ∀t ∈ [a, a + ω].

Por lo tanto, el conjunto H es equicontinuo y uniformemente acotado. Por el Lema de


Arzela-Ascoli el conjunto H es relativamente compacto. Haciendo tender n → ∞ en
Z t
ϕn (t) = ϕn (a) + f (t, ϕn (s))ds, ∀t ∈ [a, a + ω],
a

obtenemos Z t
∗ ∗
ϕ (t) = ϕ (a) + f (t, ϕ∗ (s))ds, ∀t ∈ [a, a + ω].
a
Por lo tanto, ϕ∗ es solución de la ecuación x′ = f (t, x) y además es ω− periódica, ya
que
ϕ∗ (t) = lim ϕn (t) = lim ϕn+1 (t) = lim ϕn (t + ω) = ϕ∗ (t + ω).
n→∞ n→∞ n→∞
58 Capı́tulo 3. Sistemas Lineales

§ 3.7 Comentarios y Sugerencias

En este capı́tulo sólo hemos considerado sistemas lineales del tipo (3.2) donde A(t)
y f (t) son continuas sobre J. Cuando A(t) y f (t) son localmente integrables todos
los resultados de las secciones §3.1 al §3.5 siguen siendo válidos. La única variación
consiste en que las soluciones se entenderán como funciones absolutamente continuas
que satisfacen (3.2) casi en todas partes sobre J.
En la sección §3.6 nos referimos a la reducibilidad de sistemas lineales en el sentido
de Liapunov. Sin embargo, es importante en la práctica considerar la reducibilidad en
un sentido más amplio. Más concretamente, cuando el sistema (3.1) se reduce a uno
cuya matriz es de la forma  
C1 (t) 0
.
0 C2 (t)
Notemos que este concepto de reducibilidad es compatible con el que se introduce en
Algebra Lineal, ver [17]. Esto tiene importantes conexiones con la teorı́a de dicotomı́as
exponenciales, para su estudio recomendamos ver el excelente libro escrito por Coppel
[5].
Para finalizar, acotemos que respecto a los sistemas ω−periódicos solo hemos tocado
los resultados más elementales. En general, el problema de hallar soluciones periódicas
dista de estar totalmente resuelto; muy por el contrario, es profusa la bibliografı́a
referente a este tema. Incluso, el problema de hallar o estimar a los multiplicadores
caracterı́sticos es un problema resuelto solo en casos muy particulares (ver [15], pág.
121).
§ 3.8. Ejercicios y Problemas 59

§ 3.8 Ejercicios y Problemas

1. Halle la matriz fundamental principal de los siguientes sistemas

(a) x′1 = x2 ,
x′2 = −x1 .
(b) x′1 = 2x1 + x2 ,
x′2 = x1 + 4x2 .

2. Si Φ(t) es una matriz solución del sistema homogéneo X ′ = A(t)X e invertible


para algún t0 , entonces Φ(t) es invertible para todo t ∈ J.

3. Pruebe que la matriz de transición satisface las propiedades a) − e), página 44.

4. Muestre que la matriz fundamental de un sistema lineal periódico no necesaria-


mente es periódica. Indicación: considere el siguiente sistema
x′ = x,
y ′ = (sent)x + y .

5. Sean a, b : R → R funciones continuas y ω−periódicas.


Pruebe que laR ecuación y ′ = a(t)y + b(t) posee una única solución
Rω ω−periódica si
ω
y sólo si exp( 0 a(s)ds) 6= 1. Estudie el caso cuando exp( 0 a(s)ds) = 1.

6. Pruebe que el sistema x′ = A(t)x posee k−soluciones ω−periódicas no constantes


y linealmente independiente si y sólo si el sistema conjugado y ′ = −AT (t)y posee
k−soluciones ω−periódicas no constantes y linealmente independiente.

7. Pruebe que la matriz G(t, s) definida en la sección §3.6, pag. 53 por la fórmula
(3.13) es una matriz de Green.

8. Pruebe el Lema 3.11.

9. Sean A y B dos matrices n × n. Use técnicas de ecuaciones diferenciales para


mostrar que
eA+B = eA eB
si y sólo si AB = BA.
Indicación: considere las soluciones del sistema x′ = (A + B)x.

10. Pruebe que el sistema (3.1) no admite soluciones ω−periódicas no constantes si


y sólo si  
rango I − K(t0 + ω, t0 ) = n
donde K(t, t0 ) es la matriz de transición del sistema.

11. Sea f ∈ C 1 [R × D, Rn ] una función ω−periódica en su primera variable; es decir


f (t + ω, y) = f (t, y), ∀t ∈ R. Pruebe que: Una función ϕ : R → D es una solución
ω−periódica del sistema y ′ = f (t, y) si y sólo si ϕ(0) = ϕ(ω).
60 Capı́tulo 3. Sistemas Lineales

12. Sea f ∈ C 1 [R × R, R] una función ω−periódica en su primera variable. Suponga


que todas las soluciones de la ecuación diferencial y ′ = f (t, y) están definidas
sobre el intervalo [0, ω]. Pruebe que los puntos fijos de la aplicación y0 → ϕ(ω, y0 )
corresponden a los datos iniciales que generan las soluciones ω−periódicas de la
ecuación diferencial. A la aplicación T y0 = ϕ(ω, y0 ) se le llama la aplicación de
Poincaré ó aplicación del primer retorno.
Indicación: Use el ejercicio 11.

13. Suponga que se verifican las condiciones del ejercicio 12, y que existen constantes
a < b tales que f (t, a) > 0 y f (t, b) < 0 para todo t ∈ R. Pruebe que para todo
y0 ∈ [a, b]
ϕ(t, y0 ) ∈ [a, b], ∀t ≥ 0.
En este caso se dice que el intervalo es positivamente invariante bajo el flujo
generado por la ecuación diferencial y ′ = f (t, y).
Pruebe que la ecuación diferencial y ′ = f (t, y) posee al menos una solución
ω−periódica.
Indicación: Utilice la invariancia del intervalo [a, b] para construir la aplicación
de Poincaré.

14. Considere el sistema ω−periódico x′ = A(t)x, y sean ρi , i = 1, . . . , n sus multipli-


cadores caracterı́sticos. Pruebe que
n
Y Z ω 
ρi = exp tr A(t)dt .
i=1 0

15. Sean a1 y a2 funciones continuas y ω−periódicas. Sean ϕ1 y ϕ2 soluciones


ω−periódicas de la ecuación

x′′ + a1 (t)x′ + a2 (t)x = 0,

donde ϕ1 (0) = 1 , ϕ′1 (0) = 0 , ϕ2 (0) = 0 , ϕ′2 (0) = 1. Muestre que la ecuación
2

 Rω  viene dada por λ −Aλ+B = 0,
para determinar los multiplicadores caracterı́sticos
donde A = ϕ1 (ω) + ϕ2 (ω) , B = exp − 0 a1 (t) .
Indicación: Reduzca la ecuación a un sistema bidimensional y utilice el Teorema
de Liouville.
Capı́tulo 4

Sistemas Autónomos

§ 4.1 Clasificación de Orbitas. Conjuntos α y ω Lı́mites

Consideremos el sistema autónomo


x′ = g(x), con g ∈ C 1 [D, Rn ]. (4.1)
Al conjunto D lo denominaremos espacio de fase.
En esta sección trataremos los sistemas autónomos por separado; ya que estos sis-
temas poseen ventajas que no poseen los sistemas no-autónomos. Por ejemplo es fácil
mostrar que las soluciones del sistemas (4.1) son invariantes por traslaciones en la va-
riable temporal. Más adelante iremos mostrando mas propiedades que no poseen los
sistemas no-autónomos.
Siempre supondremos que g ∈ C 1 [D, Rn ], con el fin de simplificar la exposición.
A pesar que sabemos que para garantizar la existencia, la unicidad y la dependencia
continua de los datos iniciales de las soluciones de (4.1) es suficiente exigir que g sea
localmente Lipschitz.
Supongamos que las soluciones del sistema (4.1) están definidas para todo t ∈ R.
Definamos una familia de operadores T (t) : D → D con t ∈ R, como sigue T (t)x0 =
x(t, x0 ), donde x(t, x0 ) es la solución de (4.1) tal que x(0, x0 ) = x0 . Es fácil verificar
que la familia de aplicaciones no lineales {T (t)}t∈R satisface las siguientes propiedades
(a) T (0)x0 = x0 ,
(b) T (t) es una aplicación de clase C 1 .
(c) T (t + τ )x0 = T (t)T (τ )x0 para todo t, τ ∈ R
A toda familia de operadores {T (t)}t∈R que satisfaga las propiedades (a) − (c) se le
denomina sistema dinámico. En la literatura lo usual es llamar flujo a un sistema
dinámico.
Notemos que la aplicación T (t) : D → D es invertible, ya que T (t)T (−t)x0 =
T (t − t)x0 = x0 . Por lo tanto, la familia de operadores {T (t)}t∈R es una familia uni-
paramétrica de difeomorfismo sobre D.
Supongamos ahora que {T (t)}t∈R es un sistema dinámico sobre D y definamos
d
g(x) = T (t)x t=0 .
dt
Es claro que g es un campo vectorial de clase C 1 y las soluciones del p.v.i.
x′ = g(x) , x(0) = x0 ,
vienen dadas por x(t, x0 ) = T (t)x0 .
Ahora, vamos a introducir una serie de definiciones que necesitaremos para comen-
zar a estudiar la dinámica de ecuaciones diferenciales autónomas.

61
62 Capı́tulo 4. Sistemas Autónomos

Definición 4.1 (Orbitas) Sea ϕ una solución de (4.1), ϕ(0) = p, definida para todo
t ∈ R. Definimos la semiórbita positiva de ϕ como:

γp+ = {x : x = ϕ(t), t ≥ 0},

y la semiórbita negativa de ϕ como:

γp− = {x : x = ϕ(t), t ≤ 0}.

En el caso que no se especifique ningún punto, escribiremos simplemente γ, γ + , γ − para


la órbita, semiórbita positiva y semiórbita negativa, respectivamente. Donde γ = γ + ∪ γ − .

A la representación de todas las órbitas de un sistema la denominaremos diagrama


de fase del sistema. Notemos que infinitas soluciones del sistema (4.1) se pueden proyec-
tar en la misma órbita, ya que ϕ(t + c) es solución de (4.1) ∀c ∈ R. Geométricamente,
todo sistema autónomo siempre admite una familia de soluciones cuyas proyecciones
dan origen a una sola órbita .

Definición 4.2 (Punto de Equilibrio) Diremos que x0 es un punto de equilibrio del sis-
tema (4.1), si g(x0 ) = 0. También se suele decir que x0 es un punto singular del campo
vectorial, si g(x0 ) = 0. Cuando g(x0 ) 6= 0 se dice que x0 es un punto regular del campo
vectorial.

El siguiente teorema nos dice que dos órbitas del sistema (4.1), o nunca se intersecan o
bien coinciden. Además, justifica el estudio de los sistemas autónomos por separado, ya
que proyectando sobre el espacio de fase las soluciones del sistema todavı́a nos permite
obtener información valiosa del comportamiento cualitativo de las soluciones del sistema
original. Lo cual no es posible para las ecuaciones diferenciales no-autónomas

Teorema 4.1 Supongamos que g ∈ C 1 [D, Rn ]. Por cada p ∈ D, pasa una única órbita
del sistema (4.1).
Demostración. La existencia de una órbita de (4.1) a través del punto p ∈ D se sigue
de la existencia y unicidad de las soluciones de (4.1).
Supongamos que por un punto p pasan dos órbitas γ1 6≡ γ2 , tales que γ1 ∩ γ2 6= ∅.
Entonces existen t1 , t2 ∈ Domϕ1 ∩ Domϕ2 tales que ϕ1 (t1 ) = ϕ2 (t2 ) = p ; donde ϕ1 y
ϕ2 son soluciones de (4.1) que generan las órbitas γ1 y γ2 , respectivamente. Definamos
ψ(t) = ϕ1 (t − t2 + t1 ). Es obvio que ψ es solución de (4.1) y ψ(t2 ) = ϕ1 (t1 ) = ϕ2 (t2 ).
Luego, por la unicidad de las soluciones de (4.1) se tiene que ψ(t) = ϕ2 (t), ∀t ∈ R.
De modo que la órbita de ψ coincide con la de ϕ2 . Pero ψ es igual a ϕ1 salvo desplaza-
mientos de fase. Por lo tanto la órbita de ψ coincide con la órbita de ϕ1 . Contradicción

Corolario 4.2 Si x0 es un punto de equilibrio del sistema (4.1), entonces la única órbita
que pasa por x0 es ella misma.
§ 4.1. Clasificación de Orbitas. Conjuntos α y ω Lı́mites 63

Teorema 4.3 Si ϕ : (α, β) → Rn es una solución no prolongable del sistema (4.1), tal
que
(a) lim ϕ(t) = B y/o
t→β −

(b) lim ϕ(t) = A,


t→α+

con A, B ∈ D. Entonces β = +∞ y/o α = −∞. Además B y/o A es un punto de equilibrio


de (4.1).
Demostración. Supongamos que lim ϕ(t) = B ∈ D. Entonces β = +∞, ya que si
t→β −
β < ∞, ϕ se podrı́a prolongar a la derecha de β. Lo cual contradice el hecho que ϕ es
no prolongable.
Ahora, como ϕ es solución de (4.1), entonces ϕ′ (t) = g(ϕ(t)), de donde sigue que

lim ϕ′ (t) = lim g(ϕ(t)) = g(B),


t→+∞ t→+∞

ya que g es continua.
Probemos que g(B) = 0. Como lim ϕ′ (t) = g(B), entonces para todo ε > 0 existe
t→+∞
T > 0 tal que ||ϕ′ (t) − g(B)|| < ε, ∀t ≥ T.
Supongamos que existe i, 1 ≤ i ≤ n, tal que gi (B) 6= 0. Entonces gi (B) > 0 ó
gi (B) < 0.
Si ocurre que gi (B) > 0, entonces existe T1 > 0 tal que
gi (B)
gi (ϕ(t)) ≥ , ∀t ≥ T1 .
2
Luego, se tiene que
gi (B)
ϕ′i (t) = gi (ϕ(t)) ≥ , ∀t ≥ T1 ,
2
de donde sigue
gi (B)
ϕ′i (t) ≥ , ∀t ≥ T1 .
2
Integrando la última inecuación obtenemos
gi (B)
ϕi (t) ≥ ϕi (T1 )) + (t − T1 ), ∀t ≥ T1 .
2
lo cual implica que no existe el lı́mite de ϕ(t) cuando t → +∞, lo que es una con-
tradicción. Análogamente se hace la prueba si gi (B) < 0.

Observación 4.1 Si ϕ : R → D es una solución no constante del sistema (4.1), entonces


ϕ se puede acercar a un punto crı́tico solamente cuando t → +∞ ó t → −∞.

Teorema 4.4 (Clasificación de Orbitas ) Sea ϕ una solución no prolongable del sistema
(4.1), definida sobre (α, β), −∞ ≤ α, β ≤ +∞. Entonces se verifica una de las siguientes
opciones :
64 Capı́tulo 4. Sistemas Autónomos

(1) ϕ es inyectiva,

(2) ϕ es constante,

(3) ϕ es periódica no constante.

Para demostrar este teorema usaremos el siguiente lema auxiliar.

Lema 4.5 Sea ϕ : R → Rn una función continua y definamos

T = {c ∈ R : ϕ(t + c) = ϕ(t), ∀ t ∈ R}.

Si T 6= ∅, entonces existe un τ > 0 tal que T = τ Z ó T es denso en R.


Demostración. En primer lugar probemos que T es un subgrupo aditivo de R. En
efecto, como R es un grupo aditivo, entonces basta ver que :

(a) Si c1 , c2 ∈ T, entonces (c1 + c2 ) ∈ T.

(b) Si c ∈ T, entonces existe c1 ∈ T : c + c1 = 0.

Supongamos que c1 , c2 ∈ T. Entonces ϕ(t + c1 ) = ϕ(t) y ϕ(t + c2 ) = ϕ(t), ∀t ∈ R.


Luego se tiene que

ϕ(t + (c1 + c2 )) = ϕ((t + c1 ) + c2 ) = ϕ(t + c1 ) = ϕ(t),

por lo que c1 + c2 ∈ T.
Sea c ∈ T. Luego ϕ(t + c) = ϕ(t), ∀t ∈ R. Entonces

ϕ(t − c) = ϕ((t − c) + c) = ϕ(t);

por lo que −c ∈ T.
Veamos que T es cerrado topológicamente en R. En efecto, sea (cn ) una sucesión de
puntos de T y cn → c cuando n → +∞. Como cn ∈ T , entonces ϕ(t) = ϕ(t + cn ). Luego
por la continuidad de ϕ y haciendo tender n → ∞, obtenemos ϕ(t) = ϕ(t + c), ∀ t ∈ R.
Por lo tanto c ∈ T.
Pongamos τ = inf(T ∩ R+ ). Como T es cerrado se sigue que τ ∈ T. Mostremos que

i) Si τ > 0, entonces T = τ Z.

ii) Si τ = 0, entonces T = R.

En el primer caso, veamos primero que τ Z ⊂ T. En efecto, sea a = τ n, con n ∈ Z.


Luego, a = τ + (n − 1)τ, entonces

ϕ(t + a) = ϕ(t + τ n) = ϕ [t + (n − 1)τ ] + τ
 
= ϕ t + (n − 1)τ = ϕ [t + (n − 2)τ ] + τ

= · · · = ϕ t + (n − (n − 1))τ = ϕ(t + τ ) = ϕ(t).
§ 4.1. Clasificación de Orbitas. Conjuntos α y ω Lı́mites 65

Mostremos ahora que T ⊂ τ Z. Sea a ∈ T y supongamos que a > τ. Entonces existe un


n ∈ N tal que nτ < a ≤ (n + 1)τ . De donde sigue que 0 < a − nτ ≤ τ. Teniendo en
cuenta que T es un grupo, obtenemos que (a − nτ ) ∈ T ∩ R+ . Como τ = inf(T ∩ R+ )
se sigue que a − nτ ≥ τ. Por lo tanto a = (n + 1)τ. En el caso que a < −τ , se sigue que
−a > τ y volvemos aplicar la prueba anterior.
Supongamos que τ = 0. Entonces para todo ε > 0, existe C0 ∈ T ∩ R+ tal que
0 < C0 < ε. Sea t ∈ R. Entonces existe k ∈ Z tal que kC0 ≤ t < (k + 1)C0 . Ası́,
0 ≤ t − kC0 < C0 < ε.

Demostremos ahora el teorema 4.4. Supongamos que ϕ no es inyectiva; es decir,


existen números t1 < t2 tales que ϕ(t1 ) = ϕ(t2 ). Luego, poniendo c = t2 − t1 , sigue que
ϕ(t + c) = ϕ(t), ∀t ∈ R.
Por el lema anterior sabemos que T = {c ∈ R : ϕ(t + c) = ϕ(t), t ∈ R}, es discreto
o denso en R. Luego, si T = R, entonces ϕ es una solución constante; y, si T = τ Z,
entonces ϕ es una solución periódica no constante, con perı́odo minimal τ.

Recordemos que dos órbitas coinciden o son disjuntas. Luego, D = Domg se puede
descomponer en una unión disjunta de curvas diferenciables: imagen biunı́voca de un
intervalo de R ó punto de equilibrio ó curva difeomorfa a un cı́rculo (órbita cerrada
generada por una solución periódica). A partir de esta observación, se puede definir
rigurosamente el concepto de diagrama de fase.

Definición 4.3 (Diagrama de Fase) Al conjunto D = Dom g dotado de una descomposición


en órbitas de g, lo denominaremos diagrama de fase de g. Las órbitas están orientadas en
el sentido de las curvas integrales del campo vectorial g y los puntos de equilibrio están
dotados con la orientación trivial.

Definición 4.4 (Conjuntos α y ω Lı́mites) Definimos el conjunto ω− lı́mite de una órbita


γ, como 
ω(γ) = x : ∃{tk }k∈N , lim tk = ∞, y lim ϕ(tk ) = x .
k→+∞ k→∞

Análogamente se define el conjunto α−lı́mite de una órbita γ



α(γ) = x : ∃{tk }k∈N , lim tk = −∞, y lim ϕ(tk ) = x .
k→+∞ k→∞

Definición 4.5 (Conjunto Invariante) Un conjunto M en Rn , se dice que es un conjunto


invariante respecto del sistema (4.1), si para cada p ∈ M, se tiene que x(t, p) ∈ M, para
todo t ∈ R. Diremos que M es positivamente (negativamente) invariante, si para cada
p ∈ M, se satisface que x(t, p) ∈ M para todo t ≥ 0 ( ∀t ≤ 0).

Es claro de esta definición que toda órbita de (4.1) es un conjunto invariante.

Teorema 4.6 Los conjuntos α y ω lı́mites de una órbita son cerrados e invariantes.
Además, si γ + (γ − ) está acotado, entonces el conjunto ω (α)− lı́mite de γ es no vacı́o,
66 Capı́tulo 4. Sistemas Autónomos

compacto, conexo y
dist[x(t, p), ω(γ)] → 0, t → +∞,
dist[x(t, p), α(γ)] → 0, t → −∞.
Demostración. Sea {xk }k∈N ⊂ ω(γ), tal que xk → x, k → +∞. Mostremos que
x ∈ ω(γ). Como xk ∈ ω(γ), entonces existe una sucesión tki → +∞, cuando i → +∞,
tal que lim ϕ(tki ) = xk . Por lo tanto, dado ε > 0, existe N (k) > 0, tal que
i→+∞

ε
||ϕ(tki ) − xk || < , ∀i ≥ N (k).
2
Por otra parte, como lim xk = x, existe N1 > 0, tal que ||xk − x|| < 2ε , ∀k ≥ N1 .
k→∞
Fijemos un k∗ ≥ N1 . Entonces

||ϕ(tki∗ ) − x|| ≤ ||ϕ(tki∗ ) − xk∗ || + ||xk∗ − x|| < ε, ∀i ≥ N (k∗ ).

Esto prueba que x ∈ ω(γ).


Mostremos ahora que ω(γ) es invariante. Si q ∈ ω(γ), entonces existe una sucesión
{tk }k∈N , lim tk = +∞, tal que lim x(tk , p) = q. Por lo tanto, para todo t ∈ R fijo, se
k→∞ k→∞
tiene que
lim x(t + tk , p) = lim x(t, x(tk , p)) = x(t, q).
k→∞ k→∞

Lo cual demuestra que γq ⊂ ω(γ).


Si γp+ está acotado, entonces existe una constante M > 0 tal que

||x(t, p)|| ≤ M,
∀t ≥ 0.
n o
Sea {tk }k∈N , tk → +∞. Entonces la sucesión numérica x(tk , p) está acotada. Por
k∈N
lo tanto existe una subsucesión de {tk }k∈N , a la cual denotaremos de la misma manera,
tal que lim x(tk , p) = x, para algún x ∈ Rn . Lo cual implica que ω(γ) 6= ∅. Además,
k→∞
de este argumento se obtiene que ω(γ) es un conjunto acotado. Como ya habı́amos
probado que ω(γ) es cerrado, concluimos la compacidad de ω(γ).
Supongamos que dist[x(t, p), ω(γ)] 6→ 0, t → +∞. Entonces existe una sucesión
{tk }k∈N y un ε > 0 tal que

dist[x(tk , p), ω(γ)] ≥ ε, ∀k ∈ N.

Como ||x(tk , p)|| ≤ M, ∀k ∈ N, existe una subsucesión {tki }i∈N tal que lim x(tki , p) =
i→∞
x ∈ ω(γ). Lo cual es una contradicción.
La conectividad de ω(γ) sigue inmediatamente del hecho que

dist[x(t, p), ω(γ)] → 0, t → +∞.

Las afirmaciones con respecto al conjunto α− lı́mite se prueban en forma análoga.


§ 4.1. Clasificación de Orbitas. Conjuntos α y ω Lı́mites 67

Corolario 4.7 Los conjuntos α y ω− lı́mites sólo contienen órbitas.


Notemos que la acotación de la órbita es una condición suficiente para que el con-
junto ω−lı́mite sea no vacı́o y es necesaria para que el sea conexo. En efecto, conside-
remos el siguiente sistema dinámico: Sean y1 < 0 < y2 dos valores fijos. El flujo viene
definido como sigue, (ver [26], p. 149)


(x − t, y1 ),


si y = y1 ,
(0, 0), si x = y = 0,
ϕt (x, y) = (4.2)

 espirales entre las rectas y = y 1 e y = y 2 si x ∈ R e y 1 < y < y 2 ,


(x + t, y ), si y 6= y2 ,
1

Figura 4.1: Ejemplo de una órbita no acotada, cuyo conjunto ω-lı́mite no es vacı́o. Sin
embargo el ω-lı́mite no es conexo.

Definición 4.6 Diremos que un conjunto M es un conjunto minimal respecto al sistema


(4.1), si M 6= ∅, es cerrado e invariante y no tiene ningún subconjunto que posea las tres
propiedades antes mencionadas.

Lema 4.8 Si A es un conjunto compacto, invariante respecto del sistema (4.1), entonces
A posee un subconjunto minimal.
Demostración. Sea F una familia de subconjuntos definida como sigue
F = {B : B ⊂ A, B-compacto e invariante}.
Definamos en F una relación de orden “<” como sigue : Para cada B1 , B2 en F, decimos
que B2 < B1 , si B2 ⊂ B1 . Para cualquier subfamilia F1 de F totalmente ordenada por
“<”, pongamos C = ∩B∈F1 B.
La familia F1 tiene la propiedad de la intersección finita. En efecto, si B1 , B2 ∈ F1 ,
entonces B1 < B2 ó B2 < B1 . En ambos casos B1 ∩ B2 6= ∅ y B1 ∩ B2 ∈ F.
Ası́, C 6= ∅, compacto e invariante; y para cada B ∈ F1 se sigue que C < B. Su-
pongamos ahora que D es un subconjunto perteneciente a F, tal que D < B, ∀B ∈ F1 .
Entonces D ⊂ B, para todo B ∈ F1 , lo cual implica que D ⊂ C. Por lo tanto C es
el elemento minimal de F1 . Como toda subfamilia de F totalmente ordenada, posee
un mı́nimo, se sigue por el lema de Zorn que existe un mı́nimo en F. Este elemento
minimal de F al cual llamaremos M, posee todas las propiedades requeridas.
68 Capı́tulo 4. Sistemas Autónomos

Ejemplo 4.1 Consideremos la ecuación logı́stica x′ (t) = αx(1 − x), con α > 0.

• •
0 1

Figura 4.2:

Del diagrama de fase se ve que el conjunto ω (α) lı́mite de las órbitas con dato inicial
en el intervalo (0, 1) es el punto {1} ({0}). El conjunto ω-lı́mite de cualquier órbita con
dato inicial negativo es vacı́o. Análogamente se analizan las otras situaciones. Además, los
conjunto {1}, {0} son minimales.

Ejemplo 4.2 Sea

x′1 = −x2 + εx1 (1 − r 2 )


x′2 = x1 + εx2 (1 − r 2 )

donde ε > 0, r 2 = x21 + x22 . Haciendo x1 = r cos θ, x2 = r sin θ, obtenemos que el sistema
anterior es equivalente a:

θ′ = 1
r ′ = εr(1 − r 2 ).

A partir de este sistema, vemos que el diagrama de fase luce como se muestra en la fig. 4.3
x2

x1

Figura 4.3:

Llamemos A = {(x1 , x2 ) : x21 + x22 = 1}, B = {0}. Tanto A como B son conjuntos
minimales A es el conjunto ω− lı́mite de cualquier órbita del sistema, excepto x1 = x2 = 0,
y B es el conjunto α− lı́mite de todas las órbitas encerradas por la circunferencia.
§ 4.1. Clasificación de Orbitas. Conjuntos α y ω Lı́mites 69

Teorema 4.9 Si K es un conjunto positivamente invariante respecto del sistema (4.1) y


homeomorfo a la bola cerrada de Rn , entonces el sistema (4.1) tiene un punto de equilibrio
en K.
Demostración. Teniendo en cuenta que el conjunto K es positivamente invariante
y la dependencia continua de las soluciones respecto de los datos iniciales, para cada
τ1 > 0, x(τ1 , ·) : K → K define una aplicación continua. Por lo tanto, en virtud
del Teorema de Brouwer, existe un p1 ∈ K tal que x(τ1 , p1 ) = p1 . Sea (τm )m∈N una
sucesión tal que lim τm = 0 y x(τm , pm ) = pm , ∀m ∈ N. Sin pérdida de generalidad
m→∞
supondremos que lim pm = p ∈ K, ya que K es compacto.
m→∞
Por otra parte, tenemos que para cada t y m ∈ Z existe un entero km (t) tal que

km (t)τm ≤ t < km (t)τm + τm y x(km (t)τm , pm ) = pm .

Esto último se desprende del hecho que

x(2τm , pm ) = x(τm , x(τm , pm )) = x(τm , pm ) = pm = x(0, pm ),

es decir x(t, pm ) es periódica de periodo τm en t y por ende x(t + τm , pm ) = x(t, pm ).


Finalmente, se tiene que

||x(t, p) − p|| ≤ ||x(t, p) − x(t, pm )|| + ||x(t, pm ) − pm || + ||pm − p||


= ||x(t, p) − x(t, pm )|| + ||x(t − km (t)τm , pm ) − pm || + ||pm − p||.

De donde se sigue que ||x(t, p) − p|| → 0 cuando t → ∞, ya que t → ∞ cuando m → ∞.


Lo cual implica que p es un punto de equilibrio del sistema (4.1).

Hemos expuesto en forma sucinta, algunos de los conceptos y hechos básicos de la


teorı́a geométrica de los sistemas autónomos. Señalemos que algunos de los problemas
de los que se ocupa esta teorı́a, tienen relación con la caracterización de los conjuntos
minimales y el comportamiento de las soluciones de las ecuaciones diferenciales cerca
de conjuntos minimales y la manera de poder reconstruir el conjunto ω− lı́mite de una
órbita a partir de los conjuntos minimales y las órbitas que los conectan.
70 Capı́tulo 4. Sistemas Autónomos

§ 4.2 Teorema de Poincaré-Bendixson

A continuación en forma breve y sin demostraciones, trataremos de dar respuesta a estas


interrogantes para sistemas bidimensionales. Concretamente se caracteriza el conjunto
ω−lı́mite de una órbita acotada.
Sea
x′ = f (x), (4.3)
donde f ∈ C 1 [R2 , R2 ]. Supondremos que todas sus soluciones están definidas para todo
t en R.

Teorema 4.10 (a) Si γ + y ω(γ + ) tienen un punto regular1 en común, entonces γ +


es una órbita periódica.

(b) Si M es un conjunto minimal de (4.3), entonces M es un punto crı́tico o una órbita


periódica.

(c) Si γ + contiene puntos regulares y una órbita perı́odica γ0 , entonces ω(γ + ) = γ0 .


Su demostración se puede ver en Hale [15], p.p. 53-54.

Teorema 4.11 (Poincaré-Bendixson) . Si γ + es una semi-órbita positiva acotada y


ω(γ + ) no contiene puntos de equilibrio, entonces

i) ω(γ + ) = γ + , ó

ii) ω(γ + ) = γ + \γ + .

En ambos casos el conjunto ω− lı́mite es una órbita periódica, el caso (ii) se llama ciclo
lı́mite.
Demostración. Como γ + está acotada, entonces ω(γ + ) 6= ∅ es compacto e invariante.
Por lo tanto, en virtud del Lema 4.8, ω(γ + ) posee un subconjunto minimal M. Además,
M no contiene puntos crı́ticos, ya que ω(γ + ) tampoco los posee. Ası́, por la parte (b)
del Teorema 4.10, M es una órbita periódica γ0 . Finalmente nuestra afirmación sigue
de la parte (c) del Teorema 4.10.

A los lectores interesados en los detalles de la demostración del Teorema de Poincaré-


Bendixson les recomendamos la lectura del Cap. 6 del libro de Antonio Tineo & Jesús
Rivero [34].

1
Un punto x0 se dice regular si f (x0 ) 6= 0.
§ 4.3. Criterios de Bendixson y Dulac 71

§ 4.3 Criterios de Bendixson y Dulac

El Teorema de Poincaré nos permite bajo ciertas condiciones asegurar la existencia de


ciclos lı́mites. Los criterios que probaremos a continuación permiten excluir la existencia
de soluciones periódicas.

Teorema 4.12 (Criterio de Dulac) Considere el sistema (4.3), donde f ∈ C 1 [D, R2 ] y


D es un subconjunto abierto y simplemente conexo de R2 .
Suponga que existe una función g ∈ C 1 [D, R] tal que div(gf ) no es idénticamente igual a
cero en ninguna sub-región de D y tiene signo constante en los puntos donde no se anula,
entonces el sistema (4.3) no posee órbitas periódicas.
Demostración. Supongamos que el sistema (4.3) tiene una solución periódica, cuya
órbita la denotaremos por γ y la región acotada por γ la denotaremos por Ω.
Aplicando el Teorema de Green al campo vectorial (−gf2 , gf1 ), donde f = (f1 , f2 ),
obtenemos que
I ZZ  
∂(gf1 ) ∂(gf2 )
0 = [−g(x)f2 (x)dx1 + g(x)f1 (x)dx2 ] = (x) + (x) dx
γ Ω ∂x1 ∂x2
ZZ
= [div(gf )(x)] dx.

Supongamos, sin pérdida de generalidad, que div(gf )(x∗ ) > 0, para algún x∗ ∈ Ω. Por
la continuidad de la función gf, existe una constante ν > 0 y una bola BR (x∗ ) ⊂ Ω
tales que div(gf )(x) > ν, ∀x ∈ BR (x∗ ). De aquı́ se desprende que
ZZ ZZ
[div(gf )(x)] dx ≥ [div(gf )(x)] dx ≥ ν · medida(BR (x∗ )) > 0.
Ω BR (x∗ )

Lo cual es una contradicción.

Cuando el criterio de Dulac se verifica con g(x) ≡ 1 se conoce como el Criterio de


Bendixson. De hecho el Criterio de Dulac es la generalización del criterio de Bendixson.
Notemos también que bajo las hipótesis del Criterio de Dulac el sistema bidimensional
(4.3) no puede tener órbitas homoclı́nicas. La demostración es básicamente la misma.
72 Capı́tulo 4. Sistemas Autónomos

§ 4.4 Clasificación de los Puntos de Equilibrio de Sistemas


Bidimensionales
Lineales con Coeficientes Constantes.

A continuación se describe el diagrama de fase alrededor de un punto de equilibrio


aislado para un sistema bidimensional lineal. Consideremos el sistema bidimensional
lineal con coeficientes constantes

x′1 = ax1 + bx2


(4.4)
x′2 = cx1 + dx2 .

Supongamos que ad − bc 6= 0. Entonces (0, 0) es el único punto de equilibrio del sistema


(4.4).
Denotemos por  
a b
A= ,
c d
y sean λ1 y λ2 sus autovalores. Sabemos que existe una matriz T no singular tal que
T AT −1 = J, donde J es la forma canónica de Jordan, la cual puede tener una de las
siguientes formas:
 
λ1 0
1. J = , autovalores reales y distintos.
0 λ2
 
λ 0
2. J = , autovalores reales e iguales y la matriz A es diagonalizable.
0 λ
 
λ 0
3. J = , autovalores reales e iguales y la matriz A no es diagonalizable.
1 λ
 
α −β
4. J = , autovalores complejos conjugados.
β α

Con el fin de clasificar el punto de equilibrio trivial del sistema (4.4) analizaremos varios
casos. Supongamos en primer lugar que λ1 y λ2 son reales y distintos. Sin pérdida de
generalidad asumiremos que λ1 > λ2 .
Como los autovalores de A son reales y distintos, entonces existe una matriz no
singular T de modo que el cambio de variables x = T −1 y transforma el sistema x′ = Ax
en el sistema desacoplado
y1′ = λ1 y1 , y2′ = λ2 y2 .
De donde obtenemos que:

y1 = c1 eλ1 t , y2 = c2 eλ2 t . (4.5)

Denotemos por v1 y v2 los autovectores unitarios correspondientes a λ1 y λ2 , respecti-


vamente; y, por L1 y L2 las rectas generadas por v1 y v2 , respectivamente.
§ 4.4. Clasificación de los Puntos de Equilibrio de Sistemas Bidimensionales Lineales con Coeficientes Constantes. 73

Supongamos que λ2 < 0 < λ1 . Pongamos r = −λ2 /λ1 . Es claro que r > 0. De (4.5)
se obtiene que
 −r  r
1 y1 y1 c1 c2 cr1
t= ln , y2 = c2 = c2 = .
λ1 c1 c1 y1 y1r

No es difı́cil verificar que el diagrama de fase luce como en la figura 4.3. Las flechas indi-
can la dirección en que se recorren las órbitas, variando t desde −∞ a +∞. Supongamos
y2

y1

Figura 4.4: Punto de silla λ2 < 0 < λ1 .

ahora que λ2 < λ1 < 0. Un análisis similar al realizado anteriormente, nos conduce a
que
c2 y r
y2 = r 1 , r = λ2 /λ1 > 1.
c1
La figura 4.4 muestra el diagrama de fase del sistema transformado
y2

y1

Figura 4.5: Nodo Estable λ2 < λ1 < 0 .


74 Capı́tulo 4. Sistemas Autónomos

Finalmente, cuando 0 < λ2 < λ1 , obtenemos que


c2 y1r
y2 = , r = λ2 /λ1 < 1.
cr1

Y el diagrama de fase se esboza en la fig. 4.5.


y2

y1

Figura 4.6: Nodo inestable 0 < λ2 < λ1 .

Estudiemos ahora el caso cuando los autovalores de λ1 y λ2 son reales e iguales.


Supongamos que A es diagonalizable. Entonces se tiene que

y1 = c1 exp(λt) , y2 = c2 exp(λt),

de donde se obtiene que y2 = c2 y1 /c1 , si c1 6= 0. Asumiendo que λ < 0, se tiene un


punto nodal impropio estable (nodo impropio estable). Si λ > 0, el punto es un nodo
impropio inestable. El diagrama de fase luce similar al de la figura 4.6, sólo que el
flechado apunta en la dirección opuesta.
Analicemos ahora el caso cuando A no es [Link] este caso (4.4) se puede
transformar en  
λ 0
y′ =  y
1 λ
de donde se sigue que

y1 = c1 exp(λt) , y2 = (c1 t + c2 ) exp(λt).

Un cálculo sencillo muestra que


 
1 y1 c1 y1 y1
t = ln y2 = ln + c2
λ c1 λ c1 c1
§ 4.4. Clasificación de los Puntos de Equilibrio de Sistemas Bidimensionales Lineales con Coeficientes Constantes. 75

y2

y1

Figura 4.7: Nodo impropio estable.

y2

y1

Figura 4.8: Nodo impropio estable.

Supongamos ahora que λ1 y λ2 son complejos conjugados. Sabemos que (4.4) se


puede transformar en  
α −β
y′ =   y.
β α
Entonces

y1 = (c1 cos βt − c2 sin tβ) exp(αt) , y2 = (c1 sin βt − c2 cos tβ) exp(αt).

Cuando α = 0 y β 6= 0, al punto de equilibrio se le llama centro. Si α < 0, al punto


de equilibrio se le llama foco estable; y si α > 0 al punto de equilibrio se le denomina
foco inestable.
76 Capı́tulo 4. Sistemas Autónomos

y2

y1

Figura 4.8: Centro

y2

y1

Figura 4.9: Foco Estable

y2

y1

Figura 4.10: Foco Inestable


§ 4.5. Sistemas Conservativos 77

§ 4.5 Sistemas Conservativos

Consideremos el sistema

x′ = g(x) (4.6)
donde g ∈ C 1 [D, Rn ], D ⊂ Rn .

Definición 4.7 [ Integral] Diremos que una función E ∈ C 1 [D, R] es una integral de
(4.6) sobre la región D, si E no es constante sobre ningún subconjunto abierto de D y
E(x(t)) = cte. a lo largo de las soluciones de (4.6). Está última condición es equivalente a

< ∇E(x(t)), g(x(t)) >= 0,

para todo t perteneciente al dominio de la solución x(t).

Definición 4.8 [Sistema Conservativo] Se dice que (4.6) es un sistema conservativo, si


(4.6) posee una integral E sobre D.

De las definiciones anteriores se desprende que las órbitas de un sistema conservativo


están contenidas en las curvas de nivel de la función E.

Definición 4.9 [Sistemas Hamiltonianas] Sea H una función diferenciable de 2n varia-


bles, p1 , p2 , . . . , pn , q1 , q2 , . . . , qn ; a valores en R. Entonces por ecuaciones canónicas de
Hamilton se entiende el sistema de 2n ecuaciones.

∂H ∂H
p′i = − , qi′ = , i = 1, . . . , n. (4.7)
∂qi ∂pi
La función H : R2n → R es una integral del sistema (4.7). En efecto, denotemos por

(p, q) = (p1 , . . . , pn , q1 , . . . , qn )
 
∂H ∂H ∂H ∂H
g(p, q) = − ,...,− , ,..., .
∂q1 ∂qn ∂p1 ∂pn

Luego se sigue que

Xn    
∂H ∂H ∂H ∂H
< ∇H(p, q), g(p, q) >= · − + · = 0.
n=1
∂pi ∂qi ∂qi ∂pi

Lo cual a su vez implica que todo sistema Hamiltoniano es un sistema conservativo. La


afirmación recı́proca no es cierta. En efecto, consideremos el siguiente sistema

x′ = −βxy , y ′ = βxy − αy , z ′ = αy.

Un cálculo simple muestra que la función E = x + y + z es una integral para dicho


sistema; es decir el sistema anterior es conservativo pero no es Hamiltoniano.
78 Capı́tulo 4. Sistemas Autónomos

Consideremos ahora la ecuación diferencial de segundo orden

x′′ = f (x), (4.8)

con f ∈ C 1 [R, R]. La cual es equivalente al siguiente sistema

x′ = y,
y ′ = f (x). (4.9)

Como f es de clase C 1 el Teorema de Existencia y Unicidad asegura la existencia de


una única solución de (4.9) para cualquier problema de valor inicial. Además el sistema
(4.9) es un sistema Hamiltoniano. En efecto, basta para ello considerar la función

E(x, y) = T (y) + U (x),

Rx
donde T (y) = y 2 /2, (energı́a cinética) y U (x) = − f (s)ds, (energı́a potencial). Es fácil
0
verificar que se satisface la siguiente identidad

< ∇E(x, y), (y, f (x)) >= −f (x) · y + y · f (x) = 0.

Como (4.9) es un sistema conservativo, las órbitas de este sistema yacen sobre las curvas
de nivel de la función E.
Sea φ(t) = (x(t), y(t)) una solución de (4.9). Entonces

y 2 (t)
E(x(t), y(t)) = + U (x(t)) = c, ∀t ∈ Dom(φ),
2
donde c es una constante. De donde obtenemos que
p
y=± 2(c − U (x))

la cual está definida para todos los x tales que U (x) ≤ c. Los puntos de equilibrio de
(4.9) son de la forma (x0 , 0), con f (x0 ) = 0. Notemos también que si (x1 , y1 ) es punto
crı́tico de la energı́a total, x1 es un punto crı́tico de la energı́a potencial U.
Esto sugiere que para trazar las curvas de nivel de la energı́a total es conveniente
considerar el comportamiento de la gráfica de la energı́a potencial. Por lo cual proce-
deremos de la siguiente manera: graficamos la función U (x) y luego damos valores a c
para graficar las curvas de nivel de E(x, y) = c, comenzando por c igual al valor crı́tico
de la energı́a potencial U; es decir, cuando U ′ (ξ) = 0 y después le damos valores a c en
un entorno de ξ.
Por ejemplo, supongamos que U tiene tres puntos crı́ticos ξ1 , ξ2 , ξ3 , de modo que U
en ξ1 tiene un mı́nimo local, en ξ2 tiene un máximo local y en ξ3 tiene nuevamente un
mı́nimo local. Demos a E ahora valores iguales y valores cercanos a los valores crı́ticos
de U en la forma indicada, en la siguiente figura.
§ 4.5. Sistemas Conservativos 79

ξ1 ξ2 ξ3
| | |
E2 x

E1
|
E3
|

A
◦ ◦ ◦C
x
B

Figura 4.11: Gráfica de la energı́a potencial v/s de Diagrama de fase

Hemos tomado
c1 = U (ξ1 ), c2 = U (ξ2 ), c3 = U (ξ3 ).
Observemos que los puntos en los cuales U tiene mı́nimo dan origen a puntos que son
centros en el espacio de fase, es el caso de los puntos A y C y en los puntos donde U
tiene máximo se generan puntos sillas, es el caso del punto B.
Utilizando el método descrito previamente, en las figuras 4.12-4.13 se esboza el
diagrama de fase de las ecuaciones

x′′ = −sen(x) , x′′ = αx(1 − x), α > 0 , x′′ = x(1 − x2 ).

x′

Figura 4.12: Diagrama de fase de la ecuación x′′ = −sen(x) en el plano (x, x′ ).


80 Capı́tulo 4. Sistemas Autónomos

x′

x′

x
x

Figura 4.13: Diagrama de fase de las ecuaciones x′′ = αx(1 − x), α > 0, y x′′ = x(1 − x2 ) en el
plano (x, x′ ), respectivamente.

Para finalizar esta sección, consideremos el modelo de Lotka-Volterra, el cual viene


descrito por el siguiente sistema
dN
= N (a − bP ), (4.10)
dt
dP
= P (cN − d), (4.11)
dt
donde a, b, c y d son constantes positivas, N (t) y P (t) son las densidades de la población
presa y depredadora, respectivamente. Vitto Volterra en 1926 fue el primero en pro-
poner este sistema como un modelo del tipo depredador-presa. Independientemente,
Alfred Lotka en 1920 propuso el mismo sistema para simular la reacción de dos sustan-
cias quı́micas. Para mayores detalles ver [21] p.p. 63-64.
De (4.10)-(4.11) se obtiene
Z t  Z t 
N (t) = N (0)exp [a − bP(s)]ds , P(t) = P(0)exp [cN(s) − d]ds .
0 0

Lo cual implica que los ejes de coordenadas N y P son invariantes, y por ende el primer
cuadrante es invariante también. Es decir el sistema (4.10)-(4.11) está biológicamente
bien planteado. Es fácil verificar que (0, 0) y (N ∗ , P ∗ ) = (d/c, a/b) son los únicos puntos
de equilibrio del sistema (4.10)-(4.11). Ahora, multiplicando (4.10) por (cN − d)/N y
(4.11) por (bP − a)/P y sumándolas, obtenemos
d 
cN (t) − d ln N (t) + bP (t) − a ln P (t) = 0.
dt
Lo cual implica que la función

E(N, P ) = cN − d ln N + bP − a ln P

es una integral para el sistema de Lotka-Volterra y por ende es un sistema conservativo.


En la Fig. 4.14 se muestra que todas las curvas de nivel son cerradas, es decir todas
las órbitas del sistema de Lotka-Volterra son periódicas.
§ 4.5. Sistemas Conservativos 81

2.5

P 1.5

0.5

0.5 1 1.5 2 2.5


N

Figura 4.14: Gráfica de las órbitas del sistema de Lotka-Volterra.


82 Capı́tulo 4. Sistemas Autónomos

§ 4.6 Disipatividad Puntual. Atractor Global

Para simplificar la exposición adoptaremos la notación de sistemas dinámicos descrita


en la página 61. Sea {T (t)}t∈R un sistema dinámico, donde T (t) : Rn → Rn . Para
nuestros fines es suficiente que la familia uniparamétrica esté definida para t ≥ 0.

Definición 4.10 Diremos que el sistema (4.1) es puntualmente disipativo, si existe un


conjunto acotado B tal que para cada x0 ∈ Rn , se verifica que

dist(T (t)x0 , B) → 0, cuando t → +∞,

donde dist(x, B) denota la distancia de un punto x al conjunto B.

Teniendo en cuenta que Rn es un espacio localmente compacto, se sigue que si el sis-


tema (4.1) es puntualmente disipativo, entonces el semigrupo T (t) atrae uniformemente
conjuntos acotados.
Tiene lugar el siguiente

Teorema 4.13 Si el sistema (4.1) es puntualmente disipativo, entonces (4.1) posee un


atractor global, es decir, existe un conjunto A el cual es compacto maximal,conexo, inva-
riante y
dist(T (t)x0 , A) → 0, cuando t → +∞,
uniformemente respecto de x0 variando sobre conjuntos acotados en Rn .

Su demostración verla en las p.p. 269-271, del libro de James Robinson [27].
El Teorema 4.13 básicamente nos dice que la dinámica relevante del sistema (4.1)
está concentrada en un conjunto compacto. Pero no da información cual es la estructura
de órbitas sobre el atractor global. La descripción de la dinámica del sistema (4.1) sobre
el atractor global puede ser un problema bien complicado. Trataremos de describir
esta situación considerando el modelo de Lorenz, el cual viene descrito por el siguiente
sistema

x′ = σ(y − x)
y ′ = ax − y − xz (4.12)

z = xy − bz

donde σ, a y b son parámetros positivos. El sistema (4.12) es una simplificación de


modelos metereólogicos mucho mas generales y mas complejos por supuesto. Al lector
interesado en estos modelos, le recomendamos ver la sección §1.1 de la Tesis de Maestrı́a
de Cristina Lizana [20].
En primer lugar, vamos a demostrar que el sistema (4.12) es puntualmente disipa-
tivo. Para ello consideremos la función auxilar

V (x, y, z) = x2 + y 2 + (z − a − σ)2 .
§ 4.6. Disipatividad Puntual. Atractor Global 83

Derivando V a lo largo de las soluciones del sistema (4.12) y manipulando algebraica-


mente su expresión, arribamos que
dV
≤ −αV + b(a + σ)2 ,
dt
donde α = min{2σ, 2, b}. Integrando esta última desigualdad, obtenemos

b
V (x(t), y(t), z(t)) ≤ V (x0 , y0 , z0 )e−αt + (a + σ)2 , ∀t ≥ 0.
α
De donde se sigue que (4.12) es puntualmente disipativo. Para ello es suficiente elegir
B como la bola con centro en (0, 0, a + σ) y radio R = αb (a + σ)2 . Lo cual a su vez
implica que las semi-órbitas positivas están acotadas. Y por ende sus respectivos con-
juntos ω−lı́mite son no vacı́os. A diferencia de los sistemas bidimensionales, aquı́ se
puede afirmar que hay órbitas cuyos ω−lı́mite no son puntos de equilibrio, ni órbitas
periódicas. Por lo tanto la dinámica de (4.12) puede ser muy complicada. Del Teorema
4.13, se sabe que el atractor global es compacto,invariante, conexo y atrae conjuntos
acotados. Toda la información relevante ha sido obtenida mediante métodos computa-
cionales. Analı́ticamente no se ha probado casi nada. Para tratar de entender este
asunto se introdujo un modelo geométrico, para mayor información ver [20]. En el
enlace [Link] se presenta una in-
teresante discusión y visualización. La siguiente figura ilustra el famoso atractor de
Lorenz con σ = 10, b = 8/3 y a = 28. Las figuras en blanco son las proyecciones del
atractor de Lorenz sobre los planos coordenados.
84 Capı́tulo 4. Sistemas Autónomos

§ 4.7 Aplicación: Modelo Depredador-Presa

Con la finalidad de utilizar la teorı́a de ecuaciones diferenciales en problemas que surgen


en las aplicaciones, comenzaremos por estudiar el siguiente sistema, el cual describe a
un modelo del tipo depredador-presa.
   
′ S(t) m x(t)S(t)
S (t) = γS(t) 1 − − , (4.13)
K y a + S(t)
 
mS(t)
x′ (t) = x(t) − D0 , (4.14)
a + S(t)
donde S(t) y x(t) son las densidades de las poblaciones presa y depredador, respec-
tivamente. γ, K, m, y, a y D0 son constantes positivas. Para mas detalles sobre las
interpretaciones biológicas de las constantes ver el artı́culo de Kuo-Shung Cheng [7], el
cual se anexó2 al final de estas notas. Se ha mantenido la misma notación que aparece
en el referido artı́culo para evitar confusiones. Para este sistema es posible hacer una
descripción de la dinámica global. En esta sección nos centraremos solo en los siguientes
puntos
1. Las soluciones del sistema (4.13)-(4.14) existen, son únicas y están definidas para
todo t ≥ 0.

2. El conjunto R2+ = {S, x) : S > 0, x > 0} es invariante bajo el flujo inducido por
el sistema (4.13)-(4.14).

3. El sistema (4.13)-(4.14) es puntualmente disipativo. Además, existe el atractor


global, cuya descripción la realizaremos mas adelante.
Teniendo en cuenta que el campo vectorial es de clase C ∞ las soluciones existen y son
únicas. Mas adelante mostraremos que están definidas para todo t ≥ 0.
Del sistema (4.13)-(4.14), se sigue que
Z t      
S(τ ) m x(τ )
S(t) = S(0) exp γ 1− − ,
0 K y a + S(τ )
 
mS(τ )
x(t) = x(0) exp − D0 .
a + S(τ )
Lo cual implica que los ejes de coordenadas son invariantes y por ende cada cuadrante
es invariante.
Por razones biológicas nos restringiremos a las soluciones que tienen datos iniciales
en el primer cuadrante, el cual es invariante. Sea (S(t), x(t)) una solución del sistema
(4.13)-(4.14), tal que S(0) > 0 y x(0) > 0, definida para t ∈ [0, β).
De (4.13) se obtiene que
 
′ S(t)
S (t) ≤ γS(t) 1 − , ∀t ∈ [0, β).
K
2
Apéndice §10.5
§ 4.7. Aplicación: Modelo Depredador-Presa 85

Eligiendo como ecuación de comparación


 
′ u(t)
u (t) = γu(t) 1 − , u(0) = S(0) > 0
K
y aplicando el Teorema de comparación 2.20, obtenemos que

0 < S(t) ≤ u(t), ∀t ∈ [0, β).

Teniendo en cuenta que la solución u(t) está acotada para todo t ∈ [0, β), se sigue que
β = ∞. Además

0 ≤ lim sup S(t) ≤ lim sup u(t) = lim u(t) = K.


t→∞ t→∞ t→∞

Por lo tanto, dado un ε > 0, existe T > 0, tal que

0 < S(t) < K + ε, ∀t ≥ T.

Probemos ahora que no puede existir un t0 > 0 tal que

x(t) ≥ M = yγ(a + K + 1)/m, ∀t ≥ t0 .

Sabemos que eligiendo ε = 1, existe un T ≥ t0 , tal que 0 < S(t) < K + 1, para todo
t ≥ T. Lo cual implica que
m x(t) m x(t) m M
> ≥ = γ, ∀t ≥ T.
y a + S(t) y a+K +1 y a+K +1

Teniendo en cuenta la ecuación (4.13) y la estimación anterior, se sigue que


     
′ S(t) m x(t)S(t) γ 2 m x(t)
S (t) = γS(t) 1 − − = − S (t) + S(t) γ −
K y a + S(t) K y a + S(t)
y por ende
γ 2
S ′ (t) ≤ −
S (t).
K
Luego, S(t) → 0 cuando t → ∞. Por lo tanto, existe un t∗ ≥ T, tal que
mS(t) D0
< , ∀t ≥ t∗ .
a + S(t) 2
Combinando esta desigualdad con la ecuación (4.14), obtenemos
D0
x′ (t) ≤ − x(t), ∀t ≥ t∗ .
2
Lo cual implica que x(t) → 0 cuando t → ∞. Contradicción.
Denotemos por ϕ(t) = x(t) − M. Puede ocurrir que los ceros de ϕ estén acotados,
es decir existe un t0 tal que ϕ 6= 0, para todo t > t0 . Por lo probado anteriormente,
obtenemos que 0 < x(t) ≤ M, ∀t ≥ t0 .
86 Capı́tulo 4. Sistemas Autónomos

El otro caso es cuando los ceros no están acotados. Luego, debe existir una sucesión
de intervalos Jn = [tn−1 , tn ], Ji ∩ Jj = ∅, i 6= j, tn → ∞, cuando n → ∞, tales que

x(t) ≥ M = yγ(a + K + 1)/m, ∀t ∈ Jn .

Realizando un razonamiento análogo al de la prueba que no puede existir un t0 > 0 tal


que x(t) ≥ M = yγ(a + K + 1)/m, ∀t ≥ t0 , arribamos a que x(t) es tan pequeño como
se desee para n suficientemente grande. Lo cual nuevamente es una contradicción.
Ası́, el conjunto
Ω = [0, K + 1] × [0, yγ(a + K + 1)/m]
es un conjunto absorbente para el modelo depredador-presa. Lo cual prueba que el
sistema (4.13)-(4.14) es puntualmente disipativo y por ende implica la existencia del
atractor global. La descripción de las órbitas sobre el atractor global lo realizaremos
mas adelante.
§ 4.8. Comentarios y Sugerencias 87

§ 4.8 Comentarios y Sugerencias

En este capı́tulo hemos resumido sólo los hechos mas elementales de la teorı́a de sistemas
dinámicos. El lector comprenderá que en un primer curso de Ecuaciones Diferenciales
no es posible cubrir en detalle toda la teorı́a geométrica. Los problemas que surgen
son variados y complejos y han dado origen a un gran volumen de libros y artı́culos.
Para una primera lectura sobre sistemas dinámicos continuos recomendamos los libros
de Jorge Sotomayor [32], Jacob Palis [24], Hirsch, Smale y Devaney [16]. Para sistemas
dinámicos discretos se puede consultar el libro de Robert Devaney [8]. Una excelente
exposición, pero menos elemental, tanto para sistemas dinámicos continuos y discretos
es el libro de Clark Robinson [26].
88 Capı́tulo 4. Sistemas Autónomos

§ 4.9 Ejercicios y Problemas

1. Pruebe que una órbita de (4.1) es una curva cerrada si y solo si ella corresponde
a una solución periódica no constante de (4.1).

2. Sea f ∈ C 1 [R, R]. Pruebe que la ecuación diferencial x′ = f (x) no puede tener
soluciones periódicas.

3. Describa el diagrama de fase del sistema

x′1 = x2 (x22 − x21 ),

x′2 = −x1 (x22 − x21 ).

4. Sea γp la órbita generada por la solución x(t, p), definida para todo t ∈ R. Pruebe
que

(i) ω(γ) = ∩t≥0 ∪τ ≥t {x(s, p) : s ≥ τ },


(ii) α(γ) = ∩t≤0 ∪τ ≤t {x(s, p) : s ≤ τ }.

5. Considere el sistema
θ ′ = sin2 θ + (1 − r)2 ,
r ′ = r(1 − r)
Muestre que el conjunto ω− lı́mite de cualquier órbita que no sean r = 1 y r = 0
es el cı́rculo r = 1. Además que los conjuntos minimales sobre el cı́rculo r = 1,
son (r = 1, θ = 0) y (r = 1, θ = π). ¿Puede concluir que todo conjunto ω− lı́mite
es necesariamente minimal?.

6. Pruebe que el sistema

x′ = y
y ′ = −x + (1 − x2 − y 2 )y

tiene un único ciclo lı́mite el cual es el conjunto ω lı́mite de todas las órbitas del
sistema, excepto del punto de equilibrio (x, y) = (0, 0).

7. Pruebe que la esfera x2 + y 2 + z 2 = 1 es un conjunto invariante y atractor en R3 ,


excepto (x, y, z) = (0, 0, 0), para el sistema

x′ = −y + x(1 − z 2 − x2 − y 2 ),
y ′ = x + y(1 − z 2 − x2 − y 2 ),
z ′ = 0.

Además la esfera está formada por órbitas periódicas.


¿Es puntualmente disipativo el sistema?.
¿Posee un atractor global el sistema ?
§ 4.9. Ejercicios y Problemas 89

8. Pruebe que el paraboloide elı́ptico z = x2 +y 2 es un conjunto invariante y atractor


en R3 , excepto (x, y, z) = (0, 0, 0), para el sistema

x′ = −y + x(z − x2 − y 2 ),
y ′ = x + y(z − x2 − y 2 ),
z ′ = 0.

Además el paraboloide elı́ptico está formada por órbitas periódicas.


¿Es puntualmente disipativo el sistema?.
¿Posee un atractor global el sistema ?

9. Pruebe que si x′ = f (x), con x ∈ R2 tiene una semiórbita acotada, entonces f


tiene al menos un punto de equilibrio.
Indicación: Use el Teorema de Poincaré-Bendixson y el Teorema 4.9.

10. Pruebe que el sistema x′ = f (x), f ∈ C 1 [R2 , R2 ], f (x) 6= 0, ∀x ∈ R2 no posee


órbitas periódicas.

11. Sea x′ = Ax un sistema bidimensional. Pruebe que el sistema perturbado y ′ =


Ay + By, con ||B|| < ε, ε suficientemente pequeño, preserva el diagrama de fase
solamente en torno de los puntos de equilibrio del tipo silla y foco.
Indicación: Utilice el hecho que los autovalores de la matriz A + B dependen
continuamente de la matriz B.

12. Sea A una matriz n × n tal que aij ≥ 0 para i 6= j. Pruebe que el conjunto

Ω = {x = (x1 , . . . , xn ) ∈ Rn : xi > 0, ∀i = 1, . . . , n}

es positivamente invariante bajo el flujo eAt .

13. Considere la ecuación x′′ = f (x) con f ∈ C 1 . Suponga que los puntos de máximos
y mı́nimos locales de la energı́a potencial son aislados. Pruebe que los puntos de
máximo (de mı́nimo) locales de la energı́a potencial son puntos de equilibrio del
tipo silla (centros).
90 Capı́tulo 4. Sistemas Autónomos
Capı́tulo 5

Teorı́a de la Estabilidad Según Liapunov

El problema al cual le dedicaremos nuestra atención en este capı́tulo es el siguiente:


Estudiar la dependencia continua de las soluciones de una e.d.o. respecto
de los datos iniciales sobre intervalos de la forma [α, ∞).
Los precursores del estudio que llevaremos a cabo fueron Lagrange y Dirichlet, pero
el mayor impulso a la teorı́a de la estabilidad fue dado por los trabajos de Poincaré y
Liapunov, lo cual condujo al estudio sistemático de las e.d.o. desde un punto de vista
cualitativo.

§ 5.1 Definiciones de Estabilidad

Consideremos el sistema
x′ = f (t, x), (5.1)
para simplificar la exposición supondremos que f ∈ C 1 [J × D, Rn ] , J = (τ, +∞),
τ ≥ −∞ y D es un subconjunto abierto y conexo de R.

Definición 5.1 Diremos que la solución x(t, t0 , x0 ) del sistema (5.1) es estable en el
instante t0 ∈ J, si dado ε > 0, existe δ = δ(ε, t0 ) > 0, tal que se verifica que

||x(t, t0 , x0 ) − x(t, t0 , x1 )|| < ε, ∀ t ≥ t0 y x1 ∈ Bδ (x0 ),

donde Bδ (x0 ) = {x ∈ D : ||x − x0 || < δ}. Si la solución no es estable en el instante t0 ,


se dice que x(t, t0 , x0 ) es inestable en t0 .

Definición 5.2 La solución x(t, t0 , x0 ) es asintóticamente estable, si además de ser es-


table existe ρ > 0 tal que lim ||x(t, t0 , x0 ) − x(t, t0 , x1 )|| = 0, ∀ x1 ∈ Bρ (x0 ) .
t→∞

En las definiciones 5.1 y 5.2 cuando δ y ρ sean independientes de t0 , diremos que la solución
x(t, t0 , x0 ) es uniformemente estable y uniforme asintóticamente estable, respectivamente.

Observación 5.1 Notemos que el estudio de la estabilidad de una solución ϕ(t) de (5.1)
siempre se puede reducir al estudio de la estabilidad de la solución trivial de un sistema
equivalente a (5.1). En efecto, pongamos y(t) = x(t) − ϕ(t) , donde x(t) es una solución
arbitraria de (5.1). Entonces

y ′ (t) = f (t, x(t)) − f (t, ϕ(t)) = f (t, y(t) + ϕ(t)) − f (t, ϕ(t)).

Definiendo
g(t, y) = f (t, y + ϕ(t)) − f (t, ϕ(t))
y considerando el sistema y ′ = g(t, y), obtenemos lo deseado. Por lo tanto, sin pérdida de
generalidad de aquı́ en adelante supondremos que f (t, 0) = 0 para todo t > τ.

91
92 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

Supongamos que x(t, t0 , x0 ) = 0. Geométricamente la estabilidad dice que las soluciones


de (5.1), para t ≥ t0 , permanecen en un tubo de radio ε > 0 para datos iniciales
suficientemente pequeños, ver figura 5.1 .

Rn

ϕ0 (t)
ǫ
δ x0 t
x1
ϕ1 (t)

Figura 5.1

La inestabilidad dice que existe ε0 > 0, tal que para cualquier δ > 0 es posible escoger
T > t0 y un vector x1 con ||x1 || < δ para el cual se satisface que ||x(T, t0 , x1 )|| ≥ ε0 ,
ver figura 5.2 .
Rn

ǫ0
x1
T t

Figura 5.2

Definición 5.3 Diremos que una solución es estable, si ella es estable para todo t0 > τ.

Proposición 5.1 Sea t0 > τ. Si la solución trivial de (5.1) es estable (asintóticamen-


te estable) en t0 , entonces x = 0 es estable (asintóticamente estable) en cualquier otro
instante t1 > τ.
Demostración. Supongamos que x = 0 es estable en t0 y que t1 ∈ (τ, t0 ). En virtud
de la dependencia continua de los datos iniciales, se tiene que para todo ε1 > 0, existe
δ1 = δ1 (ε1 , t0 , t1 ) > 0 tal que

||x(t, t1 , x1 )|| < ε1 , ∀ t ∈ [t1 , t0 ] y x1 ∈ Bδ1 (0).

Por otra parte, como x = 0 es estable en t0 , se tiene que para todo ε > 0, existe
δ(ε, t0 ) > 0 tal que: si ||x0 || < δ, entonces

||x(t, t0 , x0 )|| < ε, ∀ t ≥ t0 .

Por lo tanto, si 0 < ε1 < δ, entonces

||x(t0 , t1 , x1 )|| < ε1 < δ < ε.


§ 5.2. Estabilidad para Sistemas Lineales 93

De donde se sigue que para todo ε > 0, existe δ1∗ = δ1∗ (ε, t0 , t1 , δ) > 0 tal que

||x(t, t1 , x1 )|| < ε, ∀ t ≥ t1 y x1 ∈ Bδ1∗ (0) .

Supongamos ahora que t1 > t0 . Definamos


n o
V (t1 , ε) = x ∈ Rn : x = x(t1 , t0 , x0 ), con x0 ∈ Bδ (0) .

Por la unicidad y la dependencia continua de las soluciones respecto de los datos ini-
ciales, la aplicación x0 → x(t1 , t0 , x0 ) es un homeomorfismo para cada t1 , t0 fijos. Por
lo tanto, V (t1 , ε) es un abierto que contiene al punto x = 0. Lo cual implica que existe
δ1 = δ1 (ε, t0 ) > 0 tal que Bδ1 (0) ⊂ V (t1 , ε) . Con este δ1 = δ1 (ε, t0 ) > 0 tenemos que

||x(t, t1 , x1 )|| < ε, ∀ t ≥ t1 , ||x1 || < δ1 (ε, t0 ).

Lo cual implica la estabilidad de x = 0 en t = t1 .


En virtud de la proposición 5.1, de aquı́ en adelante sólo diremos que x = 0 es estable
o asintóticamente estable sin especificar en qué instante.

Observación 5.2 La Proposición 5.1 podrı́a parecer a primera vista que es redundante.
Pero no lo es, cuando estudiamos ecuaciones diferenciales de tipo parabólico o ecuaciones
con retardo esta Proposición es falsa. Debido a que en general estas ecuaciones generan
semi-flujos que no son reversibles en la variable temporal.

§ 5.2 Estabilidad para Sistemas Lineales

En esta sección consideraremos sistemas lineales no homogéneos

x′ (t) = A(t)x(t) + f (t), t ∈ J, (5.2)


   
donde A(t) ∈ C J, Rn×n y f ∈ C J, Rn .

Definición 5.4 Diremos que el sistema (5.2) es estable (asintóticamente estable), si toda
solución de (5.2) es estable (asintóticamente estable).

Teorema 5.2 El sistema (5.2) es estable (asintóticamente estable) si y solo si la solución


trivial del sistema lineal homogéneo

x′ (t) = A(t)x(t) (5.3)

es estable (asintóticamente estable).


Demostración. Supongamos que el sistema (5.2) es estable, la estabilidad asintótica
se prueba de modo análogo.
Sea x(t, t0 , x0 ) una solución fija y x(t) cualquier solución de (5.2) y definamos
y(t) = x(t) − x(t, t0 , x0 ), la cual es solución de (5.3). Como x(t, t0 , x0 ) es estable,
se tiene que: dado ε > 0, existe δ = δ(t0 , ε) tal que: si ||x(t0 ) − x0 || < δ, entonces
94 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

||x(t) − x(t, t0 , x0 )|| < ε, para todo t ≥ t0 . Lo cual implica que: ||y(t)|| < ε para t ≥ t0 ,
si ||y(t0 )|| < δ. La afirmación recı́proca es obvia.

El Teorema 5.2 es muy importante por cuanto nos dice que para el estudio de la
estabilidad de sistemas lineales no-homogéneos, basta con estudiar la estabilidad de la
solución trivial del sistema lineal homogéneo asociado.

Teorema 5.3 El sistema (5.3) es estable si y solo si todas sus soluciones son acotadas.
Demostración. Supongamos que la solución trivial de (5.3) es estable. Entonces

||xi (t, t0 , δei /2)|| ≤ ε , ∀ t ≥ t0 , i = 1, . . . , n ,

donde {e1 , . . . , en } es la base canónica de Rn y δ es el número dado en la definición


de estabilidad. Luego, si Φ(t) denota a la matriz fundamental del sistema (5.3) cuyas
columnas son las soluciones xi (t, t0 , δei /2), entonces Φ(t) está acotada, lo cual a su vez
implica la acotación de las soluciones del sistema (5.3).
La recı́proca se sigue del hecho que ||Φ(t)|| ≤ M , ∀ t ≥ t0 y que x(t, t0 , x0 ) =
Φ(t)Φ−1 (t0 )x0 .
Notemos que el teorema 5.3 no es válido para sistemas no lineales. En efecto, conside-
remos la ecuación x′ (t) = sin2 x, con x(0) = x0 . Sus soluciones vienen dadas por

 arcctg(ctgx0 − t) , si x0 6= kπ (k ∈ Z)
x(t) =

kπ , si x0 = kπ

cuyo gráfico es

x
π
x0

t
−x0

−π

Figura 5.3
Del gráfico se observa que las soluciones están acotadas y sin embargo la solución trivial
no es estable.

Teorema 5.4
La solución trivial de (5.3) es asintóticamente estable si y solo si lim ||x(t, t0 , x0 )|| = 0,
t→+∞
para todo x0 ∈ Rn .
§ 5.2. Estabilidad para Sistemas Lineales 95

Demostración. Supongamos que la solución trivial de (5.3) es asintóticamente es-


table. Entonces, existe ρ > 0 tal que para ||x0 || < ρ se satisface que lim ||x(t, t0 , x0 )|| =
t→∞
0. Para concluir que lim ||x(t, t0 , x0 )|| = 0 para datos iniciales con norma ≥ ρ, es su-
t→+∞
ficiente definir
x(t, t0 , x0 ) ρ
ϕ(t) = ,
||x0 || 2
y observar que ||ϕ(t0 )|| = ρ/2.
Probemos la afirmación recı́proca. Para ello es suficiente ver que las soluciones de
(5.3) son acotadas. Lo cual se sigue del hecho que lim ||x(t, t0 , x0 )|| = 0, para todo
t→+∞
x0 ∈ R n .

Observación 5.3 El conjunto Ω = {x0 ∈ Rn : lim ||x(t, t0 , x0 )|| = 0} se llama región


t→∞
de atracción de la solución trivial de (5.3). El teorema anterior nos dice que para sistemas
lineales homogéneos Ω = Rn , si el sistema es asintóticamente estable. En este caso se dice
que la solución trivial es asintóticamente estable en grande.

Ejemplo 5.1 El Teorema 5.4 no es válido para sistemas no lineales, tal como vere-
mos a continuación. Este ejemplo nos fue comunicado por el Lic. Rodolfo Rodrı́guez.
Consideremos el sistema
 2 2
 x′ = − xt + [2t − y 2 t3 (t − 1) − 1]y 2 t e(y t (1 − t))

(5.4)

 ′ y
y = −t

con x(1) = x0 , y(1) = y0 .


Se puede verificar que
   
x(t) x0 + (t − 1)y 2 ey02 (1−t)
t 0
z(t) =  =



y(t) y0
t

es la solución general de (5.4) y además lim ||z(t)|| = 0, para todo z(1) = (x0 , y0 )T ∈ R2 .
t→∞
 
Sin embargo para 0 < δ < 1/e, N suficientemente grande y z0 = z(1) = N 1 , √1 T , se
N
verifica que ||z0 || < δ y eligiendo t∗ = 1 + N, se tiene

1 1 1
||z(t∗ , 1, z0 )|| ≥ ||x(t∗ )|| = + > .
N (N + 1) e e

Por lo tanto la solución trivial de (5.4) es inestable.


96 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

§ 5.3 Sistemas Lineales a Coeficientes Constantes

Consideremos el siguiente sistema lineal a coeficientes constantes

x′ (t) = Ax(t). (5.5)

Tiene lugar la siguiente

Proposición 5.5 Si todos los autovalores de la matriz A tienen parte real negativa,
entonces existen constantes K > 0 y σ > 0 tales que

||eAt || ≤ Ke−σt , ∀t ≥ 0.
Demostración. Supongamos que todos los autovalores de la matriz A tienen parte
real negativa. Es conocido que existe una matriz invertible T de modo que ella trans-
forma a la matriz A a su forma canónica de Jordan; es decir T −1 AT = J, donde
J = diag[J1 , . . . , Jm ], Ji = λi I + Si y Si es una matriz nilpotente del tipo
 
0 1 0 · 0 0
 0 0 1 · 0 0 
 
Si =  · · · · · · ,

 0 0 0 · 0 1 
0 0 0 · 0 0

donde λ1 , · · · , λm son los autovalores de A que generan los m bloques elementales de


Jordan. Ası́, obtenemos que

||eAt || = ||eT JT
−1 t
|| = ||T eJt T −1 || ≤ ||T || · ||T −1 || · ||eJt ||.

Sabemos que
eJt = diag[eJ1 t , · · · , eJi t , · · · , eJm t ].
Teniendo en cuenta que
eJi t = eλi t eSi t ,
y el hecho que Si es una matriz nilpotente, obtenemos que

||eJt || ≤ e−αt P (t), ∀t ≥ 0,



donde α = min |Reλi |, i = 1, . . . , m y P(t) es un polinomio con coeficientes positivos,
de grado a lo sumo n − 1. Por otra parte, se sabe que para todo ε > 0

P (t)
lim = 0.
t→+∞ eεt

Luego, dado ∆ > 0 existe un T > 0 tal que 0 ≤ P (t) ≤ ∆eεt , ∀t ≥ T. Eligiendo
K ∗ = max{M, ∆}, donde M = max{P (t) : t ∈ [0, T ]} se tiene que

||eAt || ≤ ||T || · ||T −1 || · ||eJt || ≤ ||T || · ||T −1 ||e−αt P (t) ≤ K ∗ ||T || · ||T −1 ||e(−α+ε)t , ∀t ≥ 0.
§ 5.3. Sistemas Lineales a Coeficientes Constantes 97

Finalmente, eligiendo K = K ∗ ||T || · ||T −1 || y σ = ε = α/2, obtenemos nuestra afir-


mación.

Para sistemas lineales a coeficientes constantes su estabilidad se puede caracterizar


completamente a través de los autovalores de la matriz A. El siguiente teorema nos da
precisamente esa caracterización.

Teorema 5.6 El sistema (5.5) es uniforme asintóticamente estable si y solo si todos los
autovalores de la matriz A tienen parte real negativa.
Demostración. De la proposición 5.5 se sigue que: si todos los autovalores de la matriz
A tienen parte real negativa, entonces el sistema (5.5) es uniforme asintóticamente
estable.
Supongamos ahora que el sistema (5.5) es asintóticamente estable y sin embargo la
matriz A tiene un autovalor con parte real mayor o igual cero. Denotemos por J ∗ a uno
de los bloques elementales de Jordan generado por el autovalor con parte real mayor o
igual a cero. Supongamos que ya la matriz A fue transformada a su forma canónica de
Jordan. Entonces se verifica que

eJt = T −1 eAt T.

De donde obtenemos que

||T || · ||T −1 || · ||eAt || ≥ ||eJt || ≥ ||eJ t || = e(Reλ


∗ )t
||eS t || ≥ e(Reλ
∗ ∗ ∗ )t
≥ 1, ∀t ≥ 0.

Lo cual contradice el hecho que ||eAt || → 0 cuando t → ∞.


Notemos que cuando la matriz A tiene autovalores con parte real nula y los restantes
autovalores tienen parte real negativa la estabilidad de la solución trivial dependerá de
la dimensión de los bloques elementales de Jordan generado por dicho autovalor.

Proposición 5.7 Si la matriz A tiene un autovalor con parte real positiva el sistema
(5.5) es inestable.
Demostración. Sea λ∗ un autovalor con parte real positiva y J ∗ uno de sus corres-
pondientes bloques elementales de Jordan. Entonces se verifica que

||T || · ||T −1 || · ||eAt || ≥ ||eJt || ≥ ||eJ t || = e(Reλ


∗ )t
||eS t || ≥ e(Reλ
∗ ∗ ∗ )t
→ ∞,

cuando t → ∞. Lo cual implica que la solución trivial del sistema (5.5) es inestable.

La caracterización de la estabilidad del sistema (5.5) a través de los autovalores


de la matriz constante A, podrı́a llevarnos a intentar el mismo enfoque para sistemas
a coeficientes variables, desgraciadamente esto no es posible. El siguiente ejemplo
tomado de Coppel [5], p.3 , muestra que el Teorema 5.6 es falso para sistemas lineales
no autónomos. En efecto, consideremos

x′ = A(t)x,
98 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

donde
   
−1 −1 −5 cos t sent
A(t) = U (t)A0 U (t) , A0 = , U (t) = .
0 −1 −sent cos t

Es obvio que los autovalores de la matriz A(t) son ambos iguales a −1. Sin embargo la
matriz fundamental viene dada por
 t 
e (cos t + 12 sent) e−3t (cos t − 12 sent)
Φ(t) =  .
t 1 −3t 1
e (sent − 2 cos t) e (sent + 2 cos t)

De donde se desprende que no todas las soluciones tienden a cero cuando t → ∞.

§ 5.4 Criterio de Estabilidad de Routh-Hurwitz

En la sección anterior vimos que la estabilidad de un sistema lineal autónomo se puede


caracterizar en términos de los autovalores de la matriz A. Lo cual a su vez nos conduce
a determinar cuándo las raı́ces del polinomio caracterı́stico Pn (z) = det(λI − A) = 0
tienen todas parte real negativa. El criterio de Routh-Hurwitz que a continuación
estudiaremos nos da la condición necesaria y suficiente para que esto acontezca.
Diremos que

Pn (z) = a0 z n + a1 z n−1 + · · · + an−1 z + an , a0 > 0, (5.6)

con ai ∈ R, es un polinomio de Hurwitz si todas sus raı́ces tienen parte real negativa.

Lema 5.8 Si Pn (z) es un polinomio de Hurwitz, entonces ai > 0, ∀ i = 0, 1, . . . , n.


Demostración. Sean z1 , . . . , zp las raı́ces reales de Pn (z) y α1 , . . . , αp sus corres-
pondientes multiplicidades. Denotemos con zp+1 , . . . , zp+q las raı́ces complejas de Pn (z)
y β1 , . . . , βq sus respectivas multiplicidades. Por hipótesis

Rezk < 0, k = 1, 2, . . . , p + q.

Sabemos que
βj βj
Pn (z) = a0 Πpk=1 (z − zk )αk Πqj=1 z − zp+j z − z p+j .

Pongamos zk = −bk , con bk > 0 , k = 1, . . . , p y zj+p = −bj+p + icj , con bj+p > 0 , j =
1, . . . , q. Ası́
α β
Pn (z) = a0 Πpk=1 z + bk k Πqj=1 z 2 + 2bj+p z + b2j+p + c2j j ;

lo cual implica que todos los coeficientes de Pn (z) son positivos.

Corolario 5.9 En el caso n ≤ 2 la condición anterior es suficiente también; es decir,


todo polinomio de segundo grado es de Hurwitz si y sólo si ai > 0, i = 0, 1, 2.
§ 5.4. Criterio de Estabilidad de Routh-Hurwitz 99

Para n ≥ 3 la condición del Lema (5.8) es solo necesaria. Considere por ejemplo el
polinomio
P3 (z) = z 3 + z 2 + z + 1.
Todos sus coeficientes son positivos sin embargo sus raı́ces son z1 = −1, z2 = i, z3 = −i.
Denotemos por Hn al conjunto de todos los polinomios de Hurwitz de grado n.

Definición 5.5 Diremos que F (z) es un polinomio asociado a Pn (z), si existe α > 0 tal
que F (z) = (1 + αz)Pn (z) + Pn (−z).

Lema 5.10 Sea Pn (z) ∈ Hn . Entonces su polinomio asociado F (z) ∈ Hn+1 .


Demostración. Definamos una familia de polinomios Fµ (z) como sigue

Fµ (z) = (1 + αz)Pn (z) + µPn (−z), µ ∈ [0, 1].

Demostremos que Fµ (z) ∈ Hn+1 , para todo µ ∈ [0, 1]. Teniendo en cuenta que α > 0,
se sigue que F0 (z) = (1 + αz)Pn (z) ∈ Hn+1 .
Es conocido que las raı́ces de cualquier polinomio dependen continuamente de sus
coeficientes. Por lo tanto, los ceros de Fµ (z), zj : [0, 1] → C , j = 1, . . . , n + 1 son
funciones continuas.
Supongamos que existe un µ̃ ∈ (0, 1] y un ı́ndice 1 ≤ j ≤ n, tal que Re zj (µ̃) = 0 y
Re zj (µ) < 0, ∀µ ∈ [0, µ̃). Denotando con zj (µ̃) = iβ (β 6= 0), tenemos que Fµ̃ (zj ) = 0 y
Fµ̃ (z j ) = 0. Lo cual implica que

(1 + iβα)Pn (iβ) = −µ̃Pn (−iβ) , (1 − iβα)Pn (−iβ) = −µ̃Pn (iβ).

Excluyendo de las igualdades anteriores Pn (−iβ), obtenemos

(1 + α2 β 2 − µ̃2 )Pn (iβ) = 0.

Como µ̃2 ≤ 1, entonces 1 + α2 β 2 − µ̃2 > 0. Por lo tanto Pn (iβ) = 0; es decir, iβ es


raı́z de Pn (z). Contradicción. Por lo tanto Fµ ∈ Hn+1 , ∀µ ∈ [0, 1]. Tomando µ = 1 se
obtiene lo deseado.

Lema 5.11 Si F (z) ∈ Hn+1 , entonces existe α > 0 y Pn ∈ Hn tal que F es el asociado
de Pn .
Demostración. Sea

F (z) = A0 z n+1 + A1 z n + · · · + An z + An+1 , A0 > 0.

Mostremos que existe un α > 0 y un polinomio Pn (z) tal que

F (z) = (1 + αz)Pn (z) + Pn (−z). (5.7)

De (5.7), obtenemos
F (−z) = (1 − αz)Pn (−z) + Pn (z). (5.8)
100 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

Excluyendo Pn (−z) de (5.7) y (5.8), obtenemos

α2 z 2 Pn (z) = (αz − 1)F (z) + F (−z). (5.9)

Sustituyendo F (z) en (5.9), se tiene que


 
α2 z 2 Pn (z) = αA0 z n+2 + αA1 − A0 + (−1)n+1 A0 z n+1 + (5.10)
 n
 n 2
 
αA2 − A1 + (−1) A1 z + · · · + αAn z + αAn+1 − 2An z.

Lo cual implica que eligiendo α = 2An /An+1 , los coeficientes del polinomio Pn (z) se
determinan unı́vocamente.
Definamos vµ (z) = (αz − 1)F (z) + µF (−z), µ ∈ [0, 1).
Mostremos que

a) vµ (z) tiene una raı́z positiva y (n + 1) raı́ces con parte real negativa, ∀µ ∈ [0, 1).

b) lim vµ (z) posee n raı́ces con parte real negativa y dos con parte real nula.
µ→1

Es obvio que v0 (z) = 0 si y sólo si z = 1/α ó F (z) = 0. Por lo tanto, la afirmación a)


se verifica para µ = 0.
Probemos que esta disposición de las raı́ces de v0 (z) se mantiene con respecto a
los polinomios vµ (z), ∀µ ∈ [0, 1). En efecto, supongamos que existen µ̃ ∈ (0, 1) y un
1 ≤ j ≤ n + 2 tales que zj (µ̃) = iβ es raı́z del polinomio vµ̃ (z). Entonces

vµ̃ (iβ) = vµ̃ (−iβ) = 0.

Ası́
(αβi − 1)F (iβ) + µ̃F (−iβ) = 0,
y
−(αβi + 1)F (−iβ) + µ̃F (iβ) = 0.
De donde obtenemos que
[µ̃2 − 1 − α2 β 2 ]F (iβ) = 0.
Teniendo en cuenta que µ̃2 < 1, se sigue que [µ̃2 − 1 − α2 β 2 ] < 0. Lo cual a su vez
implica que F (iβ) = 0. Lo cual es una contradicción. Con esto queda probado a).
Sustituyendo F (z) y α = 2An /An+1 en vµ (z), obtenemos
 
2An n+2 2An
vµ (z) = A0 z +···+ − An−1 + µAn−1 z 2 + (1 − µ)An z + (µ − 1)An+1 .
An+1 An+1

Notemos que
v1 (z) = (αz − 1)F (z) + F (−z),
por lo cual v1 (z), de acuerdo a (5.9), lo podemos escribir como

2An
v1 (z) = α2 z 2 Pn (z), con α= .
An+1
§ 5.4. Criterio de Estabilidad de Routh-Hurwitz 101

Luego, v1 (z) posee dos raı́ces nulas ya que el término libre de Pn (z) es distinto de cero.
Ahora, teniendo en cuenta la disposición de las raı́ces de vµ para v ∈ [0, 1) y la
relación existente entre las raı́ces y los coeficientes de un polinomio1 , obtenemos que
n+2
X 1 An (1 − µ) An
=− = , ∀µ ∈ [0, 1).
zj (µ) An+1 (µ − 1) An+1
j=1

De donde sigue
n+2
X n+2
X
1 An 1 An
Re = , ∀µ ∈ [0, 1) y lim Re = .
zj (µ) An+1 µ→1− zj (µ) An+1
j=1 j=1

De aquı́ se desprende que las raı́ces que tienden a cero cuando µ → 1− son la raı́z positiva
y una raı́z negativa. Si fuesen dos raı́ces con parte real negativa las que tienden a cero,
tendrı́amos que
n+2
X 1
lim Re = −∞,
µ→1 − zj (µ)
j=1

lo cual es una contradicción.

Consideremos el polinomio Pn (z) y supongamos que los ai > 0, ∀ i = 0, 1, 2, . . . , n.


Formemos una matriz n × n como sigue, donde ai = 0 si i > n
 
a1 a0 0 0 · 0
 a3 a2 a1 a0 · 0 
 
 a5 a4 a3 a2 · 0 
Mn =  ·
.
 · · · · ·  
 · · · · · · 
0 0 0 0 0 an
y sean
a1 a0

∆1 = a1 , ∆2 = , . . . , ∆n = an ∆n−1 .
a3 a2

Teorema 5.12 (Criterio de Routh-Hurwitz) Las raı́ces de Pn (z) poseen parte real nega-
tiva si y sólo si ∆i > 0, i = 1, . . . , n.
Demostración. (Necesidad) Supongamos que Pn ∈ Hn . Realicemos la prueba por
inducción. Sea P1 (z) = a0 z + a1 . Ası́ z = −a1 /a0 < 0 y ∆1 = a1 > 0. Consideremos
P2 (z) = a0 z 2 + a1 z + a2 . Luego por el Corolario 5.9 , ∆1 y ∆2 son positivos.
Supongamos que para todo Pn ∈ Hn , se verifica que ∆j > 0, j = 1, . . . , n. Sea
F ∈ Hn+1 . De acuerdo con el Lema 5.11, existe α > 0 y Pn ∈ Hn tal que

F (z) = (1 + αz)Pn (z) + Pn (−z).


1
Fórmulas de Viète, Apéndice §10.1
102 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

Por comodidad pongamos α = 2c, donde c > 0. Entonces


   
F (z) = 2ca0 z n+1 + a0 + a0 (−1)n + 2ca1 z n + a1 + (−1)n−1 a1 + 2ca2 z n−1
 
+ · · · + 2an−2 + 2can−1 z 2 + 2can z + 2an . (5.11)

Supongamos por ejemplo que n es par, el caso n-impar se analiza en forma similar. De
(5.11) obtenemos que

F (z) = 2ca0 z n+1 + (2a0 + 2ca1 )z n + 2ca2 z n−1 + · · · + (2an−2 + 2can−1 )z 2 + 2can z + 2an

de donde sigue
 
2a0 + 2ca1 2ca0 0 · 0
 2a2 + 2ca3 2ca2 2a0 + 2ca1 · · 
 
 2a4 + 2ca5 2ca4 2a2 + 2ca3 · · 
MF = 

.

 · · · · · 
 · · · · · 
0 0 0 · 2an

Multiplicando la segunda columna por −1/c y sumándola a la primera; la cuarta la


multiplicamos por −1/c y la sumamos a la tercera; y ası́ sucesivamente, obtenemos
 
2ca1 2ca0 0 · 0
 2ca3 2ca2 2ca1 · · 
 
 2ca5 2ca4 2ca3 · · 
MF =   .
 · · · · · 
 · · · · · 
0 0 0 · 2an

De donde se sigue que


˜ 1 = 2c∆1 , ∆
∆ ˜ 2 = (2c)2 ∆2 , . . . , ∆
˜ n = (2c)n ∆n , ∆
˜ n+1 = 2an ∆
˜ n.

˜ j > 0, j = 1, . . . , n + 1.
Teniendo en cuenta que ∆j > 0, j = 1, . . . , n, se sigue que ∆
(Suficiencia) Sea Pn (z) un polinomio tal que

aj > 0, ∀ j = 1, . . . , n y ∆j > 0, ∀ j = 1, . . . , n.

La prueba la realizaremos por inducción. Sea P1 (z) = a0 z + a1 . Como ∆1 = a1 > 0,


entonces z1 = −a1 /a0 < 0. Para n = 2 nuestra afirmación sigue del Corolario 5.9.
Supongamos que nuestra afirmación es cierta para todos los polinomios de grado n.
Sea F (z) un polinomio de grado (n + 1) con coeficientes positivos tal que ∆ ˜ j > 0,
j = 1, . . . , n + 1.
De las fórmulas (5.9) y (5.10) se sigue que existe un polinomio Pn (x) tal que

2An
F (z) = (1 + αz)Pn (z) + Pn (−z), con α= > 0.
An+1
§ 5.5. Criterio de Routh 103

Exactamente igual que en la prueba de la necesidad se obtiene que

∆ ˜ 2 = (2c)2 ∆2 , . . . , ∆
˜ 1 = 2c∆1 , ∆ ˜ n = (2c)n ∆n , ∆
˜ n+1 = 2an ∆
˜ n.

Lo cual implica que ∆j > 0, j = 1, . . . , n. Por la hipótesis inductiva obtenemos que


Pn (z) ∈ Hn y por el Lema 5.10 concluimos que F ∈ Hn+1 .

§ 5.5 Criterio de Routh

El Criterio de Routh-Hurwitz sólo nos provee respuesta cuando las raı́ces del polinomio
tienen parte real negativa. Ahora esbozaremos el criterio de Routh, el cual nos permite
saber cuantas raı́ces tienen parte real positiva.
A continuación vamos a describir el diagrama de Routh. Al polinomio

Pn (z) = a0 z n + a1 z n−1 + · · · + an−1 z + an , (5.12)

asociémosle la siguiente matriz


 
a0 a2 a4 a6 ··· a2i ···
 a1 a3 a5 a7 ··· a2i+1 ··· 
 
 b1 b3 b5 b7 ··· b2i+1 ··· 
Hn+1 =

.

 c1 c3 c5 c7 ··· c2i+1 ··· 
 d1 d3 d5 d7 ··· d2i+1 ··· 
··· ··· ··· ··· ··· ··· ···

Los coeficientes bi , ci , di , etc. se calculan de acuerdo a la siguiente regla



1 a0 a2 1 a0 a4 1 a0 a6
b1 = − , b3 = − , b5 = − , ······
a1 a1 a3 a1 a1 a5 a1 a1 a7

1 a1 a3 1 a1 a5 1 a1 a7
c1 = − , c3 = − , c5 = − , ······
b1 b1 b3 b1 b1 b5 b1 b1 b7

1 b1 b3 1 b1 b5 1 b1 b7
d1 = − , d3 = − , d5 = − , ······
c1 c1 c3 c1 c1 c5 c1 c1 c7
Convendremos en añadir ceros a cada fila para hacer posible el cálculo y que el número
de filas es n + 1. La matriz Hn+1 describe el diagrama de Routh.
Tiene lugar el siguiente

Teorema 5.13 (Criterio de Routh) El número de raı́ces del polinomio Pn (z) que tienen
parte real positiva es igual al número de cambios de signos de la primera columna de la
matriz Hn+1 ; es decir de (a0 , a1 , b1 , c1 , · · · ).
104 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

La demostración de este teorema se encuentra en el libro de Gantmacher [13], p.p.


208-220.
El análisis del diagrama de Routh lo dividiremos en dos casos: el regular y el
singular. Notemos que los elementos de una fila se pueden multiplicar por un número
positivo sin afectar el resultado del test. Esto normalmente se hace para facilitar los
cómputos.
1. Caso Regular: Cuando todos los coeficientes de la columna (a0 , a1 , b1 , c1 , · · · ) son
distintos de cero.
Consideremos el polinomio

P3 (x) = x3 − x2 + x + 2.

El diagrama de Routh viene dado por


 
1 1 0 0
 −2 2 0 0 
H4 = 
 2
.
0 0 0 
2 0 0 0

En este caso la primera columna sufre dos cambios de signos, por lo tanto el
polinomio tiene dos raı́ces con parte real positiva. Pruebe que estas raı́ces son
complejas conjugadas.

2. Caso Singular: Algún coeficiente de la primera columna es cero.


En este caso se sustituye el elemento cero por una cantidad ε 6= 0 de signo
arbitrario y se procede con el algoritmo. Si vuelve a aparecer otro coeficiente
igual a cero en la primera columna se vuelve a sustituir por otra cantidad η 6= 0
y ası́ sucesivamente. Estas sustituciones están fundamentadas en [13].
Consideremos el polinomio

P3 (x) = x3 − x2 − x + 1

El diagrama de Routh viene dado por


 
1 −1 0 0
 −1 1 0 0 
H4 =  0
.

0 0 0
0 0 0 0

El cual no nos permite aplicar el Criterio de Routh. Con las observaciones ante-
riores el diagrama sustitutivo es
 
1 −1 0 0
 −1 1 0 0 
H4 =   ε
.
0 0 0 
1 0 0 0
§ 5.6. Estabilidad de Sistemas Lineales Semi-Autónomos 105

De donde se sigue que el polinomio tiene dos raı́ces con parte real positiva.
Muestre que todas las raı́ces son reales.
Conjetura: Todo polinomio con coeficientes reales cuyas raı́ces son todas reales
siempre el diagrama de Routh es singular.

§ 5.6 Estabilidad de Sistemas Lineales Semi-Autónomos

En esta sección estudiaremos bajo que condiciones se puede establecer la estabilidad


de sistemas del tipo 
x′ = A + C(t) x, (5.13)
 
con A ∈ Rn×n y C ∈ C [0, ∞), Rn×n .

Teorema 5.14 Si la matriz A tiene todos sus autovalores con parte real negativa y
Z ∞
||C(t)||dt < ∞, (5.14)
0

entonces la solución trivial de (5.13) es uniforme asintóticamente estable.


Demostración. De (5.13) se obtiene que
Z t
At
x(t) = e x0 + eA(t−s) C(s)x(s)ds .
0
Como todos los autovalores de la matriz A tienen parte real negativa, existen constantes
positivas K > 0 y α > 0 tales que
||eAt || ≤ Ke−αt , ∀ t ≥ 0.
Combinando estas dos últimas relaciones se tiene
Z t
αt
||x(t)||e ≤ K||x0 || + K||C(s)|| · ||x(s)||eαs ds.
0
Usando el Lema de Gronwall se obtiene que
Rt
||x(t)||eαt ≤ K||x0 ||e 0
K||C(s)||ds
.
Lo cual implica que
||x(t)|| ≤ K ∗ ||x0 ||e−αt
, ∀t ≥ 0,
R ∞
donde K ∗ = K exp { 0 K||C(s)||ds}. Lo cual a su vez prueba nuestra afirmación

De la demostración del Teorema anterior se obtiene fácilmente el siguiente

Corolario 5.15 1. Si ||C(t)|| ≤ δ, ∀ t ≥ 0, con δ > 0 suficientemente pequeño y los


autovalores de la matriz A tienen parte real negativa, entonces la solución trivial del
sistema (5.13) es uniforme asintóticamente estable.
2. Si las soluciones de x′ = Ax están acotadas sobre [0, ∞) y se satisface (5.14),
entonces las soluciones de (5.13) también están acotadas sobre [0, ∞).
106 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

§ 5.7 Estabilidad de Sistemas Semi Lineales. Teorema de la


Primera Aproximación.

Consideremos el sistema semi lineal

x′ = A(t)x + f (t, x) , f (t, 0) = 0 , ∀t > τ, (5.15)


 
donde A(t) ∈ C J, Rn×n y f ∈ C 1 [J × D, Rn ]

Definición 5.6 La solución trivial de (5.15) es exponencial asintóticamente estable, si


existen constantes K ≥ 1 y α > 0 tales que toda solución x(t), con x(t0 ) = x0 , satisface
que
||x(t)|| ≤ K||x0 ||e−α(t−t0 ) , t ≥ t0 .

Proposición 5.16
Sea Φ(t) la matriz fundamental del sistema (5.3) y K(t, s) = Φ(t)Φ−1 (s) la matriz de
transición. Entonces todas las soluciones de (5.3) son uniformemente estable si y sólo si
existe una constante M > 0, tal que

||K(t, s)|| ≤ M , ∀ t, s : t0 ≤ s ≤ t < ∞. (5.16)

La demostración es una consecuencia inmediata del hecho que x(t, t0 , x0 ) = K(t, t0 )x0 .

Teorema 5.17 La solución trivial de (5.3) es exponencial asintóticamente estable si y


solo si es uniforme asintóticamente estable.
Demostración. Claramente exponencialmente estable implica uniforme asintótica-
mente estable.
Demostremos el recı́proco. Sabemos que existe δ > 0, tal que ||x(t0 )|| < δ implica
que lim ||x(t)|| = 0. Luego, dado ε > 0, existe T = T (ε) > 0 tal que: si t ≥ t0 + T,
t→∞
entonces ||x(t)|| < ε. Tomemos ε > 0 de modo que ε = δ/2 y sea n ∈ N tal que nδ > 1.
Definamos
 
x(t) 1
ψ(t) = δ− , t ≥ t0 , x(t0 ) = x0 .
||x0 || n
1 < δ y por lo tanto ||ψ(t)|| < δ , si t ≥ t + T. Lo cual implica
Entonces ||ψ(t0 )|| = δ − n 2 0
 
δ 1 −1
||x(t)|| < ||x0 || δ− , si t ≥ t0 + T.
2 n
Haciendo tender n → ∞, se obtiene que
1
||x(t)|| ≤ ||x0 ||, si t ≥ t0 + T.
2
Mostremos que
||x0 ||
||x(t)|| ≤ , si t ≥ t0 + rT, r ∈ N.
2r
§ 5.7. Estabilidad de Sistemas Semi Lineales. Teorema de la Primera Aproximación. 107

Por la unicidad de las soluciones se tiene que

x(t) = x(t, t0 , x0 ) = x(t, t0 + T, x(t0 + T )) , ∀t > τ. (5.17)

Entonces
1 1
||x(t)|| < ||x(t0 + T )|| ≤ 2 ||x0 || , si t ≥ t0 + 2T.
2 2
El resto sigue por inducción.
Teniendo en cuenta que 2−r = exp(−r ln 2), obtenemos ||x(t)|| ≤ exp(−r ln 2)||x0 ||,
si t ≥ t0 + rT, r ∈ N.
Sea t ≥ t0 +T arbitrario. Entonces existe un r ∈ N tal que t0 +rT ≤ t < t0 +(r+1)T.
De donde se sigue que (t − t0 − T )/T ≤ r lo cual a su vez implica que exp(−r ln 2) ≤
exp[− ln 2(t − t0 − T )/T ], y por tanto
 
t − t0
||x(t)|| ≤ ||x0 || exp(ln 2) exp − ln 2 , si t ≥ t0 + T. (5.18)
T

Supongamos ahora que t ∈ [t0 , t0 + T ]. Como la solución trivial de (5.3) es uniforme-


mente estable, existe una constante M > 0 tal que

||x(t)|| ≤ M ||x0 || , si t ≥ t0 .

Como t ∈ [t0 , t0 + T ], entonces (t − t0 )/T ≤ 1; y por tanto


 
t − t0 1
exp − ln 2 ≥ exp(− ln 2) = .
T 2
 
Luego, si t ∈ [t0 , t0 + T ], se tiene que 1 ≤ 2 exp − ln 2 t −T
t0 y por ende

 
t − t0
||x(t)|| ≤ M ||x0 || ≤ 2M ||x0 || exp − ln 2 . (5.19)
T

Combinando (5.18) y (5.19), obtenemos que existen constantes K ≥ 1 y α > 0, tales


que ||x(t)|| ≤ K||x0 || exp(−α(t − t0 )), ∀ t ≥ t0 . Donde α = ln 2/T , K = max{2, 2M }.

Teorema 5.18
(a) Si las soluciones de (5.3) son uniformemente estable y existe una función continua e
integrable m : [t0 , +∞) → R+ tal que

||f (t, x)|| ≤ m(t)||x||, ∀(t, x) ∈ J × D, (5.20)

entonces la solución trivial de (5.15) es uniformemente estable.

(b) Si las soluciones de (5.3) son uniforme asintóticamenteR t+1 estable, entonces bajo la
condición (5.20) siendo m una función continua y t m(s)ds ≤ C, ∀t ≥ t0 , la
solución trivial de (5.15) es uniforme asintóticamente estable.
108 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

Demostración. Probemos (a). Sea x(t) la única solución de (5.15) tal que x(t0 ) = x0 .
Supongamos que [t0 , β) es el intervalo maximal de existencia de x(t). Haciendo variación
de parámetros, de (5.15) obtenemos que
Z t
x(t) = K(t, t0 )x0 + K(t, s)f (s, x(s))ds, t ∈ [t0 , β); (5.21)
t0

Teniendo en cuenta que la solución trivial de (5.3) es uniforme estable, existe una
constante M > 0 tal que
||K(t, t0 )|| ≤ M. (5.22)
Luego, de (5.21) y (5.22) se sigue
Z t
||x(t)|| ≤ M ||x0 || + M ||f (s, x(s))||ds, t ∈ [t0 , β). (5.23)
t0

Combinando (5.20) y (5.23), obtenemos


Z t
||x(t)|| ≤ M ||x0 || + M m(s)||x(s)||ds, t ∈ [t0 , β). (5.24)
t0

Aplicando la desigualdad de Gronwall a (5.24), se tiene que


Rt R∞
M m(s)ds M m(s)ds
||x(t)|| ≤ M ||x0 ||e t0
≤ M ||x0 ||e t0
, ∀t ∈ [t0 , β).

Esto prueba que las soluciones del sistema (5.15) son prolongables a infinito y uniforme-
mente estable.
La prueba de (b) es análoga a la de (a), R t+1sólo se debe tener en cuenta que: si
+
m : [t0 , ∞) → R es una función continua y t m(s)ds ≤ C, ∀t ≥ t0 , entonces
Z t
C
e(−α(t−s)) m(s)ds ≤ , ∀ t ≥ 0 , α > 0.
t0 1 − exp(−α)
En efecto, del teorema del valor medio para integrales se sigue que:
Z t−k Z t−k
−α(t−s) −αk
e m(s)ds = e m(s)ds
t−k−1 ξ
Z t−k
≤ e−αk m(s)ds ≤ e−αm C
t−k−1

donde ξ ∈ [t − k − 1, t − k]. Lo cual implica que


Z t X∞
C
e−α(t−s) m(s)ds ≤ e−αk C = .
t0 1 − e−α
k=0

Para concluir esta sección probaremos un resultado conocido como el Teorema de Es-
tabilidad de la primera aproximación. Después de su demostración explicaremos el por
qué del nombre.
§ 5.7. Estabilidad de Sistemas Semi Lineales. Teorema de la Primera Aproximación. 109

Teorema 5.19 (Teorema de la Primera Aproximación) Supongamos que el sistema x′ =


A(t)x es exponencial asintóticamente estable y
||f (t, x)||
lim =0 (5.25)
||x||→0 ||x||
uniformemente en t. Entonces la solución trivial del sistema 5.15 es local exponencial
asintóticamente estable.
Demostración. De (5.25) se sigue que para todo ε > 0 existe un σ > 0 tal que
||f (t, x)|| ≤ ε||x|| para todo t ∈ J y ||x|| ≤ σ. Sea x(t) una solución de (5.15) tal que
||x(t0 )|| < σ/2K. Donde K es la constante que figura en la definición de estabilidad
exponencial. Probemos que ||x(t)|| < σ para todo t ≥ t0 . Supongamos que esto no es
cierto y sea t∗ el primer instante tal que ||x(t∗ )|| = σ.
Sabemos que
Z t
x(t) = K(t, t0 )x0 + K(t, s)f (s, x(s))ds, t ∈ [t0 , t∗ ]. (5.26)
t0
Teniendo en cuenta (5.26), que el sistema lineal es exponencial asintóticamente estable
y que ||x(t)|| ≤ σ para todo t ∈ [t0 , t∗ ], obtenemos
Z t
||x(t)||eα(t−t0 ) ≤ K||x(t0 )|| + Kε||x(s)||eαs ds.
t0
para todo t ∈ [t0 , t∗ ]. Aplicando el Lema de Gronwall y eligiendo ε = α/2K, obtenemos
||x(t∗ )|| ≤ K||x(t0 )||e−α(t
∗ −t )/2
0
≤ σ/2.
La contradicción prueba que
||x(t)|| ≤ K||x(t0 )||e−α(t−t0 )/2 ,
para todo t ≥ t0 .

Consideremos el sistema
x′ = g(x),
donde g ∈ C 1 [Rn , Rn ] y g(0) = 0. Es decir x = 0 es un punto de equilibrio del sistema
y vamos a suponer que es aislado. El sistema anterior lo podemos reescribir como sigue
x′ = g′ (0)x + G(x),
donde G(x) = g(x) − g′ (0)x. Es fácil probar que
||G(x)||
lim = 0.
||x||→0 ||x||
El siguiente resultado es una consecuencia inmediata del Teorema 5.19

Corolario 5.20 (Teorema de Perron) Si todos los autovalores de la matriz g′ (0) tienen
parte real negativa, entonces x = 0 es local exponencial asintóticamente estable.
Este Corolario nos dice que los términos de primer orden nos proveen información sobre
la estabilidad local del equilibrio trivial.
110 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

§ 5.8 Comentarios y Sugerencias

En este capı́tulo nos hemos restringido a caracterizar los conceptos mas usuales de la
teorı́a de la estabilidad. Es muy grande la cantidad de definiciones que se han dado
con el fin de obtener los mejores resultados posibles en esta dirección. Una discusión
detallada, acompañada de una extensa bibliografı́a se encuentra en [28], [36].
Un problema muy interesante, que tampoco hemos tocado, es el concerniente a
la caracterización de las perturbaciones que preservan las propiedades del sistema sin
perturbar. Más concretamente, sean

x′ = A(t)x, (5.27)

y ′ = A(t)x + f (t). (5.28)


Si las soluciones de (5.27) están acotadas o uniformemente acotadas en el infinito, etc.
¿A qué clase deben pertenecer A y f, para que (5.28) tenga la misma propiedad?.
A este respecto se puede consultar, por ejemplo el libro de Coppel [5].
§ 5.9. Ejercicios y Problemas 111

§ 5.9 Ejercicios y Problemas

1. Muestre que las solución trivial de la ecuación x′ = 0 es estable, pero no es


asintóticamente estable.

2. Muestre que la solución trivial de las ecuaciones x′ = x2 y x′ = −x2 no es estable.

3. Pruebe que las raı́ces de un polinomio dependen continuamente de los coeficientes


del polinomio.
Ayuda: Utilice el Teorema de Hurwitz, ver Apéndice §10.4 .

4. Halle eA , donde A viene dada por:


   
  0 1 2 λ 0 0
5 −6
A= , A= 0 0 3  , A= 1 λ 0 
3 −4
0 0 0 0 1 λ

5. Pruebe que toda ecuación de orden n

x(n) + a1 x(n−1) + a2 x(n−2) + · · · + an−1 x′ + an x = 0

es equivalente al siguiente sistema


 
0 1 0 0 ··· 0
 0 0 1 0 ··· 0 
y′ =  ···
 y,
··· ··· ··· ··· ··· 
−an −an−1 −an−2 · · · −a2 −a1

donde y = (x, x′ , x′′ , · · · , x(n−2) , x(n−1) )T .

6. Pruebe que P (z) = z n + a1 z n−1 + a2 λn−2 + · · · + an−1 λ + an = 0 es el polinomio


caracterı́stico asociado a la matriz
 
0 1 0 0 ··· 0
 0 0 1 0 ··· 0 
A=  ···
.
··· ··· ··· ··· ··· 
−an −an−1 −an−2 · · · −a2 −a1

7. Estudie la estabilidad de la solución trivial de la ecuación x′′ + x = 0.

8. Considere la ecuación

x′ = sen(ln t) + cos(ln t) − 2a x.

Pruebe que la solución trivial x ≡ 0 es asintóticamente estable, si a > 1.


Indicación: Utilice el hecho que
Z t 
1
lim sup sen(ln s) + cos(ln s) − 2a ds = 2(1 − a), t0 > 0.
t→+∞ t − t0 t0
112 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

9. De ejemplos para sistemas bidimensionales lineales a coeficientes constantes en


donde en un caso los autovalores tienen parte real cero y las soluciones son estables
y en otro caso son inestables.

10. Estudie la disposición de los ceros del polinomio λ3 + λ2 + aλ + b = 0 en el plano


de los parámetros (a, b).

11. Describa en el plano de los parámetros (a, b) la disposición de la raı́ces del poli-
nomio caracterı́stico correspondiente a la la siguiente ecuación diferencial

y ′′′ + ay ′′ + by ′ + 6y + 4 − a = 0.

Ayuda: Use el Criterio de Routh-Hurwitz y el Criterio de Routh.

12. Describa en el plano de los parámetros (a, b) las regiones de estabilidad, estabili-
dad asintótica e inestabilidad de las soluciones de la siguiente ecuación diferencial

y ′′′ + ay ′′ + by ′ + 6y + 4 − a = 0 .

Ayuda: Use el ejercicio anterior.

13. Pruebe que el sistema generado por la ecuación diferencial x′′ = x(1 − x) es
conservativo. Estudie la estabilidad de los puntos de equilibrio.

14. Pruebe que la solución trivial del sistema

x′ = y
y ′ = −x − (1 − x2 − y 2 )y

es exponencial asintóticamente estable en la región B = {(x, y) : x2 + y 2 < 1}.

15. Estudie la estabilidad asintótica de la solución trivial del sistema

y ′′ + ay ′ + bseny = 0, a ≥ 0 , b > 0.

16. Pruebe el Corolario 5.15.

17. Sea A(t) una matriz continua sobre el intervalo [0, ∞). Suponga el sistema x′ =
A(t)x posee una matriz fundamental de soluciones Φ(t) uniformemente acotada
sobre [0, ∞), y que
Z t
lim inf trazaA(s)ds > −∞.
t→∞ 0

Pruebe que Φ−1 está uniformemente acotada sobre el intervalo [0, ∞); y que la
única solución que puede tender a cero cuando t → ∞ es la solución trivial.
§ 5.9. Ejercicios y Problemas 113

18. Considere la ecuación diferencial del problema anterior y el sistema x′ = B(t)x,


donde B(t) es una matriz continua. Pruebe que dada una solución ψ del sistema
x′ = B(t)x, existe una solución ϕ del sistema x′ = A(t)x tal que se verifica que
Z t
ψ(t) = ϕ(t) + Φ(t)Φ−1 (s)[B(s) − A(s)]ψ(s)ds, ∀t0 ≥ 0.
t0

Pruebe que si además se verifica


Z ∞
||A(t) − B(t)||dt < ∞,
0

entonces ψ está uniformemente acotada sobre el intervalo [0, ∞).

19. Bajo las hipótesis de los ejercicios 17 y 18, pruebe que dada una solución ψ existe
una única solución ϕ tal que ϕ − ψ → 0 cuando t → ∞.
Indicación: Deduzca del ejercicio 18 que
Z ∞
ψ(t) = ϕ(t) − Φ(t)Φ−1 (s)[B(s) − A(s)]ψ(s)ds.
t

R∞
20. Pruebe que: si 0 ||B(t)||dt < ∞, entonces cualquier solución del sistema x′ =
B(t)x no idénticamente igual a cero converge a un vector distinto de cero cuando
t → ∞. Además, para todo c ∈ Rn , existe una única solución ψ la cual tiende a
c cuando t → ∞.
Indicación: En los ejercicios anteriores elija A = 0 y Φ = I.

21. Sean A0 , . . . , Am matrices reales n × n. Pruebe que si todos los autovalores de la


matriz A0 tienen parte real negativa, entonces la solución trivial del sistema

y ′ = (A0 tm + A1 tm−1 + · · · + Am )y

es asintóticamente estable sobre el intervalo (0, +∞).


1
Ayuda: Introduzca una nueva escala de tiempo τ = m+1 tm+1 .

22. Considere el sistema

x′j = fj (x1 , · · · , xj ) , j = 1, · · · , n , (5.29)

donde las funciones fj (x1 , · · · , xj ) son de clase C 1 , globalmente Lipschitz sobre


Rn y x = 0 es un punto de equilibrio aislado.
Pruebe que si la solución trivial de los sistemas

x′1 = f1 (x1 ) , x′2 = f2 (0, x2 ), . . . , x′n = fn (0, · · · , 0, xn )

es local exponencial asintóticamente estable, entonces la solución trivial del sis-


tema (5.29) es uniforme asintóticamente estable.
Indicación: Use la fórmula de Alekseev página 33.
114 Capı́tulo 5. Teorı́a de la Estabilidad Según Liapunov

23. Pruebe que si x′ = f (x), con x ∈ R2 tiene un único punto de equilibrio local
asintóticamente estable y el sistema no posee órbitas periódicas, entonces el equi-
librio es global asintóticamente estable.

24. Considere el siguiente sistema

x′1 = −a1 x1 + bn xn
x′i = −ai xi + bi−1 xi−1 , i = 2 . . . n,
Q
donde ai > 0, ∀i = 1 · · · n y ni=1 bi ≥ 0.
Pruebe que la solución trivial es exponencial asintóticamente estable si y solo si
n
Y n
Y
bi < ai .
i=1 i=1

25. Considere el sistema depredador-presa


   
′ S(t) m x(t)S(t)
S (t) = γS(t) 1 − − ,
K y a + S(t)
 
mS(t)
x′ (t) = x(t) − D0 ,
a + S(t)

descrito en la pag. 84. Donde S(t) y x(t) son las densidades de las poblaciones
presa y depredador, respectivamente. γ, K, m, y, a y D0 son constantes positivas.
Halle los puntos de equilibrio del sistema, dependiendo de las distintas configu-
raciones de parámetros, estudie su estabilidad local.
Capı́tulo 6

Sistemas Hiperbólicos. Variedad Estable e Inestable

§ 6.1 Sistemas Lineales Hiperbólicos

Consideremos el sistema
x′ = Ax (6.1)
donde A es una matriz n × n real. Todo el análisis que realizaremos es válido para
matrices complejas.

Definición 6.1 Diremos que el sistema (6.1) es hiperbólico, si todos los autovalores de
la matriz A tienen parte real distinta de cero. Cuando la matriz A posee k-autovalores con
parte real negativa y (n − k)-autovalores con parte real positiva, se dice que la solución
trivial del sistema (6.1) es un punto de equilibrio hiperbólico de tipo k.

Proposición 6.1 Supongamos que la solución trivial del sistema (6.1) es un punto de
equilibrio hiperbólico de tipo k. Entonces se verifican las siguientes propiedades

1. El espacio Rn admite una descomposición en una suma directa

Rn = Es ⊕ Eu , (6.2)

tal que Es = P Rn , Eu = QRn , donde P, Q = I − P son los proyectores inducidos por


la descomposición (6.2). Los subespacios Es y Eu se llaman las variedades estable
e inestables del sistema (6.1) en x = 0, respectivamente. Además, dim Es =
k, dim Eu = n − k y los subespacios Es y Eu son invariantes bajo A.

2. Los proyectores P y Q conmutan con el operador A; es decir, P A = AP , QA = AQ .

3. Existen constantes K > 0, σ > 0 tales que

||eAt Qx|| ≤ K ||Qx|| eσt , si t ≤ 0, (6.3)


At −σt
|e P x| ≤ K||P x||e , si t ≥ 0, (6.4)

para todo x ∈ Rn .
Demostración.

1. Es conocido que existe una matriz invertible U tal que


 
−1 A− 0
U AU = diag[A− , A+ ] = ,
0 A+

donde A− es una matriz k × k , cuyos autovalores tienen parte real negativa y


A+ es una matriz (n − k) × (n − k) cuyos autovalores tienen parte real positiva.

115
116 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable

Definamos

Es = {x ∈ Rn : x = U y, y = (y1 , 0)T , y1 ∈ Rk },
Eu = {x ∈ Rn : x = U y, y = (0, y2 )T , y2 ∈ Rn−k }.

Sea x ∈ Rn . Como U es invertible existe un único y ∈ Rn tal que x = U y.


Pongamos y = (y1 , y2 )T , y1 ∈ Rk , y2 ∈ Rn−k . Ası́

x = U y = U (y1 , 0)T + U (0, y2 )T .

Por lo tanto al vector x lo podemos expresar de la siguiente forma

x = x1 + x2 (6.5)

donde
x1 = U (y1 , 0)T ∈ Es , x2 = U (0, y2 )T ∈ Eu .
Mostremos ahora que Es ∩ Eu = {0}. Si x ∈ Es ∩ Eu , entonces

x = U (y1 , 0)T = U (0, y2 )T ,

para algún y1 ∈ Rk y algún y2 ∈ Rn−k . Luego 0 = U (y1 , −y2 )T , lo cual implica


que (y1 , −y2 )T = 0 y por ende x = 0.
Los proyectores inducidos por la descomposición (6.2) están definidos como sigue:
Si x ∈ Rn , entonces P x = x1 y Qx = x2 , con x1 ∈ Es , x2 ∈ Eu .
Sea {y1 }ki=1 una base de Rk y x ∈ Es . Entonces x = U y, para algún y ∈ Rn tal que
sus últimas (n − k) componentes son nulas. Además, existen α1 , α2 , ..., αk ∈ R
tales que
Xk
x = Uy = αi U (yi , 0)T .
i=1

Como U es invertible, se tiene U (y1 , 0)T , U (y2 , 0)T , ..., U (yk , 0)T es una base de
Es . Lo cual implica que dim Es = k. Análogamente, se prueba que dim Eu = n−k.
Probemos que Es es invariante bajo A. Dado x ∈ Es , entonces x = U y para algún
y = (y1 , 0)T donde y1 ∈ Rk . Por lo tanto

Ax = U diag[A− , A+ ]U −1 x
     
A− 0 y1 A− y1
= U =U ∈ Es .
0 A+ 0 0

Análogamente se prueba que AEu ⊂ Eu .

2. Sea x ∈ Rn , entonces x = x1 + x2 , donde

x1 = P x = U (y1 , 0)T , y1 ∈ Rk y x2 = Qx = U (0, y2 )T , y2 ∈ Rn−k .


§ 6.2. Sistemas No-Lineales Hiperbólicos. Teorema de Hartman-Grobman 117

Probemos que AP = P A. En efecto


      
y1 A− 0 y1 A− y1
AP x = AU =U =U
0 0 A+ 0 0
      
A− 0 −1 y1 0
P Ax = P U U U +U
0 A+ 0 y2
   
A− y1 A− y1
= PU =U = AP x.
A+ y2 0
De donde obtenemos que AP = P A. Análogamente se prueba que el operador A
conmuta con Q .
3. Observando que todos los autovalores de las matrices A− , −A+ tienen parte real
negativa, por la Proposición 5.5 se sigue que existen constantes K1 > 0, σ > 0
tales que
||eA− t || ≤ K1 e−σt , ||e−A+ t || ≤ K1 e−σt , ∀t ≥ 0. (6.6)
Por otra parte se tiene que
 A t   A t 
At e − 0 −1 e − 0
||e Qx|| = ||U U Qx|| = ||U y||,
0 eA+ t 0 eA+ t

ya que Qx = U y, y = (0, y2 )T con y2 ∈ Rn−k . Lo cual implica que


||eAt Qx|| ≤ ||U || · ||eA+ t || · ||y|| = ||U || · ||eA+ t || · ||U −1 Qx||
≤ ||U || · ||U −1 || · ||eA+ t || · ||Qx||.
Teniendo en cuenta (6.6), obtenemos que
||eAt Qx|| ≤ K1 ||U || · ||U −1 || · ||Qx||eσt , ∀t ≤ 0.
Análogamente, obtenemos
||eAt P x|| ≤ K1 ||U || · ||U −1 || · ||P x||e−σt , ∀t ≥ 0.
Nuestra afirmación se sigue, eligiendo K = K1 ||U || · ||U −1 ||.

§ 6.2 Sistemas No-Lineales Hiperbólicos. Teorema de


Hartman-Grobman

Hasta el momento hemos discutido el comportamiento de sistemas lineales a coeficientes


constantes alrededor de un punto de equilibrio hiperbólico. El siguiente ejemplo nos
permitirá visualizar que este tipo de comportamientos es factible para sistemas no-
lineales.
Consideremos el sistema
x′1 = x1 , x′2 = −x2 + x31 , (6.7)
118 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable

cuya solución general viene dada por


a3 −t a3 3t
x1 (t) = aet , x2 (t) = (b − )e + e ,
4 4
donde x1 (0) = a y x2 (0) = b. Es fácil verificar que

lim (x1 (t), x2 (t)) = (0, 0)


t→+∞

si y sólo si (x1 (0), x2 (0)) = (0, b) con b ∈ R; y

lim (x1 (t), x2 (t)) = (0, 0)


t→−∞

si y sólo si (x1 (0), x2 (0)) = (a, a3 /4) con a ∈ R. Denotemos por

W s = {(0, x2 ) : x2 ∈ R} y W u = {(x1 , x2 ) : x2 = x31 /4 con x2 ∈ R}

la variedad estable e inestable del sistema (6.7) en x = 0. El diagrama de fase para el


sistema (6.7) está esbozado en la figura 6.1 .

x2 = W s Wu

x1

Figura 6.1: Diagrama de fase del sistema x′1 = x1 , x′2 = −x2 + x31 .

Denotemos por  
a3 a3
ψt (a, b) = ae , (b − )e−t + e3t
t
4 4
el flujo correspondiente al sistema (6.7) y por

φt (a, b) = aet , be−t

el flujo correspondiente al sistema x′1 = x1 , x′2 = −x2 .


Sea h(a, b) = (a, b + a3 /4). Es claro que h : R2 → R2 es un difeomorfismo de clase

C . Un cálculo simple nos da que

h ◦ φt (a, b) = ψt ◦ h(a, b), ∀(a, b) ∈ R2 ;


§ 6.2. Sistemas No-Lineales Hiperbólicos. Teorema de Hartman-Grobman 119

es decir los flujos φt y ψt son conjugados. En otras palabras h transforma órbitas del
sistema x′1 = x1 , x′2 = −x2 en órbitas del sistema (6.7). Osea que topológicamente el
diagrama de fase de ambos sistemas son básicamente los mismos.
Es claro que para sistemas no-lineales no se puede esperar un resultado global como
el obtenido en el ejemplo anterior. Sin embargo localmente este resultado tiene validez.
Antes de enunciarlo con precisión, vamos a introducir un par de definiciones.

Definición 6.2 Se dice que un punto de equilibrio x0 del sistema x′ = F (x), es un punto
localmente hiperbólico de tipo k para el sistema x′ = F (x), si existen una vecindad acotada
y abierta V de x0 y dos subconjuntos Sk y Un−k de Rn tales que
1. Sk ∩ Un−k = {x0 }, dim Sk = k, dim Un−k = n − k, es decir, Sk y Un−k son
homeomorfos a las bolas abiertas unitarias de Rk y Rn−k , respectivamente.

2. Sk y Un−k son positiva y negativamente invariantes, respectivamente.

3. La órbita de toda solución de x′ = F (x) que permanece en V para t ≥ 0(t ≤ 0) tiene


su valor inicial en Sk (Un−k ). La órbita de toda solución con valor inicial en Sk (Un−k )
se aproxima exponencialmente a x0 cuando t → ∞(t → −∞).
Los conjuntos Sk y Un−k se denominan las variedades locales estable e inestable del sistema
x′ = F (x) que pasan por x0 , respectivamente.

Definición 6.3 Sea Γ un subconjunto de Rn tal que 0 ∈ Γ. Supongamos que Rn se


descompone como en la proposición 6.1, es decir , Rn = Es ⊕ Eu . Diremos que Γ es
tangente a Es (Γ es tangente a Eu ) en cero, si
 
||Qx|| ||P x||
lim =0 lim = 0 , con x ∈ Γ.
x→0 ||P x|| x→0 ||Qx||

Estamos suponiendo que Γ es tal que tiene sentido plantearse la existencia de los lı́mites
involucrados.
En el ejemplo del sistema (6.7) el conjunto Γ = (W u ) = {(x1 , x2 ) : x2 = x31 /4} es
tangente a la variedad inestable Eu = {(x1 , 0) : x1 ∈ R} del sistema x′1 = x1 , x′2 = −x2 ,
donde P x = (0, x2 ) , Qx = (x1 , 0).
El siguiente resultado caracteriza a una clase de funciones para la cual el sistema

x′ = Ax + f (x) (6.8)

tiene una dinámica que es localmente conjugada a la dinámica del sistema lineal x′ =
Ax. Es decir, existe un entorno V del punto x = 0 y un homeomorfismo h : V → V tal
que
ϕt (h(x)) = h(eAt x)
mientras eAt x permanezca en V. Donde ϕt es el flujo generado por el sistema (6.8).
Este resultado se conoce como el Teorema de Hartman-Grobman. Una prueba distinta
a la que se presenta aquı́ se puede consultar en [26], sección 5.7 .
Concretamente, tiene lugar el siguiente
120 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable

Teorema 6.2 (Hartman-Grobman) Supongamos que x = 0 es un punto hiperbólico de


tipo k del sistema x′ = Ax , f ∈ C 1 [Rn , Rn ] y f (0) = f ′ (0) = 0.
Entonces

1. Entonces x = 0 es un punto localmente hiperbólico para el sistema (6.8).

2. Sean Sk , Un−k las variedades estable e inestable del sistema (6.8) en x = 0, respec-
tivamente. Entonces Sk es tangente a Es y Un−k es tangente a Eu en x = 0. Donde
Es , Eu son las variedades estable e inestable del del sistema (6.1) en x = 0.

3. Existen constantes M > 0, γ > 0 tales que

a) ||x(t)|| ≤ M e−γt ||x(0)||, ∀t ≥ 0, si x(0) ∈ Sk ,


b) ||x(t)|| ≤ M eγt ||x(0)||, ∀t ≤ 0, si x(0) ∈ Un−k ,

donde x(t) es una solución del sistema (6.8).

La prueba de este Teorema sigue las ideas del Teorema 6.1, p.p.111-114, en J.K.
Hale [15]. Pero en vez de considerar el espacios de las funciones continuas y acotadas,
aquı́ se sustituye por el espacios de las funciones continuas que decrecen a cero en el
infinito. Esta modificación simplificó la demostración original y evitó la recurrencia a
desigualdades sofisticadas para demostrar que las soluciones sobre la variedad estable
decrecen exponencialmente a cero cuando t → ∞.
Antes de probar este Teorema, vamos a demostrar un Lema auxiliar el cual es
muy útil no tan solo para demostrar el Teorema de Hartman-Grobman, también lo
emplearemos en la prueba de la estabilidad de órbitas periódicas.

Lema 6.3 Supongamos que x = 0 es un punto hiperbólico de tipo k del sistema (6.1) y
P, Q son los proyectores definidos en la proposición 6.1. Entonces

1. Toda solución acotada x(t) de (6.8) en [0, ∞), se representa como


Z t Z ∞
At A(t−s)
x(t) = e x− + e P f (x(s))ds − e−As Qf (x(t + s))ds, ∀t ≥ 0 (6.9)
0 0

para algún x− ∈ Es = P Rn .

2. Toda solución acotada x(t) de (6.8) en (−∞, 0] se representa como


Z t Z 0
x(t) = eAt x+ + eA(t−s) Qf (x(s))ds+ e−As P f (x(t+s))ds, ∀t ≥ 0, (6.10)
0 −∞

para algún x+ ∈ Eu = QRn .


Demostración. Demostremos la parte 1). Supongamos que x(t) es una solución
acotada de (6.8) sobre el intervalo [0, ∞). Entonces existe M > 0 tal que ||x(t)|| ≤ M
§ 6.2. Sistemas No-Lineales Hiperbólicos. Teorema de Hartman-Grobman 121

para todo t ≥ 0. Como Q es un operador continuo, existe una constante L tal que
||Qx|| ≤ L||x|| para todo x ∈ Rn . Lo cual implica que

||Qx(t)|| ≤ M L, para todo t ≥ 0. (6.11)

Como f es continua, existe N > 0 tal que ||f (x)|| ≤ N para todo x ∈ BM (0). Por lo
tanto
||f (x(t))|| ≤ N para todo t ≥ 0. (6.12)
Por ser x(t) solución de (6.8), tenemos que para todo τ ∈ [0, ∞), ella se puede repre-
sentar como sigue
Z t
x(t) = eA(t−τ ) x(τ ) + eA(t−s) f (x(s))ds, t ∈ [0, ∞). (6.13)
τ

Aplicando a ambos miembros de (6.13) el operador Q, obtenemos que


Z t
A(t−τ )
Qx(t) = e Qx(τ ) + eA(t−s) Qf (x(s))ds, t ∈ [0, ∞).
τ

De (6.4) y (6.11), se sigue que

||eA(t−τ ) Qx(τ )|| ≤ Keσ(t−τ ) ||Qx(τ )|| ≤ KLM eσ(t−τ ) , ∀ t ≤ τ.

De (6.3),(6.11) y (6.12), obtenemos


Z t Z τ Z τ

eA(t−s) Qf (x(s))ds ≤ K eσ(t−s)
||Qf (x(s))||ds ≤ KL eσ(t−s) ||f (x(s))ds

τ t t
Z τ
KLN
≤ KLN eσ(t−s) ds ≤ < ∞, ∀ t ≤ τ.
t σ
R∞
Lo cual implica que la integral t eA(t−s) Qf (x(s))ds es convergente. Haciendo tender
τ → +∞ en (6.13), obtenemos que
 Z t  Z t
A(t−τ ) A(t−s)
Qx(t) = lim e Qx(τ ) + e Qf (x(s))ds = eA(t−s) Qf (x(s))ds,
τ →∞ τ +∞

o equivalentemente Z ∞
Qx(t) = − e−As Qf (x(t + s))ds. (6.14)
0
Poniendo τ = 0 en (6.13) y aplicándole el operador P, obtenemos
Z t
At
P x(t) = e P x(0) + eA(t−s) P f (x(s))ds. (6.15)
0

Sustituyendo las expresiones (6.14) y (6.15) en x(t) = P x(t) + Qx(t), obtenemos (6.9),
con x− = P x(0). Derivando (6.9), obtenemos que (6.9) es solución del sistema (6.8).
122 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable

La parte 2 se prueba de manera análoga a la parte 1.

Demostración del Teorema 6.2


Teniendo en cuenta que f ∈ C 1 [Rn , Rn ] y f (0) = f ′ (0) = 0, existe una función continua
y creciente η : [0, ∞) → [0, ∞) , η(0) = 0 tal que

||f (x) − f (y)|| ≤ η(δ)||x − y||, ∀x, y ∈ Bδ = {x ∈ Rn : ||x|| < δ}. (6.16)

En primer lugar probaremos la existencia de la variedad estable Sk . Para ello estudia-


remos la existencia de soluciones exponencialmente decrecientes a cero cuando t → ∞
del sistema (6.8) sobre el intervalo [0, ∞). Sean K, σ son las constantes dadas en (6.3)-
(6.4). Sin pérdida de generalidad podemos suponer que los proyectores P, Q satisfacen
la siguiente estimación

||P x|| ≤ K||x|| , ||Qx|| ≤ K||x||, ∀x ∈ Rn . (6.17)

Sean δ > 0, 0 < µ < σ y x− ∈ Es ∩ Bδ/2K = {x : ||x|| < δ/2K}. Denotemos por

F(x− , δ) = φ ∈ C[[0, ∞), Rn ] : ||φ||∗ = sup eµt ||φ(t)|| ≤ δ , P φ(0) = x− .
0≤t<∞

Mostremos que F(x− , δ) es un subconjunto cerrado del espacio de Banach de las fun-
ciones continuas y acotadas de [0, ∞) en Rn con la topologı́a inducida por la norma
|| · ||∗ . En efecto, sea {φn } ⊂ F(x− , δ) una sucesión convergente a φ. Es claro que
φ ∈ C[[0, ∞), Rn ]. Por otra parte, se tiene

eµt ||φ(t)|| ≤ eµt ||φn (t) − φ(t)|| + eµt ||φn (t)|| ≤ eµt ||φn (t) − φ(t)|| + δ ≤ ||φn − φ||∗ + δ.

Haciendo tender n → ∞, se sigue que ||φ||∗ = sup0≤t≤∞ eµt ||φ(t)|| ≤ δ. Además, se


satisface que
P φ(0) = P lim φn (0) = lim P φn (0) = x− .
n→∞ n→∞

Lo cual prueba que φ ∈ F(x− , δ) y por lo tanto (F(x− , δ), ||·||∗ ) es un espacio de Banach.
Sea T : F(x− , δ) → C[[0, ∞), Rn ] definido como sigue
Z t Z ∞
At A(t−s)
T x(t) = e x− + e P f (x(s))ds − e−As Qf (x(t + s))ds, t ≥ 0. (6.18)
0 0

Es claro que T está bien definido. Mostremos que T : F(x− , δ) → F(x− , δ) con una
adecuada elección de δ. Aplicando el operador P a (6.18) y teniendo en cuenta que
P Q = 0, obtenemos
Z ∞
P T x(0) = P x− − e−As P Qf (x(s))ds = P x− = x− .
0

Como x = 0 es hiperbólico de tipo k para el sistema lineal x′ = Ax, de (6.18) se sigue


Z t Z ∞
−σt −σ(t−s)
||T x(t)|| ≤ Ke ||x− || + K e ||P f (x(s))||ds + K e−σ(s−t) ||Qf (x(s))||ds.
0 t
§ 6.2. Sistemas No-Lineales Hiperbólicos. Teorema de Hartman-Grobman 123

Ahora, de la acotación de los operadores P y Q y el hecho que f es Lipchitziana, es


decir de (6.16)-(6.17), obtenemos
Z t
||T x(t)|| ≤ Ke−σt ||x− || + K 2 η(δ) e−σ(t−s) e−µs eµs ||x(s)||ds +
0
Z ∞
2 −σ(s−t) −µs µs
K η(δ) e e e ||x(s)||ds,
t
Z t
−σt 2 ∗
||T x(t)|| ≤ Ke ||x− || + K η(δ)||x|| e−σ(t−s) e−µs ds +
0
Z ∞
2 ∗ −σ(s−t) −µs
K η(δ)||x|| e e ds. (6.19)
t

Eligiendo µ = σ/2 y teniendo en cuenta que limδ→0 η(δ) = 0, elijamos δ > 0 de modo
que η(δ) < σ/6K 2 . Con estas elecciones se obtiene que

3K 2 η(δ)δ δ 3K 2
eµt ||T x(t)|| ≤ K||x− || + ≤ + η(δ)δ ≤ δ, ∀t ≥ 0,
σ 2 σ

Por lo tanto, ||T x||∗ ≤ δ y T envı́a a F(x− , δ) en sı́ mismo.


Razonando de modo similar al anterior, se prueba que

3K 2 1
||T x − T y||∗ ≤ η(δ)||x − y||∗ ≤ ||x − y||∗ .
σ 2

Por lo tanto el operador T : F(x− , δ) → F(x− , δ) es contractivo. Por el Teorema del


punto fijo de Banach, T tiene un único punto fijo x∗ (·, x− ) ∈ F(x− , δ), el cual viene
dado por
Z t Z ∞
∗ At A(t−s) ∗
x (t, x− ) = e x− + e P f (x (s, x− ))ds − e−As Qf (x∗ (t + s, x− ))ds, (6.20)
0 0

y es solución de (6.8). Notemos que x∗ (·, 0) = 0, ya que el sistema (6.8) admite la


solución trivial.
Sean x∗ (·, x− ) y x∗ (·, x̃− ) los puntos fijos correspondientes a x− , x̃− ∈ Bδ/2k . De
(6.20) y que η(δ) < σ/6K 2 no es difı́cil deducir que

3K 2 η(δ) −µt ∗
||x∗ (t, x− ) − x∗ (t, x̃− )|| ≤ Ke−σt ||x− − x̃− || + e ||x (·, x− ) − x∗ (·, x̃− )||∗ ,
σ
1
eµt ||x∗ (t, x− ) − x∗ (t, x̃− )|| ≤ K||x− − x̃− || + ||x∗ (·, x− ) − x∗ (·, x̃− )||∗ ,
2
||x∗ (·, x− ) − x∗ (·, x̃− )||∗ ≤ 2K||x− − x̃− ||,
||x∗ (t, x− ) − x∗ (t, x̃− )|| ≤ 2Ke−σ/2t ||x− − x̃− ||. (6.21)

Poniendo x̃− = 0 en (6.21), obtenemos la estimación 3.a) del Teorema 6.2, con M = 2K
y γ = σ/2.
124 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable

Sea Sk el conjunto de todos los valores iniciales de las soluciones de (6.8) que
permanecen dentro de Bδ para todo t ≥ 0 y P x(0) ∈ Bδ/2K . Por lo visto previamente,
se sigue que 
Sk = x ∈ Rn : x = x∗ (0, x− ), x− ∈ Es ∩ Bδ/2K .
Sea g : Es ∩ Bδ/2K → Sk la aplicación definida por
Z ∞

g(x− ) = x (0, x− ) = x− − e−As Qf (x∗ (s, x− ))ds.
0

Como el campo vectorial es de clase C 1 se sigue por la dependencia continua de las


soluciones de los datos iniciales que x∗ (·, x− ) también es de clase C 1 , con respecto a
x− . Lo cual implica que g es de clase C 1 y sobreyectiva. Probemos que g es inyectiva.
En efecto
Z ∞
−As
||g(x− ) − g(x̃− )|| ≥ ||x− − x̃− || − e Q[f (x∗ (s, x− )) − f (x̃∗ (s, x̃− ))] ds.
0

De (6.21) se sigue que

||f (x∗ (s, x− )) − f (x̃∗ (s, x̃− ))|| ≤ η(δ)||x∗ (s, x− ) − x̃∗ (s, x̃− ||
≤ 2Kη(δ)||x− − x̃− ||e−σs/2 .

Lo cual implica que


Z ∞
−As
e Q[f (x∗ (s, x− )) − f (x̃∗ (s, x̃− ))] ds ≤ 2K 3 η(δ)||x− − x̃− ||
0

y  
4K 3 η(δ)
||g(x− ) − g(x̃− )|| ≥ ||x− − x̃− || 1 − .

Eligiendo δ de modo que 4K 3 η(δ)/3σ < 1/2, se sigue que
1
||g(x− ) − g(x̃− )|| ≥ ||x− − x̃− ||, ∀x− , x̃− ∈ Es ∩ Bδ/2K .
2
Lo cual prueba la inyectividad de g.
Teniendo en cuenta que g−1 = P, se sigue que existe un δ > 0 tal que

g : Es ∩ Bδ/2K → Sk

es un difeomorfismo. Además, prueba que Sk es difeomorfo a la bola abierta unitaria


en Rk , ya que Es ∩ Bδ/2K es una bola abierta en Es , con la topologı́a inducida en Es
por la topologı́a usual de Rn . En particular Sk tiene dimensión k.
Notemos que Sk no necesariamente es un conjunto positivamente invariante a menos
que ||x∗ (0, x− )|| < δ/2K. Pero las soluciones x∗ (t, x− ) que obtuvimos satisfacen la si-
guiente estimación
||x∗ (t, x− )|| ≤ δe−µt , ∀t ≥ 0.
§ 6.2. Sistemas No-Lineales Hiperbólicos. Teorema de Hartman-Grobman 125

Por lo tanto

||x∗ (T, x− )|| < δ/2K, ∀x− ∈ Es ∩ Bδ/2K , con T = ln(2K)/µ.

Teniendo en cuenta la unicidad de las soluciones se verifica que x(t, x∗ (T, x− )) =


x∗ (t + T, x− ) para todo t. Ası́, sin pérdida de generalidad podemos suponer que Sk
es positivamente invariante.
Finalmente, probemos que Sk es tangente a Es en x = 0. Se tiene que
Z ∞ Z ∞

||Qx∗ (0, x− )|| = || e−As Qf (x∗ (s, x− ))ds|| ≤ K 2 e−σs η ||x∗ (s, x− )|| ||x∗ (s, x− )||ds
0 0

Teniendo en cuenta que η es creciente y la estimación (6.21), se tiene

η(||x∗ (s, x− )||) ≤ η(2K||x− ||), ∀s ≥ 0.

Por lo tanto
Z ∞
2K 3
||Qx∗ (0, x− )|| ≤ K 2 e−σs η(2K||x− ||)2K||x− ||ds = η(2K||x− ||)||x− ||
0 σ
y
||Qx∗ (0, x− )|| 2K 3
≤ η(2K||x− ||) → 0, ||x− || → 0.
||x− || σ
Lo cual prueba que Sk es tangente a Es en x = 0.
La parte concerniente a la variedad inestable se prueba de forma análoga, excepto ob-
vias modificaciones.
126 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable

§ 6.3 Comentarios y Sugerencias

Para sistemas a coeficientes variables también tiene sentido caracterizar a los sistemas
hiperbólicos. Para ello se introduce la definición de dicotomı́a exponencial.
Consideremos la ecuación diferencial

x′ = A(t)x (6.22)

donde A(t) es una matriz real n×n, continua sobre R. Sea Φ(t) una matriz fundamental
del sistema (6.22).

Definición 6.4 Diremos que el sistema (6.22) admite una dicotomı́a exponencial sobre
R, si existen proyectores P y Q = I − P y constantes positivas σ y K tales que

||Φ(t)P Φ−1 (s)|| ≤ Ke−σ(t−s) , ∀t ≥ s, (6.23)


−1 σ(t−s)
||Φ(t)QΦ (s)|| ≤ Ke , ∀t ≤ s. (6.24)

La definición de dicotomı́a exponencial claramente es una generalización para sistemas


a coeficientes variables del concepto de punto hiperbólico para un sistema a coeficientes
constantes x′ = Ax. Es más, el sistema x′ = Ax admite una dicotomı́a exponencial si
y solo si A es una matriz hiperbólica. Desgraciadamente para sistemas a coeficientes
variables esta caracterización en general es falsa. Basta analizar el ejemplo dado en las
páginas 97-98.
La definición de dicotomı́a exponencial se puede formular de una manera equiva-
lente. Concretamente, el sistema (6.22) posee una dicotomı́a exponencial sobre R si y
solo si se verifican las condiciones siguientes

i) K(t, s)P (s) = P (t)K(t, s), ∀t, s ∈ R (6.25)


ii) ||K(t, s)P (s)|| ≤ Ke−σ(t−s) , ∀t ≥ s (6.26)
iii) ||K(t, s)Q(s)|| ≤ Keσ(t−s) , ∀s ≥ t, (6.27)

donde K(t, s) = Φ(t)Φ−1 (s) es la matriz de transición del sistema (6.22) y los proyec-
tores P (t) y Q(t) vienen dados por

P (t) = Φ(t)P Φ−1 (t) y Q(t) = Φ(t)[I − P ]Φ−1 (t) = I − P (t).

Es claro que de (6.25) se sigue que K(t, s)Q(s) = Q(t)K(t, s), ∀t, s ∈ R.
Definamos Es (t) = P (t)Rn y Eu (t) = Q(t)Rn . Teniendo en cuenta (6.25)-(6.26),
obtenemos que Rn = Es (t) ⊕ Eu (t), donde Es (t) y Eu (t) son las variedades estables e
inestables del sistema (6.22) en x = 0, respectivamente. De aquı́ se desprende que si
x0 ∈ Es (s), entonces x(t, x0 ) ∈ Es (t), ∀t ≥ s.
Mostremos que los espacios Es (t) y Es (s) son isomorfos para todo t, s ∈ R.
§ 6.3. Comentarios y Sugerencias 127

Es conocido que el ángulo α(Y, Z), 0 ≤ α(Y, Z) ≤ π entre dos subespacios Y, Z de


Rn , Y ∩ Z = {0} se define como sigue
 
α(Y, Z) 1 
sen = inf ||y − z|| : y ∈ Y, z ∈ Z con ||y|| = ||z|| = 1 . (6.28)
2 2

Eligiendo Y = Es (t) y Z = Eu (t), se sigue que dado t ∈ J y ε > 0, existen ξ1 ∈ Es (t) y


ξ2 ∈ Eu (t), con ||ξ1 || = ||ξ2 || = 1, tales que

α(Y (t), Z(t))


||ξ1 − ξ2 || < 2sen +ε
2
Definiendo ξ = ξ1 − ξ2 y teniendo en cuenta que ||P (t)|| ≤ K, ∀t ∈ R se sigue que

1 = ||ξ1 || = ||P (t)ξ1 || = ||P (t)ξ|| ≤ ||P (t)|| · ||ξ1 − ξ2 || ≤ K||ξ1 − ξ2 ||.

Por lo tanto
α(Y (t), Z(t)) 1
2sen > − ε, ∀t ∈ R.
2 K
Eligiendo ε = 1/2K, se sigue que existe una constante α∗ > 0 tal que

α(Y (t), Z(t)) ≥ α∗ > 0, ∀t ∈ R.

Lo cual implica que los subespacios P (t)Rn y P (s)Rn son isomorfos para todo t en R .
Al lector interesado en estos temas se les sugiere consultar el libro de W. A. Coppel
[5] para sistemas x′ = A(t)x en dimensión finita. Cuándo A(t) es un operador acotado
actuando sobre un espacio de Banach, consultar la excelente monografı́a de M. G. Krein
& Yu. Daleckii [10].
128 Capı́tulo 6. Sistemas Hiperbólicos. Variedad Estable e Inestable

§ 6.4 Ejercicios y Problemas

1. Sea A = {A ∈ Rn×n }. Pruebe que el subconjunto de todas las matrices hiperbólicas


es denso y abierto en A.

2. Sea f ∈ C 1 [Rn , Rn ] y f (0). Pruebe que existe una función η : [0, ∞) → [0, ∞)
continua, creciente, η(0) = 0 tal que

||f (x) − f (y)|| ≤ η(δ)||x − y||, ∀x, y ∈ Bδ = {u ∈ Rn : ||u|| < δ}.

Ayuda: Utilice el Lema 1.10.


Capı́tulo 7

Estabilidad de Soluciones Periódicas de Sistemas


Autónomos

§ 7.1 Estabilidad Orbital

Consideremos el sistema
x′ = F (x) , x ∈ D, (7.1)
donde D es un subconjunto abierto y conexo de Rn y F ∈ C 1 [D, Rn ]. Sea p una solución
ω−periódica no trivial del sistema (7.1). Denotemos por ϕ(t, x0 ) a la solución de (7.1)
tal que ϕ(0, x0 ) = x0 . El objetivo de esta sección es el estudio del comportamiento de
las soluciones de (7.1) cercanas a p(t).
Mostremos en primer lugar que el concepto de estabilidad asintótica en el sentido de
Liapunov no es adecuado para estudiar la estabilidad de una órbita periódica. En efecto,
supongamos que p(t) es asintóticamente estable en el sentido de Liapunov, entonces
existe un δ > 0 tal que si ||p(0) − x0 || < δ, entonces

lim ||p(t) − ϕ(t, x0 )|| = 0.


t→+∞

Como (7.1) es un sistema autónomo, entonces la función p(t+c) también es una solución
ω−periódica de (7.1), ∀c ∈ R. Eligiendo c de modo que ||p(0) − p(c)|| < δ se sigue

lim ||p(t) − p(t + c)|| = 0.


t→+∞

Por otra parte, tomando tn = nω y teniendo en cuenta que p(t) es una solución
ω−periódica, obtenemos que

||p(tn ) − p(tn + c)|| = ||p(nω) − p(nω + c)|| = ||p(0) − p(c)|| > 0.

Lo cual es una contradicción, ya que limn→∞ ||p(tn ) − p(tn + c)|| = 0. Para solventar
esta situación enunciaremos un concepto de estabilidad para soluciones periódicas, el
cual es mas adecuado en este contexto.

Definición 7.1 Diremos que γ es orbitalmente estable, si dado ε > 0, existe δ > 0 tal
que si dist(x0 , γ) < δ, entonces dist(ϕ(t, x0 ), γ) < ǫ, ∀t ≥ 0.
Si la solución es orbitalmente estable y además existe un ∆ > 0 tal que

lim dist(ϕ(t, x0 ), γ) = 0, ∀x0 ∈ {x : dist(x, γ) < ∆},


t→+∞

en este caso se dice que la solución p(t) es orbital asintóticamente estable. Donde dist(x, A)
es la distancia de un punto x a un conjunto A.

129
130 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos

Como p es solución de (7.1), entonces p′ (t) = F (p(t)). Derivando esta ecuación, obte-
nemos que p′ (t) es solución de la ecuación variacional

∂F 
y′ = p(t) y. (7.2)
∂x
Como p es ω−periódica, entonces p′ también lo es, y ası́, un multiplicador caracterı́stico
del sistema (7.2) es igual a uno.
El siguiente teorema provee condiciones suficientes que garantizan la estabilidad
orbital asintótica de una órbita periódica. Aquı́ se utilizarán las mismas ideas de la
demostración del Teorema 2.2, p.p.323-327, que aparece en el Libro de Coddington &
Levinson [6]. Solo, que las traduciremos en términos de dicotomı́as y aclararemos el
final de la prueba en [6], la cual es confusa.

Teorema 7.1 (Estabilidad Orbital Asintótica) Sean {ρj }n1 los multiplicadores caracterı́sticos
del sistema (7.2). Supongamos que ρ1 = 1 es simple y los restantes multiplicadores |ρj | < 1
para todo j = 2 . . . , n. Entonces existe un ǫ > 0 tal que si una solución ϕ de (7.1) satisface
||ϕ(t1 ) − p(t0 )|| < ǫ para algunos t0 y t1 , existe una constante c tal que

lim ||ϕ(t) − p(t + c)|| = 0. (7.3)


t→∞

Es decir la solución periódica es asintóticamente estable en fase y por ende orbital asintóticamente
estable.
Demostración. Asumamos que hemos trasladado y rotado las coordenadas de modo
que p(0) = 0 y p′ (0) es múltiplo del vector unitario e1 = (1, 0, 0, . . . , 0)T .
Sea x una solución arbitraria de (7.1). Denotando por z = x − p(t) obtenemos que
z es solución del sistema
∂F 
z ′ = F (z + p(t)) − F (p(t)) = p(t) z + f (t, z), (7.4)
∂x

donde f (t, z) = F (z + p(t)) − F (p(t)) − ∂F


∂x (p(t))z.
Teniendo en cuenta que p es una solución ω−periódica, se sigue que f (t, z) es una
función ω−periódica en t. Además f (t, 0) = 0 y

∂f ∂F ∂F
(t, z) = (z + p(t)) − (p(t)).
∂z ∂x ∂x
∂F
Como ∂x es uniformemente continua sobre subconjuntos compactos de D, se sigue que

∂f
(t, z) → 0, cuando ||z|| → 0, (7.5)
∂z
uniformemente en t. Lo cual implica que

f (t, z) = o(||z||) cuando ||z|| → 0. (7.6)


§ 7.1. Estabilidad Orbital 131

Teniendo en cuenta el Lema 1.10, f (t, 0) = 0 y (7.5), se sigue que existe una función
continua y creciente η : [0, ∞) → [0, ∞) , η(0) = 0 tal que

||f (t, z1 ) − f (t, z2 )|| < η(δ)||z1 − z2 ||, ∀t ∈ R y ||z1 ||, ||z2 || < δ. (7.7)

Sea Φ(t) la matriz fundamental principal de (7.2). De la sección §3.5 sabemos que
Φ(t + ω) = Φ(t)Φ(ω) y que existe una matriz constante B y una matriz ω−periódica
e invertible L ∈ C 1 [R, Rn×n ] tal que Φ(t) = L(t)eBt . Los autovalores de la matriz
Φ(ω) son los multiplicadores caracterı́sticos (ρ) del sistema (7.2) y los autovalores de la
matriz B sus correspondientes exponentes caracterı́sticos (λ). Los cuales se relacionan
mediante la siguiente fórmula

1 1 arg λ 2kπ
ρ= Lnλ = ln |λ| + i +i , k ∈ Z.
ω ω ω ω
Teniendo en cuenta que el multiplicador ρ1 = 1 es simple y los restantes n − 1 mul-
tiplicadores caracterı́sticos están dentro del disco unitario, se sigue que la matriz B
tiene un autovalor λ = 0 simple y los restantes tienen parte real negativa. Razonando
de manera análoga a la demostración de la Proposición 6.1, obtenemos que existe una
matriz real e invertible M tal que
 
0 0
B=M M −1
0 C

donde C es una matriz (n − 1) × (n − 1) cuyos autovalores tienen parte real negativa.


Además, Rn admite una descomposición en una suma directa

Rn = Es ⊕ Ec , (7.8)

tal que Es = P Rn , Ec = QRn , donde P, Q = I − P son los proyectores inducidos por la


descomposición (7.8). Es y Ec son las variedades estable y central del sistema u′ = Bu
en u = 0, respectivamente. Además, dim Es = n − 1, dim Ec = 1 y los subespacios Es y
Ec son invariantes bajo B. Los proyectores P y Q conmutan con el operador B. Existen
constantes K > 0, σ > 0 tales que

||eBt Qx|| ≤ K ||Qx|| , si t ≤ 0, (7.9)


Bt −σt
||e P x|| ≤ K||P x||e , si t ≥ 0, (7.10)

para todo x ∈ Rn .
Ahora, teniendo en cuenta que L(t) es de clase C 1 , invertible y ω−periódica, existe
una constante h > 0 tal que ||L(t)||, ||L−1 (t)|| ≤ h, ∀t ∈ R. Por lo tanto, (7.9)-(7.10)
implican que existe una constante, la cual sin pérdida de generalidad la denotaremos
por K, tal que se verifican las siguientes estimaciones

||Φ(t)P Φ−1 (s)|| = ||L(t)eBt P e−Bs L−1 (s)|| ≤ Ke−σ(t−s) , ∀t ≥ s, (7.11)


−1 Bt −Bs −1
||Φ(t)QΦ (s)|| = ||L(t)e Qe L (s)|| ≤ K, ∀t ≤ s. (7.12)
132 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos

Sean δ > 0, 0 < µ < σ y x− ∈ Es ∩ Bδ/2K = {x : ||x|| < δ/2K}. Denotemos por

F(x− , δ) = φ ∈ C[[0, ∞), Rn ] : ||φ||∗ = sup eµt ||φ(t)|| ≤ δ , P φ(0) = x− .
0≤t<∞

 
Definamos un operador T : F(x− , δ) → C [0, ∞), Rn como sigue
Z t Z ∞
−1
T φ(t) = Φ(t)x− + Φ(t)P Φ (s)f (s, φ(s))ds − Φ(t)QΦ−1 (s)f (s, φ(s))ds.
0 t

Probemos que el operador T envı́a F(x− , δ) en sı́ mismo y es un operador contractivo.


Teniendo en cuenta la definición del operador T , (7.7), (7.11) y (7.12) se sigue que
Z t Z ∞
−1
||T φ(t)|| ≤ ||Φ(t)x− || + ||Φ(t)P Φ (s)f (s, φ(s))||ds + ||Φ(t)QΦ−1 (s)f (s, φ(s))||ds
0 t
Z t Z ∞
≤ Ke−σt ||x− || + Ke−σ(t−s) ||f (s, φ(s))||ds + K||f (s, φ(s))||ds
0 t
Z t Z ∞
−σt −σ(t−s) −µs ∗
≤ Ke ||x− || + Ke η(δ)e ||φ|| ds + Kη(δ)e−µs ||φ||∗ ds
0 t
 Z t Z ∞ 
−σt ∗ −σt (σ−µ)s −µs
≤ Ke ||x− || + Kη(δ)||φ|| e e ds + e ds
0 t
 
−σt σ
≤ Ke ||x− || + Kη(δ) ||φ||∗ e−µt .
(σ − µ)µ

Eligiendo µ = σ/2 y η(δ) ≤ σ/8K, obtenemos que

ση(δ)K 4Kη(δ)
||T φ(t)||eµt ≤ Ke(µ−σ)t ||x− || + ||φ||∗ ≤ δ/2 + δ ≤ δ, ∀t ≥ 0.
µ(σ − µ) σ

Lo cual a su vez implica que T φ ∈ F(x− , δ).


Razonando de una manera similar a la anterior se prueba que

4Kη(δ) 1
||T φ1 − T φ2 ||∗ ≤ ||φ1 − φ2 ||∗ ≤ ||φ1 − φ2 ||∗ , ∀ φ1 , φ2 ∈ F(x− , δ).
σ 2
Por lo tanto T es una contracción sobre F(x− , δ). Denotemos por φ∗ (t, x− ) al único
punto fijo de la aplicación T, el cual se representa como sigue
Z t Z ∞
∗ −1 ∗
φ (t, x− ) = Φ(t)x− + Φ(t)P Φ (s)f (s, φ (s, x− ))ds− Φ(t)QΦ−1 (s)f (s, φ∗ (s, x− ))ds
0 t
(7.13)
y verifica que
||φ∗ (t, x− )|| ≤ δe−µt , t ≥ 0. (7.14)
§ 7.1. Estabilidad Orbital 133

Derivando directamente la expresión (7.13), obtenemos que φ∗ (t, x− ) es solución de


(7.4) y por ende φ∗ (t, x− ) + p(t) es solución de (7.1). Además, razonando exactamente
igual que en la prueba del Teorema 6.2, página 123, fórmula (6.21), se prueba que

||φ∗ (t, x− ) − φ∗ (t, x̃− )|| ≤ 2Ke−σ/2t ||x− − x̃− ||, ∀t ≥ 0. (7.15)

Ahora, vamos a construir una variedad estable de clase C 1 tangente a Es en z = 0.


Sea S el conjunto de todos los valores iniciales de las soluciones de (7.4) que permanecen
dentro de Bδ para todo t ≥ 0 y P x(0) ∈ Bδ/2K . Por lo visto previamente, se sigue que

S = x ∈ Rn : x = φ∗ (0, x− ), x− ∈ Es ∩ Bδ/2K .

Sea g : Es ∩ Bδ/2K → S la aplicación definida por


Z ∞
g(x− ) = φ∗ (0, x− ) = x− − QΦ−1 (s)f (φ∗ (s, x− ))ds.
0

Como el campo vectorial es de clase C 1 se sigue por la dependencia continua de las


soluciones de los datos iniciales que φ∗ (·, x− ) también es de clase C 1 , con respecto a
x− . Lo cual implica que g es de clase C 1 y sobreyectiva. Probemos que g es inyectiva.
En efecto
Z ∞

||g(x− ) − g(x̃− )|| ≥ ||x− − x̃− || − QΦ(s)−1 [f (φ∗ (s, x− )) − f (φ̃∗ (s, x̃− ))] ds.
0

De (7.7) y (7.15) se sigue que

||f (x∗ (s, x− )) − f (x̃∗ (s, x̃− ))|| ≤ η(δ)||x∗ (s, x− ) − x̃∗ (s, x̃− || ≤ 2Kη(δ)||x− − x̃− ||e−σs/2 .

Lo cual implica que


Z ∞

QΦ(s)−1 [f (x∗ (s, x− )) − f (x̃∗ (s, x̃− ))] ds ≤ 4K η(δ)||x− − x̃− || ≤ 1 ||x− − x̃− ||
0 σ 2
y
1
||g(x− ) − g(x̃− )|| ≥ ||x− − x̃− ||, ∀x− , x̃− ∈ Es ∩ Bδ/2K .
2
Lo cual prueba la inyectividad de g.
Teniendo en cuenta que g−1 = P, se sigue que existe un δ > 0 tal que

g : Es ∩ Bδ/2K → S

es un difeomorfismo. Además, prueba que S es difeomorfo a la bola abierta unitaria


en Rn−1 , ya que Es ∩ Bδ/2K es una bola abierta en Es , con la topologı́a inducida en Es
por la topologı́a usual de Rn . En particular S tiene dimensión n − 1.
Notemos que S no necesariamente es un conjunto positivamente invariante a menos
que ||φ∗ (0, x− )|| < δ/2K. Pero las soluciones φ∗ (t, x− ) satisfacen la siguiente estimación

||φ∗ (t, x− )|| ≤ δe−µt , ∀t ≥ 0.


134 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos

Por lo tanto

||φ∗ (T, x− )|| < δ/2K, ∀x− ∈ Es ∩ Bδ/2K , con T = ln(2K)/µ.

Teniendo en cuenta la unicidad de las soluciones se verifica que φ(t, φ∗ (T, x− )) =


φ∗ (t + T, x− ) para todo t. Ası́, sin pérdida de generalidad podemos suponer que S
es positivamente invariante.
Finalmente, probemos que S es tangente a Es en z = 0. Se tiene que
Z ∞ Z ∞
∗ −1 ∗

||Qφ (0, x− )|| = || QΦ(s) f (φ (s, x− ))ds|| ≤ K η ||φ∗ (s, x− )|| ||φ∗ (s, x− )||ds.
0 0

Teniendo en cuenta que η es creciente y la estimación (7.15), se tiene


Z ∞
2K 2
||Qφ∗ (0, x− )|| ≤ 2K 2 e−σs/2 η(2K||x− ||)||x− ||ds = η(2K||x− ||)||x− ||
0 σ
y
||Qφ∗ (0, x− )|| 2K 3
≤ η(2K||x− ||) → 0, ||x− || → 0.
||x− || σ
Lo cual prueba que S es tangente a Es en z = 0.
Como hemos supuesto que p(0) = 0 y p′ (0) es paralelo al eje x1 podemos asegurar
que la órbita generada por la solución ω−periódica p(t) cruza a S en z = 0 y no es
tangente a S.
Sea ϕ una solución de (7.1) tal que ||ϕ(t1 ) − p(t0 )|| < ν para algunos t1 y t0 .
Pongamos ψ(t) = ϕ(t−t0 +t1 ) la cual también es solución de (7.1) y ||ψ(t0 )−p(t0 )|| < ν.
Teniendo en cuenta la periodicidad de p(t) y el Teorema de la dependencia continua de
las soluciones de los datos iniciales, se sigue que dado ε > 0, existe un ∆ > 0 tal que

||p(t) − z(t)|| < ε, ∀t ∈ [t0 − ω/2, t0 + ω/2], si z(t0 ) ∈ B∆ (p(t0 )).

Eligiendo ν < ∆, obtenemos que

||p(t) − ψ(t)|| < ε, ∀t ∈ [t0 − ω/2, t0 + ω/2].

Recordando que p(t) es una solución ω−periódica, se tiene que

||p(t + ω) − ψ(t + ω)|| = ||p(t) − ψ(t + ω)|| < ε, ∀t ∈ [t0 − ω, t0 + ω].

Siguiendo con este procedimiento obtenemos que la solución ϕ(t) está definida para
todo t ∈ R. Lo cual nos permite asegurar que la solución ψ(t) cruza la superficie S para
algún t2 ∈ [t0 − ω/2, t0 + ω/2].
Teniendo en cuenta que z(t) = ψ(t) − p(t) es solución del sistema (7.4), debe existir
un t∗ tal que z(t∗ ) ∈ S. Lo cual implica que

||p(t) − ϕ(t − t0 + t1 )|| = ||ϕ∗ (t, z(t∗ )|| < δe−µt , ∀t ≥ t∗ .

Con lo cual concluye la prueba del teorema.


§ 7.2. Aplicación de Poincaré. 135

§ 7.2 Aplicación de Poincaré.

Sea ϕ(t, x0 ) una solución ω−periódica de (7.1) y sea γ su correspondiente órbita.

F (x0 )
x0
γ

Definición 7.2 Sea Σ ⊂ D un conjunto compacto (n − 1)−dimensional. Decimos que


Σ es una sección transversal a γ en x0 si para todo x ∈ Σ, el vector F (x) no es paralelo a
Σ. Notemos que si Σ es una sección transversal a γ en x0 entonces no existen puntos de
equilibrio de (7.1) sobre Σ, es decir, si x ∈ Σ entonces F (x) 6= 0. Por lo tanto, sin pérdida
de generalidad podemos definir la sección transversal Σ de la siguiente manera
n o
Σ = x ∈ Rn : < x − x0 , F (x0 ) >= 0 . (7.16)

Observación 7.1 La sección transversal Σ también puede definirse como una hipersu-
perficie suave de dimensión n − 1 que pasa por el punto x0 , que no sea tangente a γ en
x0 . En este caso debe cumplirse que < F (x), n(x) >6= 0, donde n(x) es el vector normal
a Σ en x.

De la manera en que hemos definido la sección transversal, Σ es llamado un hiper-


plano el cual representamos geométricamente en la siguiente figura.

F (x0 )
x0
γ
136 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos

Definición 7.3 Sean γ una órbita periódica de periodo ω que pasa por x0 , Σ una sección
transversal a γ en x0 y U una vecindad de x0 , con U ⊂ Σ. La aplicación de Poincaré
P : U → Σ se define como
P (x) = ϕ(τ (x), x),
donde τ (x) es el tiempo del primer retorno del flujo ϕ(t, x) a Σ.

Observación 7.2 Teniendo en cuenta que τ (x0 ) = ω, obtenemos

P (x0 ) = ϕ(τ (x0 ), x0 ) = ϕ(ω, x0 ) = ϕ(0, x0 ) = x0 .

Por lo tanto los puntos fijos de la aplicación de Poincaré corresponden a órbitas periódicas
de (7.1).

Teorema 7.2 (Existencia de la Aplicación de Poincaré)


Supongamos que ϕ(t, x0 ) es una solución ω−periódica de (7.1) y γ su órbita. Sea Σ el
hiperplano ortogonal a γ en x0 , es decir,
n o
Σ = x ∈ Rn :< x − x0 , F (x0 ) >= 0 .

Entonces, existe un entorno Nδ (x0 ) del punto x0 y una única función τ (x) : Nδ (x0 ) → R,
de clase C 1 tal que

τ (x0 ) = ω y ϕ(τ (x), x) ∈ Σ, ∀ x ∈ Nδ (x0 ).


Demostración. La demostración de este resultado es una consecuencia del teorema
de la Función Implı́cita. Definamos una función G : R × D → R como sigue

G(t, x) =< ϕ(t, x) − x0 , F (x0 ) > .

δ
F (x0 )
x0
γ

Como F ∈ C 1 [D, Rn ], se sigue que las soluciones son derivables respecto de los datos
iniciales y por ende G ∈ C 1 [R × D, R]. Además, por la periodicidad de ϕ se sigue que
G(ω, x0 ) = 0.
§ 7.2. Aplicación de Poincaré. 137

Teniendo en cuenta que x0 no es un punto de equilibrio del sistema (7.1), se obtiene


que
∂G
(ω, x0 ) =< ϕ′ (ω, x0 ), F (x0 ) >=< F (x0 ), F (x0 ) >= ||F (x0 )||2 6= 0.
∂t
Σ
P (x̃)


γ̃ F (x0 )
γ x0

Por el teorema de la Función Implı́cita se sigue que existe un entorno Nδ (x0 ) del punto
x0 y una única función τ (x) : Nδ (x0 ) → R, de clase C 1 , tal que G(τ (x), x) = 0 para todo
x ∈ Nδ (x0 ) y τ (x0 ) = ω. Lo cual a su vez implica que ϕ(τ (x), x) ∈ Σ, ∀ x ∈ Nδ (x0 ).

Lema 7.3 Si ϕ(t, x) es una solución de (7.1), entonces


∂ϕ(t, x)  
F (x) = F ϕ(t, x) .
∂x
Demostración. Usando la propiedad de grupo del flujo ϕ(t, x) y la regla de la cadena
obtenemos que
   
d d
F ϕ(t, x) = ϕ(s, x) = ϕ t, ϕ(s, x)
ds s=t ds s=0
∂ϕ(t, y) d
∂ϕ(t, x)
= ϕ(s, x) = F (x).
∂y y=ϕ(t,x) ds s=0 ∂x
Consideremos el sistema bidimensional

x′ = H(x), (7.17)
donde H ∈ C 1 [D, R2 ], H = (H1 , H2 )T y D es un subconjunto abierto y conexo de R2 .
Tiene lugar

Lema 7.4 Si el sistema bidimensional (7.17) posee una órbita periódica γx0 , el segundo
multiplicador caracterı́stico viene dado por la siguiente expresión
Z ω 
ρ2 = exp div H(ϕ(t, x0 ))ds . (7.18)
0
138 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos

Demostración. Sabemos que ϕ′ (t, x0 ) es una solución ω−periódica del sistema varia-
cional
∂H
y′ = (ϕ(t, x0 ))y. (7.19)
∂x
Sea Φ(t) la matriz fundamental principal del sistema (7.19), y sean ρ1 = 1 y ρ2 sus
multiplicadores caracterı́sticos. Por la fórmula de Viète1 y por la Fórmula de Liouville,
se obtiene que
Z ω 
ρ1 · ρ2 = det Φ(ω) = exp divH(ϕ(t, x0 ))ds . (7.20)
0

Teniendo en cuenta que ρ1 = 1, se sigue que el segundo multiplicador caracterı́stico es


Z ω 
ρ2 = exp div H(ϕ(t, x0 ))ds . (7.21)
0

Notemos que si la integral de la divergencia del campo vectorial a lo largo de la órbita


periódica es negativa, la órbita periódica es atractora y repulsora si la integral de la diver-
gencia es positiva. Notemos que a pesar que es bastante simple obtener la fórmula para el
segundo multiplicador caracterı́stico, su aplicación dista mucho de ser trivial. La dificultad
estriba en que no conocemos explı́citamente la órbita periódica. En el problema 5 se pide
probar que si existe una órbita periódica, necesariamente es orbital asintóticamente estable.
Es decir, el segundo multiplicador caracterı́stico es positivo y menor que uno. En el anexo 5
se adjunta una publicación donde se prueba precisamente este resultado. Allı́ se puede
comprobar que no es para nada trivial estimar el segundo multiplicador caracterı́stico.
A continuación vamos a dar una fórmula para calcular la derivada de la Aplicación
de Poincaré para sistemas bidimensionales. Sea Σ una sección transversal y Σ′ ⊂ Σ
un subconjunto abierto sobre el cual la aplicación de Poincaré P : Σ′ → Σ está bien
definida. Sea µ : I → Σ una parametrización de Σ con µ(I) = Σ′ y ||µ′ (s)|| = 1. Sea
H⊥ (q) la componente escalar de H perpendicular a la recta tangente a Σ en q dada por
 
H⊥ ◦µ(s) = det µ′ (s), H(µ(s)) .

Esta fórmula se obtiene del siguiente hecho. El área A del paralelogramo formado por
los vectores µ′ (s), H(µ(s)), viene dada por
 
A = det µ′ (s), H(µ(s)) = ||µ′ (s)||H⊥ ◦µ(s) = H⊥ ◦µ(s). (7.22)
))
(s

H⊥ ◦µ(s)
H

µ′ (s)

1
Ver Apéndice §10.1
§ 7.2. Aplicación de Poincaré. 139

En el caso que Σ es una recta horizontal {(x, y ∗ ) : x1 < x < x2 }, entonces H⊥ (q) =
H2 (q). Y en el caso que Σ es una recta vertical {(x∗ , y) : y1 < y < y2 }, entonces
H⊥ (q) = −H1 (q).

Teorema 7.5 (Teorema 8.12, p.p. 179-180 en [26]) Sea µ : I → Σ′ una parametrización
de la sección transversal Σ′ , con ||µ′ (s)|| = 1. Entonces, para cada s ∈ I,
Z !
τ (µ(s))
′ H⊥ (µ(s))
||(P ◦µ) (s)|| = exp divH(ϕ(t, µ(s))dt .
H⊥ (P (µ(s)) 0

En particular, si P (q0 ) = q0 y µ(s0 ) = q0 , entonces


Z τ (q0 )


||(P ◦µ) (s0 )|| = exp divH(ϕ(t, q0 ))dt .
0
Demostración. La ecuación variacional alrededor de la solución ϕ(t, q) nos da

d ∂ϕ(t, q) ∂H(ϕ(t, q)) ∂ϕ(t, q)


=
dt ∂x ∂x ∂x

Por la fórmula de Liouville, tenemos que


  Z !
τ (q)
∂ϕ(τ (q), q)
det = exp divH(ϕ(t, q))dt
∂x 0

Teniendo en cuenta que (P ◦µ)(s) = ϕ(τ (µ(s)), µ(s)), se sigue que


 ∂ϕ(τ (µ(s)), µ(s))  h  i
(P ◦µ)′ (s) = µ′ (s) + (τ ◦µ)′ (s) H ϕ(τ (µ(s)), µ(s)
∂x
 ∂ϕ(τ (µ(s)), µ(s))  h i

(P ◦µ) (s) = µ′ (s) + (τ ◦µ)′ (s) H(P (µ(s)) . (7.23)
∂x

De 7.22, obtenemos
h i  
||(P ◦µ)′ (s)|| H⊥ ◦P ◦µ(s) = det (P ◦µ)′ (s), H ◦P ◦µ(s) , (7.24)

lo cual podemos visualizar gráficamente de la siguiente manera


)
))
(s

H⊥ P ◦µ(s)
(P
H

(P ◦µ)′ (s)
140 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos

Por propiedades del determinante y la fórmula (7.23)


   ∂ϕ(τ (µ(s)), µ(s)) 
det (P ◦µ)′ (s), H ◦P ◦µ(s) = det µ′ (s), H ◦P ◦µ(s) +
 ∂x 

det (τ ◦µ) (s)[H ◦P ◦µ(s)], H ◦P ◦µ(s)

Como (τ ◦µ)′ (s)[H ◦P ◦µ(s)] y H ◦P ◦µ(s) son vectores linealmente dependientes


 
det (τ ◦µ)′ (s)[H ◦P ◦µ(s)], H ◦P ◦µ(s) = 0

Luego,
   ∂ϕ(τ (µ(s)), µ(s))  
det (P ◦µ)′ (s), H ◦P ◦µ(s) = det µ′ (s), H ◦P ◦µ(s)
∂x
Por el Lema 7.3
   ∂ϕ(τ (µ(s)), µ(s)) ∂ϕ(τ (µ(s)), µ(s)) 
det (P ◦µ)′ (s), H ◦P ◦µ(s) = det µ′ (s), (H ◦µ(s))
∂x ∂x
 ∂ϕ(τ (µ(s)), µ(s))   
= det · det µ′ (s), H ◦µ(s)
"Z ∂x #
τ (µ(s))
= exp (divH(ϕ(t, µ(s))dt H⊥ ◦µ(s) (7.25)
0

Sustituyendo (7.25) en (7.24) y dividiendo por H⊥ ◦P ◦µ(s), obtenemos


Z τ (µ(s)) !
H ⊥ ◦ µ(s)
||(P ◦µ)′ (s)|| = exp divH(ϕ(t, µ(s))dt .
H⊥ ◦P ◦µ(s) 0
§ 7.3. Ejercicios y Problemas 141

§ 7.3 Ejercicios y Problemas

1. Muestre que una solución periódica no constante de un sistema autónomo no


puede ser asintóticamente estable en el sentido de Liapunov.
 
2. Demuestre que los puntos fijos del operador T : H(x− , δ) → C [0, ∞), Rn definido
por (ver p.132)
Z t Z ∞
−1
T φ(t) = Φ(t)x− + Φ(t)P Φ (s)f (s, φ(s))ds − Φ(t)QΦ−1 (s)f (s, φ(s))ds.
0 t

son soluciones del sistema (7.4).

3. Pruebe que el sistema

x′ = −y + x(1 − x2 − y 2 )(4 − x2 − y 2 )
y ′ = x + y(1 − x2 − y 2 )(4 − x2 − y 2 )

tiene dos órbitas periódicas γ1 (t) = (cos(t), sen(t))T y γ2 (t) = (2 cos(t), 2sen(t))T .
Estudie su estabilidad.

4. Considere el sistema

x′ = −y + x(1 − x2 − y 2 )
y ′ = x + y(1 − x2 − y 2 )

Halle explı́citamente la aplicación de Poincaré. Demuestre que la órbita periódica


γ1 (t) = (cos(t), sen(t))T es orbital asintóticamente estable.
Indicación: Transforme el sistema a coordenadas polares.

5. Considere el sistema depredador-presa


   
′ S(t) m x(t)S(t)
S (t) = γS(t) 1 − − ,
K y a + S(t)
 
mS(t)
x′ (t) = x(t) − D0 ,
a + S(t)

descrito en la pag. 84. Donde S(t) y x(t) son las densidades de las poblaciones
presa y depredador, respectivamente. γ, K, m, y, a y D0 son constantes positivas.
Demuestre que si el sistema depredador-presa tiene una órbita periódica, ella
necesariamente es orbital asintóticamente estable.
Ayuda: Ver Apéndice §10.5. (Ojo: Problema sofisticado!)
142 Capı́tulo 7. Estabilidad de Soluciones Periódicas de Sistemas Autónomos
Capı́tulo 8

Método de las Funciones de Liapunov

En todos los resultados que hemos mencionado sobre estabilidad hemos supuesto que
tenemos una representación integral para las soluciones de la ecuación diferencial en
función de la matriz fundamental y que se conoce el comportamiento en norma de ésta.
En general ésto no tiene por qué ser ası́. Por tal razón en lo que sigue nos ocuparemos
de estudiar la estabilidad de sistemas del tipo x′ = f (t, x) donde no se supone a priori
que se tengan expresiones explı́citas para las soluciones del sistema en cuestión.
El método que emplearemos para tal estudio posee la desventaja, que precisa de la
construcción de ciertas funciones para las cuales no existen métodos analı́ticos para su
construcción y todo depende de la habilidad del usuario, aunque en muchos casos el
problema en consideración sugiere la forma de la función adecuada.

§ 8.1 Preliminares

Sea V ∈ C[J × D, R] y W ∈ C[D, R]. Consideremos D ⊂ Rn un conjunto abierto y


conexo, tal que 0 ∈ D. Denotemos por R+
0 = [0, ∞).

Definición 8.1 i) Se dice que W es una función no negativa (no positiva), si W (x) ≥
0 (W (x) ≤ 0), para todo x ∈ D.

ii) Diremos que W es definida positiva (definida negativa), si W (x) > 0 (W (x) < 0)
para todo x 6= 0 y W (0) = 0.

iii) Diremos que V es positiva (negativa), si V (t, x) ≥ 0 (V (t, x) ≤ 0) para todo


(t, x) ∈ J × D.

iv) Se dice que V es definida positiva (definida negativa), si existe una función W definida
positiva tal que V (t, x) ≥ W (x) (V (t, x) ≤ −W (x)) para todo (t, x) ∈ J × D y
V (t, 0) = W (0) = 0.
Notemos que la definición iv), geométricamente significa que las superficies de nivel
V (t, x) = C, para cada t ∈ J, están contenidas en las superficies de nivel W (x) = C,
ver figura 7.1.
x2

x1

Figura 7.1
143
144 Capı́tulo 8. Método de las Funciones de Liapunov

En el estudio de la estabilidad es muy importante que las superficies de nivel de


la función W (x) sean cerradas geométricamente. Más precisamente, diremos que la
superficie de nivel es cerrada geométricamente respecto del punto x = 0, si para toda
curva continua que una a x = 0 con un punto de la frontera de D, existe un x0 en la
curva tal que W (x0 ) = C. El lema siguiente nos da una caracterización de este concepto.

Lema 8.1 Si W ∈ C[D, R+ 0 ] es una función definida positiva, entonces existe una cons-
tante h > 0 tal que todas las superficies de nivel W (x) = C son cerradas geométricamente
respecto de x = 0, para todo C ∈ (0, h).
Demostración. Sea BR = {x ∈ Rn : ||x|| < R}. Elijamos un R > 0 de modo que
BR ⊂ D. Pongamos α = min{W (x) : x ∈ ∂BR }. Por la continuidad y el hecho que W
es definida positiva se sigue que α > 0. Si α = 0, entonces existe un x̃ ∈ ∂BR tal que
W (x̃) = 0, x̃ 6= 0. Lo cual es una contradicción.
Sea ϕ : [t0 , t1 ] → Rn una curva continua tal que ϕ(t0 ) = 0 y ϕ(t1 ) = P ∈ ∂BR . De
ésto sigue que W (P ) ≥ α. Sea 0 < C < α. Consideremos la función ψ(t) = W (ϕ(t)),
la cual es continua para todo t ∈ [t0 , t1 ] y ψ(t0 ) = 0, ψ(t1 ) = W (P ) ≥ α. Por lo tanto,
existe un t∗ ∈ (t0 , t1 ) tal que ψ(t∗ ) = C, o bien W (P ∗ ) = C, con P ∗ = ϕ(t∗ ). Eligiendo
h = α, obtenemos el resultado deseado.

De la prueba del Lema 8.1 se desprende que la parte cerrada de la superficie de nivel
W (x) = C está totalmente contenida en la bola BR . Sin embargo, no queda excluı́da la
posibilidad que otras partes de la superficie W (x) = C estén ubicadas fuera de BR . En
efecto, consideremos la función
x21 x22
W (x) = + .
(1 + x21 )2 (1 + x22 )2
Es fácil ver que una parte de W (x) = C, se dispone cerca del origen (0, 0) y otra en
regiones alejadas del origen; ya que
x21 x22
lim 2 = 0, lim = 0.
x1 →∞ (1 + x ) 2 x2 →∞ (1 + x2 )2
1 2

Otra observación tiene relación con el hecho de que si W (x) es definida positiva, en-
tonces no necesariamente todas sus superficies de nivel son cerradas. Para ello es sufi-
x2 x2
ciente considerar W (x) = 1+x1 2 + x22 . Las curvas de nivel 1+x1 2 + x22 = C son acotadas
1 1
y cerradas si C < 1 y no cerradas para C ≥ 1, ver figura 7.2.
x2

x1

Figura 7.2
§ 8.1. Preliminares 145

A continuación trataremos de caracterizar a las funciones definidas positivas de


una manera más cómoda. Es claro que, si existe una función a : R+ +
0 → R0 continua,
monótona creciente, a(0) = 0, tal que V (t, x) ≥ a(||x||), ∀(t, x) ∈ J × D; entonces V
es definida positiva. Para ello es suficiente tomar W (x) = a(||x||). Desgraciadamente
x2
la recı́proca no es cierta. Para ello elijamos W (x) = 1+x 4 . Es fácil ver que no existe
una función “a” con las propiedades antes descritas tal que W (x) ≥ a(||x||), x ∈ R, ver
Figura 7.3.
W (x)

−1 1 x

Figura 7.3

Sin embargo, ésto es posible localmente.

Lema 8.2 Supongamos que V ∈ C[J × D, R+ 0 ] es definida positiva. Entonces para toda
bola BR ⊂ D, existe una función continua a : [0, R] → R+ 0 monótona creciente, a(0) = 0
tal que
V (t, x) ≥ a(||x||), ∀(t, x) ∈ J × BR .
Demostración. Como V (t, x) es definida positiva, existe una función W definida
positiva tal que
V (t, x) ≥ W (x), ∀(t, x) ∈ J × BR .
Definamos una función C : [0, R] → R+
0 como sigue: Para cada r ∈ [0, R] ponemos

C(r) = inf W (x).


r≤||x||≤R

Esta función está bien definida, ya que W está acotada inferiormente. Además es fácil
verificar que :

i) C(0) = 0;

ii) ∀r1 < r2 , C(r1 ) ≤ C(r2 ),

iii) C(r) > 0, ∀r ∈ (0, R).

Para concluir la prueba es suficiente observar que dada una función C con las propiedades
i)-iii), siempre existe una función a ∈ C[[0, R], R+
0 ], monótona creciente, a(0) = 0, tal
que a(r) ≤ C(r), ∀r ∈ [0, R], ver [9], p. 217.
146 Capı́tulo 8. Método de las Funciones de Liapunov

Sea V ∈ C 1 [J × D, R+
0 ] y sea x una solución del sistema

x′ (t) = f (t, x), f (t, 0) = 0, ∀t > τ. (8.1)

Denotemos por U (t) = V (t, x(t)). Derivando, obtenemos


∂V ∂V
U ′ (t) = + < ∇V, x′ >= + < ∇V, f > .
∂t ∂t
Teniendo en cuenta esta expresión, dada una función V ∈ C 1 [J × D, R+
0 ] se puede
definir V̇ : J × D → R, como sigue :
∂V
V̇ (t, x) = (t, x)+ < ∇V, f > .
∂t
Si x(t) es solución de (8.1), entonces U ′ (t) = V̇ (t, x(t)). Por esta razón a V̇ la llamaremos
la derivada de V a lo largo de las soluciones de (8.1).
Notemos que todos los resultados que demostraremos a continuación siguen siendo
válidos si V es continua. En este caso V̇ la definimos como sigue
1
V̇ (t, x) = lim sup [V (t + h, x + hf (t, x)) − V (t, x)].
h→0+ h

§ 8.2 Estabilidad vı́a Funciones de Liapunov.

Teorema 8.3 (Estabilidad) Supongamos que


i) Existe una función V ∈ C 1 [J × D, R+
0 ] definida positiva, y

ii) V̇ (t, x) ≤ 0, ∀(t, x) ∈ J × D.


Entonces la solución x = 0 del sistema (8.1) es estable.
Demostración. Elijamos un número R > 0, de modo que BR ⊂ D, de acuerdo al
Lema 8.2, existe una función continua, monótona creciente a : [0, R] → R+
0 tal que
a(0) = 0 y
V (t, x) ≥ a(||x||), ∀(t, x) ∈ J × BR . (8.2)
Como lim V (t0 , x) = 0, entonces para cada ε ∈ (0, R), existe un δ(t0 , ε) > 0 tal que
||x||→0

V (t0 , x) < a(ε), ∀x : ||x|| < δ. (8.3)

Sea x(·, t0 , x0 ) : [t0 , β) → D, la única solución no prolongable de (8.1) con ||x0 || < δ.
Teniendo en cuenta ii), se sigue que

V̇ (t, x(t)) ≤ 0, ∀t ∈ [t0 , β), x(t) = x(t, t0 , x0 ).

De donde sigue que V (t, x(t)) ≤ V (t0 , x0 ). Ahora, en virtud de la elección de ε, de (8.2)
y (8.3), obtenemos

a(||x(t)||) ≤ V (t, x(t)) ≤ V (t0 , x0 ) < a(ε), ∀t ∈ [t0 , β).


§ 8.2. Estabilidad vı́a Funciones de Liapunov. 147

La monotonı́a de la función a, implica que


||x(t, t0 , x0 )|| < ε, ∀t ∈ [t0 , β).
Esto a su vez implica que β = +∞ y que x = 0 es estable

Teorema 8.4 (Estabilidad Asintótica) Supongamos que


i) Existe una función V ∈ C 1 [J × D, R+
0 ] definida positiva, y

ii) V̇ es definida negativa sobre J × D.


Entonces x = 0 es asintóticamente estable.
Demostración. De la hipótesis i) y ii) y del Teorema 8.3, se sigue que x = 0 es estable.
Sea R > 0 la constante y a la función que figuran en la prueba del Teorema 8.3.
Mostremos que lim ||x(t, t0 , x0 )|| = 0, para todo x0 ∈ BR . Supongamos que
t→+∞

lim V (t, x(t, t0 , x0 )) = 0 para todo x0 ∈ BR . (8.4)


t→+∞

Entonces dado ε > 0


V (t, x(t, t0 , x0 )) < a(ε), ∀t ≥ t0 + T (t0 , ε), x0 ∈ BR . (8.5)
Teniendo en cuenta que V es definida positiva y (8.5), se tiene que
||x(t, t0 , x0 )|| < ε, ∀t ≥ T (t0 , ε) + t0 , ||x0 || < R.
Probemos (8.4). Supongamos que existe x0 ∈ BR tal que
lim V (t, x(t, t0 , x0 )) = α > 0. (8.6)
t→+∞

Notemos que este lı́mite siempre existe, ya que V a lo largo de las soluciones de (8.1)
es monótona decreciente y acotada inferiormente.
De (8.6), sigue que existe β > 0 tal que ||x(t)|| = ||x(t, t0 , x0 )|| ≥ β, para todo
t ≥ t0 . En caso contrario, existe una sucesión (tn )n∈N , tn → ∞ y lim ||x(tn )|| = 0. Lo
n→∞
cual es una contradicción, ya que 0 = lim V (tn , x(tn )) = lim V (t, x(t)) = α > 0. Por
n→∞ t→∞
lo tanto, si α > 0, existe una constante β > 0 tal que ||x(t)|| ≥ β > 0, ∀t ≥ t0 .
Por otra parte, de ii) se tiene que existe una función W ∈ C[Rn , R+ 0 ] definida
positiva tal que
V̇ (t, x) ≤ −W (x), ∀(t, x) ∈ J × D. (8.7)
Pongamos γ = inf W (x). De (8.7), obtenemos
β≤||x||≤R

V̇ (t, x(t)) ≤ −γ, t ≥ t0 .


De donde se sigue que
V (t, x(t)) ≤ V (t0 , x0 ) − γ(t − t0 ), ∀t ≥ t0 .
Esto contradice la positividad de V para valores de t suficientemente grandes.
148 Capı́tulo 8. Método de las Funciones de Liapunov

Teorema 8.5 (Inestabilidad) Supongamos que


i) Existe una función V ∈ C 1 [J × D, R], tal que lim V (t, x) = 0, uniforme respecto
||x||→0
a t en J.

ii) V̇ es definida positiva.

iii) Existe un t0 en J tal que para cada ε, 0 < ε < R, existe un x0 ∈ Bε , tal que

V (t0 , x0 )V̇ (t0 , x0 ) > 0. (8.8)

Entonces x = 0 es inestable.
Demostración. Como V̇ es definida positiva, existe una función W ∈ C[Rn , R+
0]
definida positiva tal que V̇ (t, x) ≥ W (x), ∀(t, x) ∈ J × D.
Además, de i) se tiene que para todo ε > 0, existe un δ > 0, tal que

|V (t, x)| ≤ ε, ∀(t, x) ∈ J × Bδ . (8.9)

Además de iii), se sigue que para todo δ1 , 0 < δ1 < δ, existe un x0 ∈ Bδ1 , tal que
V (t0 , x0 ) = α > 0. Denotemos por ϕ(t) = x(t, t0 , x0 ). Para probar la inestabilidad de
x = 0, es suficiente mostrar que existe un t1 > t0 tal que ||ϕ(t1 )|| > δ. Hagámoslo por
reducción al absurdo. Supongamos que ||ϕ(t)|| ≤ δ, ∀t ≥ t0 .
De i) y ii) se sigue la existencia de β > 0 tal que

0 < β ≤ ||ϕ(t)|| ≤ δ, ∀t ≥ t0 . (8.10)

Denotemos por γ = inf W (x). De ii) y la definición de γ, se sigue,


β≤||x||≤δ

V̇ (t, ϕ(t)) ≥ γ, t ≥ t0 .

Lo cual implica que

V (t, ϕ(t)) ≥ V (t0 , x0 ) + γ(t − t0 ) = α + γ(t − t0 ), ∀t ≥ t0 .

Como α > 0 y γ > 0, se sigue que V no está acotada a lo largo de ϕ(t). Lo


cual es una contradicción ya que (t, ϕ(t)) ∈ J × Bδ , ∀t ≥ t0 y en virtud de (8.9)
|V (t, ϕ(t))| < ε, ∀t ≥ t0 .

A los Teoremas 8.3, 8.4 y 8.5 se les llama comúnmente primer, segundo y tercer
Teorema de Liapunov, respectivamente.

Teorema 8.6 (Estabilidad Uniforme) Supongamos que:


i) Existe una función V ∈ C 1 [J × D, R] definida positiva,

ii) Existe una función monótona creciente C ∈ C[R+ +


0 , R0 ], C(0) = 0, tal que V (t, x) ≤
C(||x||), ∀(t, x) ∈ J × D,
§ 8.2. Estabilidad vı́a Funciones de Liapunov. 149

c) V̇ es negativa ∀(t, x) ∈ J × D.

Entonces x = 0 es uniformemente estable.


Demostración. Sea R > 0, tal que BR ⊂ D. Teniendo en cuenta i) y ii) se tiene que
existe una función a ∈ C([0, R], R+
0 ), monótona creciente, a(0) = 0, tal que

a(||x||) ≤ V (t, x) ≤ C(||x||), ∀(t, x) ∈ J × BR . (8.11)

Ahora, por las propiedades de a y C, para cada ε, 0 < ε < R, podemos elegir un
δ = δ(ε) > 0, δ < ε, tal que
C(δ) < a(ε). (8.12)
Consideremos (t0 , x0 ) ∈ J × Bδ . Sea x(·, t0 , x0 ) : [t0 , β) → D. Teniendo en cuenta
que V̇ es decreciente a lo largo de las soluciones de (8.1), se sigue que x(t, t0 , x0 ) ∈
Bδ , ∀t ≥ t0 . Por lo tanto, en virtud de (8.11) y (8.12), se sigue

a(||x(t, t0 , x0 )||) ≤ V (t, x(t, t0 , x0 )) ≤ V (t0 , x0 ) ≤ C(||x0 ||) ≤ C(δ) < a(ε).

Lo cual implica que ||x(t, t0 , x0 )|| < ε, ∀t ∈ [t0 , β) y x0 ∈ Bδ . De donde se sigue


inmediatamente la estabilidad uniforme de x = 0.

Teorema 8.7 (Estabilidad Asintótica Uniforme) Supongamos que se verifican las condi-
ciones i) y ii) del Teorema 8.6, y V̇ es definida negativa ∀ (t, x) ∈ J × D. Entonces x = 0
es uniforme asintóticamente estable.
Demostración. Según el Teorema 8.6, x = 0 es uniformemente estable. Por lo tanto,
dado ε = R, existe un δ0 (R) > 0 tal que si x ∈ Bδ0 , entonces ||x(t, t0 , x0 )|| < R, ∀t ≥ t0 .
Mostremos que lim ||x(t, t0 , x0 )|| = 0, ∀x0 ∈ Bδ0 , uniforme respecto a t0 en J. De la
t→∞+
prueba del Teorema 8.6 se desprende que δ0 lo podemos elegir de forma que

C(δ0 ) < a(R). (8.13)

Como
a(||x||) ≤ V (t, x) ≤ C(||x||), ∀(t, x) ∈ J × BR , (8.14)
se sigue que a(R) ≤ C(R). Por lo tanto, 0 < δ0 < R.
Sea η ∈ (0, δ0 ]. Elijamos γ > 0, γ < η, de modo que

C(γ) < a(η). (8.15)

Denotemos por α∗ = inf{W (x) : γ ≤ ||x|| ≤ R} donde W viene dada por (8.7).
Elijamos T (η) > C(δ0 )/α∗ . Probemos que para cada x0 ∈ Bδ0 , existe un t1 ∈ [t0 , t0 +
T (η)], tal que ||x(t1 , t0 , x0 )|| < γ.
Supongamos que existe un x∗0 ∈ Bδ0 , tal que

||x(t, t0 , x∗0 )|| ≥ γ, t ∈ [t0 , t0 + T (η)].


150 Capı́tulo 8. Método de las Funciones de Liapunov

Como ||x(t, t0 , x∗0 )|| ≤ R, ∀t ≥ t0 , se sigue que

V̇ (t, x(t, t0 , x∗0 )) ≤ −W (x(t, t0 , x∗0 )) ≤ −α,

para todo t ∈ [t0 , t0 + T (η)]. De donde sigue

V (t, x(t, t0 , x∗0 )) ≤ V (t0 , x0 ) − α∗ T (η) ≤ C(δ0 ) − α∗ T (η) < 0.

Contradicción . Ası́, para cada x0 ∈ Bδ0 , existe t1 ∈ [t0 , T (η) + t0 ] tal que

||x(t1 , t0 , x0 )|| < γ.

Del hecho que V̇ es definida negativa, (8.14) y (8.15), obtenemos

a(||x(t, t0 , x0 )||) ≤ V (t, x(t, t0 , x0 )) ≤ V (t1 , x(t1 , t0 , x0 )) ≤ C(γ) < a(η),

para todo t ≥ t1 . En particular,

||x(t, t0 , x0 )|| < η, ∀t ≥ t0 + T (η), ∀x0 ∈ Bδ .

En general, es difı́cil construir funciones de Liapunov, sin embargo indicaremos con


algunos ejemplos cómo hacer los primeros ensayos para construir tales funciones.

Ejemplo 8.1
Consideremos la ecuación de segundo orden x′′ + f (x) = 0, con f ∈ C 1 (R), f (0) = 0 y
xf (x) > 0, si x 6= 0. El sistema equivalente a tal ecuación es
(
x′1 = x2
(8.16)
x′2 = −f (x1 ).

Por hipótesis (x1 , x2 ) = (0, 0) es el único punto de equilibrio del sistema (8.16). Por otra
parte, denotando por Z x1
U (x1 ) = f (s)ds
0
la energı́a potencial del sistema (8.16), la energı́a total del sistema viene dada por

x22
V (x1 , x2 ) = + U (x1 ).
2
Mostremos que V (x1 , x2 ) es una función de Liapunov asociada al sistema (8.16). En efecto,
i) La función V (x1 , x2 ) > 0 para (x1 , x2 ) 6= (0, 0), ya que xf (x) > 0. V (0, 0) = 0 y
V ∈ C 1 [R2 , R].

ii) Es fácil verificar que


∂V ′ ∂V ′
V̇ = x1 + x = f (x1 )x′1 + x2 x′2 = f (x1 )x2 − x2 f (x1 ) = 0.
∂x1 ∂x1 2
Por lo tanto, la solución trivial del sistema (8.16) es estable.
§ 8.3. Principio de Invariancia de La Salle. 151

Ejemplo 8.2
Consideremos el sistema (
x′1 = −x2 − x31
(8.17)
x′2 = x1 − x32 .
Definamos V (x1 , x2 ) = x21 + x22 . La función V (x1 , x2 ) es definida positiva y

V̇ = 2x1 (−x2 − x31 ) + 2x2 (x1 − x32 ) = −2(x41 + x42 )

es definida negativa. Por lo tanto la solución trivial de (8.17) es uniforme asintóticamente


estable.

Ejemplo 8.3 Consideremos el sistema


(
x′1 = 3x1 + x22
(8.18)
x′2 = −2x2 + x31 .

Definamos V (x1 , x2 ) = x21 − x22 . V ∈ C ∞ [R2 , R], V (0, 0) = 0 y toma valores positivos en
todo entorno del origen si |x1 | ≥ |x2 |. Además,

V̇ (x1 , x2 ) =< ∇V, (x′1 , x′2 ) >= (6x21 + 4x22 ) + (2x1 x22 − 2x2 x31 ).

Es fácil verificar que


2x1 x22 − 2x2 x31
lim = 0.
x21 +x22 →0 x21 + x22
En este caso se escribe que F (x1 , x2 ) = 2x1 x22 − 2x2 x31 = o(x21 + x22 ), y se lee que F (x) es
un “o” pequeño respecto de ||x||2 , x = (x1 , x2 ). Teniendo en cuenta esto, obtenemos que
dado ε > 0 existe un δ > 0 tal que F (x) ≥ −ε||x||2 , ∀x : ||x|| < δ. Finalmente, se tiene
que
V̇ (x1 , x2 ) = (6x21 + 4x22 ) + (2x1 x22 − 2x2 x31 ) ≥ (4 − ε)||x||2 .
Por lo tanto con 0 < ε < 4, obtenemos que V̇ (x1 , x2 ) es definida positiva en la bola
||x|| < δ. Y por ende la solución trivial del sistema (8.18) es inestable.

§ 8.3 Principio de Invariancia de La Salle.

En la sección anterior vimos que para obtener la estabilidad asintótica de las soluciones,
se precisaba exigir que la derivada de la función de Liapunov a lo largo de las solu-
ciones del sistema fuera definida negativa. En esta sección vamos a referirnos al ası́
llamado Principio de Invariancia de La Salle. Este principio permite relajar la exigen-
cia que la derivada de la función de Liapunov sea definida negativa. Desgraciadamente
este principio solo es aplicable a sistemas autónomos y sistemas periódicos. Aquı́ solo
trataremos el caso autónomo.
Consideremos el sistema autónomo

x′ = g(x) con g ∈ C 1 [Rn , Rn ]. (8.19)


152 Capı́tulo 8. Método de las Funciones de Liapunov

Teorema 8.8 (Principio de Invariancia de La Salle) Sea V ∈ C 1 [Rn , R] y su-


pongamos que para algún c > 0 el conjunto Ωc = {x ∈ Rn : V (x) ≤ c} es acotado.
Supongamos además que V es una función acotada inferiormente en el conjunto Ωc y
V̇ (x) ≤ 0, ∀x ∈ Ωc .
Sea M el conjunto maximal invariante (bajo el flujo inducido por el sistema (8.19)) con-
tenido en S = {x ∈ Ωc : V̇ (x) = 0}.
Entonces
x(t, x0 ) → M cuando t → ∞, ∀x0 ∈ Ωc .
Demostración. Sea x(t, x0 ) la única solución no prolongable de (8.19) definida sobre
el intervalo [0, β), x0 ∈ Ωc . Es claro que la solución x(t, x0 ) debe permanecer en la
región Ωc para todo t ∈ [0, β). En caso contrario debe existir un t∗ ∈ (0, β) tal que
V (x(t∗ , x0 )) = c y V̇ (x(t∗ , x0 )) > 0. Lo cual contradice el hecho que por hipótesis
V̇ (x(t∗ , x0 )) ≤ 0. Esto a su vez implica que β = ∞,
Por lo tanto V (x(t, x0 )) es una función decreciente como función de t, acotada
inferiormente, tiene lı́mite cuando t → ∞. Pongamos
lim V (x(t, x0 )) = c0 .
t→∞

Luego, V (y) = c0 , para todo y ∈ ω(x0 ), y por ende V̇ (y) = 0. Como ω(x0 ) es invariante
y M es el conjunto maximal invariante contenido en Ωc , se sigue que ω(x0 ) ⊂ M. Lo
cual concluye la prueba de nuestra afirmación.

Analicemos el siguiente ejemplo, el cual nos mostrará las ventajas del Principio de
Invariancia de La Salle.
Consideremos la ecuación
x′′ + x′ + f (x) = 0,
donde f ∈ C 1 , f (0) = 0 y xf (x) > 0, ∀x 6= 0. Es claro que esta ecuación es equivalente
al siguiente sistema (
x′1 = x2
(8.20)
x′2 = −f (x1 ) − x2 .
Elijamos como función de Liapunov
Z x1
x2
V (x1 , x2 ) = 2 + f (s)ds.
2 0
De las hipótesis impuestas a la función f se sigue que V es definida positiva. Derivando
V a lo largo de las soluciones del sistema (8.20), obtenemos
V̇ (x1 , x2 ) = −x22 ≤ 0.
Ası́, los Teoremas de estabilidad de la sección §8.2 solo nos aseguran que la solución
trivial es estable. Sin embargo al aplicar el Principio de Invariancia, obtenemos que
la solución trivial es global asintóticamente estable. Es fácil chequear que todas las
condiciones del Teorema 8.8 se satisfacen.
§ 8.4. Funciones de Liapunov para Sistemas Lineales 153

§ 8.4 Funciones de Liapunov para Sistemas Lineales

En este parágrafo daremos, en términos de funciones de Liapunov, condiciones nece-


sarias y suficientes para que un sistema lineal a coeficientes constantes

x′ = Ax, con A ∈ Rn×n , (8.21)

sea uniforme asintóticamente estable.


Sea V (x) =< x, Bx >, donde B es una matriz real n × n simétrica y definida
positiva. Derivando V a lo largo de las soluciones de (8.21), se tiene

V̇ (x) =< x, (AT B + BA)x > .

Sea W (x) =< x, Cx >, C ∈ Rn×n simétrica y definida positiva. Ası́, la igualdad

V̇ (x) = −W (x),

es posible si y sólo si
AT B + BA = −C. (8.22)
La siguiente proposición da condiciones suficientes para que la ecuación (8.22) posea
soluciones.

Proposición 8.9 Si A es una matriz con todos sus autovalores con parte real negativa,
entonces la ecuación (8.22) tiene una única solución, la cual viene dada por
Z ∞
T
B= eA t CeAt dt .
0

Además, si C es definida positiva, entonces B también es definida positiva.


Demostración. Consideremos el siguiente p.v.i. para el sistema diferencial matricial
dZ
= AT Z(t) + Z(t)A , Z(0) = −C. (8.23)
dt
Es claro que el sistema (8.23) posee una única solución. Mediante una derivación directa
se verifica que dicha solución viene dada por
T
Z(t) = −eA t CeAt .

Como los autovalores de la matriz A tienen todos partes real negativa, se sigue que

lim Z(t) = 0.
t→∞

Integrando (8.23), se obtiene que


Z t Z t
T
Z(t) − Z(0) = A Z(s)ds + Z(s)dsA.
0 0
154 Capı́tulo 8. Método de las Funciones de Liapunov

Haciendo tender t → ∞, se sigue que


Z ∞ Z ∞
T
−Z(0) = A Z(s)ds + Z(s)dsA .
0 0
T
Sustituyendo en la expresión anterior Z(0) = −C y Z(t) = −eA t CeAt , se sigue que
R∞ T
B = 0 eA t CeAt dt satisface la ecuación matricial AT B + BA = −C.
Probemos que si C es definida positiva, entonces B también es definida positiva.
Sea x0 6= 0. Entonces
Z ∞  Z ∞
AT t At
< x0 , Bx0 >=< x0 , e Ce dt x0 >= < eAt x0 , CeAt x0 > dt.
0 0

De donde se sigue que < x0 , Bx0 ≥ 0 y < x0 , Bx0 >= 0 si y solo si x0 = 0.

La siguiente proposición da propiedades importantes de las formas cuadráticas.

Proposición 8.10 Toda forma cuadrática V (x) =< x, Bx > satisface las siguientes
desigualdades
i) λ1 ||x||2 ≤ V (x) ≤ λ2 ||x||2 ,

ii) ||∇V (x)|| ≤ 2λ2 ||x||2 ,


donde λ1 = λmin (B) y λ2 = λmax (B) son el menor y mayor autovalor de la matriz B,
respectivamente.
Demostración. Como B es una matriz simétrica, existe una matriz ortogonal U
(U U T = I) tal que
 
λ1 · · · 0
 · ··· · 
 
U BU −1 = U BU T = 
 · ··· · .

 · ··· · 
0 · · · λn

Pongamos y = U x. Luego, x = U −1 y. De ésto se sigue que

V (x) =< x, Bx >=< U −1 y, BU −1 y >=< y, U BU −1 y >


n
X
=< y, U BU T y >= λi yi2 .
i=1

Además
||y||2 =< y, y >=< U x, U x >= ||x||2 .
Lo cual prueba i).
Por otra parte, se tiene que

||∇V (x)|| = ||2Bx|| ≤ 2||B|| ||x||,


§ 8.4. Funciones de Liapunov para Sistemas Lineales 155

donde q
||B|| = λmax (B T B) = λmax (B) = λ2 .
En efecto, se tiene que
< B T Bx, x >=< Bx, Bx >= ||Bx||2 .
p p
Por lo tanto ||Bx|| = < B T Bx, x >. De donde se sigue que ||B|| = λmax (B T B).

Notemos que de la Proposición 8.10 se desprende que cuando la matriz B es una


matriz simétrica y definida positiva, la forma cuadrática V (x) =< x, Bx > es una
norma equivalente a || · || en Rn .
Finalmente, probemos el resultado principal de esta sección.

Teorema 8.11 El sistema (8.21) es uniforme asintóticamente estable si y sólo si para


cada forma cuadrática W (x) =< x, Cx > definida positiva, existe una forma cuadrática
V (x) =< x, Bx > definida positiva tal que
V̇ (x) = −W (x), ∀x ∈ Rn .
Demostración. Supongamos que el sistema (8.21) es uniforme asintóticamente estable
y sea W (x) =< x, Cx > una forma cuadrática definida positiva. Entonces la matriz
A tiene todos sus autovalores con parte real negativa. Luego, por la Proposición 8.9,
existe una única matriz B simétrica y definida positiva la cual es solución de la ecuación
AT B + BA = −C. Lo cual implica que V̇ (x) = −W (x), ∀x ∈ Rn .
Probemos la suficiencia. Supongamos que
V̇ (x) = −W (x), ∀x ∈ Rn .
Donde V (x) =< x, Bx > y W (x) =< x, Cx > son dos formas cuadráticas definidas
positivas.
Luego, por la Proposición 8.10 se tiene que
λmin (B)||x||2 ≤ V (x) ≤ λmax (B)||x||2 ,
λmin (C)||x||2 ≤ W (x) ≤ λmax (C)||x||2 .
Entonces
dV λmin (C)
= −W (x) ≤ −λmin (C)||x||2 ≤ − V (x).
dt λmax (B)
Integrando, obtenemos
V (x(t)) ≤ V (x(0))e−αt , t ≥ 0,
donde α = λmin (C)/λmax (B).
De modo que
λmax (B)
||x(t)||2 ≤ ||x(0)||2 e−αt ,
λmin (B)
y por lo tanto
α
||x(t)|| ≤ B ∗ ||x(0)||e− 2 t , t ≥ 0,
donde B∗ = [λmax (B)/λmin (B)]1/2 .
156 Capı́tulo 8. Método de las Funciones de Liapunov

§ 8.5 Comentarios y Sugerencias

Para el análisis de la estabilidad de sistemas no lineales, en general, el único método


universal es el segundo método de Liapunov, como ya lo señalamos su desventaja ra-
dica en la construcción de las funciones de Liapunov. Una manera de aminorar estas
dificultades es usando funciones vectoriales de Liapunov, recomendamos consultar el
libro de Lakshmikantham y Leela [18].
Un problema muy interesante pero menos estudiado es el de la extensión del segundo
método de Liapunov para sistemas singularmente perturbados.
Probamos que la ecuación matricial
AT B + BA = −C,
posee una única solución, si Reλ(A) < 0. En realidad esta ecuación posee una única
solución bajo condiciones mas generales.
Probemos en primer lugar el siguiente

Proposición 8.12 Sean A1 , B1 , C1 ∈ Rn×n , tales que B1 6= 0 y A1 B1 = B1 C1 . En-


tonces A1 y C1 tienen un autovalor común.
Demostración. Supongamos que A1 y C1 no tienen un autovalor común. Luego, los
polinomios caracterı́sticos
P (λ) = det(A1 − λI) y Q(λ) = det(C1 − λI)
son primos entre sı́. Entonces existen polinomios P1 (λ) y Q1 (λ) tales que
P (λ)P1 (λ) + Q(λ)Q1 (λ) = 1.
Denotemos con h(λ) = P (λ)P1 (λ). Ası́ se tiene que
1 − h(λ) = Q(λ)Q1 (λ).
De acuerdo al teorema de Caley-Hamilton
h(A1 ) = 0 y h(C1 ) = 1.
Como
P (λ) = an λn + · · · + a1 λ + a0 , P1 (λ) = bm λm + · · · + b1 λ + b0
P (A1 ) = an An1 + · · · + a1 A1 + a0 , P1 (C1 ) = bm C1m + · · · + b1 C1 + b0
y A1 B1 = B1 C1 , se sigue que
h(A1 )B1 = P (A1 )P1 (A1 )B1 = P1 (A1 )P (A1 )B1

= P1 (A1 ) an An1 B1 + · · · + a1 A1 B1 + a0 B1

= P1 (A1 ) an B1 C1n + · · · + a1 B1 C1 + a0 B1
= P1 (A1 )B1 P (C1 )
= B1 P1 (C1 )P (C1 ) = B1 P (A1 )P1 (A1 ) = B1 h(C1 ).
De donde se sigue que B1 = 0. Contradicción.
§ 8.5. Comentarios y Sugerencias 157

Proposición 8.13 Sean B y C dos matrices simétricas. Si los autovalores de la matriz


A satisfacen que Re(λi + λk ) 6= 0, para todo i 6= k, entonces la ecuación matricial

AT B + BA = −C (8.24)

posee una única solución.


Demostración. Definamos el siguiente operador

F : Rn×n → Rn×n

como sigue
F (B) = AT B + BA.
Los autovalores de F son reales ya que F (B) es simétrica. En efecto,

F T (B) = (AT B + BA)T = (AT B)T + (BA)T = B T A + AT B T = BA + AT B = F (B).

A fin de demostrar que (8.24) tiene solución, es suficiente ver que F es invertible. Lo
cual es equivalente a mostrar que ningún autovalor de F es nulo ya que

det F (B) = Πni=1 µi .

Sea µ cualquier autovalor de F (B) y sea B 6= 0 tal que F (B) = µB, o bien lo que es lo
mismo
AT B + BA = µB.
Lo cual implica que
(AT − µI)B = −BA.
Eligiendo A1 = AT − µI, B1 = B 6= 0 y C1 = −A y aplicando la Proposición 8.12, se
sigue que (AT − µI) y (−A) poseen un autovalor común. Teniendo en cuenta esto y el
hecho que los autovalores de AT − µI son λi − µ y los de −A son −λk obtenemos que

µ = λi + λk 6= 0.

Lo cual implica que F es invertible.


La unicidad sigue del hecho que la inversa es única.
158 Capı́tulo 8. Método de las Funciones de Liapunov

§ 8.6 Ejercicios y Problemas

1. Sea A ∈ C[J, Rn×n ] con J = [t0 , ∞) y A(t) = A(t)T . Denotemos por λ+ (t) =
max{λ : λ ∈ σ(A(t))}. Pruebe que si existe h > 0 tal que λ+ (t) ≤ −h, para
todo t ≥ t0 , entonces la solución trivial del sistema y ′ = A(t)y es uniformemente
asintóticamente estable.
Indicación: Use como función de Liapunov V (y) =< y, y > .

2. Estudie la estabilidad asintótica de la solución trivial de la ecuación

y ′′ + ay ′ + bseny = 0, a > 0, b > 0,

usando el método de las funciones de Liapunov.

3. Considere la ecuación diferencial

y ′ = f (t, y), (8.25)

donde J = [t0 , ∞), f (t, 0) = 0, ∀t ≥ t0 y f ∈ C 1 [J × Rn , Rn ]. Suponga que existe


λ ∈ C[J, R] tal que < y, f (t, y) >≤ −λ(t)||y||2 para t ≥ t0 , y ∈ Rn .
Pruebe que

i) Si λ(t) ≥ 0, ∀t > t0 , entonces la solución trivial de (8.25) es uniformemente


estable sobre J.
R∞
ii) Si t0 λ(s)ds = ∞, entonces y = 0 es asintóticamente estable.
iii) ¿Qué sucede si λ(t) < 0 ó λ(t) es de signo variable?.

Indicación: Use como función de Liapunov V (y) =< y, y > .

4. Pruebe que la solución trivial de la ecuación diferencial es global asintóticamente


estable
x′′ + f (x)x′ + h(x) = 0,
donde
Z x
xh(x) > 0 , f (x) > 0 , si x 6= 0 ; f (0) = h(0) = 0 ; lim h(s)ds = ∞.
|x|→∞ 0

Indicación:Muestre que la ecuación diferencial es equivalente al sistema

x′ = y,
y ′ = −h(x) − f (x)y.

Elija como función de Liapunov


Z x
y2
V (x, y) = + h(s)ds,
2 0

y aplique el Principio de Invariancia de La Salle. (Ver Hale [15], p. 298.)


§ 8.6. Ejercicios y Problemas 159

5. Estudie la estabilidad de la solución trivial de la ecuación

x′′ + ax′ + 2bx + 3x2 = 0, a > 0, b > 0.

Indicación: Use el ejercicio anterior.

6. Estudie la estabilidad de la solución trivial de la ecuación de Van der Pol

x′′ + ε(x2 − 1)x′ + x = 0,

vı́a funciones de Liapunov.

7. Sea f 1 [R2 , R] y f (0, 0) = 0. Considere el sistema

x′ = y − xf (x, y),
y ′ = −x − yf (x, y).

Pruebe que:
i) Si f (x, y) ≥ 0, ∀(x, y) ∈ R2 , entonces la solución trivial es estable.
ii) Si f (x, y) ≤ 0, ∀(x, y) ∈ R2 , entonces la solución trivial es inestable.

8. Estudie la estabilidad de la solución trivial del sistema

x′1 = ax31 + bx2


x′2 = −cx1 + dx32 ,

donde a, b, c, d son constantes reales.

9. Estudie la estabilidad de la solución trivial del sistema

x′1 = x2
x′2 = x3 − ax2
x′3 = cx1 − F (x2 ),

donde a y c son constantes positivas y la función F (x) satisface las siguientes


condiciones
Z x2 
aF (x2 ) cs 
F (0) = 0 ; > c , si x2 6= 0 ; lim F (s) − ds = +∞.
x2 |x2 |→∞ 0 a

Indicación:
R x2 Defina una función de Liapunov como una forma cuadrática más
0 F (s)ds.
160 Capı́tulo 8. Método de las Funciones de Liapunov
Capı́tulo 9

Introducción a la Teorı́a de Bifurcaciones

Consideremos la familia de sistemas


y ′ = g(y, λ), y ∈ Rn , λ ∈ Rp (9.1)
donde g ∈ C r [S, Rn ] y S ⊂ Rn × Rp es un conjunto abierto y conexo.
Supongamos que
g(y0 , λ0 ) = 0, (9.2)
es decir y0 es un punto de equilibrio en λ = λ0 .
Nos preguntamos
1. ¿ Es (y0 , λ0 ) estable o inestable?
2. ¿Cómo es afectada la estabilidad o inestabilidad del punto de equilibrio cuando
λ varı́a?
Linealizando alrededor de (y0 , λ0 ), obtenemos el sistema variacional
∂g
u′ = (y0 , λ0 )u. (9.3)
∂y
Si el sistema (9.3) es hiperbólico, entonces por el Teorema de Hartman-Grobman el
flujo generado por (9.1) es topológicamente conjugado al flujo generado por (9.3) en
una vecindad de (y0 , λ0 ). En efecto, teniendo en cuenta que
g(y0 , λ0 ) = 0
y que la matriz
∂g
(y0 , λ0 )
∂y
es invertible. El Teorema de la función implı́cita implica la existencia de una única
función y(λ) de clase C r tal que
g(y(λ), λ = 0
para λ suficientemente cerca de λ0 y y(λ0 ) = y0 . Ahora, como los autovalores de la
∂g ∂g
matriz ∂y (y, λ) son continuos con respecto a λ, se sigue que ∂y (y, λ) tiene la misma
∂g
cantidad de autovalores con parte real positiva y negativa que la matriz ∂y (y0 , λ0 );
es decir son hiperbólicas para λ suficientemente cercano a λ0 . Lo cual prueba nuestra
afirmación.
De la discusión previa se desprende que si queremos que en cualquier entorno de
λ0 podamos encontrar dos valores de λ para los cuales los respectivos flujos no son
conjugados, debemos suponer que la matriz del sistema variacional no es hiperbólica.
En lo que sigue supondremos que la matriz variacional tiene un autovalor cero
simple ó un par de autovalores puros imaginarios simples. En el primer caso, solo con-
sideraremos ecuaciones escalares y en el segundo sistemas bidimensionales. Todos estos
resultados son válidos en mas dimensiones pero precisan de pruebas mas sofisticadas
que escapan al objetivo de estas notas.

161
162 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones

§ 9.1 Bifurcación Silla-Nodo

Consideremos el siguiente ejemplo


x′ = f (x, µ) = µ − x2 , x, µ ∈ R. (9.4)
Notemos que f (0, 0) = 0 y ∂f
∂x (0, 0) = 0. Además, los puntos de equilibrio están dados
por x2 = µ. Si µ < 0 no hay puntos de equilibrio y x′ (t) < 0. Si µ = 0, x = 0
es el único punto de equilibrio y x′ (t) ≤ 0. Cuando µ > 0, aparecen dos puntos de
√ √ √
equilibrio x1 = − µ, x2 = µ. Es fácil mostrar que x2 = µ es asintóticamente

estable (atractor) y x1 = − µ es inestable (repulsor).

µ = x2

Figura 9.1: Bifurcación Silla-Nodo

Mostremos que en µ = 0 ocurre una bifurcación. Sean µ1 < 0 < µ2 y supongamos que
existe un homeomorfismo h : R → R tal que
φt (h(x), µ1 ) = h(φt (x, µ2 )), ∀x ∈ R, (9.5)
donde φt (x, µ) es el flujo inducido por la ecuación (9.4). De (9.5) se sigue que
φt (h(x1 ), µ1 ) = h(φt (x1 , µ2 ) = h(x1 ).
Es decir h(x1 ) es un punto fijo del flujo para µ1 < 0. Lo cual es una contradicción.
A este tipo de bifurcación se le denomina bifurcación silla-nodo. Ahora buscaremos
condiciones suficientes para que ocurra este tipo de bifurcación. Tiene lugar el siguiente

Teorema 9.1 Consideremos la ecuación escalar


x′ = f (x, µ), (9.6)
donde f ∈ C 2 [R × R, R].
Supongamos que se satisfacen las siguientes condiciones
∂f ∂f ∂2f
f (0, 0) = 0 , (0, 0) = 0 , (0, 0) 6= 0 , (0, 0) 6= 0.
∂x ∂µ ∂x2
Entonces en µ = 0 ocurre una bifurcación silla-nodo para la ecuación (9.6).
§ 9.2. Bifurcación Transcrı́tica 163

Demostración. Consideremos la ecuación f (x, µ) = 0. Teniendo en cuenta que


∂f
f (0, 0) = 0 y que ∂µ (0, 0) 6= 0, por el teorema de la función implı́cita se sigue que
existe un δ > 0 y una única función µ ∈ C 2 [(−δ, δ), R], µ(0) = 0 y

f (x, µ(x)) = 0, ∀x ∈ (−δ, δ). (9.7)

Derivando implı́citamente, obtenemos que


∂f  ∂f
µ′ (x) = − (x, µ(x)) (x, µ(x))
∂x ∂µ
De las hipótesis del Teorema y la expresión anterior, se tiene que µ′ (0) = 0.
Derivando nuevamente respecto a x y evaluando en x = 0, se sigue
∂2f
′′ ∂x2
(0, 0)
µ (0) = − ∂f
6= 0, (9.8)
∂µ (0, 0)

ya que
∂f ∂2f
(0, 0) 6= 0 , (0, 0) 6= 0 y µ′ (0) = 0.
∂µ ∂x2
Por lo tanto la función µ(x) es una función convexa ó cóncava en un entorno de x = 0.
Lo cual prueba nuestra afirmación.

§ 9.2 Bifurcación Transcrı́tica

Consideremos la siguiente ecuación escalar

x′ = µx − x2 = x(µ − x) (9.9)

µ=x
D

A C µ
E
B

Figura 9.2: Bifurcación Transcrı́tica

Es obvio que la ecuación (9.9) posee dos familias de puntos de equilibrio, a saber (0, µ)
y (µ, µ). Notemos que en µ = 0 la estabilidad de los puntos de equilibrio cambia. A
este tipo de bifurcación se le denomina bifurcación transcrı́tica.
164 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones

Teorema 9.2 Considere la ecuación

x′ = f (x, µ) (9.10)

donde f ∈ C 3 [R × R, R].
Supongamos que existe un ∆ > 0 tal que f (0, µ) = 0, ∀µ ∈ (−∆, ∆) y

∂f ∂f ∂2f ∂2f
(0, 0) = 0 , (0, 0) = 0 , (0, 0) 6= 0 , (0, 0) 6= 0.
∂x ∂µ ∂x∂µ ∂x2
Entonces en µ = 0 ocurre una bifurcación transcrı́tica .
Demostración. Consideremos la siguiente función auxiliar

 f (x, µ)

 , si x 6= 0,
 x
F (x, µ) = (9.11)


 ∂f (0, µ), si x = 0.

∂x
Es claro que F ∈ C 2 . Además F (0, 0) = 0 y

∂F ∂2f
(0, 0) = (0, 0) 6= 0.
∂µ ∂µ∂x
Por el teorema de la función implı́cita se sigue que existe un δ > 0 y una única función
µ ∈ C 2 [(−δ, δ), R], µ(0) = 0 y

F (x, µ(x)) = 0, ∀x ∈ (−δ, δ). (9.12)

De la definición de la función F, se tiene que f (x, µ(x)) = 0.


Mostremos que µ(x) 6= 0, ∀x ∈ (−δ, δ)\{0} y que no es ni cóncava, ni convexa. Para
ello es suficiente mostrar que 0 < |µ′ (0)| < ∞. En efecto, derivando implı́citamente,
obtenemos que
∂F ∂2f
′ ∂x (0, 0) 2 (0, 0)
µ (0) = − ∂F = − ∂∂x2 f 6= 0.
∂µ (0, 0) ∂x∂µ (0, 0)

Por lo tanto la curva µ(x) en el plano (x, µ) cruza en cero desde el tercer cuadrante
e ingresa en el primer cuadrante o cruza en cero desde el segundo cuadrante e ingresa
en el cuarto cuadrante. Teniendo en cuenta este comportamiento de la gráfica de la
función µ(x) y el hecho que la función f (x, µ) en un entorno del punto (0, 0) se puede
representar como sigue

f (x, µ) = x(αx + βµ) + o(|µ|, |x|2 )


2 2
donde α = ∂∂xf2 (0, 0)/2 y β = ∂x∂µ
∂ f
(0, 0)/2, efectivamente se obtiene que en µ = 0 los
puntos de equilibrio cambian su estabilidad.
§ 9.3. Bifurcación Cuchillo-Tenedor 165

§ 9.3 Bifurcación Cuchillo-Tenedor

Consideremos la siguiente ecuación diferencial escalar

x′ = µx − x3 = x(µ − x2 ) (9.13)

µ = x2

A C µ

Figura 9.3: Bifurcación-Cuchillo Tenedor

El punto de equilibrio (0, µ) con µ < 0 es asintóticamente estable, en µ = 0 pierde


la estabilidad generando dos nuevos puntos de equilibrio asintóticamente estable y el
equilibrio (0, µ) con µ > 0 es inestable. A este tipo de bifurcación se le llama bifurcación
cuchillo-tenedor.

Teorema 9.3 Consideremos la ecuación

x′ = f (x, µ) (9.14)

f ∈ C 3 [R × R, R]. Supongamos que se verifica que

∂f ∂f ∂2f ∂2f ∂3f


f (0, 0) = 0, (0, 0) = 0, (0, 0) = 0, 2 (0, 0) = 0, (0, 0) 6= 0, 3 (0, 0) 6= 0.
∂x ∂µ ∂x ∂x∂µ ∂x

Entonces en µ = 0 ocurre una bifurcación del tipo Cuchillo-Tenedor


Demostración. Definamos la siguiente función auxilar

 f (x, µ)
 si x 6= 0,
 x ,

F (x, µ) = (9.15)


 ∂f (0, µ), si x = 0.

∂x

A partir de las hipótesis del Teorema no es difı́cil mostrar que F ∈ C 2 y

∂F ∂2f
F (0, 0) = , (0, 0) = (0, 0) 6= 0.
∂µ ∂µ∂x
166 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones

Por el teorema de la función implı́cita se sigue que existe un δ > 0 y una única función
µ ∈ C 2 [(−δ, δ), R], µ(0) = 0 y

F (x, µ(x)) = 0, ∀x ∈ (−δ, δ). (9.16)

De la definición de la función F, se tiene que f (x, µ(x)) = 0.


Nuevamente, teniendo en cuenta las hipótesis del Teorema y mediante derivación
implı́cita, se sigue que
2
dµ − ∂F
∂x (0, 0)
− ∂∂xf2 (0, 0)
(0) = ∂F
= ∂2f
=0 (9.17)
dx ∂µ (0, 0) ∂x∂µ (0, 0)
2 3
d2 µ − ∂∂xF2 (0, 0) − ∂∂xf3 (0, 0)
(0) = = ∂2f
6= 0. (9.18)
dx2 ∂F
∂µ (0, 0) ∂x∂µ (0, 0)

De donde se infiere que la función µ(x) pasa por cero y es cóncava o convexa.
§ 9.4. Bifurcación de Andronov-Hopf 167

§ 9.4 Bifurcación de Andronov-Hopf

El Teorema de Poincaré-Bendixson es bastante utilizado en la detección de ciclos lı́mites.


Pero su implementación no es trivial. Además, que sus generalizaciones a dimensiones
mayores a dos, no dan la misma información que en el caso bidimensional y requieren
de condiciones adicionales sobre el campo vectorial. En esta sección nos proponemos
recopilar una prueba del Teorema de la bifurcación de Andronov-Hopf, que sea auto-
contenida y constructiva. Probablemente, este sea el método mas simple en la detección
de órbitas periódicas de amplitud pequeña. Este resultado tiene validez en cualquier
Rn , pero nos restringiremos al caso n = 2 ya que la prueba en el caso general requiere
de la teorı́a de la variedad central.
Consideremos el sistema

v ′ = F (v, µ), v ∈ R2 , µ ∈ R, (9.19)

con F ∈ C 2 [R2 × R, R2 ].

Lema 9.4 Supongamos que F (0, 0) = 0 y que Fv (0, 0) tiene un par de autovalores puros
imaginarios. Entonces el sistema (9.19) se reduce al sistema

u′ = A(µ)u + f (u, µ), (9.20)

donde A(0) es una matriz 2 × 2 que tiene un par de autovalores puros imaginarios. Además
existe un µ0 > 0 tal que f (0, µ) = 0 para todo µ ∈ (−µ0 , µ0 ) y ∂f
∂u (0, µ) = 0 para todo
µ ∈ (−µ0 , µ0 ).
Demostración. Consideremos la ecuación F (v, µ) = 0. Teniendo en cuenta que
F (0, 0) = 0 y ∂F∂v (0, 0) es invertible, el Teorema de la Función Implı́cita implica que
existe un µ0 > 0 y una función vµ de clase C 2 tal que F (vµ , µ) = 0 , para todo
µ ∈ (−µ0 , µ0 ). Ahora, realicemos la transformación u = v − vµ en (9.19). Ası́, obtene-
mos que
u′ (t) = v ′ (t) = F (v, µ) = F (u + vµ , µ) = g(u, µ).
Es fácil ver que
u′ (t) = A(µ)u + f (u, µ),
∂g
donde f (u, µ) = g(u, µ) − A(µ)u y A(µ) = ∂u (0, µ) .

Ası́, hemos mostrado que para nuestros efectos, es suficiente considerar directamente
el sistema (9.20).
168 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones

Tiene lugar el siguiente

Teorema 9.5 (Bifurcación de Andronov-Hopf) Supongamos que

1. Los autovalores de A(µ) son λ(µ) = β(µ) ± iν(µ) y se verifica que β(0) = 0,
ν(0) > 0 y β ′ (0) 6= 0.

2. f (0, µ) = 0, para todo µ ∈ (−µ0 , µ0 ).


∂f
3. ∂u (0, µ) = 0 , para todo µ ∈ (−µ0 , µ0 ) .

Entonces existen constantes a0 > 0, δ0 > 0, funciones µ(a), ω(a) ∈ R, µ(0) = 0,


ω(0) = 2π y una función u∗ (t, a) de clase C 1 [(−a0 , a0 ), R2 ], ω(a)−periódica, tal que
u∗ (t, a) es solución de (9.20) para µ = µ(a) y
 
a cos ω(a)t
u∗ (t, a) =   + o(|a|) (9.21)
−a sin ω(a)t

cuando |a| → 0 . Además, para |µ| < µ0 , |ω − 2π| < δ0 , cualquier solución ω−periódica de
(9.20) con |u(t)| < δ0 viene dada por (9.21) excepto traslaciones de fase.

El Teorema 9.5 tiene lugar bajo condiciones razonablemente simples, pero no da infor-
mación sobre la estabilidad de la solución periódica que emerge de la bifurcación. En
este trabajo nosotros supondremos adicionalmente que la función f es al menos de clase
C 4 y desarrollaremos una prueba que es constructiva. Seguiremos la exposición de S.
Wiggins en [35] p.p.220-224 , 270-278. El enfoque que hemos seleccionado para probar
el Teorema de la Bifurcación de Hopf, además de proporcionar la existencia de la órbita
periódica, nos permitirá decidir sobre su estabilidad y la dirección de la bifurcación. Es
decir, determinar cuando la bifurcación es supercrı́tica o subcrı́tica.
Notemos que las soluciones periódicas que emergen de la bifurcación de Hopf son
soluciones de amplitud pequeña. Esto se ve claramente observando que (9.21) tiene
lugar cuando |a| → 0 .

§ 9.4.1 Reducción del sistema (9.20) a su forma normal


Con el fin de facilitar la lectura, sub dividiremos la obtención de la forma normal en
una serie de etapas. Teniendo en cuenta las hipótesis del Teorema de Andronov-Hopf,
se sigue que existe una transformación lineal de modo que A(µ) se reduce a la siguiente
forma  
Reλ(µ) −Imλ(µ)
, (9.22)
Imλ(µ) Reλ(µ)
para µ suficientemente pequeño. Por lo cual sin pérdida de generalidad supondremos
que A(µ) ya tiene la forma (9.22).
Sabemos que
λ(µ) = |λ(µ)|e2πθ(µ)i .
§ 9.4. Bifurcación de Andronov-Hopf 169

O bien lo que es lo mismo


Reλ(µ) = |λ(µ)|cos(2πθ(µ)) , Imλ(µ) = |λ(µ)|sen(2πθ(µ)).
Luego, sustituyendo estos valores en (9.22), obtenemos
 
cos 2πθ(µ) − sin 2πθ(µ)
A(µ) = |λ(µ)| .
sin 2πθ(µ) cos 2πθ(µ)
Ası́, podemos asumir que la ecuación (9.20) se puede escribir como sigue
 ′     
x   x f1 (x, y; µ)
  = |λ(µ)| cos2πθ(µ) −sen2πθ(µ)  +  .
′ sen2πθ(µ) cos2πθ(µ)
y y f2 (x, y; µ)
Cuando la parte lineal de los campos vectoriales tienen autovalores complejos, a menudo
es mas fácil calcular su forma normal pasando al plano complejo. Concretamente en
este caso, realizando las siguientes transformaciones lineales
         
x 1 1 z z 1 i x
 =  1   ;   =    ,
2
y −i i z z 1 −i y
vemos que el sistema anterior se reduce a
 ′   2πiθµ     
z e 0 z 1 i f1 (x, y; µ)
  = |λ(µ)|    +    ,
′ 0 e−2πiθµ z 1 −i f (x, y; µ)
z 2

o bien       
z′ e2πθiµ 0 z F 1 (z, z; µ)
  = |λ|   + ,
z′ 0 e−2πθiµ z F 2 (z, z; µ)
donde F 1 y F 2 vienen dadas por las siguientes expresiones
F 1 (z, z; µ) = f1 (x(z, z), y(z, z); µ) + if2 (x(z, z), y(z, z); µ) ,

F 2 (z, z; µ) = f1 (x(z, z), y(z, z); µ) − if2 (x(z, z), y(z, z); µ) .
Teniendo en cuenta que la segunda componente del sistema anterior es la conjugada de
la primera ecuación, todo lo que tenemos que hacer es trabajar con el sistema siguiente
z ′ = |λ|e2πθi z + F 1 (z, z; µ) . (9.23)
Ahora, desarrollando F 1 (z, z; µ) en una serie de Taylor, obtenemos que
 
1 1 1 ∂F 1 ∂F 1
F (z, z; µ) = F (0, 0; µ) + (0, 0; µ)z + (0, 0; µ)z +
1! ∂z ∂z
 
1 ∂2F 1 2 ∂2F 1 ∂2F 1 2
z +2 zz + z + ··· .
2! ∂z 2 ∂z∂z ∂z 2
170 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones

Sustituyendo la expresión anterior en (9.23), se sigue que (9.23) es equivalente a la


siguiente ecuación

z ′ = |λ|e2πθi z + F2 + F3 + · · · + Fr−1 + O(|z|r , |z|r ) , (9.24)

donde las funciones Fj son polinomios en z, z de orden j, cuyos coeficientes dependen


de µ .
Ahora, vamos a simplificar los términos de segundo orden. Para ello, realicemos la
siguiente transformación
z → z + h2 (z, z), (9.25)
donde h2 (z, z) es un polinomio de segundo orden en z, z cuyos coeficientes dependen
de µ . Nosotros no destacaremos explı́citamente la depencia de µ . Ası́, sustituyendo
(9.25) en (9.24), obtenemos que
∂h2 ′ ∂h2 ′
z′ + z + z = λz + λh2 (z, z) + F2 (z, z) + O(3) . (9.26)
∂z ∂z
Recordemos que

1 ∂ 2 F2 2 ∂ 2 F2
F2 (z + h2 , z + h2 ) = (0, 0, µ)(z + h2 ) + (z + h2 )(z + h2 ) +
2 ∂z 2 ∂z∂z

1 ∂ 2 F2
(0, 0, µ)(z + h2 )2 .
2 ∂z 2
Ası́, se sigue
∂h2 ∂h2 ′
z ′ (1 + )+ z = λz + λh2 + F2 (z, z) + O(3) .
∂z ∂z
De la igualdad anterior obtenemos que
∂h2 −1 h ∂h2 ′ i
z ′ = (1 + ) λz + λh2 − z + F2 + O(3)
∂z ∂z

z ′ = λz + F 2 + O(3) . (9.27)

Para z, z suficientemente pequeños tenemos


∂h2 −1 ∂h2
(1 + ) =1− + O(2) . (9.28)
∂z ∂z
Luego, sustituyendo (9.27) y (9.28), la ecuación (9.26) se transforma en
∂h2 ∂h2
z ′ = λz − λ z−λ z + λh2 + F2 + O(3) , (9.29)
∂z ∂z
de modo que podemos eliminar los términos de orden dos, sı́
∂h2 ∂h2
λh2 − (λ z+λ z) + F2 = 0 . (9.30)
∂z ∂z
§ 9.4. Bifurcación de Andronov-Hopf 171

La transformación  
∂h2 ∂h2
h2 → λh2 − λ z+λ z (9.31)
∂z ∂z
es una aplicación del espacio de los monomios en z y z en si mismo. Denotemos este
espacio por H2 . F2 puede ser interpretado como un elemento de este espacio. Luego, la
resolución de la ecuación (9.30) resulta ser un problema de álgebra lineal. Ası́, tenemos
que
H2 = span {z 2 , zz, z 2 } . (9.32)
Calculando la acción de la aplicación lineal (9.31) sobre cada uno de estos elementos
de la base, obtenemos que
 
∂ ∂
T z 2 = λz 2 − λ( z 2 )z + λ( z 2 )z = −λz 2 ,
∂z ∂z
 
∂zz ∂zz
T zz = λzz − λ( )z + λ( )z = −λzz ,
∂z ∂z
 
2 2 ∂z 2 ∂ 2
T z = λz − λ( )z + λ( z )z = (λ − 2λ)z 2 .
∂z ∂z

Ası́, (9.31) es diagonal en esta base y cuya representación matricial viene dada por
 
−λ(µ) 0 0
 0 −λ(µ) 0  . (9.33)
0 0 λ(µ) − 2λ(µ)

Para µ = 0, se tiene que λ(0) 6= 0. Por lo tanto para µ suficientemente pequeño λ(µ) 6= 0
y λ(µ) − 2λ(µ) 6= 0 . Por lo tanto la matriz (9.33) es no singular para µ suficientemente
pequeño y por ende podemos eliminar todos los términos de segundo orden de (9.24),
para esos valores de µ .

Simplificación de los términos de tercer orden

Del razonamiento anterior, sabemos que la ecuación (9.20) se reduce a

z ′ = λz + F3 + O(4) . (9.34)

Realizando la transformación z → z + h3 (z, z) , se sigue que

∂h3 ′ ∂h3 ′
z′ + z + z = λz + λh3 (z, z) + F3 (z, z) + O(4).
∂z ∂z
o bien
∂h3 −1 ∂h3 ′
z ′ = (1 + ) [λz + λh3 + F3 (z, z) − z + O(4)] .
∂z ∂z
Luego, teniendo en cuenta que

∂h3 −1 ∂h3 ∂ 2 h3 ∂ 3 h3
(1 + ) =1− + − + O(3) ,
∂z ∂z ∂z 2 ∂z 3
172 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones

y el hecho que z ′ = λz + F 3 + O(4) , obtenemos

∂h3 ∂h3
z ′ = λz − λz − λz + F3 (z, z) + λh3 + O(4) .
∂z ∂z
Podemos eliminar todos los términos de orden tres, sı́

∂h3 ∂h3
λh3 − λ z−λ z + F3 = 0 . (9.35)
∂z ∂z

Denotemos por H3 = span{z 3 , z 2 z, zz 2 , z 3 } .


Calculando la acción de la transformación lineal
∂h3 ∂h3
h3 → λh3 − [λ z+λ z] , (9.36)
∂z ∂z
sobre cada elemento de H3 , obtenemos

∂ 3 ∂
T z 3 = λz 3 − λ( z )z − λ( z 3 )z = −2λz 3
∂z ∂z
∂ ∂
T z 2 z = λz 2 z − λ( z 2 z)z − λ( z 2 z)z = −(λ + λ)z 2 z
∂z ∂z
∂ ∂
T zz 2 = λzz 2 − λ( zz 2 )z − λ( zz 2 )z = −2λzz 2
∂z ∂z
∂ 3 ∂ 3
T z = λz − λ( z )z − λ( z )z = (λ − 3λ)z 3
3 3
(9.37)
∂z ∂z
Luego, la representación matricial para (9.36) viene dada por
 
−2λ(µ) 0 0 0
∂F  0 −(λ(µ) + λ(µ)) 0 0 
=

 .
 (9.38)
∂H3 0 0 −2λ(µ) 0
0 0 0 λ(µ) − 3λ(µ)

Ahora, para µ = 0 ,
λ(0) + λ(0) = 0 ; (9.39)
sin embargo ninguna de las restantes columnas en (9.38) son identicamente cero en
µ = 0 . Por lo tanto, para µ suficientemente pequeño, los términos de tercer orden que
no sean de la forma
z2z (9.40)
pueden ser eliminados.
Luego, la forma normal hasta los términos de orden tres viene dada por

ż = λz + c(µ)z 2 z + O(4) , (9.41)

donde c(µ) es una constante dependiente de µ .


§ 9.4. Bifurcación de Andronov-Hopf 173

Ahora, nosotros simplificamos los términos de orden cuatro. Sin embargo, notemos
que, en cada orden, la simplificación depende de la ecuación
∂h ∂h
λh − (λz + λz ) = 0 (9.42)
∂z ∂z
para algún h = z n z m , donde m + n es el orden de los términos que nosotros queremos
simplificar. Sustituyendo ésto en la ecuación (9.42), obtenemos
λz n z m − (nλz n z m + mλz n z m ) = 0, (9.43)
n m
(λ − nλ − mλ)z z = 0, (9.44)
con µ = 0, λ = −λ. Por lo tanto no deberı́amos tener
1+m−n=0 . (9.45)
Es fácil ver que ésto nunca sucede, si m y n son números pares. Por la tanto, todos los
términos de orden par pueden ser removidos y la forma normal viene dada por
z ′ = λz + c(µ)z 2 z + O(5) (9.46)
para µ en un entorno de µ = 0 .
Sean
z = (x, y) , λ(µ) = α(µ) + iω(µ) , c(µ) = a(µ) + i b(µ).
Ası́, la forma normal viene dada por

x′ = αx − ωy + (ax − by)(x2 + y 2 ) + O(5)
(9.47)
y ′ = ωx + αy + (bx + ay)(x2 + y 2 ) + O(5)
Es fácil ver que en coordenadas polares (9.47) es equivalente al sistema
r ′ = α(µ)r + a(µ)r 3 + O(4) ,
(9.48)
θ ′ = ω(µ) + b(µ)r 2 + O(3) .
Al sistema (9.47) o equivalentemente (9.48) se le conoce como la forma normal del
campo vectorial, cuando la parte lineal posee dos autovalores puros imaginarios para
algún valor del parámetro.

§ 9.4.2 Bifurcación de Andronov-Hopf


En la sección anterior mostramos que la forma normal del sistema (9.20) viene dada
por (9.48). Como nosotros estamos interesados en el estudio de la dinámica del sistema
(9.20) alrededor de µ = 0, es natural desarrollar los coeficientes de (9.48) en un entorno
de µ = 0 . Ası́, el sistema (9.48) se transforma en
r′ = α′ (0)rµ + a(0)r 3 + O(µ2 r, µr 3 , r 5 ) ,
(9.49)
θ = ω(0) + ω ′ (0)µ + b(0)r 2 + O(µ2 , µr 2 , r 4 ) .

Recordemos que estamos interesados en comprender la dinámica de (9.49) para r y µ


pequeños. Este objetivo lo desarrollaremos en dos etapas:
174 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones

• Estudio de (9.49) obviando los términos de orden superior; es decir, estudio del
sistema truncado inducido por (9.49).

• Mostrar que la dinámica del sistema truncado es heredada por el sistema original.

Paso 1
Despreciando los términos de orden superior en (9.49), obtenemos que el sistema trun-
cado viene dado por
r ′ = dµr + ar 3 ,
(9.50)
θ ′ = ω + cµ + br 2 ,
donde los coeficientes de (9.50) vienen definidos por

α′ (0) = d , a(0) = a , ω(0) = ω , ω ′ (0) = c , b(0) = b . (9.51)

Teniendo en cuenta que estamos trabajando en coordenadas polares, los valores de


r > 0 y µ para los cuales r ′ = 0 y θ ′ 6= 0, corresponden a las órbitas periódicas del
sistema (9.50). Tiene lugar el siguiente

Lema 9.6 (Existencia de órbitas periódicas)


Si −∞ < µd
a < 0 , entonces
r     !
 µd bd
r(t), θ(t) = − , ω+ c− µ t + θ0
a a

es una órbita periódica para el sistema (9.50), para µ suficientemente pequeño.


Demostración. Haciendo cero la parte derecha de la q primera ecuación en (9.50),
obtenemos que : dµr + ar = 0 si y sólo si r = 0 ó r = − µd
3
a . Luego, para concluir
la prueba de nuestra afirmación ′
q es suficiente mostrar que θ es diferente de cero. En
efecto, sabemos que r(t) = − µd
a . Sustituyendo esta expresión en la segunda ecuación
bd
en (9.50) se sigue que : θ ′ (t) = ω + cµ − aµ . La cual es distinta de cero para valores
suficientemente pequeños de µ .

Ası́, hemos encontrado que bajo las hipótesis del Teorema de Andronov- Hopf, el sis-
tema (9.50) posee soluciones periódicas. Ahora, nos centraremos en el problema de la
estabilidad de la solución periódica.

Lema 9.7 (Estabilidad de la órbita periódica) Si a < 0 (a > 0) , entonces la


órbita periódica dada por el Lema 9.6 es orbital asintóticamente estable (inestable).
Demostración. Consideremos nuevamente el sistema (9.50), cuya solución general
viene dada por
       
α2  2
i− 1
2 bd
φt (r0 , θ0 ) = α 1 − 1 − 2 e2aα t , θ0 + ω + c − µ t , (9.52)
r0 a
§ 9.4. Bifurcación de Andronov-Hopf 175
p
la órbita periódica se obtiene con r0 = −µd/a.
Con el fin de determinar la estabilidad de la solución periódica, construiremos la
aplicación de Poincaré asociada a dicha órbita periódica. Sea

Γ = (r, θ) ∈ R × S 1 : r > 0 , θ = θ0 , S 1 = {(x, y) ∈ R2 : x2 + y 2 = 1}
p
la sección transversal a la órbita periódica generada por r = −µd/a.
Como estamos trabajando en coordenadas polares, es claro que el tiempo de retorno
a la sección transversal Γ es t = 2π. Usando esta información la aplicación de Poincaré
P : Γ → Γ viene dada por
   − 12    !
α2 2 bd
(r0 , θ0 ) → φ2π (r0 , θ0 ) = α 1 − 1 − 2 e4πaα , θ0 + 2π ω + c − µ .
r0 a
q
La aplicación de Poincaré tiene un punto fijo en r = − µd a , el cual corresponde a la
solución periódica del sistema (9.50). Se sabe que la estabilidad de la órbita periódica
viene determinada p por la magnitud de la derivada de la aplicación de Poincaré, evaluada
en el punto r = −µd/a, ver pag. 132. Ası́ obtenemos que
p  2
P′ −µd/a = e4πaα .

Por lo tanto
p 
i) Si a > 0, P ′ −µd/a > 1, y la órbita periódica es repulsora.
p 
ii) Si a < 0, P ′ −µd/a < 1, y la solución periódica es atractora.

Como r > 0, la expresión (9.52) con α = r0 determina a la única solución periódica del
sistema (9.52). Por lo tanto, para µ 6= 0, (9.50) posee una única órbita periódica con

amplitud O( µ). Respecto a la estabilidad de la órbita periódica y si ésta existe o no
para µ > 0 ó µ < 0, de (9.52), es fácil ver que se presentan solo cuatro posibilidades.
Nosotros examinaremos cada caso por separado.
176 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones

Caso 1: d > 0 , a > 0 .


En este caso el origen es un punto de equilibrio inestable para µ > 0 y un punto de
equilibrio asintóticamente estable para µ < 0, con una órbita periódica inestable para
µ < 0, ver figura 9.4 .

Figura 9.4: d > 0 , a > 0 .

Caso 2: d > 0, a < 0.


En este caso el origen es un punto de equilibrio asintóticamente estable para µ < 0 y
un punto de equilibrio inestable para µ > 0, con una órbita periódica asintóticamente
estable para µ > 0, ver figura 9.5 .

Figura 9.5: d > 0, a < 0.


§ 9.4. Bifurcación de Andronov-Hopf 177

Caso 3 d < 0, a > 0. En este caso el origen es un punto de equilibrio inestable para
µ < 0 y un punto de equilibrio asintóticamente estable para µ > 0, con una órbita
periódica inestable para µ > 0, ver figura 9.6 .

Figura 9.6: d < 0, a > 0.

Caso 4 d < 0, a < 0. En este caso el origen es un punto de equilibrio asintóticamente


estable para µ > 0 y un punto de equilibrio inestable para µ < 0, con una órbita
periódica asintóticamente estable para µ < 0, ver figura 9.7

Figura 9.7: d < 0, a < 0.


178 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones

Notemos que los casos 2 y 4 corresponden a una bifurcación súper-crı́tica y los casos 1
y 3 a una bifurcación subcrı́tica.
Hasta el momento, hemos hecho un análisis bastante completo de la estructura de
órbitas del sistema truncado alrededor del punto (r, µ) = (0, 0). Ahora vamos a proceder
con la etapa número 2 del análisis de la forma normal (9.49). Más concretamente vamos
a mostrar que la dinámica del sistema truncado se preserva para el sistema (9.49).
Tiene lugar el siguiente

Teorema 9.8 ( Bifurcación de Andronov-Hopf ) . Supongamos que se verifican


las condiciones del Teorema 9.5, con f ∈ C 4 . Entonces el sistema (9.49), tiene la misma
estructura de órbitas que el sistema (9.50), alrededor del punto (r, µ) = (0, 0), para µ
suficientemente pequeño. En otras palabras la estructura de órbitas del sistema (9.49),
esta dada por los casos 1 − 4 descritos anteriormente.
Demostración. En la demostración utilizaremos el Teorema de Poincaré-Bendixson.
Consideremos la forma normal truncada
p (9.50) y supongamos que a < 0, d > 0. En
este caso la órbita periódica r = −µd/a es atractora y existe para µ > 0.
Para µ > 0 suficientemente pequeño, consideremos el anillo
p
A = {(r, θ) : r1 < r < r2 }, donde 0 < r1 < −dµ/a < r2 .

r1 r2
x

Figura 9.8: A = {(r, θ) : r1 < r < r2 } .

La región anular A es positivamente invariante bajo el flujo inducido por (9.50). Esto
se desprende del hecho que el campo vectorial de (9.50) apunta hacia el interior de
A, ver figura 9.8 . También, es fácil verificar que A no contiene puntos de equilibrio.
Luego, por el Teorema de Poincaré-Bendixson, A contiene una órbita periódica orbital-
asintóticamente estable.
Consideremos ahora (9.49). Tomando µ y r suficientemente pequeños, los términos
O(µ2 r, µr 3 , r 5 ) se pueden hacer tan pequeños como se desee. Por lo tanto, tomando
r1 y r2 suficientemente pequeños, A aún es una región positivamente invariante que no
§ 9.5. Cálculo del Valor de “a” 179

contiene puntos de equilibrio. Por lo tanto, nuevamente por el Teorema de Poincaré-


Bendixson, A contiene una órbita periódica órbital-asintóticamente estable.
Los tres casos restantes se estudian de forma análoga.

§ 9.5 Cálculo del Valor de “a”

Para aplicar el Teorema de Hopf a sistemas especı́ficos, nosotros necesitamos conocer el


valor de las constantes “d = α′ (0)” y “a”. En principio, el cálculo del coeficiente “a”
es relativamente directo. Nosotros simplemente debemos tener cuidado en el cálculo
de los coeficientes de la forma normal. Sin embargo, en la práctica los cálculos son
tediosos y largos. En esta sección vamos a dar un método mas sencillo para el cómputo
de “a”. Este cálculo está basado en [19] p.p. 201-203.
En el punto de bifurcación µ = 0 el sistema (9.20) se reduce a
 
′ 0 −ω
u = u + f (u, 0), (9.53)
ω 0

y el coeficiente a(0) ≡ a viene dado por


   2
1 ∂ 3 f1 ∂ 3 f1 ∂ 3 f2 1 ∂ f1 ∂ 2 f1 ∂ 2 f1
a = + + + ( + )−
16 ∂u31 ∂u1 ∂u22 ∂u1 2 ∂u2 16ω ∂u1 ∂u2 ∂u21 ∂u22

∂ 2 f2 ∂f2 ∂ 2 f2 ∂ 2 f1 ∂ 2 f2 ∂ 2 f1 ∂ 2 f2
( + )− + , (9.54)
∂u1 ∂u2 ∂u21 ∂u22 ∂u21 ∂u21 ∂u22 ∂u22

donde todas las derivadas parciales estan evaluadas en el punto (u, µ) = (0, 0). Y
f (u, 0) = (f1 , f2 )T . Esta fórmula está en [35], p.277, (3.1.107).
Como dijimos anteriormente el cálculo de “a” en (9.54) involucra el conocimiento
preciso de la forma normal (9.53). El siguiente razonamiento nos permitirá evitar ese
cálculo “monstruoso”.
Supongamos que tenemos un sistema bidimensional uniparamétrico
   
d X F (X, Y, p)
= , (9.55)
dt Y G(X, Y, p)

donde F y G son de clase C4 . Supongamos que el sistema (9.55) tiene un punto de


equilibrio (X0 , Y0 , p0 ) . A la matriz jacobiana
 ∂F ∂F 
∂X ∂Y
  (9.56)
∂G ∂G
∂X ∂Y

evaluada en el punto (X0 , Y0 ; p0 ) , la denotaremos por J0 . La cual tiene un par de


autovalores puros imaginarios λ = iω, λ = −iω (ω > 0). Luego, el Teorema de la
función implı́cita garantiza que en un entorno del punto (X0 , Y0 ; p0 ) existe una curva
180 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones

suave de puntos de equilibrios (X(p), Y (p); p) con X(p0 ) = X0 y Y (p0 ) = Y0 .


Los autovalores λ(p) y λ(p) de J varı́an continuamente con p ; y, λ(p0 ) = iω ,
λ(p0 ) = −iω .
Si además tenemos
d
Re λ(p)|p=p0 = e 6= 0 , (9.57)
dp
entonces el sistema (9.55) experimenta una bifurcación de Hopf; es decir, el sistema
(9.55) admitirá una única solución periódica en un entorno suficientemente pequeño
del punto (X0 , Y0 ; p0 ) para uno y solamente uno de los siguientes tres casos p > p0 ,
p < p0 ó p = p0 .
Si e > 0 , es decir, Re(λ(p)) > 0 cuando p > p0 ; y la órbita periódica aparece
para p > p0 , es decir, ella aparece cuando el punto de equilibrio se torna inestable,
entonces la solución periódica es orbital-asintóticamente estable; y a la bifurcación se
le llama supercrı́tica. Si e > 0 ; y si la solución periódica aparece para p < p0 , es
decir ella aparece cuando el punto de equilibrio gana estabilidad, entonces la solución
periódica es inestable; y a la bifurcación se le llama subcrı́tica. Si e < 0 , entonces la
bifurcación supercrı́tica ( ó subcrı́tica) determina la existencia de la solución periódica
para p < p0 (o p > p0 ). Ası́, en la bifurcación supercrı́tica la solución periódica
que emerge es orbital-asintóticamente estable, y en la bifurcación subcrı́tica la solución
periódica es inestable.
Cuando p = p0 , la ecuación (9.55) se puede escribir como
     
d u u M (u, v)
= J0 + , (9.58)
dt v v N (u, v)

donde    
u X − X0
= . (9.59)
v Y − Y0
La suposición que J0 tiene un par de autovalores conjugados imaginarios nos da
 
∂F/∂X ∂F/∂Y  
  D −B
J0 = = , (9.60)
C −D
∂G/∂X ∂G/∂Y (X ,Y ;p ) 0 0 0

donde
BC − D 2 = ω 2 , y ω>0. (9.61)
Si el autovector por la derecha de la matriz J0 correspondiente al autovalor iω , se
escribe como h + ik, donde h y k son vectores reales, y si la matriz P viene dada por

P = (k, h) , (9.62)

entonces podemos probar que


 
0 −ω
P −1 J0 P = . (9.63)
ω 0
§ 9.5. Cálculo del Valor de “a” 181

Como el autovector de la matriz J0 correspondiente al autovalor iω es

(D/C + iω/C, 1)T ,

se tiene que la matriz P se puede expresar como sigue:


 
ω/C D/C
P =  . (9.64)
0 1

Ası́ ,  
C/ω −D/ω
P −1 =  , (9.65)
0 1
y un cálculo sencillo nos conduce a (9.63).
Por medio de la transformación
     
u x x ω/C + y D/C
=P = , (9.66)
v y y

se obtiene (9.53), donde


     
f1 M (u, v) M (u, v)C/ω − N (u, v)D/ω
= P −1 = . (9.67)
f2 N (u, v) N (u, v)

Por lo tanto, podemos usar la regla de la cadena para calcular todas las derivadas en
(9.54). Notemos que las derivadas de segundo y tercer orden de F y G en el punto
(X, Y ; p) = (X0 , Y0 ; p0 ) son las mismas de M y N en (u, v) = (0, 0). La expansión
da una docena de términos, pero usando (9.61) y reordenando los términos, obtenemos
  3   3 
1 ∂ F ∂3G ∂ F ∂3G
A = 16a = B + + 2D + +
ω2C ∂X 3 ∂X 2 ∂Y ∂X 2 ∂Y ∂X∂Y 2
 3 
∂ F ∂3G
C + ω2 +
∂X∂Y 2 ∂Y 3
  
∂2F ∂2F ∂2F ∂2F ∂2F
D +C B + 2D +C −
∂X 2 ∂X∂Y ∂X 2 ∂X∂Y ∂Y 2
  
∂2G ∂2G ∂2G ∂2G ∂2G
D + B B + 2D + C −
∂Y 2 ∂X∂Y ∂X 2 ∂X∂Y ∂Y 2
2 2
 2 
2∂ F ∂ G ∂ F ∂2G ∂2F ∂2G
B − DB + +
∂X 2 ∂X 2 ∂X∂Y ∂X 2 ∂X 2 ∂X∂Y
2 2
 2 
2∂ F ∂ G ∂ F ∂2G ∂2F ∂2G
C + DC + , (9.68)
∂Y 2 ∂Y 2 ∂X∂Y ∂Y 2 ∂Y 2 ∂X∂Y
donde
∂F ∂G ∂F ∂G
D= =− , B=− , C= , ω 2 = BC − D2 , (9.69)
∂X ∂Y ∂Y ∂X
182 Capı́tulo 9. Introducción a la Teorı́a de Bifurcaciones

y todas las derivadas son calculadas en (X0 , Y0 ; p0 ) . Cuando D = 0 y B = C = ω,


tenemos X = x, Y = y, F = f, y G = g; y por eso, (9.68) se reduce a (9.54).
Finalmente, teniendo en cuenta que a = A/16 , el signo de A , determina el signo
de “a” . Con lo cual concluimos que la estabilidad de la órbita periódica que surge de
la bifurcación de Hopf la determina el signo de la expresión de A , definida por (9.68).
Capı́tulo 10

Apéndices

§ 10.1 Fórmulas de Viète

Consideremos el polinomio
Pn (z) = a0 z n + a1 z n−1 + a2 z n−2 + · · · + an−1 z + an .
Sean λi , i = 1, · · · , n sus raı́ces. Entonces se verifican las siguientes igualdades
a1
Σni=1 λi = −
a0
a2
Σni6=j=1 λi λj = +
a0
n a2
Σi6=j=16=k λi λj λk = −
a0
······ ······
an
λ1 λ2 · · · λn−1 λn = (−1)n ,
a0
las cuales se obtienen de observar que
h
Pn (z) = a0 z n − Σni=1 λi z n−1 + Σni6=j=1 λi λj z n−2 − Σni6=j=16=k λi λj λk z n−3 + · · · +
i
(−1)n λ1 λ2 · · · λn−1 λn .

Esto último se prueba por inducción.

§ 10.2 Soluciones del sistema Ax = b.

Consideremos el sistema de ecuaciones algebraicas


Ax = b, (10.1)
donde A es una matriz n × n y x, b ∈ Rn .

Proposición 10.1 El sistema (10.1) tiene al menos una solución si y solo si b ⊥ y, donde
AT y = 0.
Nuestra afirmación es consecuencia directa del siguiente Lema, ya que de él se deduce
que R(A) = [N(AT )]⊥ .

Lema 10.2 Sea A una matriz n × n. Entonces [R(A)]⊥ = N(AT ), donde R(A) y N (A)
denotan el rango y el núcleo de una matriz respectivamente.
Demostración. Sea y ∈ [R(A)]⊥ . Entonces para todo x ∈ Rn se tiene que hAx, yi = 0,
lo cual implica que hx, AT yi = 0. Ası́ AT y = 0, lo que muestra que y ∈ N(AT ).
Supongamos ahora que y ∈ N(AT ). Entonces hx, AT yi = 0. De donde obtenemos que
hAx, yi = 0. Lo cual implica que y ∈ [R(A)]⊥ .

183
184 Capı́tulo 10. Apéndices

§ 10.3 Lema de Barbalat

Lema 10.3 (Barbalat) Sea f : [0, ∞) → R una función diferenciable tal que
1. limt→∞ f (t) = L.
2. f ′ es una función uniformemente continua sobre [0, ∞). Entonces
lim f ′ (t) = 0.
t→∞
Demostración. Como f ′ es una función uniformemente continua sobre [0, ∞), dado
ε > 0, existe δ = δ(ε) > 0, tal que
|f ′ (t) − f ′ (s)| < ε/2, si |t − s| < δ.
Sea {tn }n∈N una sucesión construida de modo que tn ∈ (nδ, (n + 1)δ) y
f ((n + 1)δ) − f (nδ) = δf ′ (tn ).
Teniendo en cuenta que limt→∞ f (t) = L, se sigue que limn→∞ f ′ (tn ) = 0. Por lo tanto,
existe un n0 tal que
|f ′ (tn )| < ε/2, ∀n ≥ n0 .
Sean t, tN > n0 δ y |t − tN | < δ. Luego,
|f ′ (t)| ≤ |f ′ (t) − f ′ (tN )| + |f ′ (tN )| < ε.
Lo cual prueba que limt→∞ f ′ (t) = 0.

Corolario 10.4 Sea g : [0, ∞) → [0, ∞) una función uniformemente continua y g ∈ L1 .


Entonces limt→∞ g(t) = 0.
R∞
Este corolario sigue aplicando el Lema de Barbalat a la función auxiliar f (t) = 0 g(s)ds.
 
Lema 10.5 Sean a, b, c constantes positivas y ϕ, ψ ∈ C 1 [a, ∞), R tales que
ϕ′ (t) ≤ −bψ(t) + cω(t). (10.2)
 
Si ω ∈ L [a, ∞), R , ψ(t) ≥ 0, |ψ ′ (t)| ≤ K y ϕ es acotada inferiormente, entonces
1

limt→∞ ψ(t) = 0.
Demostración. Integrando (10.2), se tiene
Z t Z ∞
0≤b ψ(s)ds ≤ c ω(s)ds + ϕ(a) − ϕ(t).
a a
1
R ∞ se sigue que ψ ∈ L .
Teniendo en cuentaR que ϕ es una función acotada inferiormente,
t
Definamos f (t) = a ψ(s)ds. Es claro que limt→∞ f (t) = a ψ(s)ds < ∞. Además,
como f ′ (t) = ψ(t) y ψ ′ es acotada, se sigue que ψ es uniformemente continua. El
Lema de Barbalat implica que f ′ (t) → 0 cuando t → ∞. Lo cual a su vez implica que
ψ(t) → 0 cuando t → ∞.
§ 10.4. Teorema de Hurwitz 185

§ 10.4 Teorema de Hurwitz

Teorema 10.6 (Teorema de Rouché,[2], p. 152 ) Sean f, g : Ω → C funciones


analı́ticas, donde Ω es un dominio acotado con frontera suave. Si

|f (z) − g(z)| < |f (z)|, ∀z ∈ ∂Ω,

entonces f y g tienen la misma cantidad de ceros en Ω.

Teorema 10.7 (Teorema de Hurwitz) Sea (fn )n∈N una sucesión de funciones analı́ticas
definidas sobre Ω, la cual converge uniformemente sobre compactos contenidos en Ω a una
función f (z) no idénticamente igual a cero.
Entonces dada una curva cerrada de Jordan γ contenida en Ω que no contenga ceros de
f , existe un n0 > 0 tal que fn y f tienen la misma cantidad de ceros en la región acotada
por γ, para todo n ≥ n0 .
Demostración. Pongamos µ = min{|f (z)| : z ∈ γ}. Como γ no contiene ceros y γ es
compacto, se sigue que µ > 0.
Teniendo en cuenta la convergencia uniforme sobre compactos de la sucesión fn ,
debe existir un n0 tal que

|fn (z) − f (z)| < µ ≤ |f (z)|, ∀n ≥ n0 , y ∀z ∈ γ.

Lo cual en virtud del Teorema de Rouché, prueba nuestra afirmación.


186 Capı́tulo 10. Apéndices

§ 10.5 Unicidad de Orbitas Periódicas.


§ 10.5. Unicidad de Orbitas Periódicas. 187
188 Capı́tulo 10. Apéndices
§ 10.5. Unicidad de Orbitas Periódicas. 189
190 Capı́tulo 10. Apéndices
§ 10.5. Unicidad de Orbitas Periódicas. 191
192 Capı́tulo 10. Apéndices
§ 10.5. Unicidad de Orbitas Periódicas. 193
194 Capı́tulo 10. Apéndices
Bibliografı́a

[1] Aguilera, J., Lizana, M. Estudio cualitativo de ecuaciones diferenciales ordinarias.


Imprenta Universitaria, UCV, 1990.

[2] Ahlfors, Lars V., Complex Analysis: An Introduction to teh theory of analytic
functions of one complex variable. McGraw-Hill, Second Edition. 1966.

[3] Alekseev, V.M. An estimate for the perturbations of the solutions of ordinary
differential equations (Russian). Vestnik Moscow Univ. Ser. I Mat. Meh. No 2,
p.p. 28-36, 1961.

[4] Courant, Robbins What is the Mathematics. Oxford Univ. Press. 1941.

[5] Coppel W.A. Dichotomies in Stability Theory. Lect. Notes in Math. V.629,
Springer Verlag, 1978.

[6] Coddington, E.A, Levinson, N. Theory of Ordinary Differential Equations. Mc


Graw-Hill, New York, 1955.

[7] Cheng, Kuo-Shung. Uniqueness of a limit cycle for a predator-prey system. SIAM
J. Math. Anal. Vol. 12, No 4, July 1981.

[8] Devaney, R. L. Chaotic dynamical systems. Addison-Wesley, 1989.

[9] Driver, R.D. Ordinary and Delay Differential Equation. App. Math. Sc. vol.20,
Springer-Verlag, 1977.

[10] Daleckii, Ju, Krein, M.G. Stability of Solutions of Differential Equations in Banach
Spaces. Trans. A.M.S., vol. 43, 1974.

[11] Dieudonné, J. Abrégé d’histoire des Mathématiques 1770-1900, Vol. II, Herman,
1978.

[12] De Guzmán, M. Ecuaciones Diferenciales Ordinarias. Teorı́a de Estabilidad y Con-


trol. Ed. Alhambra , Madrid, 1975.

[13] Gantmacher, F. R., Applications of the Theory of Matrices. Interscience Publishers


Inc. New York. Interscience Publishers Inc. London. 1959.

195
196 Bibliografı́a

[14] Hönig, Ch. S. Aplicações de Topologia à análise. IMPA, Projeto Euclide, Rio-
Janeiro, 1976.

[15] Hale, J.K. Ordinary Differential Equations. Krieger Publishing Com-


pany,Malabar,Florida, 1980.

[16] Hirsch, M. , Smale, S., R. Devaney. Differential Equations, Dynamical Systems


and an Introduction to chaos. Second edition. Elsevier Academic Press 2004.

[17] Lancaster, P. Theory of Matrices. Acad. Press, 1969.

[18] Lakshmikantham, V. , Leela, S. Differential and Integral Inequalities. vol. I y II.


Acad. Press, 1969.

[19] Liu W., Levin S.A., Iwaza Y. Influence of nonlinear incidence rates upon the
behavior of SIRS epidemiological models. J. Math. Biol.(1986) 23, 187-204.

[20] Lizana, Cristina. Cotas Inferiores para la dimensión de Hausdorff del atractor
geométrico de Lorenz. Tesis de Maestrı́a, bajo la dirección del Prof. Leonardo
Mora, Departamento de Matemáticas, Facultad de Ciencias, ULA. Enero de 2006.

[21] Murray J.D. Mathematical Biology. Second, Corrected Edition. Biomathematics


Texts V. 19. Springer Verlarg 1993.

[22] Milnor, J. Analytic Proofs of the Hairy ball theorem and the Brouwer fixed point
theorem. Am. Math. Monthly, vol. 85, p.p.521-524, 1978.

[23] Piccini,L.C., Stampacchia, G., Vidossich, G. Ordinary Differential Equations in


Rn , problems and methods. App. Math. Sc. vol. 39, Springer Verlag, 1984.

[24] Palis J., Del Melo, W. Introdução aos Sistemas Dinâmicos. Projeto Euclides, Rio
Janeiro, 1977.

[25] Perko, L. Differential equations and dynamical systems. Springer Verlag, Texts in
App. Math. 7, 1991.

[26] Robinson, C. Dynamical systems. Stability, symbolic dynamics, and chaos. CRC
Press, 1999.

[27] Robinson J. Infinite-Dimensional Dynamical Systems. Cambridge Texts in Applied


Mathematics. Cambridge University Press 2001.

[28] Rouche N, Habets P, Laloy M. Stability Theory by Liapunov’s Direct Method.


App. Math. Sc. vol.22, Springer-Verlag, 1977.

[29] Rogers, C. A Less Stronge Version of Minor’s proof of Brouwer’s Fixed Point
Theorem. Am. Math. Monthly, vol. 87, p.p.525-5227, 1980.

[30] Smart, D. Fixed Point Theorems. Cambridge Univ. Press, 1974.


Bibliografı́a 197

[31] Siljak, D.D. Large Scale Dynamic Systems. Stability and Structure. North- Hol-
land, 1978.

[32] Sotomayor, J. Lições de equações diferenciais ordinárias. Projeto Euclides, Rio


Janeiro, 1979.

[33] Tineo, A., Topologı́a de Espacios Métricos. Kari’ña Editores. ULA, Mérida-
Venezuela, 1995.

[34] Tineo, A., Rivero, J., Ecuaciones Diferenciales Ordinarias. ULA

[35] Wiggins, S. Introduction to applied nonlinear dynamical systems and chaos. Texts
in App. Math. 2, Springer Verlag, 1990.

[36] Yoshizawa, T. Stability Theory and the Existence of Periodic Solutions and Almost
Periodic Solutions. App. Math. Sc. vol.14, Springer- Verlag, 1975.
Indice Alfabético

Aplicación de Poincaré, 60, 134 Desigualdad de Gronwall, 11


Derivada, 136 Desigualdades Diferenciales Escalares, 35
Atractor Diagrama de Fase, 65
de Lorenz, 82 Dicotomı́a Exponencial, 124
Global, 81 Disipatividad Puntual, 81

Bifurcación Ecuación
Cuchillo-Tenedor, 163 de Van der Pol, 39
de Andronov-Hopf, 165 del péndulo simple, 39
Silla-Nodo, 160 Logı́stica, 68
Transcrı́tica, 161 Estabilidad
Exponencial asintóticamente estable,
Centro, 76 104
Condición Orbital, 127
de Caratheodory, 36 Uniforme asintóticamente estable, 104
Condición Exponentes Caracterı́sticos, 128
de Lipschitz, 8 Exponentes Caracterı́sticos, 51
Conjunto
α lı́mite, 65 Fórmula
ω lı́mite, 65 de variación de parámetros, 46
Invariante, 65 de Alekseev, 33
Minimal, 67 Fórmulas de Viète, 181
Negativamente Invariante, 65 Foco, 76
Positivamente Invariante, 65 Formas Normales, 166
Contracción, 7 Función
Contracción Uniforme, 8 Definida negativa, 141
Criterio Definida positiva, 141
de Dulac, 71 No negativa, 141
de Bendixson, 71 No positiva, 141
de Routh, 101
de Routh-Hurwitz, 99 Invariancia, 60

Definición Lema
Estabilidad, 89 de Arzela-Ascoli, 7
Estabilidad Asintótica, 89 de Barbalat, 182
Dependencia Continua de las Soluciones
de los Datos Iniciales, 24 Matriz

198
Indice Alfabético 199

de Green, 53 de Caratheodory, 37
de Monodromı́a, 51 de Hurwitz, 183
de transición (Operador de Evolución), de Rouché, 182
44 Dependencia Continua de los Datos
Fundamental, 44 Iniciales, 26
Fundamental Principal, 44 Dependencia Continua Respecto a
Modelo Parámetros, 30
de Lorenz, 81 Eruguin, 48
Depredador-Presa, 83 Estabilidad Asintótica Uniforme vı́a
Lotka-Volterra, 80 Funciones de Liapunov, 147
Multiplicadores Caracterı́sticos, 128 Estabilidad Asintótica para Sistema
Multiplicadores Caracterı́sticos, 51 Lineales a Coeficientes constantes
vı́a funciones de Liapunov, 153
Nodo, 74 Estabilidad Asintótica vı́a Funciones
de Liapunov, 145
Orbita, 62
Estabilidad Orbital Asintótica, 128
Polinomio de Hurwitz, 96 Estabilidad Uniforme vı́a Funciones
Principio de Invariancia de La Salle, 150 de Liapunov, 146
Punto Estabilidad vı́a Funciones de Lia-
de Equilibrio, 62 punov, 144
Fijo, 7 Existencia de la Aplicación de Poincaré,
Hiperbólico, 113 134
Regular, 70 Existencia de puntos de equilibrio,
Tipo Silla, 73 69
Existencia y Unicidad de Soluciones
Sección transversal, 133 no Prolongables, 21
Sistema Existencia y Unicidad Global, 22
Conjugado, 47 Existencia y Unicidad Local, 17
Conservativo, 77 Floquet, 49
Hamiltoniano, 77 Hartman-Grobman, 118
Hipérbolico, 113 Inestabilidad vı́a Funciones de Lia-
Lineal Homogéneo, 43 punov, 146
Lineal homogéneo a coeficientes periódicos, Massera, 56
49 Peano-Existencia, 18
Lineal no-homogéneo, 46 Perron, 107
Lineal no-homogéneo a coeficientes Poincaré-Bendixson, 70
periódicos, 52 Primera Aproximación, 107
Reducible, 47 Punto fijo de Banach, 7
Superficie cerrada geométricamente, 142 Punto fijo de Brouwer, 8
Punto fijo de Schauder, 8
Teorema Unicidad de órbitas, 62
de Liouville, 44
Clasificación de órbitas, 64 Variedad
de Andronov-Hopf, 166 Estable, 113
200 Indice Alfabético

Estable local, 117


Inestable, 113
Inestable local, 117

Wronskiano, 44

También podría gustarte