0% encontró este documento útil (0 votos)
39 vistas139 páginas

Universidad Autonoma Metropolitana Unida

Documento que describe los materiales a estudiar para tener una Carrera satisfactoria para que llegue a su término.

Cargado por

vargasocrate
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
39 vistas139 páginas

Universidad Autonoma Metropolitana Unida

Documento que describe los materiales a estudiar para tener una Carrera satisfactoria para que llegue a su término.

Cargado por

vargasocrate
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

UNIVERSIDAD AUTONOMA METROPOLITANA

UNIDAD IZTAPALAPA

TEORÍA DE ECUACIONES DIFERENCIALES ORDINARIAS

Antonio Garcı́a

IZTAPALAPA, DISTRITO FEDERAL

Versión February 24, 2007


Contenido

Contenido i

Lista de figuras v

Capitulo 1. Primeros ejemplos y definiciones 1

1.1. Introducción 1

1.2. Definición de una ecuación diferencial 3

1.3. Ecuaciones diferenciales con condiciones iniciales 11

1.4. Interpretación geométrica de las ecuaciones diferenciales de primer orden 12

1.5. Estudio geométrico de las ecuaciones diferenciales de orden dos 15

1.6. Problemas 21

1.7. (*) Cálculo en diferencias 28

Capitulo 2. Espacios métricos y normados 31

2.1. Espacios métricos 31

2.2. Teorema de punto fijo de Banach 34

2.3. Subconjuntos compactos y puntos de acumulación 36

2.4. El conjunto de las funciones continuas C (D, Rn ) 38

2.5. Espacios normados y de Banach 41

2.6. El espacio normado de las matrices 41

i
2.7. Problemas 42

2.8. *Aplicaciones del teorema de punto fijo de Banach 45

Capitulo 3. Los teoremas fundamentales de la teorı́a de ecuaciones diferenciales 51

3.1. Teorema de existencia de soluciones de ecuaciones diferenciales 51

3.2. Teorema de existencia y unicidad de soluciones de ecuaciones diferenciales 55

3.3. Continuación de soluciones 59

3.4. Dependencia continua de las soluciones con respecto a condiciones iniciales y

parámetros 63

3.5. Problemas 66

3.6. *Ecuaciones en diferencias 71

Capitulo 4. Sistemas de ecuaciones diferenciales lineales 73

4.1. Introducción 73

4.2. La forma de Jordan de una matriz 82

4.3. La exponencial de una matriz 89

4.4. Sistemas de ecuaciones diferenciales con coeficientes constantes 95

4.5. Más sobre la forma de Jordan y la matriz exponencial 100

4.6. Retratos fase en el plano 102

4.7. Retratos fase en el espacio 107

4.8. La foliación de Hopf 110

4.9. Ecuación de la primera variación 115

4.10. Álgebra lineal 119

4.11. Problemas 120

ii
4.12. *Ecuaciones lineales en diferencias 123

Bibliografı́a 127

Índice 129

iii
Lista de figuras

1 Gráfica de las soluciones del ejemplo 1.7. 6

2 Gráfica de las soluciones del ejemplo 1.8. 7

3 Gráfica de las soluciones del ejemplo 1.9. 7

4 Gráfica de las soluciones del ejemplo 1.10. 8

5 Gráfica de las soluciones del ejemplo 1.11. 9

6 En el lado izquierdo se encuentran las isoclinas y el campo de pendientes de x′ = − xt ,

en el lado derecho se muestran algunas soluciones y las isoclinas. 14

7 Campo de velocidades y lineas de flujo del ejemplo 1.20. 16

8 Campo vectorial f (x, y) = (−y, x) y soluciones de la correspondiente ecuación diferencial

en el ejemplo 1.21. 18

9 Gráfica del potencial V (x) de la ecuación de Duffing. 20

10 Soluciones de la ecuación de Duffing y curvas de nivel de H(x, y). 21

1 Bola con centro en x0 y radio ǫ contenida en U . 32

2 La sucesión de conjuntos Ak para un rectángulo. 38

1 Construcción de la función φǫ (t). 52

v
1 Conjunto de ı́ndices de la matriz C. 91

2 Gráficas de las soluciones de la subsección 4.6.1. 104

3 Gráficas de las soluciones de la subsección 4.6.2. 105

4 Gráficas de las soluciones de la subsección 4.6.3. 107

5 Gráficas de las soluciones de la sección 4.7. 109

6 Construcción de un toro. 111

7 Construcción de la esfera S3 . 112

8 Subconjuntos de la esfera S3 . 113

9 Flujo de la ecuación (8). 114

vi
CAPITULO 1

Primeros ejemplos y definiciones

1.1. Introducción

Leibnitz conocı́a varias soluciones del problema inverso a las tangentes que consistı́a en de-

terminar las curvas cuyas tangentes cumplı́an alguna condición dada, en su solución se utilizaban

sobre todo métodos geométricos. Él prefirió utilizar las técnicas del recientemente desarrollado

1 2
R
cálculo y, finalmente el once de Noviembre de 1675 escribió y dy = 2y , resolviendo ası́ la

primera ecuación diferencial.

En 1691, el problema inverso a las tangentes condujo a Leibnitz a descubrir simultáneamente


dy
el método de separación de variables para resolver ecuaciones diferenciales de la forma y dx =

X(x)Y (y) y el teorema de cambio de variables en las integrales. A Leibnitz se deben también la
dy
R
regla para derivar productos, y los sı́mbolos para la integral y dx para la derivada.

Simultáneamente en Inglaterrra, Newton desarrollaba también el cálculo, y resolvı́a ecua-

ciones diferenciales y las utilizaba ampliamente en la fı́sica. Él desarrolló la idea de estudiar el

movimiento de las partı́culas que tienen una descripción cinemática o dinámica mediante una

ecuación diferencial y la usó en la formulación de las tres leyes de la mecánica. Con estas

herramientas Newton estudió la mécanica celeste, en donde pudo explicar el movimiento de los

planetas descrito por Kepler a partir de principios muy simples. Su siguiente objetivo fue explicar

el movimiento de la luna con estos mismos principios; después de grandes esfuerzos y dolores de

cabeza Newton reconoció su fracaso en la solución de este problema. Ahora se conoce a este

1
2

movimiento como el problema de tres cuerpos y sigue siendo fuente de inspiración en el estudio

de las ecuaciones diferenciales.

En 1696 John Bernoulli desafió a los mejores matemáticos de su tiempo a encontrar la curva

sobre la cual se deslice una partı́cula que esté sólo sujeta a la acción de la gravedad y que pase

por dos puntos dados en el menor tiempo posible. Una de las soluciones fue dada por su propio

hermano James Bernoulli, quien planteó y resolvió la ecuación diferencial

p √
dy b2 y − a3 = dx a3 .

En este trabajo se incluyó la observación de que las integrales de ambos lados deben ser iguales

salvo una constante y aparece registrada por primera vez la palabra integral.

En esos años no habı́a ninguna separación entre el cálculo y las ecuaciones diferenciales,

ésta ocurrió en algún momento del siglo XIX más de doscientos años después y fue sobre todo

por cuestiones didácticas, aunque desde un punto de vista más estructural formen una unidad

indivisible y que tiene entre otras fuentes a la fı́sica y a la geometrı́a.

Durante los años siguientes los matemáticos y filósofos más importantes continuaron estu-

diando muchos tipos de ecuaciones diferenciales y los problemas que conducı́an a éstas. Laplace,

Euler y Lagrange, entre otros, hicieron numerosas aportaciones en esta dirección. Sin embargo, a

veces hacı́an afirmaciones imprecisas y sin justificar, por ejemplo que las ecuaciones diferenciales

tenı́an soluciones únicas, o que al variar un poco las condiciones iniciales las soluciones también

variarı́an poco.

En el siglo XIX se hicieron evidentes las dificultades, incluso contradicciones que surgı́an

en el seno del cálculo y de las ecuaciones diferenciales trabajando de esta manera. Las ideas

matemáticas sufrieron crı́ticas muy profundas que condujeron a un mayor rigor en el razonamiento
3

y al surgimiento, entre otras ramas de las matemáticas, del análisis matemático. La teorı́a de

ecuaciones diferenciales que presentamos en este libro forma parte de este cuerpo.

1.2. Definición de una ecuación diferencial

En cursos elementales de ecuaciones diferenciales se dice que una ecuación diferencial es una

ecuación en que interviene una función incógnita y sus derivadas. A continuación precisaremos

este concepto.

Definición 1.1. Sea f : D ⊂ Rn+1 7→ Rn una función continua con dominio D, un conjunto

abierto no vacı́o, entonces una ecuación diferencial ordinaria (EDO) tiene la forma

(1.2.1) x′ = f (t, x),

donde x = (x1 , . . . , xn ) ∈ Rn y (t, x) = (t, x1 , . . . , xn ) ∈ D ⊂ Rn+1 . También llamaremos EDO

a una ecuación que se puede transformar en una que tenga esta forma. El número n se llama

el orden de la ecuación. La función f (t, x) se llama el campo vectorial asociado a la EDO. Una

solución de esta ecuación diferencial es una curva Φ : I ⊂ R 7→ Rn , donde I es un intervalo

abierto y en donde para cada t ∈ I se cumple Φ′ (t) = f (t, Φ(t)).

La ecuación diferencial (1.2.1) describe el movimiento de un fluido formado por un gran

número de partı́culas en donde la velocidad instantánea de la partı́cula que en el tiempo t está

en la posición x es f (t, x). Las soluciones son las trayectorias de las diferentes partı́culas. Es por

esto que a veces el campo vectorial también es llamado campo de velocidades y las soluciones

lineas de flujo. Un punto sutil en la definición 1.1 es que en el lado derecho de la ecuación (1.2.1)

el sı́mbolo x representa a un punto en Rn ; y el campo vectorial f (t, x) es una función con dominio

en Rn+1 e imagen en Rn . Mientras que en el lado izquierdo el sı́mbolo x representa a un punto


4

de una curva, la cual es derivada con respecto a la variable independiente t y luego es evaluada.

Puesto que las soluciones son curvas en el espacio Rn , también son llamadas curvas solución.

Originalmente el objetivo en el estudio de las ecuaciones diferenciales fue dar explı́citamente

todas las soluciones de ecuaciones de la forma (1.2.1); o bien de forma implı́cita dentro de una

ecuación algebraica eliminando todas las derivadas e integrales. Muy pronto se comprendió que

este objetivo era muy difı́cil, ahora se sabe que es imposible. Por ejemplo, en el problema de tres

cuerpos, ver 1.14, las soluciones existen pero no es posible expresarlas explı́cita o implı́citamente.

A continuación daremos algunos ejemplos que ilustran la definición 1.1.

dx dy
Ejemplo 1.2. La ecuación dy dx = 1 no es una ecuación diferencial ordinaria sino una

identidad válida para todas las funciones diferenciales e invertibles. Esta ecuación es simplemente

el teorema de la función inversa. Claramente no tiene la forma (1.2.1).

Ejemplo 1.3. Sea ǫ > 0. La ecuación x′ (t) = x(t) + x(t − ǫ) no tiene la forma (1.2.1) pues

la derivada de x en el tiempo t depende no sólo de lo que ocurre en t sino también de lo que

pasó en el tiempo t − ǫ. Este tipo de ecuaciones se llaman ecuaciones con retardo. Similar es la

ecuación
Z t
x′ (t) = x(t) + x(s) ds, t > 0.
0

Ahora la derivada de la función x(t) en el punto t depende de los valores de x en todo el intervalo

[0, t], este tipo de ecuaciones se llaman ecuaciones de evolución.

Ejemplo 1.4. La ecuación xx′ = cos(x) tampoco tiene la forma (1.2.1) pues la derivada

de la función x(t) no está aislada. Al despejarla obtenemos la ecuación x′ = cos(x)/x, que

no es continua en x = 0. Este tipo de ecuaciones se llaman ecuaciones diferenciales con puntos


5

singulares. Sin embargo, la ecuación xx′ = sen (x) si es una EDO pues se expresa como x′ = f (x),

donde la función f (x) = sen (x)/x si x 6= 0 y f (x) = 0 es continua en todo el intervalo (−∞, ∞).

Ejemplo 1.5. La ecuación (x′ )2 + 1 = 0 no tiene la forma (1.2.1). Al despejar la derivada



obtenemos x′ = ± −1, que es una ecuación diferencial definida sobre los números complejos.

Ejemplo 1.6. Sea f (t) = 1 si t > 0 y f (t) = −1 si t ≤ 0. Entonces la ecuación x′ = f (t)

tampoco tiene la forma (1.2.1) pues f (t) no es continua en t = 0; integrando se obtiene una

ecuación integral, ver los problemas 1.23 y 3.35 y la proposición 3.1.

Algunas propiedades de las ecuaciones de los ejemplos anteriores son similares a las que

tiene la ecuación (1.2.1), pero también presentan diferencias importantes y es necesario tener

precaución cuando se hacen analogı́as entre las EDO’s y ellas. En este libro estudiaremos prin-

cipalmente aquellas ecuaciones diferenciales que se pueden escribir en la forma (1.2.1). En las

secciones marcadas con (*) se trabajan las ecuaciones en diferencias, que son el análogo discreto

de las EDO’s y con las cuales comparten muchas propiedades. A continuación veremos algunas

ecuaciones diferenciales ordinarias con orden n = 1. El dominio D será el subconjunto de R2 en

donde la función f : D 7→ R que define a la ecuación diferencial es continua.

p
Ejemplo 1.7. Sea f (t, x) = |x| para toda x ∈ R. Como esta función es continua en todo

el plano, entonces la ecuación x′ = f (x, t) tiene la forma (1.2.1). Las siguientes funciones son

todas las soluciones 



− 41 (t − α)2 , si t ≤ α;







Φαβ (t) = 0, si α ≤ t ≤ β;






 1 (t − β)2 ,


4 if β ≤ t,
6

x( t )

Fab

a t
b

Figura 1. Gráfica de las soluciones del ejemplo 1.7.

donde α ≤ β. Es posible que α = −∞ o bien β = ∞. Observamos que existe un conjunto infinito

de soluciones que satisfacen Φ(0) = 0.

Ejemplo 1.8. Sea x′ = x − t. Para cada c ∈ R existe la solución dada por φc (t) = 1 + t + cet ,

t ∈ R. Estas son las únicas soluciones, la figura 2 muestra su gráfica. Las soluciones se separan

entre si al aumentar el tiempo, por lo que un pequeño cambio en las condiciones iniciales produce

un error que va aumentando con el transcurso del tiempo.

2
Ejemplo 1.9. Sea x′ = 2xt. Las soluciones son φ(t) = cet donde t ∈ R. Ver la figura 3.

Ejemplo 1.10. Sea x′ = −x/t. Las únicas soluciones son las ramas de las hipérbolas φ(t) =

c/t para t ∈ I, donde I = (−∞, 0) o bien I = (0, ∞). Ver la figura 4.


7

x( t )
6

t
-4 -2 2 4

-2

-4

Figura 2. Gráfica de las soluciones del ejemplo 1.8.

x( t )

Figura 3. Gráfica de las soluciones del ejemplo 1.9.


8

x( t )

-4 -2 2 4 t

-2

-4

Figura 4. Gráfica de las soluciones del ejemplo 1.10.

Ejemplo 1.11. Las únicas soluciones de la ecuación diferencial x′ = x2 son las ramas de las

1
hipérbolas φ(t) = c−t para todo t ∈ I, con I = (−∞, c) o bien I = (c, ∞). Ver la Figura 5.

Observemos que las soluciones de los ejemplos 1.10 y 1.11 no están definidas sobre todos los

números reales; en el último ejemplo el intervalo de definición de las soluciones no es constante.

A continuación daremos ejemplos de EDO’s con orden mayor que uno.

Ejemplo 1.12. Una ecuación diferencial lineal de segundo orden tiene la forma

(1.2.2) x′′ + f (t)x′ + g(t)x = h(t),

donde las funciones f (t), g(t) y h(t) son continuas en algún intervalo abierto I. Introduciendo la

variable y = x′ la ecuación diferencial anterior se transforma en

(1.2.3) x′ = y, y ′ = h(t) − f (t)y − g(t)x,


9

x( t )

t
-4 -2 2 4

-2

-4

Figura 5. Gráfica de las soluciones del ejemplo 1.11.

que son las componentes de una EDO de orden dos.

En este ejemplo observamos dos cosas. La primera consiste en que frecuentemente las ecua-

ciones diferenciales se escriben en términos de sus componentes

(1.2.4) x′k = fk (t, x1 , . . . , xn ), para k = 1, . . . , n.

Las ecuaciones diferenciales presentadas en esta forma también son llamadas sistemas de ecua-

ciones diferenciales. También se observa que al introducir las variables x1 = y, x2 = y ′ ,. . . ,

xk = y (k−1) , las ecuaciones diferenciales de la forma

y (k) = f (t, y, y ′ , . . . , y (k−1) )


10

se transforman en sistemas de la forma

x′1 = x2 , x′2 = x3 , . . . , x′n = f (t, x1 , . . . , xn ).

Ejemplo 1.13. La segunda ley de Newton. Suponiendo que la posición y la velocidad de una

partı́cula de masa m en el espacio (o bien en una recta o un plano) están dadas por x(t) y x′ (t),

donde t es el tiempo; y que además la partı́cula está sujeta a una fuerza externa que depende del

tiempo, la posición y la velocidad y que es denotada por F(t, x, x′ ), entonces la segunda ley de

Newton queda descrita por la ecuación diferencial

(1.2.5) mx′′ = F(t, x, x′ ).

Introduciendo una nueva variable v = x′ , la ecuación (1.2.5) se escribe

1
x′ = v, v′ = F(t, x, x′ ).
m

Definiendo otra nueva variable p = mx′ , la ecuación (1.2.5) se transforma en

1 1
x′ = p, p′ = F(t, x, p).
m m

Notemos que ambos sistemas de ecuaciones diferenciales tienen la forma (1.2.1). El orden de

ambas es el doble de la dimensión del vector x.

Ejemplo 1.14. El problema de tres cuerpos. El movimiento de tres cuerpos con masas m1 ,

m2 y m3 sujetos a mutua interacción gravitacional está gobernado por las leyes de Newton según

la ecuación diferencial vectorial ordinaria

X Gmi mj (xj − xi )
(1.2.6) mi x′′i = 3 , para i = 1, 2, 3,
j6=i
|xj − xi |
11

donde xi es la posición de la i−ésima partı́cula, con masa mi y, G es la constante de gravitación

universal. Para escribir este sistema de ecuaciones diferenciales en la forma (1.2.1) se introducen

las nuevas variables vi = x′i , donde i = 1, 2, 3. Entonces el sistema se convierte en

X Gmj (xj − xi )
(1.2.7) x′i = vi , vi′ = 3 , para i = 1, 2, 3.
j6=i
|xj − xi |

Si las partı́culas se mueven en el plano, entonces con cada una de ellas se introducen otras cuatro

ecuaciones, dos por cada variable xi y dos por cada variable vi , y el sistema de ecuaciones

diferenciales (1.2.7) tiene orden doce.

El dominio de este sistema es R12 − ∆, donde

∆ = {(x1 , x2 , x3 , v1 , v2 , v3 ) : x1 = x2 ó x1 = x3 ó x2 = x3 }.

Similarmente, si las partı́culas se mueven en la recta o el espacio el sistema de ecuaciones diferen-

ciales (1.2.7) tiene orden seis o dieciocho respectivamente. En general el movimiento de n cuerpos

con masas m1 ,. . . ,mn sujetos a interacción gravitacional mutua es un sistema de ecuaciones di-

ferenciales que cumple (1.2.6) ó (1.2.7) pero con el ı́ndice i corriendo ahora desde 1 hasta n. En

este caso notemos que el orden es 2n si las partı́culas se mueven en la recta, 4n si se mueven en

un plano y 6n si lo hacen en el espacio. El dominio del campo vectorial es ahora el subconjunto

abierto R6n − ∆, donde ∆ = {(x1 , . . . xn , v1 , . . . vn ) : existen i 6= j tales que xi = xj }.

1.3. Ecuaciones diferenciales con condiciones iniciales

En general una ecuación diferencial ordinaria tiene un número infinito de soluciones. Para

tomar una solución particular se puede elegir el valor que tiene en un tiempo dado.
12

Definición 1.15. Resolver la ecuación x′ = f (t, x) con condiciones iniciales (t0 , x0 ) ∈ D

es encontrar una solución φ(t) de la ecuación diferencial tal que φ(t0 ) = x0 . Este problema es

denotado por

(1.3.1) x′ = f (t, x), x(t0 ) = x0 .

Ejemplo 1.16. Consideremos el problema x′ = f (t, x), x(0) = x0 , donde f (t, x) está definida

en el ejemplo 1.7. Si x0 > 0, entonces cada funcion Φαβ (t), donde α ≤ β = −2 x0 es solución,

observemos que todas estas soluciones coinciden en un intervalo abierto alrededor de t = 0. La

situación es peor si x0 = 0, en este caso las soluciones son las funciones Φαβ (t), donde α ≤ 0 ≤ β;

en todos los intervalos que contienen al cero existen soluciones diferentes. En el teorema 3.7

daremos condiciones necesarias para garantizar la existencia y la unicidad de las soluciones de

las ecuaciones diferenciales.

Ejemplo 1.17. Continuando con el ejemplo 1.8, la única solución del problema de condiciones

iniciales x′ = x − t, x(t0 ) = x0 es φc (t) = 1 + t + cet , donde c = e−t0 (x0 − 1 − t0 ).

Ejemplo 1.18. La solución general de la ecuación x′′ + x = 0 es x(t) = c1 cos t + c2 sen t,

donde c1 y c2 son constantes. Todas las soluciones tienen perı́odo 2π y x(0) = x(2π). De donde

el problema x′′ + x = 0, x(0) = 0 y x(2π) = 1 no tiene soluciones. Por otro lado existen muchas

soluciones tales que x(0) = 0 = x(2π). Este tipo de problemas se llaman ecuaciones diferenciales

ordinarias con valores en la frontera.

1.4. Interpretación geométrica de las ecuaciones diferenciales de primer orden

En esta sección estudiaremos ecuaciones diferenciales de primer orden usando técnicas geomé-

tricas. Dada la función f : D ⊂ R2 7→ R, resolver la ecuación diferencial x′ = f (t, x) es encontrar


13

las curvas del plano cuyas gráficas tienen pendiente igual a f (t, φ(t)) en cada punto (t, φ(t)) del

conjunto D. Se puede pensar que D ⊂ R2 está cubierto con pequeños segmentos lineales de

pendiente igual al valor de f (t, x) y colocados en cada punto (t, x), y entonces las curvas solución

son funciones cuyas gráficas son tangentes a cada uno de estos segmentos lineales. La gráfica

obtenida al trazar estos pequeños segmentos se llama campo de pendientes.

Las curvas de nivel de la función f (t, x) se llaman isoclinas, y están dadas por la ecuación

f (t, x) = k, donde k es una constante. Éstas determinan el lugar geométrico en el que las

soluciones tienen la misma inclinación; las soluciones de la ecuación diferencial cruzan estas

curvas con la misma pendiente k.

Ejemplo 1.19. A continuación dibujaremos en el plano t − x a las soluciones de la ecuación

t
(1.4.1) x′ = − .
x

Una primera observación es que la función f (t, x) = −t/x no está definida si x = 0 (el eje t);

es positiva en el conjunto {(t, x) ∈ R2 : − xt > 0} (el segundo y cuarto cuadrante); es cero si

t = 0, x 6= 0 (el eje X); y es negativa en el conjunto {(t, x) ∈ R2 : − xt < 0} (el primer y tercer

cuadrante). Estos conjuntos determinan las regiones en donde las pendientes de las soluciones

de la ecuación diferencial no están definidas, o bien son positivas, negativas o cero.

Por otro lado, f (t, x) = f (−t, −x) = −f (t, −x) = −f (−t, x); estas igualdades implican que

si x(t) es una solución definida en el intervalo (a, b), entonces las funciones −x(t), x(−t) y −x(−t)

también son soluciones, la primera definida en el intervalo (a, b), y las otras dos en el intervalo

(−b, −a). Por lo que los ejes t = 0 y x = 0 son ejes de simetrı́a en el campo de pendientes y para

las soluciones.
14

k=-Cot(6p/11)
x x
k=-Cot(4p/11) k=-Cot(2p/11)
k=-Cot(8p/11)

t
t
k=0

k=-Cot(14p/11) k=-Cot(18p/11) k=-Cot(20p/11)


k=-Cot(16p/11)

Figura 6. En el lado izquierdo se encuentran las isoclinas y el campo de pen-

dientes de x′ = − xt , en el lado derecho se muestran algunas soluciones y las

isoclinas.

Las isoclinas son −t/x = k o bien x = − k1 t; que son rectas que pasan por el origen con

pendiente − k1 , de aquı́ se sigue que en este ejemplo las isoclinas son ortogonales a las soluciones.

Por otro lado, el signo de x′′ determina las regiones de concavidad de las soluciones. Por

ejemplo, las regiones en donde x′′ > 0 las soluciones son concavas hacia arriba.

Escribiendo (1.4.1) como xx′ = −t y derivando obtenemos (x′ )2 +xx′′ = −1, o bien (−t/x)2 +

xx′′ = −1. Despejando x′′ obtenemos

x2 + t2
x′′ = − .
x3

Entonces la segunda derivada no está definida si x = 0, es positiva si x < 0 y es negativa si x > 0.

Procedamos a hacer la gráfica de las soluciones. En la región x > 0 las soluciones son con-

cavas hacia abajo. Empiezan en el eje x = 0 en algún punto t0 < 0, en este punto la pendiente
15

es infinita. Mientras t < 0 son crecientes, y deben tocar el eje t = 0 en algun punto x0 ; en este

punto las soluciones satisfacen x′ = 0 y x′′ < 0 por lo que es un máximo, además las soluciones

deben ser simétricas con respecto a los ejes. En la figura 6 se encuentran el campo de pendientes

y algunas soluciones.

Existen otras formas de obtener la gráfica de las soluciones; por ejemplo proceder directa-

mente con el campo de pendientes. O bien observando que la ecuación (1.4.1) es una ecuación de

variables separables y que tiene soluciones a los cı́rculos t2 + x2 = c2 , los cuales se pueden graficar

directamente. No siempre es posible proceder por estos métodos, varias de las ecuaciones del

problema 1.33 no se pueden integrar directamente, o bien conducen a integrales muy complicadas

y puede ser muy difı́cil dibujar el campo de pendientes.

Dibujar las soluciones por medio del análisis del campo de pendientes es tedioso, actualmente

existen varios paquetes computacionales muy eficientes que trazan directamente las soluciones

y al campo de pendientes. Las gráficas de este libro fueron generadas usando el programa

MATHEMATICA, otras posibilidades son MAPLE y MATLAB.

1.5. Estudio geométrico de las ecuaciones diferenciales de orden dos

En esta sección estudiaremos sistemas con dos ecuaciones diferenciales de primer orden, y

supondremos que dichas ecuaciones no dependen del tiempo por lo que sus componentes tienen

la forma

(1.5.1) x′ = f (x, y), y ′ = g(x, y).

Donde las funciones f (x, y) y g(x, y) están definidas en un subconjunto abierto D ⊂ R2 . Recorde-

mos que esta ecuación diferencial representa el movimiento de un fluido que se mueve en un plano.
16

Figura 7. Campo de velocidades y lineas de flujo del ejemplo 1.20.

La velocidad de la partı́cula que se encuentra en el punto (x, y) es (f (x, y), g(x, y)) y notemos

que esta velocidad es independiente del tiempo. El dibujo de las lı́neas de flujo con la orientación

determinada por la dirección del tiempo se llama retrato fase.

Ejemplo 1.20. El primer ejemplo que trabajaremos es

x′ = x, y ′ = 2y.
17

Observemos que las dos ecuaciones son independientes, las curvas solución son α(t) = (c1 et , c2 e2t ),

o bien x(t) = c1 et , y(t) = c2 e2t , donde c1 y c2 son constantes. Entonces

lim x(t) = lim y(t) = ±∞, lim x(t) = lim = 0.


t7→∞ t7→∞ t7→−∞ t7→−∞

y ′ (t) 2c2 t
Además la pendiente del campo vectorial es m(t) = x′ (t) = c1 e , entonces limt7→∞ m(t) = ±∞

y limt7→−∞ m(t) = 0. Por lo que casi todas las soluciones salen del origen paralelas al eje X y

se escapan al infinito con una dirección paralela al eje Y , las únicas excepciones ocurren cuando

c1 = 0 ó c2 = 0. Ver la figura 7.

Ejemplo 1.21. A continuación estudiaremos el retrato fase de la ecuación diferencial

(1.5.2) x′ = −y, y ′ = x.

El campo vectorial es Φ(x, y) = (−y, x). Como Φ(0) = 0, entonces la función constante α(t) = 0

es una solución. Si (x, y) 6= 0 entonces (x, y) · Φ(x, y) = (x, y) · (−y, x) = −xy + yx = 0 ; y el

determinante det((x, y), (−y, x)) = x2 + y 2 > 0. De donde se sigue que el campo vectorial es

perpendicular a la posición y el sistema de vectores {(x, y), Φ(x, y)} es positivamente orientado.

En la figura 8 está el campo vectorial y algunas soluciones. Las curvas solución que no pasan por

el origen son perpendiculares a la posición. Como el punto (x, y) tiene la misma dirección que

la recta y = kx entonces las soluciones también son perpendiculares a estas rectas. Las únicas

curvas que cumplen esta condición son los cı́rculos con centro en el origen.

Otra manera de obtener este resultado es escribiendo nuestro problema en coordenadas po-

lares, sean

(1.5.3) x = r cos θ, y = r sen θ.


18

-5

-10

Figura 8. Campo vectorial f (x, y) = (−y, x) y soluciones de la correspondiente

ecuación diferencial en el ejemplo 1.21.

Entonces x′ = r′ cos θ − θ′ r sen θ, y ′ = r′ sen θ + θ′ r cos θ. Sustituyendo ahora las ecuaciones

(1.5.2) y (1.5.3) obtenemos el sistema −r sen θ = r′ cos θ−θ′ r sen θ, r cos θ = r′ sen θ+θ′ r cos θ.

Despejando r′ y θ′ se tiene r′ = 0, θ′ = 1. Como el radio y la velocidad radial son constantes

entonces las soluciones se mueven en cı́rculos con centro en el origen y además lo hacen con una

velocidad angular igual a uno. Observemos que las figuras 6 y 8 son muy parecidas. ¿Puede el

lector explicar la razón?


19

Ejemplo 1.22. En este ejemplo construiremos el retrato fase de la ecuación diferencial

(1.5.4) x′ = y, y ′ = x − x3 ,

conocida como la ecuación de Duffing. Esta ecuación es un ejemplo de ecuación hamiltoniana,

que son ecuaciones que se escriben de la forma

∂H ∂H
x′ = , y′ = − ,
∂y ∂x

donde H : R2 7→ R es una función suave, la función H se llama el hamiltoniano. En este ejemplo

es la función
y2 x2 x4
H(x, y) = + V (x), V (x) = − + .
2 2 4

la segunda función se llama el potencial.

Estas ecuaciones, y su generalización a más dimensiones, modelan sistemas en donde aparece

una cantidad que se conserva (la energı́a); el hamiltoniano es precisamente esta cantidad. En el

caso de la ecuación de Duffing el hamiltoniano es la suma de la energı́a cinética (el término y 2 /2)

y la energı́a potencial (la función V (x)). Además si (x(t), y(t)) es una solución de la ecuación de

Duffing, entonces

d ∂H ′ ∂H ′ ¡
y = −x + x3 y + y x − x3 = 0,
¢ ¡ ¢
H (x(t), y(t)) = x +
dt ∂x ∂y

Lo que significa que el hamiltoniano es constante a lo largo de las soluciones, lo que implica que

las soluciones están contenidas en las curvas de nivel de H(x, y).

A continuación construiremos la gráfica de las curvas de nivel de H. Como un primer paso

estudiemos la gráfica de V (x). En la figura 9 se observa que V (x) tiene un único máximo

local en 0, V (0) = 0; tiene dos mı́nimos locales en −1 y el 1, V (±1) = −1/4; V (x) < 0 si y
20

V(x)

0.3

0.2

0.1

x
-2 -1 1 2
-0.1

-0.2

Figura 9. Gráfica del potencial V (x) de la ecuación de Duffing.

√ √ √ √
sólo si x ∈ (− 2, 0) ∪ (0, 2); V (x) = 0 si y sólo si x = − 2, 0, 2; V (x) > 0 si y sólo si
√ √
x ∈ (−∞, − 2) ∪ ( 2, ∞).

La curvas de nivel H(x, y) = y 2 /2 + V (x) = c se escriben en la forma

p
(1.5.5) y=± 2 (c − V (x)).

Si c < −1/4, ninguna x cumple la ecuación (1.5.5). Si c = −1/4, entonces x = ±1 cumple

la ecuación (1.5.5), estos puntos corresponden a los mı́nimos de V (x), en este caso y = 0. Si

−1/4 < c < 0 entonces existe dos intervalos en x, uno contenido en el intervalo (− 2, 0) y el otro

en el intervalo (0, 2) en donde se pueden obtener valor reales de y en la ecuación (1.5.5). En

este caso se obtienen dos ovalos simétricos con respecto al eje Y. Si c = 0, entonces para todo x
√ √
en el intervalo −( 2, 2) se pueden obtener valores reales de y. En este caso la gráfica de (1.5.5)

es una figura en forma de ocho.


21

Figura 10. Soluciones de la ecuación de Duffing y curvas de nivel de H(x, y).

√ √
Finalmente si c > 0 existe un intervalo en la variable x que contiene a −( 2, 2) tal que

la ecuación (1.5.5) está bien definida, y tiene una gráfica con forma lobular. En la figura 10 se

encuentra la gráfica de las curvas de nivel del hamiltoniano y el diagrama de fase.

1.6. Problemas

En estos problemas es muy importante justificar todos los pasos, en algunos se trata de

reconstruir los métodos y funciones que han sido enseñados en los cursos elementales de ecuaciones

diferenciales. Sea cuidadoso en todos los pasos, especialmente cuando se haga un cambio de

variable en una integral o se use el teorema de la función inversa.


22

1.23. Sea f (t) una función continua, encuentre las soluciones de la ecuación diferencial ordi-

naria x′ = f (t) usando una integral. Dar las soluciones de las siguientes ecuaciones diferenciales.

1 x′ = tet , x(1) = 1.

2 x′ = cos(t).
2
3 x′ = et , x(0) = 1.

4 x′ = f (t), x(0) = 0, donde f (t) = −1 si t ≤ 0 y f (t) = 1 si t > 0. Aunque la función f (t)

no es continua, esta ecuación puede trabajarse de manera similar a las anteriores.

Observación 1.24. Encontrar las soluciones de este tipo de ecuaciones diferenciales se reduce

a calcular integrales. En general, al proceso de encontrar soluciones de ecuaciones diferenciales

también es llamado integración de una ecuación diferencial.

1.25. Sean p(t) y q(t) funciones continuas. La ecuación diferencial x′ + p(t)x = q(t) se llama

ecuación diferencial lineal de primer orden, demuestre que puede ser escrita en la forma (1.2.1)

y también como

t
d ³ ´ Z
(1.6.1) x(t) eP (t) = q(t)eP (t) , donde P (t) = p(s) ds.
dt t0

La función eP (t) se llama factor integrante. Transforme esta ecuación en

Z t
x(t) = eP (t0 )−P (t) x(t0 ) + eP (s)−P (t) q(s) ds.
t0

Use esta observación para resolver

1 x′ − x = −t, x(1) = 1.

2 x′ + x/t = 3t2 − 1/t, donde t > 0.

3 x′ − x = et .
23

1.26. Una ecuación diferencial de la forma x′ = f (x)g(t) se llama separable pues la solución

x(t) que pasa por el punto (t0 , x0 ) satisface

t x(t)
du
Z Z
g(s) ds = du
t0 x0 f (u)

si ambas integrales existen. Observe que las variables están separadas en esta relación y use este

resultado para encontrar las soluciones de

1 x′ = xt.

2 x′ = −x/t, x(0) = 1.

3 x′ = −t/x, x(0) = 1.
2
et
4 x′ = sen (1/x) , x(0) = 1.

1.27. En este problema se definirán las funciones trigonométricas seno y coseno. Suponiendo

que la ecuación diferencial x′′ + x = 0, x(t0 ) = α, x′ (t0 ) = β siempre tiene una única solución,

demuestre las siguientes propiedades:

1 Si x(t), y(t) son soluciones de x′′ + x = 0, c1 , c2 , h ∈ R son constantes, entonces las

funciones x(t + h), x′ (t), c1 x(t) + c2 y(t), x(−t) también son soluciones.
p
2 La función ρ(t) = x2 (t) + (x′ (t))2 es constante.

3 Si x(t0 ) = 0 y x′ (t0 ) = 0 para algún t0 ∈ R entonces x(t) = 0.

4 Si x(t0 ) = y(t0 ) y x′ (t0 ) = y ′ (t0 ) entonces x(t) = y(t).

5 Defina a la función sen (x) como la solución x′′ + x = 0, x(0) = 0, x′ (0) = 1; y a la función

cos(x) como la solución de x′′ + x = 0, x(0) = 1, x′ (0) = 0.

6 Demuestre

d sen (t) d cos(t)


= cos t, = −sen (t).
dt dt
24

7 Pruebe las muy conocidas identidades cos(t+s) = cos(t) cos(s)−sen (t)sen (s), sen (t+s) =

cos(t)sen (s) + sen (t) cos(s), cos(−t) = cos(t), sen 2 (t) + cos2 (t) = 1.

d
8 Existe α > 0 tal que cos(t) > 0, dt cos(t) < 0 para todo t ∈ (0, α), cos(α) = 0 y

cos′ (α) = −1.

9 Defina π = 2α y demuestre que sen (α) = 1.

10 Demuestre que sen (t) y cos(t) son periódicas de periodo 2π, y que sen (x) es creciente en

los intervalos [0, π/2] y [3π/2, 2π] y decreciente en [π/2, 3π/2].

11 Grafique a las funciones sen (t) y cos(t).

1.28. La siguiente es una ecuación separable

r
dy 1 − y2
=− ,
dx 1 − x2

1 Integrando esta ecuación demuestre que las soluciones están definidas implı́citamente por

arcsenx + arcseny = c.

2 Demuestre que esta ecuación también tiene como soluciones

p p
x 1 − y 2 + y 1 − x2 = C.

3 En este inciso se dará la relación entre las dos soluciones obtenidas. Sea f (c) = C esta

relación y sean x = sen (u), y = cos(v) entonces u + v = c, y además sen (u) cos(v) +

sen (v) cos(u) = f (c) = f (u + v). Tome ahora el valor v = 0 y obtenga la relación entre c

y C dada por la función f (c).

4 Obtenga la identidad sen (u) cos(v) + sen (v) cos(u) = sen (u + v).
25

Definición 1.29. Las funciones que son constantes a lo largo de todas las trayectorias se

llaman integrales de la ecuación diferencial, la existencia de integrales en una ecuación diferencial

reduce la complejidad del problema.

1.30. En este problema se necesita el teorema de Green. Una ecuación diferencial de la forma

(1.6.2) M (t, x) + N (t, x)x′ = 0

se llama exacta si existe una función F (x, y) con segundas derivadas parciales continuas que

satisface
∂F ∂F
= M (t, x), = N (t, x).
∂t ∂x

1 Demuestre que una condición necesaria para que tal función exista es

∂N ∂M
(1.6.3) = ,
∂t ∂x

y en este caso las soluciones satisfacen F (t, x) = c. Esto es, la función F (t, x) es una

integral de la ecuación.

2 De condiciones sobre el dominio de F (t, x) para que (1.6.3) sea una condición suficiente

para que la ecuación (1.6.2) sea exacta.

3 Demuestre que las ecuaciones separables son exactas.

4 Demuestre que la siguiente ecuación es exacta

(2x3 + 2) + 3tx2 x′ = 0.

1.31. Demuestre que la sustitución y = x1−n transforma la ecuación de Bernoulli

x′ + p(t)x = q(t)xn
26

en una ecuación diferencial lineal, (ver problema 1.25). De la solución general de esta ecuación.

1.32. La ecuación x′ = p(t) + q(t)x + r(t)x2 se llama ecuación de Riccati. Sea x1 (t) una

solución de la ecuación de Riccati.

1 Demuestre que la solución general tiene la forma x(t) = x1 (t) + y(t), donde y(t) es la

solución general de la siguiente ecuación de Bernoulli y ′ − [q(t) + 2r(t)x1 (t)] y = r(t)y 2 .

2 Utilizando el problema 1.31 dar la solución general de la ecuación de Riccati cuando se

conoce una solución particular x1 (t).

3 Si x1 (t) y x2 (t) son dos soluciones de la ecuación de Riccati, entonces la solución general

x(t) satisface

µZ t ¶
x(t) − x1 (t) = c (x(t) − x2 (t)) exp r(s) (x1 (s) − x2 (s)) ds .

Hint: Defina la función u = (x − x1 )/(x − x2 ) y obtenga una ecuación diferencial para u.

Observe que no se puede despejar la función x(t) en terminos de las dos funciones x1 (t)

y x2 (t).

4 Si y1 , y2 , y3 , y4 son cuatro soluciones de la ecuación de Riccati entonces la razón armónica

(y1 − y3 ) / (y1 − y4 )
(y2 − y3 ) / (y2 − y4 )

en constante.

5 Si la función r(t) nunca es cero entonces la sucesión de transformaciones x = v(t)/r(t),

v = u′ /u convierte la ecuación de Riccati en una ecuación lineal de segundo orden.

1.33. Utilizar la técnica de la sección 1.4 para dibujar las soluciones de las ecuaciones:

1 x′ = t2 + x2 .
27

2 x′ = 2 + t2 − x2 .

t+x
3 x′ = t−x .

4 x′ = x(x − 1)(x + 1).

5 x′ = sen x.

1.34. Sea H : U ⊂ R2 7→ R una función suave. Entonces el sistema gradiente asociado es la

ecuación diferencial

∂H ∂H
x′ = , y′ = ;
∂x ∂y

y el sistema hamiltoniano asociado es la ecuación diferencial

∂H ∂H
x′ = , y′ = − .
∂y ∂x

1 Demostrar que si (x(t), y(t)) es una solución de un sistema gradiente entonces H(x(t), y(t))

es creciente para todo t ∈ R, o bien (x(t), y(t)) = a es un punto fijo. Demostrar que un

sistema gradiente no tiene soluciones periódicas.

2 Demostrar que el hamiltoniano es una integral del sistema.

3 Demostrar que las órbitas del sistema gradiente y las del sistema hamiltoniano asociado

a la misma función H(x, y) son ortogonales.

4 En estos problemas las técnicas del cálculo diferencial de varias variables pueden ser

útiles. Dibujar las soluciones de los sistemas hamiltonianos y gradientes asociados a las

funciones

• H(x, y) = y 2 /2 + cos(x). (Ecuación del péndulo).

• H(x, y) = x2 + y 2 . (Oscilador armónico).

• H(x, y) = y 2 x + 1/3x3 + (x2 + y 2 ) + x + y.


28

• H(x, y) = y 2 x − 1/3x3 − (x2 + y 2 ) + x + y.

1.7. (*) Cálculo en diferencias

En las secciones marcadas con (*) se proponen series de problemas para desarrollar los

análogos discretos del cálculo diferencial e integral y de las EDO’s llamados el cálculo en dife-

rencias y las ecuaciones en diferencias. Mientras que los primeros se construyen sobre funciones

definidas en intervalos, los segundos se construyen sobre sucesiones, sin embargo muchas de sus

propiedades son similares. El conjunto de todas las sucesiones en Rn es denotado por Suc(Rn ).

Los problemas de esta sección pueden hacerse por medio de la inducción matemática pero suge-

rimos intentar las técnicas del cálculo primero.

Recordemos que la derivada y la integral de una función son

b
f (a + h) − f (a)
Z X
f ′ (a) = lim , f (x) dx = lim f (xi )∆xi .
h7→0 h a |P |7→0

Donde P es la partición regular a = x0 < x1 < · · · < xn = b. Tomando h = 1 en la definición de

la derivada, o bien b = a + n y ∆xi = 1 en la de la integral obtenemos

Z a+n n
X

f (a) ≃ f (a + 1) − f (a), f (x) dx ≃ f (a + k).
a k=1

Utilizando estas aproximaciones, se definen sus análogos discretos equivalentes:

1
Definición 1.35. Sea {xn } una sucesión definida en Rn , entonces la diferencia y la suma

son las sucesiones

n
X
∆xn = xn+1 − xn , xk = xn0 + xn0 +1 + . . . xn .
k=n0

1Tambien llamada la variación.


29

2
Otros dos operadores muy importantes y definidos en Suc(Rn ) son el shift y el operador iden-

tidad definidos como

E(xn ) = xn+1 , I(xn ) = xn .

A veces es conveniente pensar que el shift es casi el operador identidad.

Ejemplo 1.36. Para la sucesión xn = n tenemos

n
X n(n + 1)
∆(xn ) = (n + 1) − n = 1, k= ,
2
k=0

E(xn ) = n + 1, I(xn ) = n.

Pn
1.37. Para las sucesiones xn = 2n , n3 , n! calcular ∆(xn ), k=1 xk , E(xk ).

1.38. Demostrar las siguientes proposiciones

1 El conjunto Suc(Rn ) es un espacio vectorial.


P
2 Los operadores ∆, , E y I son lineales.

3 E k (xn ) = xn+k .

4 ∆ = E − I.
Pk
5 ∆k xn = i=0 (−1)
i
( ki ) xn+k−i .
Pk
6 E k (xn ) = i=0 ( ki ) ∆k−i xn .

7 ∆(xn yn ) = E(xn )∆(yn ) + yn ∆(xn ), (Regla del producto).


³ ´
8 ∆ xynn = yn ∆(xynn )−xn ∆(yn )
E(yn ) , (Regla del cociente).

2Este operador se traduce a veces como corrimiento, nosotros usaremos la palabra en ingles por ser más corta

y ampliamente usada.
30

1.39. Demostrar las identidades análogas al teorema fundamental del cálculo:


nX
1 −1
Ãn −1 !
X1

∆(xk ) = xn1 − xn0 , ∆ xk = xn1


k=n0 k=n0

Definición 1.40. Un operador de antidiferencia ∆−1 : Suc(R) 7→ Suc(R) es un operador

que satisface ∆∆−1 = I.

1.41. Demostrar

1 Los operadores de antidiferencia ∆−1 son lineales.


Pn−1
2 El operador definido por ∆−1 (xn ) = k=1 xk es una antidiferencia.

3 Si ∆−1 y ∆−1
1 son dos antidiferencias entonces existe c ∈ R tal que para toda sucesión

{xn } se culmple ∆−1 xn = ∆−1


1 xn + c.

4 Si ∆−1 es una antidiferenciación entonces


nX
1 −1

xk = ∆−1 (an1 ) − ∆−1 (an0 ).


k=n0

1.42. Encontrar todas las sucesiones que satisfagan

1 ∆xn = 0.

2 ∆xn = xn y además x0 = 1.

1.43. Los polinomios factoriales están definidos por x(0) = 1, x(n) = (x + 1 − n)x(n−1) .

1 Demostrar que x(n) = x(x − 1) . . . (x − n + 1).

n!
2 Si k ∈ N entonces k (n) = (n−k)! , n(n) = n!.

3 ∆x(n) = nx(n−1) .

4 ∆n x(k) = k(k − 1) . . . (k − n + 1)x(k−n) .

5 ∆n x(n) = n!.
CAPITULO 2

Espacios métricos y normados

2.1. Espacios métricos

Una de las mayores dificultades en el estudio de la teorı́a de ecuaciones diferenciales es la

necesidad de usar ideas provenientes del análisis matemático como son los espacios métricos y los

espacios normados. Con el fin de unificar la notación revisaremos algunos de estos conceptos en

este capı́tulo, esperando que sean estudiados a profundidad en un curso de análisis matemático.

Las demostraciones omitidas en este capı́tulo se localizan en la referencia [6]. Las secciones 2.2,

2.4, 2.6 y el teorema 2.21 han sido desarrollados con gran detalle.

Definición 2.1. Una métrica en el conjunto X es una función d : X × X 7→ R tal que si x,

y, z ∈ X entonces se cumplen las siguientes cuatro propiedades:

1 d(x, y) ≥ 0.

2 d(x, y) = 0 si y sólo si x = y.

3 d(x, y) = d(y, x).

4 d(x, z) ≤ d(x, y) + d(y, z).

La última propiedad se llama la desigualdad del triángulo. El par {X, d} se llama espacio métrico.

La distancia entre x y y es d(x, y).

Definición 2.2. Sean x ∈ X y ǫ > 0 entonces la bola abierta de radio ǫ y centro en x es el

conjunto Bǫ (x) = {y ∈ X : d(x, y) < ǫ}. Ver figura 1.

31
32

bola abierta con centro en x0


e
x0

Figura 1. Bola con centro en x0 y radio ǫ contenida en U .

Definición 2.3. Un subconjunto O ⊂ X es un conjunto abierto si para todo x ∈ O existe

ǫ > 0 tal que si d(x, y) < ǫ entonces y ∈ O.

Una reformulación de esta definición es que O es abierto si x ∈ O entonces existe una bola

Bǫ (x) contenida completamente en O.

Definición 2.4. La sucesión {xn } de puntos del espacio métrico X es una sucesión de

Cauchy si para todo ǫ > 0 existe N ∈ N tal que si n, m ≥ N entonces d(xn , xm ) < ǫ.

Definición 2.5. La sucesión {xn } de puntos del espacio métrico X converge a x ∈ X si

para todo ǫ > 0 existe N ∈ N tal que si n ≥ N entonces d(xn , x) < ǫ. Esto se denota por

lim xn = x o bien xn 7→ x.
n7→∞
33

Alternativamente, la sucesión {xn } converge a x si para toda bola abierta Bǫ (x) existe N ∈ N

tal que si n ≥ N entonces xn ∈ Bǫ (x).

Definición 2.6. El espacio métrico es completo si todas las sucesiones de Cauchy son con-

vergentes.

Definición 2.7. Un subconjunto F ⊂ X es un conjunto cerrado si para toda sucesión

{xn } ⊂ F tal que xn 7→ x se tiene que x ∈ F .

Un conjunto es cerrado si y sólo si su complemento es abierto. Además los subconjuntos

cerrados de espacios métricos completos son a la vez completos.

Definición 2.8. La cerradura del conjunto A ⊂ X es el conjunto

\
A= {F : A ⊂ F, F es cerrado} .

La cerradura del conjunto A es el conjunto cerrado más pequeño que contiene a A, además

A es cerrado si y sólo si A = A.

Definición 2.9. Un conjunto F ⊂ X es acotado si está contenido completamente en una

bola abierta Br (x).

Definición 2.10. Sean X y Y dos espacios métricos con métricas d1 y d2 respectivamente.

La función Φ : X 7→ Y es continua si para todo x ∈ X y para toda ǫ > 0 existe δ > 0 tal que si

d1 (x, y) < δ entonces d2 (Φ(x), Φ(y)) < ǫ.

Existen varias equivalencias de la definición anterior, nosotros podemos usar las siguientes:

La función Φ : X 7→ Y es continua si y sólo si para todo x ∈ X y para toda ǫ > 0 existe δ > 0
34

tal que Φ(Bδ (x)) ⊂ Bǫ (Φ(x)). O bien, si y sólo si para cada punto x ∈ X y para toda sucesión

{xn } que converge a x se tiene que la sucesión {Φ(xn )} converge a Φ(x).

2.2. Teorema de punto fijo de Banach

Definición 2.11. Sea X un espacio completo, y sea F ⊂ X un subconjunto cerrado, entonces

la función Γ : F 7→ F es una contracción si existe λ < 1 tal que si x y y están en F , entonces

(2.2.1) d(Γ(x), Γ(y)) < λd(x, y).

Las contracciones son funciones continuas.

teorema 2.12. [ Del punto fijo de Banach] Sea X un espacio métrico completo. Sea F ⊂ X

un subcojunto cerrado. Si Γ : F 7→ F es una contracción entonces existe un único punto fijo x,

esto es, que cumple Γ(x) = x.

Demostración: La prueba que daremos consta de dos pasos. El primero es mostrar la

existencia del punto fijo, aquı́ se construye una sucesión de Cauchy. Como el espacio F es

completo, entonces existe el lı́mite de esta sucesión y éste será el punto fijo. En el segundo paso

obtendremos la unicidad de este punto fijo. En ambos pasos usaremos fuertemente que la función

Γ(x) es una contracción.

Sea x0 ∈ F y definamos la sucesión {xn } de forma recursiva por xn+1 = Γ(xn ); esto es

x1 = Γ(x0 ), x2 = Γ(x1 ), x3 = Γ(x2 ), etcétera.

Afirmación 1. La sucesión {xn } es una sucesión de Cauchy.


35

Demostración: Usando varias veces la propiedad (2.2.1) observamos que

(2.2.2) d(xn+1 , xn ) = d(Γ(xn ), Γ(xn−1 )) ≤λd(xn , xn−1 ) = λd(Γ(xn−1 ), Γ(xn−2 ))

≤λ2 d(xn−1 , xn−2 ) ≤ · · · ≤ λn d(x1 , x0 ).

Utilizando la ecuación previa reiteradamente y la desigualdad del triángulo obtemos que para

m ≥ n se cumple

(2.2.3) d(xm , xn ) ≤ d(xm , xm−1 ) + d(xm−1 , xm−2 ) + . . . d(xn+1 , xn )

≤ λm−1 + λm−2 + · · · + λn d(x1 , x0 )


¡ ¢

= λn λm−n−1 + λm−2 + · · · + λ + 1 d(x1 , x0 )


¡ ¢

1 − λm−n λn
= λn d(x1 , x0 ) ≤ d(x1 , x0 ) 7→ 0.
1−λ 1−λ

De donde se sigue la afirmación. ¤

Como F es un espacio métrico completo, entonces esta sucesión es convergente y su lı́mite x

está en F .

Afirmación 2. El punto x satisface Γ(x) = x.

Demostración: Como la contracción Γ(x) es continua entonces

³ ´
Γ(x) = Γ lim xn = lim Γ(xn ) = lim xn+1 = x.
n7→∞ n7→∞ n7→∞

Probemos ahora la unicidad. Si x y y son dos puntos fijos entonces d (x, y) = d (Γ(x), Γ(y)) ≤

λd (x, y). Por tanto, 0 ≤ (λ − 1)d(x, y). Como λ < 1 entonces d(x, y) = 0 y por tanto x = y. ¤
36

Observación 2.13. La demostración de este teorema puede ser usada para obtener una

aproximación del punto fijo mediante aproximaciones sucesivas. De hecho, al hacer tender m a

infinito en la ecuación (2.2.3) se obtiene la desigualdad

λn
d(x, xn ) ≤ d(x1 , x0 )
1−λ

que da una estimación del error al reemplazar x por xm . En los problemas se dan algunas

aplicaciones del teorema de punto de Banach en varias áreas de las matemáticas.

2.3. Subconjuntos compactos y puntos de acumulación

En esta sección se darán varios de los más importantes conceptos del análisis y la topologı́a.

Definición 2.14. Sea F ⊂ X, entonces x ∈ X es un punto de acumulación de F si para

todo ǫ > 0 existe y ∈ F tal que 0 < d(x, y) ≤ ǫ.

Un punto x ∈ X es un punto de acumulación de F si toda bola Bǫ (x) tiene un número

infinito de puntos de F .

Definición 2.15. Sea F ⊂ X, entonces una cubierta abierta de F es una familia {Oα } de
S
conjuntos abiertos de X tales que F ⊂ Oα . Una subcubierta es un suconjunto de {Oα } que

también es cubierta.

Definición 2.16. Sea F ⊂ X, entonces F es un conjunto compacto si toda cubierta abierta

tiene subcubierta finita.

En otros cursos se estudian estos conceptos y se demuestra el siguiente teorema:

teorema 2.17. Sea F ⊂ X y sean las siguientes proposiciones


37

1 El conjunto F es compacto.

2 Todo conjunto infinito de F tiene un punto de acumulación.

3 Toda sucesión de F tiene una subsucesión convergente.

4 El conjunto F es cerrado y acotado.

entonces son equivalentes 1, 2, 3, y además implican 4. Si X = Rn entonces también esta última

es equivalente a las otras.

Definición 2.18. La distancia entre el punto y y el conjunto B es d(y, B) = inf x∈B d(x, y).

Proposición 2.19. d(y, B) ≥ 0 y además d(y, B) = 0 si y sólo si y es un punto de acumu-

lación de B.

Definición 2.20. La frontera del conjunto B es el conjunto ∂B = B ∩ Rn − B.

La frontera de un conjunto es la capa que separa a este conjunto de su complemento. El

conjunto B es abierto si para cada x ∈ B se tiene que d(x, ∂B) > 0.

teorema 2.21. Sea U ⊂ Rn un conjunto abierto y no vacio, entonces existe una familia de

conjuntos compactos {Ak } tales que

A1 ⊂ A2 ⊂ A3 ⊂ . . . , y además ∪∞
k=1 Ak = U.

Demostración: Sea x0 ∈ U . Definamos para cada k ∈ N el conjunto

n 1o
Ak = x ∈ U : |x − x0 | ≤ k, d(x, ∂U ) ≥ ,
k

ver la figura 2. Entonces Ak es acotado, pues la primera desigualdad implica que Ak ⊂ B(x0 , k).
38

A1 A2 A3

Figura 2. La sucesión de conjuntos Ak para un rectángulo.

1
Si {xi } ⊆ Ak entonces |xi − x0 | ≤ k y d(xi , ∂U ) ≥ k. Si además xi 7→ x entonces

1
|x − x0 | ≤ k y d(x, ∂U ) ≥ k, lo que implica que x ∈ Ak . Por lo tanto cada conjunto Ak es

cerrado. Usando el teorema 2.17 tenemos que cada Ak es compacto, y además Ak ⊂ Ak+1 .
S
Para terminar probemos la siguiente igualdad k∈N Ak = U . Esta igualdad se prueba con
S
dos contenciones. Claramente k∈N Ak ⊂ U . Por otro lado si x ∈ U entonces existe un número

natural k1 tal que |x − x0 | ≤ k1 . Como U es un conjunto abierto, entonces existe otro número

1
natural k2 tal que d(x, ∂U ) ≥ k2 . Sea k = max{k1 , k2 }, entonces x ∈ Ak . De donde se sigue la

otra contención. ¤

2.4. El conjunto de las funciones continuas C (D, Rn )

En esta sección se estudiará al conjunto

C (D, Rn ) = {f : D 7→ Rn : f es continua},
39

donde el conjunto D ⊂ Rn es compacto. En el problema 2.35 se estudian varias propiedades

de este conjunto, entre ellas que es un espacio métrico completo con la métrica d(f, g) =

maxx∈D |f (x) − g(x)|. Esta métrica se le conoce como la métrica uniforme.

Necesitamos primero discutir la diferencia entre la convergencia puntual y la convergencia

uniforme. A continuación damos las dos definiciones.

Definición 2.22. La sucesión de funciones continuas {fn : D 7→ Rn } converge puntualmente

a la función f : D 7→ Rn si para todo x ∈ D se sigue que limn7→∞ fn (x) = f (x). La sucesión

{fn : D 7→ Rn } converge uniformemente a la función f : D 7→ Rn si y sólo si para toda ǫ > 0

existe N ∈ N tal que para toda n ≥ N y para todo x ∈ D se tiene que |fn (x) − f (x)| ≤ ǫ. Esto

lo denotaremos por fn 7→ f .

Es necesario notar que en la convergencia puntual se calcula el lı́mite en cada punto, mientras

que en la convergencia uniforme el lı́mite se calcula globalmente, por lo ésta es más regular. Por

ejemplo, si fn 7→ f y todas las fn son continuas entonces f es continua y además

Z b Z b
(2.4.1) f (x) dx = lim fn (x) dx.
a n7→∞ a

Ejemplo 2.23. Sea fn (x) = (n + 1)(n + 2)xn (1 − x). Entonces para todo n ∈ N tenemos

fn (0) = fn (1) = 0. Además, si 0 < x < 1 entonces

lim fn (x) = lim (n2 + 3n + 2)xn (1 − x) = (1 − x)( lim n2 xn + 3 lim nxn + 2 lim xn )
n7→∞ n7→∞ n7→∞ n7→∞ n7→∞

n2 n n0
=(1 − x)( lim n
+ 3 lim n
+ 2 lim ) = 0,
n7→∞ (1 + p) n7→∞ (1 + p) n7→∞ (1 + p)n
40


donde p = (1 − x)/x > 0. En este lı́mite usamos que limn7→∞ (1+p)n = 0 si p > 0 y α ∈ R, cuya

demostración está en [6]. Entonces


Z 1
lim fn (x) = 0.
0 n7→∞

Por otro lado


Z 1 Z 1
lim fn (x) dx = lim (n + 1)(n + 2)xn (1 − x) dx = 1.
n7→∞ 0 n7→∞ 0

Esto no contradice (2.4.1), pues la convergencia de la sucesión fn (x) no es uniforme.

La convergencia uniforme es la convergencia de sucesiones en el espacio C (D, Rn ). También

en el problema 2.35 se estudian las propiedades de la convergencia uniforme.

Definición 2.24. Sea F una familia de funciones continuas definidas en un conjunto D ⊂ Rn

y con valores en Rk , entonces

1 La familia F es uniformemente acotada si existe M > 0 tal que para todo x ∈ D y para

toda función f en F se tiene |f (x)| < M .

2 La familia F es equicontinua si para todo ǫ > 0 existe δ > 0 tal que para todos los puntos

x, y ∈ D y para toda f ∈ F se sigue que |x − y| < δ implica |f (x) − f (y)| < ǫ.

Nuestros principales ejemplos de familias de funciones equicontinuas y uniformemente aco-

tadas se encuentran en el capı́tulo 3.

teorema 2.25. [Arzela-Ascoli] Sea D ⊂ Rn cerrado y acotado. Sea {fn } una sucesión de

funciones uniformemente acotada y equicontinua contenida en C (D, Rn ), entonces existe una

subsucesión {mk } y una función f ∈ C (D, Rn ) tal que la sucesión {fmk } converge a f uniforme-

mente.
41

La siguiente versión de este teorema caracteriza los compactos del conjunto C (D, Rn ).

teorema 2.26. Sea D ⊂ Rn compacto, F ⊂ C (D, Rn ) entonces el conjunto F es compacto

si y solo si F es cerrado, equicontinuo y uniformemente acotado.

En el problema 2.35 se pide demostrar este teorema.

2.5. Espacios normados y de Banach

Definición 2.27. Sea X un espacio vectorial sobre R (o sobre C), entonces la función

k k : X 7→ R es una norma sobre X si cumple las siguientes cuatro propiedades:

1 Para todo x ∈ X: kxk ≥ 0.

2 kxk = 0 si y sólo si x = 0.

3 Para todo x, y ∈ X: kx + yk ≤ kxk + kyk.

4 Para todo x ∈ X y para todo α ∈ R: kαxk = |α| kxk.

Un espacio vectorial con una norma se llama un espacio normado.

pPn
Ejemplo 2.28. El espacio Rn es normado con la norma kxk = i=1 x2i .

Proposición 2.29. Sea X un espacio normado entonces d(x, y) = kx − yk es una métrica

en X.

Definición 2.30. El espacio normado X tal que la métrica asociada es completa se llama

espacio de Banach.

2.6. El espacio normado de las matrices

Sea Mn el conjunto de las matrices cuadradas definidas en R de orden n.


42

Proposición 2.31. El espacio Mn con la norma

kAk = sup kAxk


kxk=1

es un espacio normado.

Este espacio normado es estudiado en los problemas 2.34, 2.40, 2.41, 2.42 y 2.43.

2.7. Problemas

2.32. La métrica del rio en R2 es:




|x1 − x2 | + |y1 | + |y2 | si x1 6= x2 ,


(2.7.1) d((x1 , y1 ), (x2 , y2 )) =


|y1 − y2 |

si x1 = x2 .

1 Dibujar la bola de radio 1 y centro en (0, 0), (2, 0), (0, 2).

2 Demostrar que R2 con esta métrica es un espacio métrico completo.

3 Determinar si es un espacio normado.

4 Determinar cuales de las siguientes sucesiones son convergentes en este espacio: {(1/n, 0)},

{(0, 1/n)}, {(1/n, 1)}, {(1, 1/n)}.

2.33. 1 Demostrar que el conjunto Rn es un espacio métrico completo con cualquiera

de las siguientes métricas:

d1 (x, y) = max{|x1 − y1 | , . . . , |xn − yn |},

p
d2 (x, y) = (x1 − y1 )2 + · · · + (xn − yn )2 ,

d3 (x, y) = |x1 − y1 | + · · · + |xn − yn | .

Donde x = (x1 , . . . , xn ) y y = (y1 , . . . , yn ).


43

2 Dar las normas | |i a las que están asociadas estas distancias.

3 Demostrar que Rn es un espacio de Banach con cualquiera de estas normas.

Cuando la norma no tenga subı́ndice nos referiremos a la norma | |2 .

2.34. 1 Demostrar que el conjunto Mn de las matrices cuadradas de orden n es un

espacio métrico con cualquiera de las métricas

|(A − B)x)|
d1 (A, B) = sup ,
|x|=1 |x|
s X
2
d2 (A, B) = (aij − bij ) ,
1≤i,j≤n

d3 (A, B) = sup |aij − bij | .


1≤i,j≤n

2 Demostrar que Mn con cualquiera de las métricas anteriores es completo.

3 Dar las normas k ki a las que están asociadas estas distancias.

4 Demostrar que Mn con cualquiera de las normas k ki es de Banach.

5 Demostrar que kABk1 ≤ kAk1 kBk1 .

2.35. Sea D ⊂ Rn un conjunto compacto, demostrar

1 Las siguientes son métricas definidas en el conjunto C (D, Rn ).

(2.7.2) d1 (f, g) = max |f (x) − g(x)| ,


x∈D

d2 (f, g) = max |f (x) − g(x)| eα(x−a) ,


x∈D

en este último caso se supone n = 1, α ∈ R, D = [a, b]. La distancia d1 se llama la

métrica uniforme.
44

2 Dar las normas | |i a las que están asociadas estas distancias. Cuando la norma no tenga

subı́ndice nos referiremos a la norma | |1 .

3 Demuestre que si {fk : D 7→ Rn } es una sucesión de funciones continuas que converge

uniformemente a la función f : D 7→ Rn , entonces f es continua.

4 Dar un ejemplo de una sucesión de funciones continuas que converjan puntualmente a

una función que no sea continua.

5 Demuestre que la sucesión de funciones continuas {fk : D 7→ Rn } converge uniformemente

a la función {f : D 7→ Rn } si y sólo si convergen en la métrica (2.7.2).

6 Demuestre que C (D, Rn ) es un espacio métrico completo. Esto es, que toda sucesión de

funciones {fk : D 7→ Rn } que sea de Cauchy con respecto a la métrica (2.7.2) converge a

una función continua.

7 Demuestre que C (D, Rn ) es un espacio de Banach.

8 Suponiendo el teorema 2.25, demuestre el teorema 2.26.

2.36. Demuestre que Xα = {f ∈ C([a, ∞), R) : eαt f (t) es acotado en [a, ∞}} con la distancia

d(f, g) = sup{|f (t) − g(t)| eαt },


a≤t

donde α ∈ R constante es un espacio métrico. Determinar si es completo o no.

2.37. Demostrar la proposición 2.31.

2.38. Siga la demostración del teorema 2.21, determine en donde falla esta demostración si

1 U = [0, 1), x0 = 1/2. (A pesar de que U es una unión numerable de compactos).

2 U = Q, x0 = 0.
45

2.39. Demostrar que el teorema de punto fijo de Banach es falso si

1 El espacio X no es completo.

2 El subconjunto F no es cerrado.

3 La constante λ = 1.

2.8. *Aplicaciones del teorema de punto fijo de Banach

El objetivo de los siguientes problemas es usar el teorema de punto fijo de Banach para

mostrar algunas formas iterativas de resolver sistemas de ecuaciones lineales, los cuales pueden

ser escritos como

(2.8.1) Ax = b,

donde A ∈ Mn , x, b ∈ Rn .

2.40 (Método clásico). Demostrar los siguientes incisos

1 Resolver la ecuación (2.8.1) es equivalente a resolver

(2.8.2) x = (I − A)x + b

2 Considere la función T : Rn 7→ Rn definida por T(x) = (I − A)x + b. Entonces resolver

la ecuación (2.8.1) es equivalente a encontrar un punto fijo de T.

3 Por medio del teorema de punto fijo de Banach, dar una condición suficiente para la

existencia de un único punto fijo.

4 Calcular mediante la iteración de la función T la solución del sistema


    
 15 −6 x  36 
(2.8.3) 

  = 
  
.

−3 20 y −26
46

5 Dividir todo el sistema entre 30 y tratar de nuevo de calcular las soluciones del sistema

mediante la nueva función asociada T.

6 Explicar la diferencia.

2.41 (Método clásico mejorado). Sean las matrices


   
 a11 a12 ... a1n  a11 0 ... 0 
   
   
a a22 ... a2n   0 a22 ... 0 
 21   
A=

,
 A0 = 

,

. . . ... ... ... . . . ... ... ...
   
   
   
an1 an2 ... ann 0 0 ... ann
   
 0 a12 ... a1n   0 0 ... 0 0
   
   
 0 0 ... a2n   a 0 ... 0 0
   21 
   
   
A+ = 
. . . ... ... ... , A− = 
 ... ... ... ... .
. . .
   
   
 0 0 ... an−1,n  a an−1 2 ... 0 0
   n−1 1 
   
   
0 0 ... 0 an1 an2 ... an,n−1 0

y sean los vectores x = (x1 , . . . , xn ), b = (b1 , . . . , bn ), x∗ = T(x) = (x∗1 , . . . , x∗n ) = (I − A)x + b,

entonces las componentes del vector x∗ son

x∗1 = (1 − a11 )x1 − a12 x2 − a13 x3 − · · · − a1n xn + b1 ,

x∗2 = −a21 x1 + (1 − a22 )x2 − a23 x3 − · · · − a2n xn + b2 ,

(2.8.4) x∗3 = −a31 x1 − a32 x2 + (1 − a33 )x3 − · · · − a3n xn + b3 ,

...

x∗n = −ann x1 − an2 x2 − an3 x3 − · · · + (1 − ann )xn + bn .


47

Si se cumple la condición del inciso d) del problema anterior, entonces x∗ está más cercana de

la solución que x. Es de esperarse que el vector (x∗1 , x2 , . . . , xn ), en donde hemos cambiado la

primera componente de x con la primera componente de x∗ , estará un poco más cerca que x.

Esto sugiere la siguiente forma de variar el método clásico: primero calculemos x∗1 por medio

de la ecuación (2.8.4). En el cálculo de x∗2 utilizaremos el nuevo valor de x∗1 en lugar de x1 en

la segunda ecuación de (2.8.4). Depués, x∗1 y x∗2 pueden ser utilizados en vez de x1 y x2 para

calcular x∗3 y ası́ sucesivamente. Este es el método clásico mejorado.

1 Escribir el método clásico mejorado en una forma similar a la ecuación (2.8.4).

2 Probar que el algoritmo propuesto está dado por la función

−1
x∗ = G(x) = (I + A− ) (I − A0 − A+ ) x + (I + A− ) b.

3 Demostrar que las soluciones de (2.8.1) son puntos fijos de la función G(x).

4 Repetir las mismas preguntas realizadas en el problema 2.40 para este método.

2.42 (Método de Jacobi). Suponiendo que a11 6= 0, a22 6= 0, . . . , ann 6= 0 el sistema (2.8.1)

es equivalente al sistema de ecuaciones

1
x1 = ( −a12 x2 − a13 x3 − · · · − a1n xn + c1 ) ,
a11
1
x2 = (−a21 x1 −23 x3 − · · · − a2n xn + c2 ) ,
a22

...

1
xn = (−an1 x1 − an2 x2 − an3 x3 − . . . + cn ) .
ann
48

Lo que sugiere el siguiente método iterativo para resolver el sistema (2.8.1):

1
x∗1 = ( −a12 x2 − a13 x3 − · · · − a1n xn + c1 ) ,
a11
1
x∗2 = (−a21 x1 −23 x3 − · · · − a2n xn + c2 ) ,
a22

...

1
x∗n = (−an1 x1 − an2 x2 − an3 x3 − . . . + cn ) .
ann

Este método se llama el método de Jacobi.

1 Demostrar que el método de Jacobi es descrito por la ecuación

x∗ = −A0 −1 (A− + A+ ) x + A−1


0 b.

2 Repetir las preguntas del problema 2.40 para este método.

2.43 (Método de Gauss-Seidel). Mejorar el método de Jacobi usando la discusión dada en el

método clásico mejorado. En este caso la función es

−1 −1
x∗ = − (A− + A0 ) A+ x + (A− + A0 ) b

Después repetir las mismas preguntas realizadas en el problema 2.40 para este método.

¯ ¯
2.44. Sea f : [a, b] × [c, d] ⊂ R2 7→ R una función suave, y tal que ¯ ∂f
∂y ¯ < 1, usando el
¯ ¯

teorema de punto fijo de Banach, demostrar que existe una única función α : [a, b] 7→ [c, d]

tal que f (x, α(x)) = α(x). Demostrar que la función α es suave. Usando el teorema de la

función implı́cita encontrar una ecuación diferencial satisfecha por esta ecuación. La aplicación

del teorema de punto fijo de Banach en este problema se conoce como el método de transformación

de gráficas.
49

2.45. Sea α > 0, definamos la siguiente sucesión mediante recursión:


µ ¶
1 α
(2.8.5) x1 > α, xn+1 = xn + .
2 xn


1 Demuestre que limn7→∞ xn = α.
√ ǫ2n ǫ2n
2 Si ǫn = xn − α, demuestre que ǫn+1 = 2xn < √ .
2 α
√ ³ ´2n
3 Si β = 2 α, entonces ǫn+1 < β ǫβ1 .

4 Si α = 3 y x1 = 2, observe que ǫ5 < 4 (10−16 ) y ǫ6 < 4 (10−32 ).

2.46. Reemplace la fórmula (2.8.5) por

p−1 α
xn+1 = xn + x−p+1 ,
p p n

donde p es un entero positivo fijo, siguiendo el ejemplo anterior describa el comportamiento de

la sucesión resultante {xn }.

2.47. Sea f : [a, b] 7→ R dos veces diferenciable, donde f (a) < 0, f (b) > 0, f ′ (x) ≥ δ > 0 y

0 ≤ f ′′ (x) ≤ M para todo x ∈ [a, b]. Complete los detalles del siguiente desarrollo del método de

Newton para encontrar las soluciones de la ecuación f (x) = 0.

1 Demuestre que existe un único punto ξ en el intervalo (a, b) tal que f (ξ) = 0.
f (xn )
2 Elija x1 ∈ (a, b) y defina la sucesión xn+1 = xn − f ′ (xn ) . Interprete geométricamente en

términos de la tangente de la gráfica de la función f (x).

3 Demuestre que limn7→∞ xn = ξ.

4 Si A = M/(2δ) demuestre que

1 2n
(2.8.6) |xn+1 − ξ| ≤ (A(x1 − ξ))
A
50

5 Sea f : [−1, 1] 7→ R definido por f (x) = x1/3 , intente aplicar el método de Newton.

Explique sus resultados.

6 Aunque la prueba más sencilla del inciso 3 es por medio del teorema de punto fijo de

Banach, la ecuación (2.8.6) demuestra que la convergencia en el método de Newton es

mucho más rápida. Para la función f (x) = x3 + x definida en el intervalo [−1, 1] haga

una tabla en donde se compare la distancia entre el punto fijo 0 y el termino n−ésimo de

la sucesión y las predichas por el teorema de Banach y la ecuación (2.8.6).


CAPITULO 3

Los teoremas fundamentales de la teorı́a de ecuaciones

diferenciales

3.1. Teorema de existencia de soluciones de ecuaciones diferenciales

Mediante el el teorema fundamental del cálculo daremos una forma más comoda de trabajar

para el problema de condiciones iniciales

(3.1.1) x′ = f (t, x), x(t0 ) = x0 .

Proposición 3.1. Sea f : D ⊂ Rn+1 7→ Rn una función continua, (t0 , x0 ) ∈ D entonces la

función φ(t) es solución de (3.1.1) si y sólo si φ(t) es solución de la ecuación integral

Z t
(3.1.2) x(t) = x0 + f (s, x(s)) ds.
t0

Demostración: →) Si φ(t) es solución de (3.1.1) entonces

(3.1.3) φ′ (t) = f (t, φ(t)), φ(t0 ) = x0 .

Integrando y usando el teorema fundamental del cálculo se obtiene

Z t Z t
φ(t) − x0 = φ(t) − φ(t0 ) = φ′ (s) ds = f (s, φ(s)) ds.
t0 t0

Rt
Por lo tanto φ(t) = x0 + t0
f (s, φ(s)) ds.

51
52

fe
f
0

t
t o-e to t o+e t o+2e

Figura 1. Construcción de la función φǫ (t).

Rt R t0
←) Si φ(t) = x0 + t0
f (s, φ(s)) ds entonces φ(t0 ) = x0 + t0
f (s, φ(s)) ds = x0 . Además, del

teorema fundamental del cálculo se sigue que


µ Z t ¶
′ d
φ (t) = x0 + f (s, φ(s)) ds = f (t, φ(t)).
dt t0

teorema 3.2. [de existencia de Peano] Sea f : D ⊂ Rn+1 7→ Rn continua, sea

R = {(t, x) : t0 ≤ t ≤ t0 + a, |x − x0 | ≤ b} ⊂ D.

Sean M una cota superior para |f (t, x)| en R, α = min{a, b/M }, entonces la EDO con condicio-

nes iniciales: x′ = f (t, x), x(t0 ) = x0 tiene al menos una solución definida en [t0 , t0 + α].
53

Demostración: Sea δ > 0 y sea φ0 : [t0 − δ, t0 ] 7→ Rn una función de clase C 1 que satisface

φ0 (t0 ) = x0 , |φ0 (t) − x0 | ≤ b, |φ0 (t)| ≤ M . Y sea 0 < ǫ ≤ δ, a partir de φ0 (t) construiremos una

nueva función de clase C 1 , φǫ (t) en el intervalo [t0 − δ, t0 + α], ver la figura 1.

Si t0 − δ ≤ t ≤ t0 tomemos φǫ (t) = φ0 (t). Sea α1 = min{α, ǫ} entonces definamos

Z t ¡ ¢
(3.1.4) φǫ (t) = x0 + f s, φǫ (t − ǫ) ds, si t0 ≤ t ≤ t0 + α1 .
t0

Esta función está bien definida pues si t0 ≤ s ≤ t ≤ t0 +α1 entonces t0 −δ ≤ t0 −ǫ ≤ s−ǫ ≤ t−ǫ ≤

t0 + α1 − ǫ ≤ t0 . Luego entonces φǫ (s − ǫ) = φ0 (s − ǫ), y además (s, φǫ (s − ǫ)) = (s, φ0 (s − ǫ)) ∈ R,

y la función f puede ser evaluada en este punto.

Por otro lado

°Z t °
° °
kφǫ (t) − x0 k ≤ °
° f (s, φǫ (s − ǫ)) ds°
° ≤ M |t − t0 | ≤ M α1 ≤ M α ≤ b.
t0

Ahora se puede definir φǫ (t) si t está en el intervalo [t0 + α1 , t0 + α2 ], donde α2 = min{α, 2ǫ}

usando nuevamente la ecuación 3.1.4. Siguiendo de esta manera se define φǫ (t) sobre el intervalo

[t0 − δ, t0 + α]. Esto es




φ0 (t) si t ∈ [t0 − δ, t0 ];


φǫ (t) =

x0 + t f s, φǫ (t − ǫ) ds,
 R ¡ ¢
si t ∈ [t0 , t0 + α].

t0

Hay que observar que la definición de φǫ (t) depende de la elección de φ0 (t).

Afirmación 3. Si t, u ∈ [t0 − δ, t0 + α] entonces kφǫ (t) − φǫ (u)k ≤ M |t − u|.

Demostración: Caso 1: Si t0 − δ ≤ t, u ≤ t0 , entonces:

kφǫ (t) − φǫ (u)k = kφ0 (t) − φ0 (u)k = kφ′ (r)k |t − u| ≤ M |t − u| .


54

En la segunda igualdad hemos usado el teorema del valor medio, el número r está en [t, u].

Caso 2: Si t0 − δ ≤ t ≤ t0 ≤ u ≤ t0 + α. Entonces

° µ Z u ¶°
° °
kφǫ (t) − φǫ (u)k = °φ0 (t) − x0 +
° f (s, φǫ (t − ǫ)) ds ° °
t0
¯Z u ¯
¯ ¯
≤ kφ0 (t) − x0 k + ¯¯ f (s, φǫ (s − ǫ)) ds¯¯
t0

≤ M |t − t0 | + M |u − t| = M (t0 − t) + M (u − t0 ) = M |u − t0 | .

El tercer paso se obtiene del teorema del valor medio y la acotación de f por M .

Caso 3: Si t0 ≤ t, u ≤ t0 + α. En este caso tenemos

°Z
° u °
°
kφǫ (t) − φǫ (u)k = °
° f (s, φǫ (s − ǫ)) ds°
° ≤ M |u − t|
t

y con este caso se termina la demostración de la afirmación. ¤

Esta afirmación demuestra que la familia de funciones {φǫ (t)} es equicontinua. La siguiente

afirmación prueba que esta familia es uniformemente acotada.

Afirmación 4. Si t ∈ [t0 − δ, t0 + α] entonces kφǫ (t) − x0 k ≤ b.

Demostración: Si t0 − δ ≤ t ≤ t0 entonces kφǫ (t) − x0 k = kφ0 (t) − x0 k ≤ b.

Si t0 ≤ t ≤ t0 + α entonces

°Z t °
° °
kφǫ (t) − x0 k = °
° f (s, φǫ (s − ǫ)) ds°
° ≤ |t − t0 | ≤ M α ≤ M b/M = b.
t0

Sea {ǫn } 7→ 0, por el teorema de Arzela-Ascoli, la sucesión {φǫn (t)} tiene una subsucesión

uniformemente convergente. Sin perdida de generalidad, supongamos que la misma sucesión


55

{φǫn (t)} converge uniformemente a φ(t). Entonces si t0 ≤ t ≤ t0 + α se sigue

µ Z t ¶
φ(t) = lim φǫn (t) = lim x0 + f (s, φǫn (s)) ds
n7→∞ n7→∞ t0
Z t Z t
= x0 + lim f (s, φǫn (s)) ds = x0 + lim f (s, φǫn (s)) ds
n7→∞ t0 t0 n7→∞
Z t
= x0 + f (s, φ(s)) ds
t0

De donde se sigue que la función φ(t) es solución de (3.1.1). En este desarrollo se usó la conver-

gencia uniforme de la sucesión {φǫn (t)} y la ecuación (2.4.1). ¤

Observación 3.3. Análogamente se puede obtener una solución de (3.1.1) sobre el intervalo

[t0 − α, t0 ], las dos soluciones ası́ obtenidas pueden ser acopladas para obtener una solución sobre

el intervalo [t0 − α, t0 + α].

Observación 3.4. Es de esperar que dependiendo de la elección de la función inicial φ0 (t)

y de ǫn se obtendrán diferentes soluciones, sin embargo pueden existir soluciones que no sean

detectadas por este método, ver problema 3.25.

3.2. Teorema de existencia y unicidad de soluciones de ecuaciones diferenciales

El teorema de Peano es insuficiente en varios aspectos. En primer lugar no da un método

para calcular soluciones, solamente indica su existencia. En segundo lugar, es deseable que la

ecuación (3.1.1) tenga una única solución como sucede en las ecuaciones diferenciales ordinarias

que surgen en la fı́sica y otras ramas del conocimiento, en donde se observan soluciones únicas.

Esto nos lleva a buscar un teorema que garantice la unicidad de las soluciones de esta ecuación

y que además nos indique como construir estas soluciones.


56

Definición 3.5. La función f : D ⊂ Rn+1 7→ Rn es localmente Lipschitz si es continua y

para todo subconjunto K ⊂ D compacto existe k ∈ R tal que si (x, t) y (y, t) ∈ K entonces

(3.2.1) kf (x, t) − f (y, t)k ≤ k kx − yk .

Observación 3.6. Al escribir la desigualdad (3.2.1) en la forma

kf (x, t) − f (y, t)k


≤k
kx − yk

se observa que la constante k es una cota superior de la razón de cambio de la función f (x, t) en

la variable x.

teorema 3.7 (Existencia y unicidad de soluciones, Picard-Lindelöff). Para la función f :

D ⊂ Rn+1 7→ Rn localmente Lipschitz, y para el conjunto

R = {(t, x) : t0 ≤ t ≤ t0 + a, |x − x0 | ≤ b} ⊂ D,

sean M una cota de kf (t, x)k en R; y k la constante de Lipschitz de f (t, x) en R; y α =

min{a, b/M, 1/k}. Entonces el problema de condiciones iniciales (3.1.1) tiene solución única en

el intervalo [t0 , t0 + α].

Demostración: Sea F = {φ(t) ∈ C ([t0 , t0 + α], Rn ) : φ(t0 ) = x0 , kφ(t) − x0 k ≤ b}. El

problema 2.35 demuestra que C ([t0 , t0 + α], Rn ) es un espacio de Banach con la norma uniforme

(3.2.2) kφk = sup kφ(t)k .


t0 ≤t≤t0 +α

Afirmación 5. El conjunto F es cerrado en C ([t0 , t0 + α], Rn ).


57

Demostración: Sea {φn (t)} ⊂ F una sucesión que converge uniformemente a la función

φ(t). Por demostrar que φ(t) ∈ F .

1) De las desigualdades kx0 − φ(t)k = kφn (t) − φ(t)k ≤ d(φn , φ) 7→ 0 se sigue que x0 = φ(t0 ).

2) Considere la siguiente cadena de desigualdades

kφ(t) − x0 k ≤ kφ(t) − φn (t) + φn (t) − x0 k

≤ kφ(t) − φn (t)k + kφn (t) − x0 k

≤ d(φ, φn ) + b.

Pero {φn (t)} converge uniformemente a φ(t), entonces kφ(t) − x0 k ≤ b.

Los incisos 1 y 2 implican que F es cerrado. ¤

Definamos ahora el operador Γ : F 7→ C ([t0 , t0 + α], Rn ) tal que la imagen de la función φ(t)

es la función Γφ(t) definida por

Z t
(3.2.3) Γφ(t) = x0 + f (s, φ(s)) ds.
t0

Afirmación 6. Si φ(t) ∈ F entonces Γφ(t) está en F .

R t0
Esta afirmación se sigue de Γφ(t0 ) = x0 + t0
f (s, φ(s)) ds = x0 . Y además kΓφ(t) − x0 k ≤
°R °
° t
° t0 f (s, φ(s)) ds° ≤ M |t − t0 | ≤ M α ≤ b.
°

Afirmación 7. El operador Γ es una contracción.


58

Si φ(t) y ψ(t) ∈ F entonces

d(Γφ(t), Γψ(t)) = kΓφ(t) − Γψ(t)k


°µ Z t ¶ µ Z t ¶°
° °
= max ° x0 + f (s, φ(s)) ds − x0 + f (s, ψ(s)) ds °
t0 ≤t≤t0 +α °
t0 t0
°
°Z t Z t °
° °
= max ° ° f (s, φ(s)) ds − f (s, ψ(s)) ds°
t0 ≤t≤t0 +α t0 t0
°
Z t
≤ max kf (s, φ(s)) − f (s, ψ(s))k ds
t0 ≤t≤t0 +α t0
Z t
≤ max k kφ(s) − ψ(s)k ds ≤ kα max kφ(s) − ψ(s)k
t0 ≤t≤t0 +α t0 t0 ≤t≤t0 +α

=kα d(φ(t), ψ(t)).

Usando kα < 1 se concluye la demostración de la afirmación.

Como Γ es una contracción definida en un subconjunto cerrado de un espacio métrico com-

pleto, el teorema de punto fijo de Banach (2.12) implica que existe una única φ ∈ F tal que

Γφ = φ, esto es:
Z t
φ(t) = Γφ(t) = x0 + f (s, φ(s)) ds.
t0

Por lo tanto la función φ(t) es la única solución del problema de condiciones iniciales (3.1.1). ¤

Observación 3.8. La demostración de este teorema puede ser usada para hallar las solu-

ciones de una ecuación diferencial. Este es el método de aproximaciones sucesivas. La solución

ası́ encontrada generalmente está definida en un intervalo más grande que el garantizado por el

teorema anterior.

Observación 3.9. Se puede demostrar el teorema de Peano (3.2) buscando puntos fijos del

operador definido en (3.2.3), pero se requieren teoremas propios del análisis funcional como son

el teorema de punto fijo de Schauder, ver la referencia [2].


59

Ejemplo 3.10. Hallaremos la solución de la ecuación x′ = x, x(0) = 1 por el método de


Rt
aproximaciones sucesivas. Definamos el operador Γφ(t) = 1+ 0
φ(s) ds, y la sucesión de funciones

φ0 (t) = 1, φn = Γφn−1 . Entonces


Z t
φ1 (t) =1 + 1 ds = 1 + t,
0
t
t2
Z
φ2 (t) =1 + (1 + s) ds = 1 + t + ,
0 2
t
s2 t2 t3
Z
φ3 (t) =1 + (1 + s + ) ds = 1 + t + + ,
0 2 2! 3!

7→ et .

Que es la solución esperada.

3.3. Continuación de soluciones

Dos soluciones de una ecuación diferencial pueden ser diferentes simplemente porque no

tienen el mismo intervalo de definición. Para evitar esta ambigüedad conviene trabajar con los

intervalos más grandes en que están definidas las soluciones.

Definición 3.11. Sea x′ = f (t, x) una ecuación diferencial, y sean φ : I 7→ Rn y ψ : J 7→ Rn

dos soluciones. Entonces ψ es una extensión de φ si I ⊂ J y para todo t ∈ I se cumple φ(t) = ψ(t).

La solución ψ(t) es una solución máxima si ella misma no tiene otras extensiones. En este caso

el intervalo I se llama un intervalo maximal.

Proposición 3.12. Toda solución de la ecuación diferencial x′ = f (t, x) tiene una extensión

máxima.

Esta proposición es una consecuencia del axioma del supremo y su demostración se deja como

ejercicio; notemos que esta extensión no tiene que ser única. Continuemos hacia el principal
60

objetivo de esta sección que es explicar las obstrucciones que impiden que una solución sea

extendida indefinidamente.

Proposición 3.13. Sea f (x, t) una función continua y acotada definida sobre el conjunto

abierto D ⊂ Rn , y sea φ : (a, b) 7→ Rn una solución de la ecuación diferencial x′ = f (t, x).

Entonces

1 Los dos lı́mites limt7→a+ φ(t) = φ(a+ ) y limt7→b− φ(t) = φ(b− ) existen.

2 Si (b, φ(b− )) (respectivamente (a, φ(a+ )) está en D entonces la solución φ(t) puede ser

continuada a la derecha de t = b, (respectivamente a la izquierda del punto t = a).

3 Si φ : (a, b) 7→ Rn es una solución máxima y si {tk } 7→ b entonces todos los puntos de

acumulación de la sucesión {(tk , φ(tk ))} están en la frontera de D.

Demostración: 1) Consideremos el extremo b. Sea M una cota de kf (t, x)k en D. En-


Rt
tonces φ(t) = x0 + t0
f (t, φ(s)) ds. Si t0 ≤ t < u ≤ b entonces
°µ
°
Z u ¶ µ Z t ¶°
°
kφ(u) − φ(t)k = °
° 0x + f (t, φ(s)) ds − x0 + f (t, φ(s)) ds °
°
t0 t0
°Z
° u ° Z u
°

° f (t, φ(s)) ds° °≤ kf (t, φ(s))k ds ≤ M |u − t|
t t

Entonces si {tm } ⊂ (a, b) y tm 7→ b se tiene kφ(tm ) − φ(tk )k ≤ M |tm − tk |, por lo que {φ(tm )}

es una sucesión de Cauchy, de donde limt7→b− φ(t) existe.

2) Si (b, φ(b− )) ∈ D, entonces por el teorema de Peano existe una solución ψ(t) que satisface

ψ(b) = φ(b− ). Sea Γ(t) la función definida por




φ(t) si t0 ≤ t ≤ b,


Γ(t) =


ψ(t)

si b ≤ t.
61

Es fácil ver que esta función satisface la ecuación integral (3.1.2) y que es una extensión de φ(t).

En la discusión anterior es suficiente suponer que el punto (b, φ(b− )) es un punto de acumulación

de la alguna sucesión (tk , φ(tk )), por lo que el inciso 3 es el contrarrecı́proco del anterior. ¤

teorema 3.14. Sea f : D ⊂ Rn+1 7→ Rn continua, sea φ : (a, b) 7→ Rn una solución máxima

de la ecuación x′ = f (t, x). Sea K ⊂ D un conjunto compacto, entonces existe α ∈ (a, b) tal que

si α < t < b entonces (t, φ(t)) 6∈ K.

En otras palabras, dado un compacto en el dominio de definición de una ecuación diferencial,

cualquier solución máxima tiene un tiempo α en que escapa del compacto y no regresa.

Demostración: Supongamos que no existe tal α, entonces existe una sucesión creciente

{tn } que converge a b y tal que xn = (tn , φ(tn )) ∈ K. Como xn es una sucesión contenida en un

compacto, entonces tiene una subsucesión covergente. Sin perdida de generalidad, supongamos

que xn 7→ (b, φ+ (b)). Siguiendo el mismo argumento de la demostración de la proposición 3.13,

se puede extender la función φ(t) a un intervalo de la forma (a, b + ǫ), lo que contradice la

maximalidad de esta función. ¤

1
Ejemplo 3.15. En el ejemplo 1.11 se vio que la función φ(t) = 1−t , t ∈ (−∞, 1) es solución de

la ecuación diferencial x′ = x2 . El dominio del campo vectorial f (x, t) = x2 es R2 . Este conjunto

es cubierto por la familia creciente de discos compactos {Bn (0)}, donde n ∈ N. La solución

máxima se sale de cada uno de estos compactos por los dos extremos, por el lado izquierdo si

t 7→ −∞ y por arriba si t 7→ 1.
62

Ejemplo 3.16. Sean h(t), g(t) funciones continuas positivas definidas en el intervalo [t0 , ∞)
Rb dx
y tal que para toda a > 0 se sigue que limb7→∞ a g(x)
= ∞. Entonces toda solución de la EDO

x′ = h(t)g(x), x(t0 ) = x0 , y x0 > 0 puede ser extendida al intervalo [t0 , ∞).

Si esto no fuera el caso entonces existirı́a una solución φ(t) con intervalo maximal [t0 , T ),

donde T > t0 . Como φ(t) resuelve la EDO, entonces φ′ (t) > 0 y por lo tanto es creciente. La

única posibilidad es que limt7→T φ(t) = ∞. Por el método de separación de variables

t t φ(t)
φ′ (s) dx
Z Z Z
h(s) ds = ds =
t0 t0 g(φ(s)) x0 g(x)

Tomando el lı́mite t 7→ T se tiene

T φ(t) ∞
dx dx
Z Z Z
∞> h(s) ds = lim ds = ds = ∞ !!!
t0 t7→T x0 g(x) x0 g(x)

Ejemplo 3.17. En el ejemplo 2.34 se estudió el problema de tres cuerpos, que es el sistema

de ecuaciones diferenciales

X Gmj (xj − xi )
(3.3.1) x′i = vi , vi′ = 3 , para i = 1, 2, 3.
j6=i
|xj − xi |

El dominio de definición de este sistema de ecuaciones diferenciales es R12 − ∆, donde

∆ = {(x1 , x2 , x3 , v1 , v2 , v3 ) : x1 = x2 ó x1 = x2 ó x1 = x3 }.

Existen dos tipos de soluciones en este sistema, las que están definidas sobre todo los números

reales y las que tienen un tiempo finito de escape, éstas deben aproximarse al conjunto ∆.
³ ´
Si x1 (t), x2 (t), x3 (t), v1 (t), v2 (t), v3 (t) es una solución entonces se puede demostrar que

para alguna permutación i, j, k, los lı́mites limt7→b xi (t) = limt7→b xj (t), limt7→b kvi (t)k 7→ ∞,

limt7→b kvj k (t) 7→ ∞ y finalmente limt7→b xk (t) y limt7→b vk (t) existen. Estos lı́mites se interpretan
63

diciendo que las partı́culas i y j chocan entre si con velocidad infinita y la tercera partı́cula

atestigua este choque. Puede darse el caso que las tres partı́culas choquen simultaneamente.

Poincaré conjeturó que en el movimiento de más cuerpos ésta serı́a la situación. Uno de sus

primeros resultados es que el lı́mite inferior de las distancias krk − rj k para i, j = 1, 2, 3 es cero.

Esto no significa que dos partı́culas determinadas choquen, puede ocurrir que dos partı́culas se

aproximen y luego se alejen, mientras otras dos se acercan, luego éstas se alejan al mismo tiempo

que otras más se están acercando, etcetera. Aunque este caso parece imposible, a fines del siglo

pasado se demostró la existencia de este tipo de órbitas.

3.4. Dependencia continua de las soluciones con respecto a condiciones iniciales y

parámetros

En esta sección estudiaremos el comportamiento de las ecuaciones diferenciales con respecto

a las condiciones iniciales y parámetros. Primero demostremos un resultado técnico muy útil.

teorema 3.18. [Lema de Growall] Sea Γ : [a, b] 7→ R+ una función continua, sean α, β ≥ 0

constantes tales que


Z t
(3.4.1) Γ(t) ≤ α + β Γ(s) ds
a

entonces Γ(t) ≤ α exp[β(t − a)].

Observación 3.19. Este teorema despeja la función Γ(t) de la desigualdad.

Demostración: La idea de la demostración es repetir el argumento usado en los cursos

elementales de ecuaciones diferenciales para probar que las únicas soluciones de la ecuación

x′ = x son funciones de la forma x(t) = Cet , recordemoslo. Si x(t) una solución de la ecuación
64

x′ = x, multiplicando esta ecuación por e−t obtenemos x′ (t)e−t = x(t)e−t . Agrupando todos los
³ ´
d
terminos y usando la regla de Leibniz obtenemos dt x(t)e−t = 0. De donde se tiene x(t)e−t = C,

y finalmente x(t) = Cet .

Pasemos ahora a la demostración de la desigualdad de Gronwall. Definamos R(t) = α +


Rt
a
β Γ(s) ds, observemos que R(a) = α y que la ecuación (3.4.1) se convierte en R′ (t) = βΓ(t) ≤

βR(t). Por lo tanto R′ (t) − βR(t) ≤ 0. Multiplicando por eβ(a−t) obtenemos [eβ(a−t) R(t)]′ =

eβ(a−t) (R′ (t) − βR(t)) ≤ 0, integrando desde a hasta t se obtiene

h i¯t Z th i′
eβ(a−t) R(t) − α = eβ(a−s) R(s) ¯ = eβ(a−s) R(s) ds ≤ 0,
¯
s=a a

y finalmente obtenemos Γ(t) ≤ R(t) ≤ α exp[β(t − a)]. ¤

teorema 3.20. Sea f : D ⊂ Rn+1 7→ Rn , donde la función f es Lipschitz y el conjunto D

es compacto. Si x(t, t0 , x0 ) y x(t, t1 , x1 ) son las soluciones de la ecuación diferencial x′ = f (t, x)

que pasan por los puntos (t0 , x0 ) y (t1 , x1 ) respectivamente, M es una cota superior de f (t, x) y

K es la contante de Lipschitz en D, entonces

h i
(3.4.2) kx(t, t0 , x0 ) − x(t, t1 , x1 )k ≤ kx0 − x1 k + M |t0 − t1 | ek|t−t0 |

Demostración: Sin perdida de generalidad supongamos que t0 ≤ t1 ≤ t. Del teorema 3.1

se sigue

Z t
x(t, t0 , x0 ) = x0 + f (s, x(s, t0 , x0 )) ds,
t0
Z t
x(t, t1 , x1 ) = x1 + f (s, x(s, t0 , x0 )) ds.
t1
65

Restando estas ecuaciones y tomando la norma obtenemos:

kx(t, t0 ,x0 ) − x(t, t1 , x1 )k


° Z t µ Z t ¶°
° °
=°x
° 0 + f (s, x(s, t 0 , x 0 )) ds − x1 + f (s, x(s, t 1 , x 1 )) ds °
°
t0 t1
° Z t
°
≤°x
° 0 + f (s, x(s, t0 , x0 )) ds
t0
Z t0 Z t °
°
−x1 − f (s, x(s, t1 , x1 )) ds − f (s, x(s, t1 , x1 )) ds°
°
t1 t0
° Z t
°
=°x
° 0 − x1 + f (s, x(s, t0 , x0 )) − f (s, x(s, t1 , x1 )) ds
t0
Z t0 °
°
− f (s, x(s, t1 , x1 )) ds°
°
t1
Z t
≤ kx0 − x1 k + kf (s, x(s, t0 , x0 )) − f (s, x(s, t1 , x1 ))k ds
t0
Z t1
+ kf (s, x(s, t1 , x1 ))k ds
t0
Z t
≤ kx0 − x1 k + K kx(s, t0 , x0 ) − x(s, t1 , x1 )k ds + M |t0 − t1 | .
t0

Usando el lema de Gronwall, 3.18, donde Γ(t) = kx(t, t0 , x0 ) − x(t, t1 , x1 )k, α = kx0 − x1 k +

M |t0 − t1 | y β = K obtenemos la ecuación (3.4.2). ¤

Proposición 3.21. Sea x′ = f (t, x) una ecuación diferencial, f (t, x) localmente Lipschitz

continua, y sea x(t, t0 , x0 ) la solución definida en el intervalo (a, b) tal que x(t0 , t0 , x0 ) = x0 .

Entonces, dados ǫ > 0 y T > 0 existe δ > 0 tal que |t0 − t1 | ≤ δ, kx0 − x1 k ≤ δ implican

kx(t, t0 , x0 ) − x(t, t0 , x0 )k < ǫ para todo t ∈ [t0 , T ].

ǫ
Demostración: Tome δ = 2(1+M )ekT
en el teorema anterior. ¤
66

Corolario 3.22. [Dependencia continua con respecto a condiciones iniciales] Sea x′ =

f (t, x) una ecuación diferencial, f localmente Lipschitz continua. Entonces la solución x(t, t0 , x0 )

depende continuamente con respecto a t, t0 y x0 .

Ejemplo 3.23. Consideremos la ecuación x′ = x, entonces las soluciones son x(t, t0 , x0 ) =

x0 et−t0 , que claramente son continuas.

Observamos que x(t, 0, 0) = 0. Sean T > 0, ǫ > 0, y δ = ǫ/eT ; si |x0 | < δ entonces

|x(t, t0 , x0 )| < ǫ para todo t ∈ [0, T ].

A veces se estudian familias de ecuaciones diferenciales que dependen de un parámetro, en el

siguiente teorema muestra que la forma en que las soluciones dependen de parametros, se omite

la prueba, que es similar a la dada en la sucesión de proposiciones 3.20, 3.21 y 3.22.

teorema 3.24. [Dependencia continua con respecto a parámetros] Sea x′ = f (t, x, λ) una

ecuación diferencial, donde f (t, x, λ) es una función localmente Lipschitz continua con respecto

a (t, x) y continua con respecto al parámetro λ. Entonces la solución x(t, t0 , x0 , λ) depende

continuamente con respecto a t, t0 , x0 y λ.

En la sección 4.9 se demostrará que las soluciones no son sólo continuas con respecto a las

condiciones iniciales, sino que también son diferenciales con respecto a éstas si la función f (t, x, λ)

es continuamente diferenciable.

3.5. Problemas

3.25. Usar la demostración del teorema de Peano para encontrar soluciones aproximadas de

los siguientes problemas para al menos dos diferentes φ0 (t).


67

1 y ′ = xy, x(0) = 1.

2 y ′ = x2 + y 2 , y(0) = 1.

3 x′ = x, x(0) = 0. En este inciso tratar de obtener una solución que no sea identicamente

cero.

3.26. Este problema da otra demostración del teorema de Peano (teorema 3.2), bajo las

hipótesis y notación de éste tome la partición regular:

Pn : t0 < t1 < · · · < tn = α, con tk+1 − tk = α/n.

En el intervalo [t0 , t1 ] defina la función φn (t) = x0 + (t − t0 )f (t0 , x0 ). Entonces

(3.5.1) φn (t0 ) = x0 , kφn (t) − x0 k < b para t ∈ [t0 , t1 ].

Supongamos que la función φn (t) ha sido definida en el intervalo [t0 , tk ], con k < n, si t está en

el intervalo [tk , tk+1 ] entonces φn (t) = φn (tk ) + (t − tk )f (tk , φn (tk )). De esta manera φn (t) está

definida en todo el intervalo [t0 , t0 + α].

1 Demostrar que en el intervalo [t0 , t0 + α] se cumple (3.5.1).

2 Demostrar que la familia {φn (t)} es equicontinua y uniformemente acotada en el intervalo

[t0 , t0 + α].

3 Usando el teorema de Arzela-Ascoli encontrar una subsucesión convergente.

4 Probar que el lı́mite de esta subsucesión es una solución del problema de condiciones

iniciales (3.1.1) definida en el intervalo [t0 , t0 + α].

Observación 3.27. La construcción definida en este problema se llama el método de las

quebradas de Euler.
68

3.28. Utilizando el método de quebradas de Euler, encontrar algunas soluciones aproximadas

de las ecuaciones propuestas en el problema 3.25.

³ ´
Definición 3.29. Si f (x, t) = f1 (x1 , . . . , xn , t), . . . , f1 (xn , . . . , xn , t es suave, su matriz

jacobiana con respecto a x es


 
∂f ∂f1
 ∂x11 ... ∂xn 
 
 
fx (x, t) = 
... ... .
... 
 
 
∂fn ∂fn
∂x1 ... ∂xn

3.30. Sea f : D ⊂ Rn+1 7→ Rn una función continua tal que fx (x, t) también es continua,

demostrar que f (x, t) es localmente Lipschitz. (Usar el teorema de valor medio para funciones

diferenciales).

3.31. Probar las proposición 3.12 y 3.24.

3.32. Demostrar la siguiente generalización de la desigualdad de Gronwall: Si φ, α, β :

[a, b] 7→ R son tres funciones continuas, β(t) ≥ 0 y además


Z t
φ(t) ≤ α(t) + β(s) φ(s) ds, a ≤ t ≤ b,
a

entonces
Z t µ Z t ¶
φ(t) ≤ α(t) + β(s)α(s) exp β(u) du ds, a ≤ t ≤ b.
a s

3.33. Sea g : [a, b] 7→ R una función acotada. Si u(t) tiene segunda derivada continua, se

define L(u) = u′′ + g(t)u′ , demostrar

1 Si L(u) > 0 entonces el máximo de u no es alcanzado en ningún punto interior.

2 Si u es constante entonces L(u) ≥ 0 y todos los puntos interiores son máximos.


69

3 Si L(u) ≥ 0, u(t) ≤ M y existe c ∈ (a, b) tal que u(c) = M entonces u(t) = M para todo t.

(si el máximo es alcanzado en un punto interior entonces la función u(t) es constante).

Hint: Suponga que u(c) = M , u(d) < M , c < d. Sea z(t) = eα(t−c) − 1, α es una

constante. Demuestre que z(t) < 0 si a < t < c; z(c) = 0; z(t) > 0 si c < t < [Link] α
M −u(d)
tal que L(z) > 0, 0 < ǫ < z(d) . Sea w(t) = u(t) + ǫz(t), demuestre que L(w) > 0,

w(d) < M y w(c) = M y obtener una contradicción.

3.34. Demostrar el teorema de Picard-Lindelöff usando el teorema de Peano y la desigualdad

de Gronwall.

3.35. Sean K : [a, b] × [a, b] 7→ R, g : [a, b] 7→ R funciones continuas, λ ∈ R. La ecuación

Z b
φ(x) = λ K(x, t)φ(t) dt + f (x)
a

se llama laecuación de Fredholm de segunda clase, el objetivo es encontrar la función φ(t). Este

tipo de ecuaciones son muy importantes en la fı́sica pues representan leyes de conservación. Sea

T : C ([a, b], R) 7→ C ([a, b], R) el operador definido por

Z b
T φ(x) = λ K(x, t)φ(t) dt + f (x)
a

1 Demostrar que el operador T está bien definido.


−1
2 Si |K(x, t)| < M en el cuadrado [a, b] × [a, b] en donde M > 0 y si λ < M −1 (b − a)

probar que T es una contracción definida en C ([a, b], R) y por el teorema de Banach tiene

un único punto fijo φ(t), el cual es una solución.


R 2π
3 Mediante aproximaciones sucesivas resuelver la ecuación φ(t) = λ 0
sen (x+t)φ(t) dt+1.
70

3.36. Sean f , g : D ⊂ Rn+1 7→ Rn funciones continuas y f (x, t) con constante de Lipschitz

igual a K y que satisfacen la desigualdad

kf (x, t) − g(x, t)k ≤ ǫ para todo (x, t) ∈ D.

1 Si x(t) es solución de x′ = f (x, t), x(t0 ) = x0 y y(t) es solución de y′ = g(x, t), y(t0 ) = x0

definidas ambas en el intervalo [t0 , t0 + α] entonces

kx(t) − y(t)k ≤ ǫαek(t−t0 ) .

2 Usando el problema 3.32 obtenga una desigualdad similar para el caso en que las condi-

ciones iniciales no son necesariamente iguales.

3 Considerando las ecuaciones

• Ecuación del péndulo: x′′ + sen (x) = 0, x(0) = θ0 .

• Oscilador armónico: x′′ + x = 0, x(0) = θ0 .

La segunda es una aproximación de la primera. Encontrar θ0 tal que si φ(t) es una

solución de la primera EDO, y ψ(t) es una solución de la segunda entonces para toda t

en el intervalo [0, 10] se tiene |φ(t) − ψ(t)| < 1/10.

3.37. Sea f : D :⊂ Rn+1 7→ Rn una función Lipschitz continua, α : R 7→ R continua, y tal

que para toda t ≥ t0 y para toda x ∈ Rn se sigue que x · f (t, x) ≤ α(t) kxk, entonces si x(t, t0 , x0 )

es la solución de x′ = f (t, x), x(t0 ) = x0 entonces x(t, t0 , x0 ) no tiene tiempo finito de escape

hacia adelante. [Esto es: el extremo derecho del intervalo máximo es ∞].

3.38. Para ǫ ≥ 0 demuestre que ninguna solución de la ecuación de Van Der Pol x′′ + ǫ(x2 −

1)x′ + x = 0, x(t0 ) = x0 , x′ (t0 ) = y0 tiene tiempo finito de escape.


71

R∞
3.39. Consideremos la ecuación x′ = f (t, x), donde kf (t, x)k ≤ φ(t) kxk y t0
φ(t) dt < ∞.

1 Demostrar que toda solución se aproxima a una constante.

2 Estudiar las concecuencias del inciso anterior sobre la ecuación x′ = −x + a(t)x, donde
R∞
t0
|a(t)| dt < ∞. [Hint: Usar la transformación x = e−t y].

3.6. *Ecuaciones en diferencias

Definición 3.40. Una ecuación en diferencias tiene la forma

(3.6.1) {∆xn = f (xn , n), x0 }

³ S ´
donde f : D ⊂ Rn × N {0} 7→ Rn es una función y (x0 , 0) ∈ D es el valor inicial de la sucesión.

Una solución de esta ecuación es una sucesión {xn } que satisface la ecuación en diferencias y que

empieza en x0 . Esta sucesión puede ser finita o infinita.

3.41. 1 Demostrar que las ecuaciones en diferencias se pueden escribir en la forma

{xn+1 = g(xn , n), x0 } la cual se llama una ecuación de recurrencia, más adelante no

haremos diferencia entre estas dos formas.

2 Encontrar la ecuación de recurrencia asociada a las ecuación ∆xn = r, la tasa de creci-

miento r es una constante.

Observación 3.42. Los problemas 2.40, 2.41, 2.42, 2.43, 2.45, 2.46 y 2.47 estudian algunas

ecuaciones en recurrencias.

3.43. En este problema se comparan las soluciones de las ecuaciones en diferencias con las

soluciones de las EDO’s. y cada inciso corresponde a uno de los teoremas fundamentales de este
72

capı́tulo. Se denotará por {xk (x0 )} a la solución de la ecuación en diferencias

(3.6.2) {xk+1 = f (xk , k), x0 }.

1 La ecuación en diferencias (3.6.2) tiene una única solución {xk (x0 )}.

2 Demostrar que {xk (x0 )} está definida en un intervalo de números naturales 1, 2, . . . n,

donde f (xn , n) 6∈ D o bien está definida sobre todos los números naturales.

3 En los dos incisos siguientes se supone que la función f (x, n) es continua con respecto a

la variable x ∈ D. Si {xk (x0 )} está definido para k = 1, . . . , n, entonces para toda ǫ > 0

existe δ > 0 tal que si |x0 − y0 | < δ entonces |xk (x0 ) − xk (y0 )| < ǫ para k = 1, . . . , n.

4 La sucesión {xk (x0 )} depende continuamente en la condición inicial x0 .

5 Si además la función f (xk , k, λ) depende continuamente del parámetro λ, entonces la

sucesión {xk (x0 , λ)} depende continuamente de x0 y λ.


CAPITULO 4

Sistemas de ecuaciones diferenciales lineales

4.1. Introducción

Los sistemas de ecuaciones diferenciales lineales, el objeto de este capı́tulo, surgen constan-

temente en la fı́sica; la ecuación del oscilador armónico es de este tipo; también aparecen en

la teorı́a de circuitos eléctricos. Además el movimiento del electrón en el átomo de hidrógeno,

y el movimiento de una partı́cula bajo interacción gravitacional pueden ser descritos por estos

sistemas. Estos sistemas son fundamentales en ramas de las matemáticas como son la geometrı́a

diferencial y los sistemas dinámicos. Por otro lado presentan una estructura coherente basada en

principios muy generales y simples de álgebra lineal. Por último, las EDO’s que no son lineales

se empiezan a estudiar en su aproximación lineal, en la sección 4.9 profundizaremos este punto.

El álgebra lineal necesaria para este capı́tulo se encuentra en las referencias [1, 3, 7]. Las

matrices se escribirán en mayúsculas: A, B, etc. La matriz identidad es I o bien In . El núcleo

de la matriz A es el conjunto N (A) = {x : Ax = 0}. El núcleo de Ak será denotado por N (A)k .

La matriz asociada a la familia de vectores {x1 , . . . , xn } es la matriz que tiene por columnas

a dichos vectores, esto es X = [x1 , . . . xn ]. Entonces el conjunto {x1 , . . . xn } es linealmente

independiente si y sólo si el determinante de su matriz asociada es diferente de cero. Se supondrá

que el espacio lineal Mn de las matrices cuadradas de orden n tiene la métrica inducida por la

norma kAk = supx6=0 kAxk / kxk, ver la sección 2.6.

73
74

Definición 4.1. Sean A : (a, b) 7→ Mn y g : (a, b) 7→ Rn funciones continuas. La ecuación

diferencial lineal homogénea es la EDO de la forma

(4.1.1) x′ = A(t)x.

La ecuación diferencial lineal no homogénea es la EDO

(4.1.2) x′ = A(t)x + g(t).

Ambas ecuaciones se llaman ecuaciones diferenciales lineales o sistemas lineales de ecuaciones

diferenciales.

Ejemplo 4.2. La ecuación

(4.1.3) y (n) + a1 (t)y (n−1) + · · · + an−1 (t)y ′ + an (t)y = f (t),

donde las funciones a1 (t), . . . , an (t), f (t) son continuas, es estudiada en los cursos elementales

de ecuaciones diferenciales. Para escribirla en la forma (4.1.2) se definen las variables x1 = y,

x2 = y ′ , x3 = y ′′ , . . . , xn = y (n−1) , entonces x′1 = y ′ = x2 , x′2 = y ′′ = x3 ,. . . , x′n = y (n) =

f (t) − a1 (t)y (n−1) − · · · − an−1 (t)y ′ − an (t)y = f (t) − a1 (t)xn − · · · − an−1 (t)x2 − an (t)x1 . La

ecuación (4.1.3) se transforma en


      
 x1   0 1 0 ... 0   x1   0 
      
      
 x   0 0 1 ... 0   x2   0 
   
 2   
      
d   
 ...  =  ...
   
... ... ... +
...  ...   ... 
   
.
dt 
  
     
      
x
 n−1   0 0 0 ... 1  xn−1   0 
     

      
      
xn −an −an−1 −an−2 ... −a1 xn f (t)
75

teorema 4.3. Sea (t0 , x0 ) ∈ D = {(t, x) : t ∈ (a, b), x ∈ Rn }, entonces el sistema (4.1.2)

con condición inicial x(t0 ) = x0 tiene una única solución φ(t), la cual está definida sobre todo

el intervalo (a, b).

Demostración: La demostración consiste en dos partes que se relacionan con la unicidad

local de las soluciones y con la prolongación de éstas a todo el intervalo (a, b).

Afirmación 8. La función f (t, x) = A(t)x + g(t) es localmente Lipschitz.

Demostración: Sea F ⊂ D un conjunto compacto, sea M ∈ R una cota de kA(t)k sobre

este conjunto. Las desigualdades

kf (t, x) − f (t, y)k = kA(t)x + g(t) − (A(t)y + g(t))k

= kA(t) (x − y)k ≤ kA(t)k kx − yk ≤ M kx − yk

prueban la afirmación. ¤

De este lema y del teorema de Picard-Lindelöff se sigue la unicidad de la solución φ(t). Sea

(α, β) el intervalo maximal de esta solución, demostraremos que β = b; la demostración de que

α = a es similar y se omite.

Afirmación 9. Si β < b entonces limt7→β− φ(t) existe.

°R °
° t
Demostración: Sean L, K y M cotas superiores de kA(s)k, ° t0 g(s) ds° y kg(t)k respec-
°

tivamente en algún intervalo compacto F que contiene al intervalo [t0 , β). El sistema se escribe
Rt
en la forma x(t) = x0 + t0
A(s)x(s) + g(s) ds. Tomando normas y usando la propiedad del
76

triángulo tenemos
°Z t ° °Z t ° Z t
° ° ° °
kx(t)k ≤ kx0 k + °
° A(s)x(s) ds° + °
° ° g(s) ds° ≤ kx0 k +
° L kx(s)k ds + K.
t0 t0 t0

Usando ahora la desigualdad de Gronwall e integrando obtenemos kx(t)k ≤ (x0 + K) eL(t−t0 ) .

Sea R una cota superior de kx(t)k en el intervalo F y por lo tanto en [t0 , β).

Sean t0 ≤ τ ≤ t < β, entonces

Z t Z t ¡ ¢
kx(t) − x(τ )k ≤ kA(s)x(s) + g(s)k ds ≤ LR + M ds = (LR + M ) (t − τ )
τ τ

lo que demuestra que limt7→β x(t) = x(β) existe. ¤

Usando ahora la proposición 3.13 se sigue que la solución φ(t) puede ser continuada sobre β,

lo que contradice la maximalidad del intervalo (α, β), demostrandose que β = b.

teorema 4.4. El conjunto de soluciones de (4.1.1) es un espacio vectorial de dimensión n.

Demostración: Claramente es un espacio vectorial. Consideremos la base canónica de Rn :

e1 , e2 , . . . , en . Sean φ1 (t), φ2 (t),. . . , φn (t) las soluciones de (4.1.1) tales que φi (t0 ) = ei para

i = 1, 2, . . . n.

Afirmación 10. Las funciones φ1 (t), φ2 (t),. . . , φn (t) son linealmente independientes.

Pn
Demostración: Sea i=1 αi φi (t) = 0 para todo t ∈ (a, b). Evaluandola en t = t0 se tiene

n
X n
X
0= αi φi (t0 ) = αi ei ,
i=1 i=1

de donde se sigue que α1 = α2 = · · · = αn = 0. ¤


77

Afirmación 11. Las funciones φ1 (t), φ2 (t),. . . , φn (t) generan al conjunto de soluciones de

la ecuación diferencial lineal (4.1.1).

Pn
Demostración: Sea φ(t) una solución con φ(t0 ) = x0 , entonces x0 = i=1 αi ei para
Pn
algunas constantes α1 , α2 , . . . , αn . La función ψ(t) = i=1 αi φi (t) también es una solución de

(4.1.1) que satisface ψ(t0 ) = x0 . Por el teorema Picard-Lindelöff se sigue que φ(t) = ψ(t). ¤

Estas dos afirmaciones prueban el teorema. ¤

Definición 4.5. La matriz asociada Φ(t) = [φ1 (t), φ2 (t), . . . , φn (t)] al conjunto de n solu-

ciones {φ1 (t), φ2 (t), . . . , φn (t)} de la ecuación (4.1.1) se llama una matriz solución. El determi-

nante de Φ(t) se llama su wronskiano. Si φ1 (t), φ2 (t), . . . , φn (t) son linealmente independientes

entonces forman un conjunto fundamental de soluciones y Φ(t) es una matriz fundamental. La

ecuación X′ = A(t)X, donde X es una matriz cuadrada de orden n se llama la ecuación diferen-

cial matricial asociada.

Observación 4.6. Como las matrices cuadradas de orden n son vectores de dimensión n2 ,

entonces las ecuaciones matriciales también son ecuaciones diferenciales ordinarias, y cumplen

los teoremas del capı́tulo anterior.

Ejemplo 4.7. Sean φ1 (t) = (t, t) y φ2 (t) = (|t| , |t|), entonces para cada t ∈ R se tiene

φ1 (t) = ±φ2 (t). Sin embargo, al tomar la combinación lineal a1 φ1 (t) + a2 φ2 (t) = (0, 0) en t = 1

y en t = −1, se tiene el sistema de ecuaciones: a1 + a2 = 0 y a1 − a2 = 0 lo que implica que

a1 = a2 = 0 de donde se sigue que las funciones φ1 (t) y φ2 (t) son linealmente independientes.
78

teorema 4.8. Si Φ(t) es una solución fundamental de (4.1.1), entonces satisface la ecuación

matricial asociada

(4.1.4) X′ = A(t)X.

Demostración: Se sigue de las siguientes ecuaciones

Φ′ (t) = [φ′1 , φ′2 , . . . φ′n ] = [Φ(t)φ1 , Φ(t)φ2 , . . . , Φ(t)φn ] = Φ(t) [φ1 , φ2 , . . . φn ]

teorema 4.9 (Fórmula de Abel 1). Si Φ(t) es una solución de la ecuación matricial (4.1.4),

entonces su wronskiano satisface


·Z t ¸
(4.1.5) det Φ(t) = det Φ(t0 ) exp T rA(s) ds ,
t0

donde T r(A) = a11 + · · · + ann es la traza de la matriz A.

Demostración: Si el lector encuentra difı́cil la notación empleada en los determinantes le

2
recomendamos estudiar primero el caso en que n = 2 ó 3. El determinante de la matriz A es
P
det A = σ∈Sn sgn(σ)a1σ(1) , a2σ(2) , . . . , anσ(n) .

Sea Φ(t) = [φij ] una matriz fundamental y A = [aij ] entonces Φ′ = AΦ. De donde

n
X
(4.1.6) φ′ij = aik φkj .
k=1

1A veces atribuida a Liouville.


2S = {σ : {1, 2, . . . , n} 7→ {1, 2, . . . , n} : σ es biyección} = grupo simétrico de orden n. An es el grupo
n 


 1 si σ ∈ An ,


alternante. La función signo está definida por sgn(σ) =


 −1 si σ 6∈ An .


79

Derivando y usando la regla de Leibnitz


" #
dh i d X X dh i
det Φ(t) = sgn(σ)φ1σ(1) φ2σ(2) . . . φnσ(n) = sgn(σ) φ1σ(1) φ2σ(2) . . . φnσ(n)
dt dt dt
σ∈Sn σ∈Sn

X X
= sgn(σ)φ′1σ(1) φ2σ(2) . . . φnσ(n) + sgn(σ)φ1σ(1) φ′2σ(2) . . . φnσ(n) + · · ·
σ∈Sn σ∈Sn

X
... + sgn(σ)φ1σ(1) φ2σ(2) . . . φ′nσ(n) .
σ∈Sn

Usando ahora la ecuación (4.1.6) se tiene


" n #
d X X
(4.1.7) [det Φ(t)] = sgn(σ) a1i φiσ(1) φ2σ(2) . . . φnσ(n)
dt i=1
σ∈Sn
" n #
X X
+ ··· + sgn(σ)φ1σ(1) φ2σ(2) . . . ani φiσ(n) .
σ∈Sn i=1

Consideremos la primera suma:


¯ ¯
¯P P P ¯
¯ 1j a1j φj1 a1j φj2 ··· 1j a1j φjn ¯
¯ ¯
1j
n
" # ¯ ¯
X X ¯ ¯
B= sgn σ a1i φiσ(1) φ2σ(2) . . . φnσ(n) = ¯¯ φ21 φ22 ··· φ2n ¯.
¯
σ∈Sn i=1 ¯ ¯
¯ ¯
¯
¯ φn1 φn2 ··· φnn ¯
¯

Sumando la segunda fila multiplicada por a12 a la primera, luego la tercera multiplicada por a13

a la primera, etcetera, se tiene


¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯a φ
¯ 11 11 a11 φ12 · · · a11 φ1n ¯
¯ ¯φ φ12 ··· φ1n ¯¯
¯ 11
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
B = ¯¯ φ21 φ22 ··· φ2n ¯ = a11 ¯¯ φ21
¯ φ22 ··· φ2n ¯¯ = a11 det Φ(t).
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯ φ ··· ··· φnn ¯ ¯ ¯φ ··· ··· φnn ¯¯
¯ n1 ¯ n1

Procediendo de la misma forma en las demás sumas de (4.1.7), obtenemos

d
[det Φ(t)] = [a11 + a22 + · · · + ann ] det Φ(t) = T r(A(t)) det Φ(t).
dt

Resolviendo esta sencilla ecuación diferencial se sigue la ecuación (4.1.5). ¤


80

A partir de este teorema se siguen los siguientes corolarios:

Corolario 4.10. El wronskiano de la matriz solución Φ(t) de la ecuación x′ = A(t)x es

diferente de cero para todo t en el dominio de A(t) si su wronskiano es diferente de cero en un

punto t0 .

Corolario 4.11. Una solución Φ(t) de la ecuación matricial X′ = A(t)X es una matriz

fundamental de la ecuación x′ = A(t)x si y sólo si su wronskiano es diferente de cero en un

punto t0 .

Proposición 4.12. Si Φ(t) es una matriz fundamental de x′ = A(t)x y C es una matriz

constante no singular, entonces Φ(t)C también es una matriz fundamental.


Demostración: Observemos que (Φ(t)C) = Φ(t)′ C = AΦ(t)C, por lo que Φ(t)C también

es una matriz solución. Además det[Φ(t)C] = det[Φ(t)] det C 6= 0, lo que demuestra que es una

matriz fundamental. ¤

Proposición 4.13. Sean Φ(t) y Γ(t) matrices fundamentales de la ecuación x′ = A(t)x

entonces existe una matriz constante e invertible P tal que Γ = ΦP.

Demostración: Como ΦΦ−1 = I, entonces de la regla del Leibnitz se tiene que 0 =


¢′ ¢′ ¢′ ¢′ ¢′
ΦΦ−1 = Φ′ Φ−1 + Φ Φ−1 = AΦΦ−1 + Φ Φ−1 = A + Φ Φ−1 . Despejando Φ−1
¡ ¡ ¡ ¡ ¡

¢′ ¢′ ¢′ ′
se tiene Φ−1 = −Φ−1 A(t). Entonces Φ−1 Γ = Φ−1 Γ + Φ−1 (Γ) = −Φ−1 A(t)Γ +
¡ ¡ ¡

Φ−1 A(t)Γ = 0. Lo que implica que Φ−1 Γ = C es una matriz constante. ¤

Definición 4.14. Sea x′ = A(t)x, la matriz de transición en τ es la matriz fundamental tal

que Φ(τ ) = In . Esta matriz se denotará por Φ(t, τ ).


81

Lema 4.15. Si Γ(t) es una matriz fundamental entonces Φ(t, τ ) = Γ(t)Γ(τ )−1 .

Demostración: La matriz Γ(t)Γ(τ )−1 es una matriz fundamental y su evaluación en τ es

Γ(τ )Γ(τ )−1 = I. Usando el teorema de Picard-Lindelöff que sigue el lema. ¤

teorema 4.16. Sean τ un número real en el dominio de definición de A(t), φ(t) una solución

de la ecuación (4.1.1) tal que φ(τ ) = x0 y Φ(t, τ ) su matriz de transición. Entonces

1 La matriz Φ(t, τ ) es la solución de la ecuación matricial

X′ (t) = A(t)X(t), X(τ ) = In .

2 La matriz Φ(t, τ ) es no singular para todo t y τ .

3 Para cualesquiera t, τ y σ se satisface

−1
Φ(t, τ )Φ(τ, σ) = Φ(t, σ), Φ(t, τ ) = Φ(τ, t).

4 La solución φ(t) satisface φ(t) = Φ(t, τ )x0 .

Demostración: 1) Sea Γ(t) una matriz fundamental. Entonces Φ(t, τ ) = Γ(t)Γ(τ )−1 . Por

lo tanto

∂ ∂ ¡
Γ(t)Γ(τ )−1 = A(t)Γ(t)Γ(τ )−1 = A(t)Φ(t, τ ).
¢
Φ(t, τ ) =
∂t ∂t

Además Φ(τ, τ ) = I. Del teorema de Picard-Lindelöff se sigue el inciso.

2) Es suficiente observar que det Φ(t, τ ) = det Γ(t) det Γ−1 (τ ) 6= 0.


£ ¤

3) Se sigue de las ecuaciones

Φ(t, τ )Φ(τ, σ) = Γ(t)Γ(τ )−1 Γ(τ )Γ(σ)−1 = Γ(t)Γ(σ)−1 = Φ(τ, t).


82

4) Sea ψ(t) = Φ(t, τ )x0 , entonces

ψ(τ ) = Φ(τ, τ )x0 = In x0 = x0 ,

d d
ψ(t) = [Φ(t, τ )x0 ] = A(t)Φ(t, τ )x0 = A(t)ψ(t).
dt dt

Usando nuevamente el teorema de Picard-Lindelöff se sigue ψ(t) = φ(t). ¤

Observación 4.17. La matriz de transición determina todas las soluciones de la ecuación

x′ = A(t)x, aunque puede ser difı́cil o imposible de calcular. En las secciones siguientes se des-

cribirá y se dará un algoritmo para computar la matriz de transición en el caso en que A(t) no

dependa del tiempo.

4.2. La forma de Jordan de una matriz

En esta sección daremos algunas de las propiedades de la forma de Jordan de una matriz

que serán utilizadas en la próxima sección para calcular exponenciales de matrices.

Definición 4.18. Dos matrices A y B son similares si existe una matriz no singular P tal

que A = P−1 BP. El polinomio p(λ) = det(A − λI) se llama polinomio caracterı́stico de A. Las

raices de p(λ) se llaman valores propios de A.

Definición 4.19. Un vector propio asociado al valor propio λ es un vector x ∈ Cn diferente

de 0 tal que Ax = λx. En general un vector x es un vector propio generalizado de rango k


k k−1
asociado al valor propio λ si (A − λI) x = 0, (A − λI) x 6= 0. Si además no existe un

vector y tal que (A − λI) y = x entonces x se llama un vector propio generalizado maximal. En
83

este caso la cadena de vectores propios generalizados es la sucesión

k−1
x1 = (A − λI) x = (A − λI) x2 ,

k−2
x2 = (A − λI) x = (A − λI) x3 ,

......

1
xk−1 = (A − λI) x = (A − λI) xk ,

0
xk = (A − λI) x = x.

El número k se llama la longitud de la cadena.

Recordemos que el núcleo de A − λI es denotado por N (A − λI), el núcleo de (A − λI)2

es denotado por N (A − λI)2 , etc. Entonces el vector x1 está en N (A − λI), el vector x2

está en N (A − λI)2 pero no está en N (A − λI), el vector x3 está en N (A − λI)3 pero no

está en N (A − λI)2 , etc. Si x1 , . . . , xs son valores propios generalizados maximales linealmente

independientes se puede demostrar que el conjunto de sus cadenas es linealmente independiente.

teorema 4.20. Sea A una matriz con entradas complejas, entonces


 J0 existeuna matriz no
J1
singular P tal que la matriz J = P−1 AP tiene la forma J =  .
.
 , donde J0 =
.
λ Jk
1

 λ1  r+s
λr+s 1
λ2  . 
 .  y Jr =  .  para r = 1, . . . , k. Los números λ1 , . . . ,λr+k
.  . 
. λr+s 1
λs
λr+s
son los valores propios de la matriz A. La matriz J se llama la forma de Jordan de A.

teorema 4.21. El siguiente es un algoritmo para calcular la forma de Jordan de la matriz

cuadrada matriz A y su matriz de cambio de base P.

1 Computar los valores propios de A. Sea λ un valor propio de A, con multiplicidad k.


84

2 Calcular las potencias (A − λI)i , donde i = 1 2, . . . . La dimensión del núcleo de cada

elemento de esta sucesión de matrices será denotada por ni . Sea m igual al primer natural

que cumple ni = ni+1 .

3 Observar la siguiente cadena de contenciones

N (A − λI) ⊂ N (A − λI)2 ⊂ N (A − λI)3 ⊂ · · · ⊂ N (A − λI)m = N (A − λI)m+1 ,

y además

n1 < n2 < n3 < · · · < m.

4 El núcleo N (A − λI)m es la suma directa de N (A − λI)m−1 y un subespacio W1 de

dimensión j1 . Dar una base x1 , . . . , xj1 de W1 . Cada uno de estos vectores es generalizado

maximal y además define una cadena de longitud m. La primera de estas cadenas es

x11 = (A − λI)m−1 x1 , . . . , x1,m−1 = (A − λI)x1 , x1,m = x1 . De esta manera se definen

m j1 vectores linealmente independientes. Si k = m j1 entonces ir al siguiente paso. Si

éste no es el caso observemos que los j1 vectores definidos por x1,m−1 = (A − λI)x1 ,

x2,m−1 = (A − λI)x2 , . . . , xj1 ,m−1 = (A − λI)xj1 son linealmente independientes y están

contenidos en N (A − λI)m−1 . Si j1 = nm−1 continuar con el análisis del siguiente núcleo

N (A − λI)m−2 . En otro caso como el núcleo N (A − λI)m−1 es la suma directa de N (A −

λI)m−2 y un subespacio W2 de dimensión j2 . Sea y1 ,. . . , yj2 una base de W2 , nuevamente

cada uno de estos vectores define una cadena de longitud m − 1 y ahora se tienen mj1 +

(m−1)j2 vectores linealmente independientes. Si k es igual a este número se ha terminado

este paso, de otra forma continuar el mismo análisis en los siguientes núcleos. De esta

forma se encuentran exactamente k vectores propios generalizados asociados a λ.

5 Repetir la misma construcción para los siguientes valores propios.


85

6 Los vectores propios generalizados x11 , x12 ,. . . , ası́ obtenidos forman una base. Como

Ax11 = λx1 , Ax12 = x11 + λx12 , y ası́ sucesivamente hasta Ax1k = x1,k−1 + λx1k .

Entonces la matriz A tiene la siguiente representación en la nueva base

 λ 1
 
λ 1
.
0
  
 .  
.
J= .
 
λ 1
 λ 
 . 
.
0 .
.

7 Finalmente observemos que la matriz de similaridad P = [x11 , x12 , . . . , x1k , . . . ] satisface

J = P−1 AP.

Cada uno de estos pasos presenta dificultades, por ejemplo los valores propios de una matriz

son las raices de un polinomio, la obtención de estas raices es tema central en la teorı́a de Galois

y el análisis numérico.

Ejemplo 4.22. Encontrar la forma de Jordan de la matriz

 
2 1 −1 0 −2
 
 
0 2 0 1 3
 
 
 
A=
0 0 2 1 1.
 
 
0 0 0 2 −1
 
 
 
0 0 0 0 3

Como la matriz A es triangular superior su polinomio caracterı́stico es (x−2)4 (x−3) y sus valores

propios son 2 y 3, de multiplicidad 4 y 1 respectivamente. Como siguiente paso computemos la


86

sucesión de matrices (A − 2I)i y la dimensión de su núcleo ni .

   
0 1 −1 0 −2 0 0 0 0 0
   
   
0 0 0 1 3 0 0 0 0 2
   
   
2 3
   
A − 2I = 
0 0 0 1 1 , (A − 2I) = (A − 2I) = 
0 0 0 0 0,
   
   
0 0 0 0 −1 0 0 0 0 −1
   
   
   
0 0 0 0 1 0 0 0 0 1

n1 = 2, n2 = n3 = 4.

Como la dimensión de los núcleos de (A−2I)2 y (A −2I)3 son iguales, el cálculo de las potencias

es detenido y se pueden construir cadenas de vectores generalizados de a lo más longitud dos.

El vector x = (0, 1, 0, 0, 0) es un vector propio de rango 2 pues satisface (A − 2I)2 x = 0 y

(A − 2I)x = (1, 0, 0, 0, 0). Tenemos la siguiente cadena

x1 = (1, 0, 0, 0, 0), x2 = (0, 1, 0, 0, 0).

Como la multiplicidad del valor propio 2 es 4, faltan dos vectores propios generalizados asociados

a este valor.

El vector x = (0, −2, −1, 1, 0) es un vector propio generalizado de rango 2, pues satisface

(A − 2I)2 x = 0 y (A − 2I)x = (−1, 1, 1, 0, 0). Además los vectores x1 y x son linealmente

independientes por lo tanto la cadena faltante asociada al valor propio 2 es

x3 = (−1, 1, 1, 0, 0), x4 = (0, −2, −1, 1, 0).


87

Un vector propio asociado a 3 es x5 = (0, 2, 0, −1, 1). Entonces la forma de Jordan de A, J y la

matriz de cambio de base P = [x1 , . . . , x5 ] son

   
2 1 0 0 0 1 0 −1 0 0
   
   
0 2 0 0 0 0 1 1 −2 2 
   
   
   
J=
0 0 2 1 0, P=
0 0 1 .
−1 0 
   
   
0 0 0 2 0 0 0 0 1 −1
   
   
   
0 0 0 0 3 0 0 0 0 1

Observemos finalmente que N (A − 2I) es generado por los vectores x1 , x3 , y que N (A − 2I)2

es la suma directa de N (A − 2I) y del subespacio generado por x2 , x4 .

Ejemplo 4.23. En este ejemplo se calcula la forma de Jordan de la matriz

 
0 3 −3 2
1
 
 
−1 4 −2 2 0
 
 
 
B=
1 −3 .
4 −2 −1
 
 
3 −6 5 −3 0 
 
 
 
1 −3 3 −2 0

El polinomio caracterı́stico de B es x5 − 5x4 + 10x3 − 10x2 + 5x − 1 = (x − 1)5 , entonces el único

valor propio es 1 y tiene multiplicidad igual a 5.


88

Computemos (B − I)k y la dimensión de su núcleo nk para k = 1, 2, . . . .

   
−1 3 −3 12 2 0 1 0 1
   
   
−1 3 −2 2 0 2 0 1 0 1
   
   
  2  
B−I=
 1 −3 ,
3 −2 −1 (B − I) = 
−2 0 −1 0 ,
−1
   
   
 3 −6 5 −4 0  −4 0 −2 0 −4
   
   
   
1 −3 3 −2 −1 −2 0 −1 0 −1

3 4
(B − I) = (B − I) = 0,

n1 = 2, n2 = 4, n3 = n4 = 5.

3
Comparando las dimensiónes de los núcleos se ve que existe un único vector en N (B − I) −
2 2
N (B − I) ; dos vectores linealmente independientes en N (B − I) − N (B − I); y finalmente dos

vectores linealmente independientes en N (B − I). Tenemos la siguiente cadena de longitud 3:

x3 = (1, 0, 0, 0, 0)

x2 = (B − I) x3 = (−1, −1, 1, 3, 1)

2
x1 = (B − I) x3 = (B − I) x2 = (2, 2, −2, −4, −2)

2
Observemos que x2 está en N (B − I) −N (B − I). Existe otro vector linealmente independiente

en este conjunto, por ejemplo y = (−1, 0, 0, 0, 2), por lo que la cadena faltante es

y2 = (−1, 0, 0, 0, 2),

y1 = (B − I) y2 = (3, 1, −3, −3, −3).


89

De esta información se deduce que la forma de Jordan J, y la matriz de cambio de base P =

[x1 , x2 , x3 , y1 , y2 ] son:
   
1 1 0 0 0  2 −1 1 3 −1
   
   
0 1 1 0 0  2 −1 0 1 0
   
   
   
J=
0 0 1 0 0, P=
−2 1 0 −3 0  .

   
   
0 0 0 1 1 −4 3 0 −3 0 
   
   
   
0 0 0 0 1 −2 1 0 −3 2

4.3. La exponencial de una matriz

teorema 4.24. Sea A una matriz cuadrada de orden n, definiendo A0 = I entonces la suma

Ak
Pn
de matrices Sn (A) = k=0 k! converge.

Demostración: Como el espacio de matrices Mn es de Banach, es suficiente probar que la

sucesión de matrices Sn es una sucesión de Cauchy. Supongamos que n > m, entonces


° °
n n k
° X Ak ° X kAk
kSn − Sm k = ° °≤ .
° °
° k! ° k!
k=m+1 k=m+1

Pn kAkk
Pero kAk es un número real, entonces k=m+1 k! 7→ 0, si m, n 7→ 0, de donde la sucesión de

matrices Sn es de Cauchy. ¤

Definición 4.25. La exponencial de la matriz A, denotada por eA o por exp(A), es


X Ak
eA = lim Sn = .
n7→∞ k!
k=0

Las exponenciales de matrices tienen propiedades similares a las exponenciales de números.

Los siguientes lemas y ejemplos darán un método para calcularlas usando su forma de Jordan.
90

Lema 4.26. Si A es una matriz cuadrada entonces AeA = eA A.

Demostración: Consideremos la siguiente suma

n n n n n
" #
X Ak X AAk X Ak+1 X Ak A X Ak
A = = = = A.
k! k! k! k! k!
k=0 k=0 k=0 k=0 k=0

Tomando lı́mites se sigue que

n n
" #
X Ak X Ak
AeA = A lim = lim A = eA A.
n7→∞ k! n7→∞ k!
k=0 k=0

Proposición 4.27. Si AB = BA entonces eA+B = eA eB .

Demostración: Es suficiente probar que

S2n (A + B) = Sn (A)Sn (B) + Rn ,

donde limn7→∞ Rn = 0.

Fijemos n ∈ N y definamos

2n s
X (A + B)
C = S2n (A + B) = .
s=0
s!

Como AB = BA entonces es válido el binomio de Newton:

s s X A t Br
X X s! X s!
(A + B)s = ( st ) At Bs−t = At Bs−t = At Br = s! ,
t=0 t=0
t! (s − t)! t+r=s
t! r! t+r=s
t! r!

entonces
2n 2n X
à !
X 1 X A t Br X At Br
C= s! = .
s=0
s! t+r=s
t! r! s=0 t+r=s
t! r!
91

2n

P
n

Q R
t
n 2n

Figura 1. Conjunto de ı́ndices de la matriz C.

El triángulo más grande en la figura 1 es el conjunto de ı́ndices de la doble sumatoria, éste

es dividido en los conjuntos

P = {(t, r) : 0 ≤ t ≤ n, n + 1 ≤ r ≤ 2n − t},

Q = {(t, r) : 0 ≤ t ≤ n, 0 ≤ r ≤ n},

R = {(t, r) : n + 1 ≤ t ≤ 2n, 0 ≤ r ≤ 2n − t}.

Separando los ı́ndices correspondientes a cada conjunto se obtiene que

n X
n n 2n−t 2n 2n−t
X At Br X X At Br X X At Br
C= + +
t=0 r=0
t! r! t=0 r=n+1
t! r! t=n+1 r=0
t! r!
n n n 2n−t 2n 2n−t
X A t X Br X X A t Br X X A t Br
= + +
t=0
t! r=0 r! t=0 r=n+1
t! r! t=n+1 r=0
t! r!

Xn 2n−t
X A t Br X2n 2n−t
X A t Br
= Sn (A)Sn (B) + + .
t=0 r=n+1
t! r! t=n+1 r=0
t! r!
92

Agrupando C y Sn (A)Sn (B), tomando normas y usando las propiedades de éstas se sigue

Xn 2n−t
X kAkt kBkr X2n 2n−t
X kAkt kBkr
kC − Sn (A)Sn (B)k ≤ +
t=0 r=n+1
t! r! t=n+1 r=0
t! r!
n 2n t r 2n X 2n t r
X X kAk kBk X kAk kBk
≤ +
t=0 r=n+1
t! r! t=n+1 r=0
t! r!
n t 2n r 2n t 2n r
X kAk X kBk X kAk X kBk
= +
t=0
t! r=n+1 r! t=n+1
t! r=0 r!
2n r 2n t
X kBk X kAk kBk
≤ekAk + e 7→ 0 ¿Por qué?
r=n+1
r! t=n+1
t!

A continuación daremos un método para calcular exponenciales de matrices.


λ 
λ
Proposición 4.28. La exponencial de la matriz A =  .  es eλt I.
.
.
λ

 λn tn 
λn tn
n
Como (At) = An tn =  .
.
, se sigue que
.
n n
λ t
 λn tn 
λn tn
 . 
.
∞ n ∞ .
X (At) X
λn tn
eAt = =
n=0
n! n=0
n!
   
P∞ λn tn λt
 n=0 n!  e 
   
   
λn tn
P∞

 n=0 n!
 
  eλt 

   
   
 .   . 
 = eλt In .
   
=
=
  

 .  
  . 

   
   

 .  
  . 

   
   
λn t
n
P∞
n=0 n! eλt
93

0 1 
0 1
.
Proposición 4.29. La exponencial de B =   es la matriz dada en la ecua-
 
.
.
0 1
0
ción (4.3.1).

0 0 1  0 0 0 1 
001 0001
. .
 . 
Las potencias de B son B2 =  .
 , B3 =  , etcetera. Observa-
 
. .
001
 0 0 1
00 000
0 00
0
k
mos que para calcular B se recorre k lugares a la derecha los 1’s localizados sobre la diagonal.

Además Bk = 0, si k ≥ n donde n es el orden de B. Calculemos ahora la exponencial de Bt.


Ã0 0 0 ... 1 0 0 ... 0 0 0
!
0 0 0 ... 0 1 0 ... 0 0 0
∞ k n−1
0 0 0 ... 0 0 1 ... 0 0 0 tk
... ... ...
X (Bt) X 0 0 0 ... 0 0 0 ... 0 0 0
(4.3.1) eBt = =
k! k!
k=0 k=0
 
2 3 n−2 n−1
1 t t /2! t /3! ... t /(n − 2)! t /(n − 1)! 
 
 

 1 t t2 /2! ... tn−3 /(n − 3)! tn−2
/(n − 2)! 

 
 

 ... ... ... 

=

.


 ... ... ... 

 
 

 1 t 

 
 
1

Proposición 4.30. Calculo de la exponencial de una célula de Jordan.

Usando las proposiciones anteriores la exponencial de una célula de Jordan es


λ 1

λ1
.
C=A+B= .
 
.
.
λ 1
λ

Como AB = BA, de la proposición 4.27 se sigue que eCt = eλt eBt , donde eBt fue calculada en

el ejemplo anterior.
94

Proposición 4.31. La ecuación (4.3.2) es la exponencial de la matriz de Jordan J definida

a continuación.

Demostración: Si la matriz J tiene la forma


 J1 
J2
J= . ,
.
.
Jk

donde cada Jk es una célula de Jordan. Entonces

Jn
 
1
Jn
2
Jn =  .
,
 
.
.
Jn
k

de donde se sigue que


 
eJ1
e J2
(4.3.2) eJ =  . .
 
.
.
e Jk

Proposición 4.32. Si A = P−1 BP entonces eAt = P−1 eBt P.

Demostración: Como Ak = P−1 Bk P entonces

n n ¡ −1 ¢k n
X (At)k X P BPt X P−1 Bk Ptk
eAt = lim = lim = lim
n7→∞ k! n7→∞ k! n7→∞ k!
k=0 k=0 k=0
à n ! à n
!
X Bk tk X Bk t k
= lim P−1 P = P−1 lim P = P−1 eBt P
n7→∞ k! n7→∞ k!
k=0 k=0

Se tiene entonces un método de calcular la exponencial de una matriz, el cual consiste en

buscar su forma de Jordan, luego se obtienen las exponenciales de sus células, etc.
95

Ejemplo 4.33. Calculemos eAt , donde A está definida en el ejemplo 4.22. Usaremos la

notación de este ejemplo.

−1
t
eAt =ePJP = PeJt P−1
     
1 0 −1 0 0 2 1 0 0 0   1 0 1 1 1
     
     
0 1 1 −2 2  0 2 0 0 0  0 1 −1 1 −1
 
  
     
     
=
0 0 1 −1 −1
 exp 0
 0 2 1 0t 0
 0 1 1 1 
     
     
0 0 0 1 1 0 0 0 2 0  0 0 0 1 1
 
  
     
     
0 0 0 0 1 0 0 0 0 3 0 0 0 0 1
   
1 0 −1 0 0 e2t te2t 0 0 0  1 0 1 1 1
   
   
0
 1 1 −2 2 
 0
 e2t 0 0 0  0
 1 −1 1 −1

   
   
=
0 0 1 −1 −1
 0
 0 e2t te2t 0  0
 0 1 1 1
   
   
0
 0 0 1 1 0
 0 0 e2t 0  0
 0 0 1 1
   
   
0 0 0 0 0 0 0 0 0 e3t 0 0 0 0 1
 
2t 2t 2t 2t
e te −te 0 −2te 
 
 
0
 e2t 0 te2t 2t 3t
−2e + 2e + te  2t 
 
 
=
0 0 e2t te2t te 2t .

 
 
0
 0 0 e2t 2t
e −e 3t 

 
 
0 0 0 e2t e3t

4.4. Sistemas de ecuaciones diferenciales con coeficientes constantes

teorema 4.34. Sea A una matriz cuadrada y constante, t0 ∈ R, x0 ∈ R, consideremos la

ecuación diferencial x′ = Ax, entonces


96

1 La matriz F(t) = eAt es una matrix fundamental.


¡ ¢−1
2 Para todo t, τ ∈ R se tienen las identidades eAt eAτ = eA(t+τ ) , eAt = e−At .

3 La matriz de transición es F(t, τ ) = eA(t−τ ) .

4 La única solución φ(t) de x′ = Ax, x(t0 ) = x0 es φ(t) = eAt x0 .

Demostración: 1) Consideremos la ecuación matricial X′ = AX, X(0) = I. Por el método

de aproximaciones sucesivas la solución de esta ecuación diferencial es el punto lı́mite de la

sucesión:
Z t
X0 = I, Xn+1 (t) = I + A Xn (s) ds.
0

Esto es

X0 = I,
Z t
X1 (t) = I + A ds = I + At,
0
t
1 2
Z
X2 (t) = I + (I + As) ds = I + At + At ,
0 2!
Z tµ ¶
1 2 1 1
X3 (t) = I + I + As + As ds = I + At + At2 + At3 ,
0 2 2! 3!

7→ eAt .

¡ ¢
De donde F(t) = eAt es matriz solución, usando la fórmula de Abel se tiene que det eAt =

eTr At 6= 0, por lo que eAt es una matriz de transición.

2) Como (At1 )(At2 ) = (At2 )(At1 ), entonces eAt1 eAt2 = eAt1 +At2 = eA(t1 +t2 ) .

3) Del inciso anterior se sigue que eAt e−At = eA(t−t) = e0 = I, por lo que la inversa de eAt

es e−At .
¢−1
= eA(t−τ ) .
¡
4) La matriz de transición es F(t, τ ) = eAt eAτ
97

³ ´
α −β
Ejemplo 4.35. Sea A = β α , donde β 6= 0, en este ejemplo se calculará la matriz

exponencial eAt por dos métodos diferentes. Como primer método se usará la forma de Jordan

de A. Siguiendo el procedimiento dado en la sección 4.2, se obtiene que la relación entre A y su

forma de Jordan es
     
α −β   1/2 1/2 α + βi 0  1 i 
 =   ,
     
β α −i/2 i/2 0 α − βi 1 −i

entonces
        
α −β    1/2 1/2 α + βi 0   1 i 
exp 

 t = 
  
 exp 
 
 t 
 


β α −i/2 i/2 0 α − βi 1 −i
   
 1/2 1/2 e(α+βi)t 0  1 i 
=







−i/2 i/2 0 e(α−βi)t 1 −i
 
 cos(βt) −sen (βt)
=eαt 

,

sen (βt) cos(βt)

aquı́ se ha usado e(α+βi)t = eαt [cos βt + i sen (βt)].

El teorema 4.34 da otra forma de calcular la matriz exponencial. La matriz eAt es la matriz

fundamental de la ecuación diferencial


    
x′  α −β  x
 =  , x(0) = x0 , y(0) = y0 .
    
y′ β α y

La cual se puede escribir en terminos de sus componentes como

x′ = αx − βy, y ′ = βx + αy, x(0) = x0 , y(0) = y0 .


98

Transformando a coordenadas polares x = ρ cos θ, y = ρ sen θ se tiene

x′ = cos θ ρ′ − ρ sen θ θ′ ,

y ′ =sen θ ρ′ + ρ cos θ θ′ .

¯ ¯
¯ ¯
¯cos θ −ρ sen θ¯¯
¯
Como el determinante ¯¯ ¯ = ρ 6= 0, por la regla de Cramer se sigue
¯
¯sen θ ρ cos θ ¯¯
¯

¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯x′ −ρ sen θ¯¯ ¯αx − βy −y ¯¯
¯ ¯
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯y ′ ρ cos θ ¯¯ ¯βx + αy x ¯¯ α x2 + y 2
¡ ¢
¯ ¯ αρ2
ρ′ = = = = = αρ,
ρ ρ ρ ρ
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯cos θ x′ ¯¯ ¯x αx − βy ¯¯
¯ ¯ρ
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯sen θ y ′ ¯¯ ¯x βx + αy ¯¯ β x2 + y 2
¡ ¢

¯ ¯ρ βx2 + αxy − αxy + βy 2 βρ2
θ = = = 2
= = 2 = β.
ρ ρ ρ ρ ρ

Integrando se obtiene ρ(t) = c1 eαt , θ(t) = βt + c2 , donde c1 y c2 son constantes, en coordenadas

cartesianas se tiene x(t) = c1 eαt cos(βt + c2 ), y(t) = c1 eαt sen (βt + c2 ). Evaluando en t = 0 se

tiene x0 = c1 cos(c2 ) y y0 = c1 sen (c2 ). Para encontrar la matriz fundamental se hace el siguiente

cómputo:

     
αt
x(t)  c1 e cos(βt + c2 )  cos(βt) cos(c2 ) − sen (βt)sen (c2 )
  =  = c1 eαt  
     
αt
y(t) c1 e sen (βt + c2 ) sen (βt) cos(c2 ) + cos(βt)sen (c2 )
     
 cos(βt) −sen (βt) c1 cos(c2 )  cos(βt) −sen (βt) x0 
=eαt 



 = eαt 
 
 .
 
sen (βt) cos(βt) c2 sen (c2 ) sen (βt) cos(βt) y0
99

Entonces la matriz fundamental de la ecuación diferencial lineal es


 
 cos(βt) −sen (βt)
eAt = eαt 

,

sen (βt) cos(βt)

este resultado coincide con el obtenido con el primer método.

En el siguiente teorema se dan las soluciones de las ecuaciones diferenciales lineales no ho-

mogéneas.

teorema 4.36. La solución de

(4.4.1) x′ = Ax + f (t) x(t0 ) = x0 ,

donde A es una matriz constante y f : (α, β) ⊂ R 7→ Rn es una función suave, es

Z t
(4.4.2) x(t) = eA(t−t0 ) x0 + eA(t−s) f (s) ds.
t0

Demostración: Primero escribamos la ecuación (4.4.1) como x′ − Ax = f (t). Usando


¡ −At ¢′
e = −Ae−At , la fórmula de Leibnitz, la conmutatividad del producto de A y e−At y

sustituyendo la ecuación anterior obtenemos

¡ −At ¢′ ¢′
x = e−At x′ + e−At x = e−At x′ − Ae−At x
¡
e

= e−At x′ − e−At Ax = e−At (x′ − Ax) = e−At f (t).

¢′
Esto es e−At x = e−At f (t). Integrando ahora desde t0 hasta t se tiene
¡

Z t
e−At x(t) − e−At0 x(t0 ) = e−As f (s) ds
t0

Y finalmente despejando x(t) obtenemos la ecuación (4.4.2). ¤


100

4.5. Más sobre la forma de Jordan y la matriz exponencial

Esta sección contiene varias observaciones sobre la forma de Jordan y la matriz exponencial

que son muy importantes en el estudio posterior de las ecuaciones diferenciales. Consideremos el

bloque de Jordan
λ 1

λ1
.
J= ,
 
.
.
λ 1
λ

donde λ ∈ R o C. En ocasiones es conveniente reemplazar los 1’s con un número ǫ 6= 0. Para hacer
1  1 
ǫ ǫ−1
ǫ2 ǫ−2
esto definamos Qǫ =   entonces Q−1 =  . Es inmediato
   
. ǫ .
. .
. .
ǫk−1 ǫ1−k
verificar  
λ ǫ 
 
 

 λ ǫ 

 
 

 . 

 
−1
 
Qǫ JQǫ = 
 . .

 
 

 . 

 
 

 λ ǫ
 
 
λ

Para matrices de Jordan se opera bloque por bloque.

Ahora consideremos las ecuaciones de la forma

x′ = Ax, o bien x′ = Ax + f (t, x).

Para simplificar estas ecuaciones se procede a hacer un cambio lineal de variables, si x = Qy

donde det(Q) 6= 0 y J = Q−1 AQ entonces se obtienen las ecuaciones

y′ = Jy, o bien y′ = Jy + f (t, Qy).


101

Se busca una matriz Q tal que este cambio de variables haga estos problemas más sencillos que

los originales. El candidato obvio es que J es la forma de Jordan, pero surgen varios problemas.

Los valores propios de A no tienen por que ser reales; la matriz de cambio de bases Q puede

ser no real; y f (t, Qy) puede no existir si Q toma valores complejos. Una manera de resolver

estos problemas es buscar alguna forma análoga a la de Jordan, pero definida sobre los números

reales. Para dar esta forma postulemos primero que los valores propios complejos de A se pueden

agrupar, contando multiplicidades, en parejas de la forma λ = α + iβ, λ = α − iβ, donde β 6= 0

y tales que los correspondientes bloques de Jordan son

 λ 1
 
λ1
 .  
 .  
 . 
 λ 1 
λ
,
  
 λ 1
 λǫ 
  . 
  . 
  . 
λ ǫ
λ

donde ambos bloques de Jordan tienen la misma dimensión k. Se puede demostrar que existe una

matrix P constante, real e invertible y tal que PJP−1 tiene en su diagonal bloques de dimensión

2k de la forma
 
³ ´ ³ ´
α β 1 0
 −β α 0 1 
 
 ³ ´ ³ ´ 
 α β 1 0 
 −β α 0 1 
 
 ³ ´ 
 α β .
 −β α 
 
 . 
 . 
 . 
 . 
 ³ ´
α β
−β α

Al sustituir los bloques de Jordan correspondientes a entradas complejas por bloques que tienen

la forma anterior, que tienen la ventaja de ser reales, se obtiene la forma de Jordan real.
102

Otra posibilidad es trabajar con funciones analı́ticas y con su extensión a subconjuntos

abiertos de Cn .

Para terminar esta sección notemos que calcular formas de Jordan y matrices exponenciales

puede ser muy difı́cil, la referencia [4] incluye una amplia discusión de las posibles complicaciones

que pueden haber, ası́ como varias formas de calcular las matrices exponenciales.

4.6. Retratos fase en el plano

Consideremos el sistema de ecuaciones diferenciales dado por

x′1 = a11 x1 + a12 x2 , x′2 = a21 x1 + a22 x2 , aij ∈ R.

también escrito como


   
a11 a12  x1 
(4.6.1) x′ = Ax, A=

,
 x=
 .

a21 a22 x2

Haciendo el cambio lineal de variables x = Py, donde P es una matriz lineal constante e invertible

se obtiene y′ = P−1 x′ = P−1 Ax = P−1 APy y el sistema se transforma en

(4.6.2) y′ = Jy, donde J = P−1 AP.

Para regresar al sistema original (4.6.1) se realiza la transformación lineal inversa por lo que,

sin perdida de generalidad, se puede suponer que el sistema ya está en su forma de Jordan real.

Como se verá a continuación, el diagrama de fase de (4.6.2) está determinado sobre todo por

los valores y vectores propios. Antes de estudiar las diferentes posibilidades, observemos que si

α(t) = (y1 (t), y2 (t)) es una solución, entonces la inclinación de α(t) es medida por

d y2 y′
m(t) = = 2′ .
d y1 y1
103

4.6.1. La matriz J tiene dos vectores propios diferentes y reales. Sean λ1 y λ2 los
¡ λ1 0
¢
dos valores propios de J, los cuales son necesariamente reales. Entonces J = 0 λ2 , y el sistema

(4.6.2) es

y1′ = λ1 y1 , y2′ = λ2 y2 .

Las soluciones son las curvas α(t) = (c1 eλ1 t , c2 eλ2 t ), donde c1 y c2 son constantes. Si c1 = 0 ó

c2 = 0 entonces y1 (t) = 0 ó y2 (t) = 0 respectivamente. Las soluciones que empiezan en el eje X

o en el eje Y cumplen esta condición y por lo tanto siempre estarán en estos ejes. Tenemos cinco

soluciones particulares: los cuatro semiejes y la solución constante α(t) = (0, 0). En otro caso la

inclinación de α(t) es

y2′ λ2 c2 eλ2 t λ2 c2 (λ2 −λ1 )t


m(t) = ′ = = e .
y1 λ1 c1 eλ1 t λ1 c1

Caso 1: 0 < λ1 < λ2 . Las funciones y1 (t), y2 (t) y m(t) son estrictamente crecientes y se

tienen los siguientes lı́mites

lim y1 (t) = 0, lim y1 (t) = ±∞,


t7→−∞ t7→∞

lim y2 (t) = 0, lim y2 (t) = ±∞,


t7→−∞ t7→−∞

lim m(t) = 0, lim m(t) = ±∞.


t7→∞ t7→−∞

Donde el signo del lı́mite al infinito depende del signo de c1 o c2 . El origen (0, 0) en esta EDO

se llama nodo. Con esta información se construye el diagrama de fase, ver la figura 2.

Caso 2: 0 = λ1 < λ2 . En este caso y1 (t) = c1 . Además y2 (t) 7→ ±∞ si t 7→ ∞ y y2 (t) 7→ ±0

si t 7→ −∞. El diagrama de fase está en la figura 2.


104

y2 y2

1
y1 y1

0 < l1 < l2 0 = l1 < l2

y2

y1

l1 < 0 < l2 0 < l1 = l2

Figura 2. Gráficas de las soluciones de la subsección 4.6.1.

Caso 3 : λ1 < 0 < λ2 . Las funciones y2 (t) y m(t) son estrictamente crecientes, y1 (t) es es-

trictamente decreciente. Además se tienen los siguientes lı́mites

lim y1 (t) = ±∞, lim y1 (t) = 0, (c1 6= 0),


t7→−∞ t7→∞

lim y2 (t) = 0, lim y2 (t) = ±∞, (c2 6= 0),


t7→−∞ t7→∞

lim m(t) = 0, lim m(t) = ±∞, (c1 , c2 6= 0).


t7→−∞ t7→∞

El origen (0, 0) en esta EDO se llama un punto hiperbólico o punto silla. En la figura 2 se

encuentra es diagrama de fase.


105

y2 y2

y1 y1

0<l 0=l

Figura 3. Gráficas de las soluciones de la subsección 4.6.2.

Caso 4 : 0 < λ1 = λ2 . Se sigue que m(t) es una función constante. Además se tienen los

siguientes lı́mites

lim y1 (t) = ∞, lim y2 (t) = ∞,


t7→∞ t7→∞

lim y1 (t) = 0, lim y2 (t) = 0.


t7→−∞ t7→−∞

Con esta información se demuestra que las órbitas son rayos que salen del origen, junto con el

origen. En la figura 2 se encuentra el diagrama de fase.

Caso 5 : 0 = λ1 = λ2 . En este caso y1 (t) = c1 , y2 (t) = c2 y las soluciones son constantes.

4.6.2. La matriz J tiene un único valor propio real y un único vector propio. La
¡λ 1¢
forma de Jordan es J = 0 λ . Las componentes de las soluciones son

y1 (t) = (c1 + c2 t)eλt , y2 (t) = c2 eλt .

c2 λ
Entonces y1′ (t) = (c2 + λ(c1 + c2 t)) eλt , y2′ (t) = c2 λeλt y m(t) = c2 +λ(c1 +c2 t) .
106

Caso 6: 0 < λ. Se tienen los siguientes lı́mites

lim y1 (t) = 0, lim y1 (t) = ±∞, (c1 6= 0 or c2 6= 0),


t7→−∞ t7→∞

lim y2 (t) = 0, lim y2 (t) = ±∞, (c2 6= 0),


t7→−∞ t7→∞

lim m(t) = 0 (c2 6= 0), lim m(t) = 0, (c2 6= 0).


t7→−∞ t7→∞

En la figura 3 se encuentra es diagrama de fase. El caso 0 > λ es muy similar y será omitido.

Caso 7: 0 = λ. Las componentes de las soluciones son

y1 (t) = c1 + c2 t, y2 (t) = c2 .

Entonces si c2 > 0 se sigue y1 (t) 7→ ∞ si t 7→ ∞, y1 (t) 7→ −∞ si t 7→ −∞. Si c2 < 0 se sigue

y1 (t) 7→ ∞ si t 7→ −∞, y1 (t) 7→ −∞ si t 7→ ∞. Si c2 = 0 entonces y1 (t) = c1 , y2 (t) = 0, entonces

el eje X está formado por puntos fijos. En la figura 3 se encuentra el diagrama de fase.

4.6.3. La matriz J tiene valores propios complejos λ = α + β i y λ = α − β i, β 6= 0.


³ ´
La forma de Jordan real es J = α −β
β α , que fue estudiada en el ejemplo 4.35. Las soluciones

son, en coordenadas polares, ρ(t) = c1 eαt , θ(t) = βt + c2 , donde c1 y c2 son constantes, se observa

que α está relacionada con el cambio en el radio, mientras que β es la velocidad angular, ésta es

constante.

Caso 8: α = 0, β < 0. En este caso el radio es constante, por lo que las órbitas son cı́rculos

con centro en el origen y que son recorridos a velocidad uniforme en sentido de las manecillas del

reloj. Ver la figura 4.

Caso 9: α > 0, β < 0. El radio crece a una velocidad uniforme y satisface r(t) 7→ ∞. Las

órbitas son espirales que giran alrededor del origen en sentido de las manecillas del reloj. Ver la

figura 4.
107

y2 y2

y1 y1

a=0 b<0 a>0 b<0

Figura 4. Gráficas de las soluciones de la subsección 4.6.3.

El resto de los casos posibles son similares a los estudiados y son omitidos.

4.7. Retratos fase en el espacio

En esta sección se estudian los retratos fase de las ecuaciones diferenciales lineales en tres

dimensiónes, no daremos su clasificación completa. La siguiente ecuación diferencial nos mostrará

algunas de las dificutades que pueden surgir. Sea x′ = αx − y, y ′ = x + αy, z ′ = −z. O bien

 
α −1 0
 
x′ = A x,
 
(4.7.1) donde A = 
1 α 0.
 
 
0 0 −1

La matriz A está en forma de Jordan real, pero es natural escribir esta ecuación en coordenadas

cilı́ndricas. Recordemos que las coordenadas cilı́ndricas del punto (x, y, z) son (ρ, θ, z) donde

x = ρ cos θ, y = ρ sen θ y z = z. El plano X − Y satisface z = 0. El eje Z es ρ = 0, y en general

ρ = c es un cilindro cuyo eje es el eje Z.


108

Procediendo como en el ejemplo 4.35 el sistema se transforma en

(4.7.2) ρ′ = α ρ, θ′ = 1, z ′ = −z.

Integrando se obtiene ρ(t) = c1 eαt , θ(t) = t + c2 , z(t) = c3 e−t . Entonces

lim z(t) = ±∞, lim z(t) = 0.


t7→−∞ t7→∞

Como la coordenada θ(t) crece uniformemente entonces las soluciones giran alrededor del eje Z,

como z(t) tiende a cero entonces todas las soluciones se aproximan al plano X − Y . Más aún,

si c1 = 0 entonces ρ(t) = 0; si c3 = 0 entonces z(t) = 0, por lo que las soluciones que en

algún momento están en el eje Z o el plano X − Y siempre permanecerán en estos conjuntos.

Estudiaremos a continuación los diferentes retratos de fase resultantes al ir variando α.

Caso 1: α > 0. En este caso

lim ρ(t) = 0, lim ρ(t) = ∞.


t7→−∞ t7→∞

Las soluciones se alejan del eje Z. Ver la figura 5.

Caso 2: α = 0. Se tiene ρ(t) = c1 . Las soluciones giran en cilindros con eje en el eje Z. Ver

la figura 5.

Caso 3: −1 < α < 0. En este caso se tienen los siguientes lı́mites:

z(t) c3 e−t c3
lim = lim = lim e−t(1+α) = ±∞,
t7→−∞ ρ(t) t7→−∞ c1 eαt c1 t7→−∞
z(t)
lim = 0.
t7→∞ ρ(t)

Entonces la soluciones se van acostando sobre el plano X − Y . Ver la figura 5.


109

z z

y
y

x a>0 x a= 0
z z

y y

x x
-1< a < 0 -1 = a

x a < -1

Figura 5. Gráficas de las soluciones de la sección 4.7.

Caso 4: −1 = α. En este caso se tiene

z(t) c3 e−t c3
= −t
= .
ρ(t) c1 e c1

Entonces las curvas solución se mueven en conos con vértice en el origen. Ver la figura 5.

Caso 5: α < −1. En este caso se tienen los lı́mites

z(t) c3 e−t c3
lim = lim αt
= lim e−t(1+α) = ±∞,
t7→∞ ρ(t) t7→∞ c1 e c1 t7→∞
z(t)
lim = 0.
t7→−∞ ρ(t)

Ahora las soluciones se aproximan al eje Z. Ver la figura 5.


110

4.8. La foliación de Hopf

En esta sección estudiaremos la siguiente ecuación diferencial de cuarto orden

    
x′1  0 −3 0 0  x1 
    
    
x′  3 0 0 0 x2 
 
 2 
(4.8.1)  =
  
 ,
 
 y ′  0 0 0 −1
  y1 
 
 1 
    
    
y2′ 0 0 1 0 y2

que se puede escribir como x′1 = −3x2 , x′2 = 3x1 , y1′ = −y2 , y2′ = y1 . La solución de este

sistema es: x1 (t) = c1 cos(3t) − c2 sen (3t), x2 (t) = c2 cos(3t) + c1 sen (3t), y1 (t) = c3 cos(t) −

c4 sen (3t), y2 (t) = c4 cos(3t) + c3 sen (3t), donde c1 , c2 , c3 y c4 son constantes. Desde un punto

de vista cuantitativo sabemos todo sobre la ecuación diferencial (4.8.1) pues tenemos las fórmulas

explicitas de todas las soluciones.

Desde un punto de vista cualitativo estas fórmulas no son satisfactorias. Por ejemplo, no

sabemos como las diferentes soluciones se agrupan, o si podemos distinguir algunos subconjuntos

particulares por medio de las soluciones. En esta sección describiremos al flujo y responderemos

a estas preguntas.

Observemos que las órbitas que empiezan en una esfera con centro en el origen permanecen

siempre en este conjunto pues

d £ 2
x1 + x22 + y12 + y22 =2x1 x′ 1 + 2x2 x′ 2 + 2y1 y ′ 1 + 2y2 y ′ 2
¤
dt

=2x1 (−3x2 ) + 2x2 (3x1 ) + 2y1 (−y2 ) + 2y2 (y1 ) = 0,


111

b b f
fa f
a a
b
b b
q
q q
Identificación
de a Identificación
de b

Figura 6. Construcción de un toro.

p
por lo que el radio x21 + x22 + y12 + y22 es constante. Sin perdida de generalidad, estudiaremos

la ecuación (4.8.1) en la esfera contenida en R4 de radio uno y centro en el origen:

S3 = (x1 , x2 , y1 , y2 ) : x21 + x22 + y12 + y22 = 1 .


© ª

Necesitamos describir este conjunto. Como un paso previo veamos como se construye un toro a

través de la identificación de varios puntos en el cuadrado {(θ, φ) : θ, φ ∈ [0, 2π]}. Al identificar

en este cuadrado a todos los puntos (0, φ) y (2π, φ) (es decir al pegar los lados a en la figura 6),

se obtiene un cilindro. Si en este cilindro se identifican los puntos (θ, 0) y (θ, 2π) (pegando los

lados b de la misma figura) se obtiene el toro.

Haremos ahora un análisis semejante en la esfera S3 , consideremos los siguientes pares de

coordenadas polares

x1 = r cos θ, x2 = r sen θ,

y1 = ρ cos φ, y2 = ρ sen φ, donde 0 < r, ρ, 0 ≤ θ, φ ≤ 2π.


112

Cilindro sólido Esfera sólida

f=2p

f A
q
r
f
A q
q
r
f=0 q

a S
b
(x,y,z)

puntos
identificados

(x,y,-z)

Figura 7. Construcción de la esfera S3 .

La ecuación de S3 en estas coordenadas es r2 + ρ2 = 1. De aquı́ se sigue que 0 ≤ r ≤ 1, y que



ρ= 1 − r2 es una variable redundante que se puede ignorar. Usamos (r, θ, φ), donde 0 ≤ r ≤ 1,

0 ≤ θ ≤ 2π y 0 ≤ φ ≤ 2π, como las coordenadas de S3 , sin embargo varias de estas coordenadas

pueden corresponder a un mismo punto, y necesitamos hacer las identificaciones θ = 0 con θ = 2π

y φ = 0 con φ = 2π.
113

Toro r= c esfera S
3

0<c<1

b
r=c
a a f r=1

b r=0
q

Figura 8. Subconjuntos de la esfera S3 .

Observemos que las coordenadas (r, θ), donde 0 ≤ r ≤ 1 y 0 ≤ θ ≤ 2π son las coordenadas

polares de un disco cerrado; al agregar la coordenada φ se obtiene un cilindro sólido, ver la

figura 7.a. Notemos que estamos identificando θ = 0 con θ = 2π.

Cuando r = 1 entonces ρ = 0 y la coordenada φ es superflua, esto quiere decir que si

0 ≤ θ ≤ 2π entonces el conjunto Aθ = {(1, θ, φ) : 0 ≤ φ ≤ 2π} se colapsa en un punto, al hacer

esta identificación se obtiene la esfera sólida D = {(x, y, z) : x2 +y 2 +z 2 ≤ 1}, donde el hemisferio

superior corresponde a los puntos φ = 2π, el hemisferio inferior a los puntos φ = 0 y la cara

lateral del cilindro en la figura 7.a se convierte en el ecuador, ver la figura 7.b.

Como siguiente paso observemos que la identificación de φ = 0 con φ = 2π significa la

identificación del punto (x, y, z) en el hemisferio superior con el punto (x, y, −z) en el hemisferio

inferior, ver la figura 7.


114

Toro r= c esfera S
3

0<c<1

b
r=c
a a f r=1

b r=0
q 3
órbita típica en el toro órbitas típicas en S

Figura 9. Flujo de la ecuación (8).

Notemos que los conjuntos r = 0 y r = 1 son dos cı́rculos anudados. El conjunto r = c, con

0 < c < 1 es un toro, ver figura 8.

En las coordenadas (r, θ, ρ, φ) el sistema (4.8.1) se escribe

(4.8.2) r′ = 0, θ′ = 3, ρ′ = 0, φ = 1.

Integrando obtenemos

(4.8.3) r(t) = c1 , θ(t) = 3t + c2 , ρ(t) = c3 , φ(t) = t + c4 .

Observamos que la coordenada θ se mueve tres veces más rapido que la coordenada φ. En la

figura 9.a se encuentra el flujo en el toro r = c1 , con 0 < c1 < 1 y finalmente en la figura 9.b se

encuentra el flujo en S3 .
115

4.9. Ecuación de la primera variación

Esta sección puede ser incluida en el capı́tulo 3, nosotros preferimos diferirla hasta ahora

porque las ecuaciones diferenciales lineales son fundamentales. Empecemos con un resultado de

Hadamard.

Lema 4.37 (Hadamard). Sea D ⊂ Rn un conjunto convexo, y sea f : D 7→ R una función


∂f ∂f
tal que las derivadas parciales ∂x1 , ..., ∂xn existen y son continuas. Entonces existe la familia

de funciones continuas gk : D × D 7→ R, k = 1, . . . , n tales que si x = (x1 , . . . , xn ), y =

(y1 , . . . , yn ) ∈ D se sigue que


n
X ∂f (x)
f (x) − f (y) = (xk − yk ) gk (x, y) , gk (x, x) = .
∂xk
k=1

Demostración: Sea α(t, x, y) = tx + (1 − t)y, 0 ≤ t ≤ 1, x, y ∈ D. Si x y y permanecen

fijos, se usará la notación α(t), entonces α(0) = y, α(1) = x por lo que esta función es la

parametrización de la recta que une a dichos puntos. Observemos que α es suave y además

α′ (t) = x − y.

Usando el teorema fundamental del cálculo y la regla de la cadena se tiene

1 Z 1

Z
∇f α(s) · α′ (s) ds
¡ ¢ ¡ ¢ ¢ ¡ ¢
f (x) − f (y) = f α(1) − f α(0) = f ◦ α(s) ds =
0 ds 0
Z 1 n µZ 1 ¶
¡ ¢ X ∂f ¡ ¢
= ∇f α(s) ds · (x − y) = α(s) ds (xk − yk ) .
0 0 ∂xkk=1
R1 ∂f
¡ ¢
Observemos ahora que gk (x, y) = 0 ∂xk α(s) ds es una función continua. El siguiente cálculo

termina la demostración:

∂f (x) f (x + hek ) − f (x) gk (x + hek , x) h


= lim = lim = lim gk (x + hek , x) = gk (x, x)
∂xk h7→0 h h7→0 h h7→0

¤
116

Los siguientes teoremas dan la diferenciabilidad de las soluciones con respecto a las condición

inicial.

∂f ∂f
teorema 4.38. Para la función f : D ⊂ R2 7→ R una función con primeras derivadas ∂x , ∂t

continuas. Sea φ(t, τ, p) la solución de la ecuación diferencial x′ = f (t, x), φ(τ ) = p. Entonces

∂ ∂
las derivadas parciales ∂p φ(t, τ, p) y ∂τ φ(t, τ, p) existen, son continuas y satisfacen la ecuación

diferencial

∂f
(4.9.1) y′ = (φ(t, τ, p), t)y,
∂x

∂ ∂
y las condiciones iniciales ∂p φ(τ, τ, p) = 1, ∂τ φ(τ, τ, p) = −f (p, τ ).

Demostración: El teorema de Hadamard implica que existe H(x, y, t) continua tal que

∂f
f (x, t) − f (y, t) = H(x, y, t)(x − y), H(x, x, t) = (x, t).
∂x

Consideremos la familia de ecuaciones diferenciales dependientes del parámetro h

(4.9.2) y ′ = H(φ(t, τ, p + h), φ(t, τ, p))y, y(τ ) = 1.

Esta familia depende continuamente del parámetro h. Usando el teorema 3.24 se sigue que sus

soluciones, ψ(t, τ, p, h), son continuas. Si h 6= 0 se tiene la igualdad

φ(t, τ, p + h) − φ(t, τ, p)
ψ(t, τ, p, h) = .
h

Pues el lado izquierdo satisface

d φ(t, τ, p + h) − φ(t, τ, p) f (φ(t, τ, p + h), t) − f (φ(t, τ, p + h), t)


=
dt h h
φ(t, τ, p + h) − φ(t, τ, p)
=H(φ(t, τ, p + h), φ(t, τ, p), t) .
h
117

φ(t,τ,p+h)−φ(t,τ,p) p+h−p
Además h = h = 1. Usando la continuidad de ψ se sigue que

φ(t, τ, p + h) − φ(t, τ, p) ∂
ψ(t, τ, p, 0) = lim ψ(t, τ, p, h) = lim = φ(t, τ, p).
h7→0 h7→0 h ∂p


De donde se sigue que esta es solución de la ecuación (4.9.1)y que ∂p φ(τ, τ, p) = 1. Las soluciones


de (4.9.1) dependen de forma continua de las condiciones iniciales, por lo que ∂p φ(t, τ, p) es

continua. El resto de este teorema se obtiene de forma similar. ¤

La siguiente generalización de este teorema es también valida, y se prueba de manera similiar.

teorema 4.39 (Diferenciabilidad con respecto a las condiciones iniciales). Sea f : D ⊂

R × Rn 7→ Rn una función con primeras derivadas continuas. Si φ(t, τ, x0 ) es la solución de la

ecuación diferencial x′ = f (t, x), φ(τ ) = x0 entonces la matriz jacobiana φx0 (t, τ, x0 ) y la función


∂τ φ(t, τ, x0 ) existen y resuelven la ecuación diferencial

(4.9.3) y′ = fx (φ(t, τ, x0 ))y.

También satisfacen


φx0 (t, τ, x0 ) = I, φ(t, τ, x0 ) = −f (τ, φ(τ, τ, x)) , si t = τ.
∂τ

Definición 4.40. Cada una de las ecuaciones(4.9.1) y (4.9.3) se llama ecuación de la primera

variación.

Observación 4.41. La ecuación (4.9.3) es una ecuación lineal. La matriz no es constante en

general y para poder aplicar esta ecuación es necesario conocer la solución φ(t, τ, x). Suponiendo

que la función f (x, t) es suficientemente suave se puede aplicar este teorema repetidas veces para
118

obtener ecuaciones diferenciales sobre las siguientes derivadas parciales de las soluciones. Lo más

importante es que las soluciónes satisfacen

(4.9.4) φ(t, τ, p + h) ≃ φ(t, τ, p) + X(t)h,

donde X(t) es la matriz fundamental de la ecuación (4.9.3), y Y la aproximación es de orden t2 .

Ejemplo 4.42. La ecuación del péndulo es θ′′ + sen (θ) = 0, introduciendo las variables

x1 = θ, x2 = θ′ se escribe como

(4.9.5) x′1 = x2 , x′2 = −sen (x1 ).

El campo vectorial de esta ecuación es f (x1 , x2 ) = (x2 , −sen (x1 )). Notemos que la función

constante φ(t) = (0, 0) es una solución de esta ecuación diferencial pues f (0, 0) = (0, 0). Además

0 1
¡ ¢
la matriz jacobiana de f (x1 , x2 ) en este punto es fx (0, 0) = −1 0 . La ecuación de la primera

variación es

y′ = 0 1
y′ .
¡ ¢
−1 0

Como se estudió en la sección 4.6, las soluciones de esta ecuación diferencial son los cı́rculos

con centro en el origen y están parametrizados en coordenadas y1 (t) = c1 cos(−t + c2 ), y2 (t) =

c1 sen (−t+c2 ), las constantes c1 y c2 están determinadas por las condiciones iniciales. El teorema

4.39 indica que las soluciones de la ecuación diferencial (4.9.5) tienen la forma

x1 (t) =0 + c1 cos(−t + c2 ) + o(t2 ) = c1 cos(−t + c2 ) + o(t2 ),

x2 (t) =0 + c1 sen (−t + c2 ) + o(t2 ) = c1 sen (−t + c2 ) + o(t2 ).

Con el transcurso del tiempo el error determinado por el teorema 4.39 se incrementa, pero

algunas circunstancias este no es el caso. Los teoremas de la variedad estable e inestable y el


119

teorema de Hartman-Grobman están intimamente relacionados con este aspecto, las referencias

[2, 5] traen un amplio estudio de estos teoremas y se recomiendan como continuación de este

libro.

4.10. Álgebra lineal

Terminemos este capı́tulo dando otra manera de pensar a las ecuaciones diferenciales lineales

y a sus soluciones. trabajaremos con los siguientes conjuntos:

C 0 (R, Rn ) ={f : R 7→ Rn : f es una función continua},

C 1 (R, Rn ) ={f : R 7→ Rn : f es una función con primera derivada continua}.

Los dos son espacios vectoriales de dimensión infinita. Sea A(t) una matriz continua, definida

también para todo t ∈ R. Entonces la función

T : C 1 (R, Rn ) 7→ C 0 (R, Rn ) definida por T (φ) = φ′ − Aφ

es una transformación lineal continua. El núcleo N (T ) = {φ : φ′ − Aφ = 0}, consiste de las

soluciones de la ecuación lineal x′ = Ax. El teorema 4.4 dice que éste tiene dimensión finita.

Con esta notación la ecuación no homogénea (4.1.2) se escribe T (φ) = g(t), por lo que este

problema es equivalente al estudio de la imagen del operador T .

Una gran diferencia entre las ecuaciones diferenciales ordinarias y varios de los ejemplos

dados en la sección 1.2 es que en estos no se puede hacer la misma construcción, ya sea por

que los correspondientes espacios sean difı́ciles de definir o manejar, por que la transformación

T presente diversas dificultades o por que el núcleo tenga dimensión infinita.


120

La fórmula de Abel y la existencia de la matriz fundamental dependen fuertemente de la

dimensión del núcleo, por lo que no es posible construir sus análogos si la dimensión del núcleo

es infinita.

4.11. Problemas

4.43. Sea Φ(t, τ ) la matriz de transición de la ecuación x′ = A(t)x, entonces la única solución

x(t, τ, x0 ) del problema con condiciones iniciales x′ = A(t)x + g(t), x(t0 ) = x0 , está dada por
Z t
x(t, τ, x0 ) = Φ(t, τ )x0 + Φ(s, τ )g(s) ds.
τ

4.44. Demostrar que si Ψ(t) es una solución particular de x′ = A(t)x + g(t) entonces toda

solución es de la forma Φ(t) + Ψ(t), donde Φ(t) es solución de x′ = A(t)x.

4.45. Calcular la forma de Jordan y la forma de Jordan real de las siguientes matrices.

Calcular su matriz exponencial eAt usando la definición y por medio de la forma de Jordan de

las matrices:
 
 2 1
1 

.

−1 1
 
 0 1
2 

.

−1 0
 
0 0 0 0 0
 
 
1 0 0 0 0
 
 
 
3 
−1 1 0 0 0.
 
 
1 1 1 1 0
 
 
 
1 −1 −1 −1 0
121

 
0 1 0 0
 
 
0 0 1 0
 
4 

.

0 0 0 1
 
 
 
1 0 0 0

4.46. Demostrar si B es una de las dos matrices siguientes


   
−2 0  2 0 
 ,  ,
   
0 −1 0 −1

no existe ninguna matriz real A tal que eA = B. Hint: Analizar las trazas, valores propios y

determinantes de las exponenciales de las posibles formas normales reales de matrices de orden 2,

éstas son
     
λ 0 α β λ 1
 ,  ,  ,
     
0 µ −β α 0 λ

donde α, β, λ y µ son reales.

4.47. Sea A una matriz constante. Sea σ = max{Re λ : λ es un valor propio de A}.
° °
Demostrar que para todo ǫ > 0 hay una K tal que °eAt ° ≤ Ke(σ+ǫ)t para t ≥ 0. Demuestre por

medio de un ejemplo que es imposible encontrar una K que funcione para ǫ = 0.

P∞
4.48. Sea f (x) = k=0 αk xn una serie definida en R con radio de convergencia r, demostrar
P∞
que si A es una matriz que satisface kAk < r entonces f (A) = k=0 αk An es convergente.

4.49. Sea A una matriz cuadrada constante y con polinomio caracterı́stico p(λ) = a0 + a1 λ +

· · · + an−1 λn−1 + λn . Demostrar:


122

1 Si k ≥ 0, entonces
n−1
X
An+k = αkj Aj ,
j=0

donde α0j = −aj para j = 0, . . . , n − 1; αk+1,0 = −a0 αk,n−1 ; y para j = 1, . . . n − 1

αk+1,j = −aj αk,n−1 + αk,j−1 . Hint: Usar el teorema de Hamilton-Cayley.

2 Demostrar que
n−1
X
eAt
= fk (t)Ak ,
k=0

donde fk (t) es la función analı́tica definida por


tk X tn+j
fk (t) = + αjk .
k! j=0 (n + 1)!

Hint: Estudiar la convergencia de la serie, el criterio M de Wierstrass puede ser útil.

4.50. Describir el diagrama de fase de las siguientes ecuaciones diferenciales


   
−1  1 
   
   
ẋ = 
 1  x,
 ẋ = 
 2
 x.

   
   
2 3

4.51. Describir los diagramas de fase en la esfera unitaria S3 de las siguientes ecuaciones

diferenciales lineales
   
0 −2  0 −1 
   
   
2 0  1 0 
   
ẋ = 

 x,
 ẋ = 

 x.


 0 −3


 0 −1

   
   
3 0 1 0
123

4.12. *Ecuaciones lineales en diferencias

Casi todos los teoremas estudiados en este capı́tulo tienen un análogo en las ecuaciones en

diferencias lineales. Esta sección esta destinada a estos teoremas.

Definición 4.52. Si para cada k ∈ N, Ak es una matriz cuadrada invertible de orden n y

gk es un vector de orden n entonces la ecuación en diferencias lineal homogénea es la ecuación

en diferencias

(4.12.1) yk+1 = Ak yk , y0 .

La ecuación en diferencias lineal no homogénea es la ecuación en diferencias

(4.12.2) yk+1 = Ak yk + gk , y0 .

Ambas ecuaciones se llaman ecuaciones lineales en diferencias.

4.53. Escribir en la forma (4.12.2) a la ecuación

yn+k = p1 (k)yn+k−1 + p2 (k)yn+k−2 + · · · + pn (k)yk + gk ,

donde p1 (k), . . . , pn (k), gk ∈ R.

4.54. Las soluciones de las ecuaciones (4.12.1) y (4.12.2) son, respectivamente,


 
k−1
Y
yk =  Aj  y0 ,
j=0
   
k−1
Y k−1
X k−1
Y
yk =  Aj  y0 +  A r  gj .
j=0 j=0 r=j+1

4.55. El conjunto de soluciones de la ecuación (4.12.1) es un espacio vectorial de dimensión n.


124

Definición 4.56. Si yk1 , . . . , ykn es un conjunto de n soluciones de la ecuación (4.12.1)

entonces la matriz Φk = [yk1 , . . . , ykn ] se llama una matriz solución. El determinante de Φk se

llama su Casarotiano. Si yk1 , . . . , ykn son linealmente independientes entonces forman un conjunto

fundamental de soluciones y Φk es una matriz fundamental.

4.57. Demostrar que la matriz Φk es una matriz solución si y sólo si satisface la ecuación en

diferencias matricial Φk+1 = Ak Φk .

4.58. Demostrar la fórmula de Abel:


 
k−1
Y
det [Φk ] =  det Aj  det [Φr ] .
j=r

4.59. Demostrar que la matriz solución Φn es no singular en para todo n ∈ N si y sólo si

Φno para algún no ∈ N.

4.60. Demostrar que las soluciones yn1 , . . . , ynk son linealmente independientes si y solo si la

matriz solución asociada Φk es no singular para todo k ∈ N.

4.61. Si Φk es una matriz fundamental y C es una matriz constante no singular, entonces

Φk C tambien es una matriz fundamental.

4.62. Si Φk y Γk son matrices fundamentales, entonces existe una matriz C constante e

invertible tal que Φk = Γk C.

Definición 4.63. La matriz de transición en k0 ∈ N es la matriz fundamental tal que

Φk0 = In . Denotaremos esta matriz por Φk,k0 .

4.64. Si Γk es una matriz fundamental entonces Φk,k0 = Γk Γ−1


k0 .
125

4.65. Escribir y demostrar una versión del teorema 4.16 para la ecuaciones en diferencias

lineales.
Bibliografı́a

1. T. M. Apostol, Calculus, Reverte, 1970.

2. J. K. Hale, Ordinary differential equations, Wiley-Interscience, 1969.

3. S. Lang, Algebra, Addison-Wesley PublishingCompany, 1965.

4. C. Moler and C. Van Loan, Nineteen dubious ways to compute the exponential of a matrix, SIAM Review 20

(1978), no. 4, 801–836.

5. C. Robinson, Dynamical systems, stability, symbolic dynamics, and chaos, second edition ed., Studies in

Advanced Mathematics, CRC Press, Boca Raton London New York Washington, 1999.

6. W. Rudin, Principles of mathematical analysis, Third edition ed., McGrow Hill/Kogakusha, 1976.

7. G. Strang, Algebra lineal y sus aplicaciones, Fondo Educativo Interamericano, 1982.

127
Índice

N (A), 73 cerrado, 33

N (A)k , 73 compacto, 36

Suc(Rn ), 28 fundamental de soluciones, 77, 124

Mn , 41 contracción, 34

C (D, Rn ), 38 convergencia

puntual, 39
antidiferencia, 30
uniforme, 39

corrimiento, 29
bola abierta, 31
cubierta abierta, 36

cadena de vectores propios generalizados, 83 curva solución, 4

campo

de pendientes, 13 diferencia, 28

de velocidades, 3 diferenciabilidad de las soluciones con respecto a la

vectorial, 3 condición inicial, 116

Casarotiano, 124 diferenciabilidad de soluciones con respecto a las

cerradura, 33 condiciones iniciales, 117

conjunto distancia, 31, 37

de las funciones continuas, 38

abierto, 32 ecuación

acotado, 33 integral, 5

129
130

con retardo, 4 con valores en la frontera, 12

de Bernoulli, 25 EDO, 3

de Duffing, 19 espacio

de evolución, 4 de Banach, 41

de Fredholm de segunda clase, 69 métrico, 31

de la primera variación, 117 completo, 33

de recurrencia, 71 normado, 41

de Riccati, 26 de las matrices, 41

de Van Der Pol, 70 exponencial de matrices, 89

del oscilador armónico, 70


fórmula
del péndulo, 70
de Abel, 78, 124
en diferencias, 71
de Liouville, 78
exacta, 25
factor integrante, 22
hamiltoniana, 19
familia
separable, 23
equicontinua, 40
ecuación en diferencias lineal, 123
uniformemente acotada, 40
homogénea, 123
foliación de Hopf, 110
no homogénea, 123
forma de Jordan, 82, 83
ecuación diferencial
real, 101
lineal, 74
función
de segundo orden, 8
continua, 33
de primer orden, 22
localmente Lipschitz, 56
homogénea, 74

no homogénea, 74
hamiltoniano, 19

matricial, 77

ordinaria, 3 integración de una ecuación diferencial, 22

con condiciones iniciales, 12 integral de una EDO, 25


131

intervalo maximal, 59 norma, 41

isoclinas, 13

orden de una EDO, 3

lema

de Gronwall, 63, 68 polinomio caracterı́stico, 82

de Hadamard, 115 potencial, 19

lineas de flujo, 3 problema

longitud de la cadena, 83 de tres cuerpos, 10, 62

inverso a las tangentes, 1

método punto

clásico, 45 de acumulación, 36

clásico mejorado, 46 singular, 4

de aproximaciones sucesivas, 58

de Gauss-Seidel, 48 retrato fase, 16

de Jacobi, 47

de las quebradas de Euler, 67 segunda ley de Newton., 10

de Newton, 49 shift, 29

de transformación de gráficas, 48 sistema

métrica, 31 gradiente, 27

uniforme, 39 hamiltoniano, 27

matrices similares, 82 lineal de ecuaciones diferenciales, 74

matriz sistema de ecuaciones diferenciales

de transición, 80 lineales, 73

fundamental, 77, 124 sistema de ecuaciones diferenciales ordinarias, 9

jacobiana, 68 solución

solución, 77, 124 de una EDO, 3

máxima, 59

núcleo de la matriz, 73 sucesión


132

convergente, 32

de Cauchy, 32

suma, 28

teorema

de Arzela-Ascoli, 40

de dependencia continua con respecto a

condiciones iniciales, 66

parámetros, 66

de existencia de Peano, 52

de existencia y unicidad de soluciones, 56

de Peano, 67

de Picard-Lindelöff, 56, 69

del punto fijo de Banach, 34

valor propio, 82

variación, 28

vector propio, 82

generalizado, 82

generalizado maximal, 82

wronskiano, 77

También podría gustarte