Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
M.A. Rodrguez
Departamento de Fsica Teorica
Universidad Complutense de Madrid
13 de octubre de 1999
INDICE
Pr
ologo
1 Introducci
on
1.1 Primeras deniciones . . . . . . . . . . . . . . . . . .
1.2 Problemas a resolver . . . . . . . . . . . . . . . . . .
1.2.1 Existencia y unicidad . . . . . . . . . . . . .
1.2.2 Dependencia continua . . . . . . . . . . . . .
1.2.3 Prolongaci
on . . . . . . . . . . . . . . . . . .
1.2.4 Soluci
on general . . . . . . . . . . . . . . . .
1.2.5 Ecuaciones en forma implcita . . . . . . . . .
1.3 Interpretaci
on geometrica. Isoclinas . . . . . . . . .
1.4 Metodos elementales de integracion . . . . . . . . . .
1.4.1 Ecuaciones exactas . . . . . . . . . . . . . . .
1.4.2 Factores integrantes . . . . . . . . . . . . . .
1.4.3 Ecuaciones de variables separadas . . . . . .
1.4.4 Cambios de variable . . . . . . . . . . . . . .
1.4.5 La ecuacion lineal de primer orden . . . . . .
1.5 Metodos aproximados en ecuaciones de primer orden
1.5.1 Poligonal de Euler . . . . . . . . . . . . . . .
1.5.2 Metodo de Runge-Kutta . . . . . . . . . . . .
1.6 Existencia y unicidad . . . . . . . . . . . . . . . . . .
1.7 Estabilidad . . . . . . . . . . . . . . . . . . . . . . .
1.8 Ecuaciones aut
onomas . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
4
4
5
7
7
7
10
10
11
12
13
15
17
17
18
19
22
23
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
27
28
30
31
36
39
42
45
47
49
3 Sistemas din
amicos
3.1 Introducci
on . . . . . . . . . . . . . . . . . . . . . .
3.2 Deniciones y resultados elementales . . . . . . . .
3.3 Sistemas lineales . . . . . . . . . . . . . . . . . . .
3.4 Estabilidad de sistemas aut
onomos . . . . . . . . .
3.5 Clasicacion de puntos crticos de sistemas lineales
3.6 Puntos crticos no elementales . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
53
53
53
56
60
61
69
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INDICE
ii
3.7
3.8
3.9
3.10
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
70
73
78
85
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
89
89
90
97
106
107
109
110
Lista de Figuras
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
1.10
1.11
1.12
1.13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
4
5
6
6
7
8
9
9
24
25
26
26
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
3.10
3.11
3.12
3.13
3.14
3.15
3.16
3.17
3.18
3.19
3.20
3.21
3.22
3.23
3.24
3.25
3.26
3.27
3.28
3.29
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
57
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
83
84
85
iii
iv
LISTA DE FIGURAS
3.30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.31 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.32 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
86
88
88
Pr
ologo
Las Ecuaciones Diferenciales (ED) es uno de los campos de la Matematica donde se siente con mas fuerza
la inuencia mutua con la Fsica. Muchas de las leyes de la Fsica adoptan en su enunciado matem
atico
la forma de una ecuaci
on diferencial. Los grandes desarrollos en el mundo de las ED son motivados en su
mayor parte por la necesidad de estudiar el signicado de esas leyes para poder predecir comportamientos
de los sistemas fsicos.
Desde muy pronto en la historia de la matem
atica moderna, es decir, los tiempos de Euler, las
ecuaciones diferenciales aparecen como una de las ramas con un crecimiento espectacular aunque existan
discontinuidades claras. Desde los objetivos iniciales de Euler y los Bernouilli por resolver de manera
explcita el mayor n
umero de ecuaciones posibles, hasta los supuestamente mas modestos de obtener el
mayor n
umero de resultados posibles a
un sin saber la soluci
on, ha pasado un largo periodo en el que el
desarrollo de las otra ramas de la matematica, singularmente el an
alisis, han permitido conseguir un nivel
de conocimientos realmente impresionante en este tema.
En estas notas sobre ecuaciones diferenciales ordinarias se pretende dar una visi
on adaptada al curso de
Ecuaciones Diferenciales I de la licenciatura de Ciencias Fsicas. Representan una adaptaci
on de las notas
sobre Ecuaciones Diferenciales Ordinarias, elaboradas para el antiguo curso de Ecuaciones Diferenciales
(Metodos II). Se han suprimido varios captulos y se ha resumido el contenido de otros para poderlas
utilizar de manera apropiada en este segundo a
no de licenciatura.
Tema 1
Introducci
on
1.1
Primeras deniciones
y(x) =
f +C
donde el signo integral se reere a la integral indenida de f y C es una constante arbitraria. Sin embargo,
en el ejemplo anterior, y = y, la soluci
on no es tan trivial. De hecho, se puede interpretar esa ecuaci
on,
junto con una condici
on adecuada, como la denici
on de la funci
on exponencial. En efecto, si se supone
que se busca una soluci
on que verique y(0) = 1, se encuentra como u
nica soluci
on:
y(x) = ex .
Todas las soluciones de esta ecuacion tienen la forma:
y(x) = Cex
(1.1)
donde C es una constante cualquiera (gura 1.1). En efecto, sea y(x) una soluci
on de la ecuacion, y
multipliquemosla por exp(x). Derivando respecto a x, es facil obtener:
d
(y(x)ex ) = 0
dx
1
TEMA 1. INTRODUCCION
Figura 1.1
donde es posible, en principio, eliminar las constantes ci , obteniendose una ecuacion diferencial de grado
n. El orden de esta ecuaci
on puede ser menor si las constantes satisfacen algunas relaciones. La solucion
de esta ED sera la ecuacion de partida, siempre que y pueda ser escrita como funcion de x, y depender
a
de n constantes de integracion. Esto es una soluci
on general en el sentido habitual. Sin embargo es
posible que alguna soluci
on pueda no estar representada en ella. Consideremos el siguiente ejemplo para
una ecuaci
on con una constante: f (x, y, c) = 0. Si derivamos con respecto a x obtendremos:
f
f
+
y =0
x
y
donde hemos sustituido c por la expresi
on obtenida de f (x, y, c) = 0. Si derivamos esta expresi
on
considerando a x, y, c como variables independientes tendremos:
f
f
f
dx +
dy +
dc = 0
x
y
c
(tambien con c eliminada), y de ambas ecuaciones llegamos a:
f
dc = 0
c
es decir, o bien dc = 0 con lo cual c es constante y obtenemos la solucion general f (x, y, c) = 0, o bien:
f
=0
c
que puede en ocasiones ser una solucion de la ED y no estar incluida en la soluci
on general. Se trata de
una soluci
on singular, y desde un punto de vista geometrico es la envolvente de la familia de curvas dada
por la soluci
on general.
La mayor parte de los resultados sobre ecuaciones diferenciales se reeren a aquellas que estan escritas
en la llamada forma normal, es decir aquellas en las que la derivada de mayor orden est
a despejada:
y (n) = f (x, y, y , y , . . . y (n1) ).
Si y es una funci
on vectorial se dice que tenemos un sistema de ecuaciones. Existe una relacion entre
los sistemas de primer orden y las ecuaciones de orden n. En efecto, una ecuaci
on diferencial de orden
n, dada en forma normal siempre se puede escribir como un sistema de ecuaciones de primer orden sin
mas que denir las derivadas sucesivas de y como nuevas funciones inc
ognitas: y = y1 , y = y2 (as que
y1 = y2 ), etc. con lo que la propia ecuaci
on se transforma en:
yn = f (x, y1 , y2 , ..., yn ).
El proceso inverso, es decir, pasar de un sistema a una ecuacion, no siempre es tan evidente y resulta
necesario examinar cuidadosamente el sistema. Por ejemplo:
y1 = y1
y2 = y2
es un sistema de primer orden que no es equivalente a una ecuaci
on de orden dos. Incluso aunque
se pueda encontrar esa ecuacion, cuestiones como la derivabilidad de las soluciones deben ser tratadas
separadamente.
1.2
Problemas a resolver
Los problemas que surgen en el estudio de las ecuaciones diferenciales son muy variados. Algunos ser
an
tratados en los pr
oximos ejemplos.
TEMA 1. INTRODUCCION
1.2.1
Existencia y unicidad
Figura 1.2
1.2.2
Dependencia continua
Figura 1.3
Ejemplo 1.2.4 y = ay donde a es una constante real. Las soluciones de esta ecuacion dependen
continuamente de los datos, para toda constante a. Es decir cuando se consideran soluciones con dato
inicial y(x0 ) = y0 y se vara y0 la soluci
on depende de y0 de forma continua en un intervalo [x0 , x1 ] con
x1 nito. La demostraci
on es muy sencilla.
Ejemplo 1.2.5 En la misma ecuacion del ejemplo anterior uno puede estudiar c
omo las soluciones dependen continuamente respecto al par
ametro a. El comportamiento cualitativo de las soluciones es muy
similar seg
un vara a. Se puede considerar el punto a = 0 como un punto de bifurcaci
on. Para a > 0
todas las soluciones tienden a cuando x . Sin embargo cuando a < 0 todas tienden a 0 cuando
x a. Cuando a = 0 las soluciones son rectas paralelas al eje x.
Ejemplo 1.2.6 Siguiendo con el ejemplo anterior, la soluci
on y(x) = 0 es una soluci
on estable asint
oticamente cuando x , si a < 0. Si a = 0 esta solucion sigue siendo estable pero no asint
oticamente.
Pero cuando a > 0 la soluci
on es inestable. A
un sin entrar en mayores precisiones sobre estos conceptos,
resulta claro del dibujo de las soluciones el signicado de estas palabras (gura 1.4).
1.2.3
Prolongaci
on
c x2 .
Est
a claro que esta solucion no se puede prolongar hacia la derecha (x crecientes) mas alla de c1/2 .
Un razonamiento similar muestra que no se puede prolongar hacia la izquierda m
as alla de c1/2 . Por
TEMA 1. INTRODUCCION
Figura 1.4
tanto esta solucion esta denida en el intervalo (c1/2 , c1/2 ) y es no prolongable en el sentido dicho
anteriormente (gura 1.3).
Ejemplo 1.2.8 y = y 2 tiene como solucion general y(x) = 1/(c x). Para cualquier c la soluci
on no se
puede prolongar m
as alla de c.
Figura 1.5
GEOMETRICA.
1.3. INTERPRETACION
ISOCLINAS
1.2.4
Soluci
on general
Se ha hablado de soluciones generales como aquellas que contienen todas las soluciones de la ecuacion,
que se obtienen al dar valores a una constante que aparece en ellas. Sin embargo es posible que alguna
soluci
on escape de la solucion general y no se obtenga para ning
un valor real de la constante (o constantes
en otros casos). Por ejemplo, en el caso anterior, y(x) = 0 no aparece en la soluci
on general para ning
un
valor de la constante c.
1.2.5
y = 2y 1/2 .
Figura 1.6
1.3
Interpretaci
on geom
etrica. Isoclinas
En esta seccion consideraremos tan solo ecuaciones de primer orden resueltas en la derivada. Aunque similares armaciones podran hacerse para sistemas de ecuaciones de primer orden, solo para las ecuaciones
pueden hacerse representaciones gracas sencillas. As, sea y = f (x, y) una ED de primer orden. A cada
punto del plano x, y podemos asociarle un segmento de pendiente f (x, y). De esta manera obtendremos
un campo de direcciones en la regi
on en la cu
al este denida f . Se denominan isoclinas a las curvas que
TEMA 1. INTRODUCCION
unen los puntos en los que la pendiente es constante. De acuerdo con la ED y = f (x, y), una soluci
on
de esta ecuacion es tangente en cada punto al campo de direcciones. Es posible obtener de esta forma
una gr
aca aproximada de las soluciones, mediante el dibujo de las isoclinas de la ecuaci
on, curvas de
nivel de la funci
on f . Es posible que en alg
un punto la funci
on f tenga un valor innito. En este caso no
puede hablarse con propiedad de soluci
on. Sin embargo, con respecto al dibujo aproximado de las curvas
integrales, este hecho puede obviarse mediante la consideracion de la ecuacion asociada x = 1/f (x, y),
on de y. De esta forma, cuando aparezca un
donde x = dx/dy, es decir considerando a x como funci
punto de pendiente innita para la ecuaci
on inicial, se puede considerar esta otra ecuaci
on y tratar a
la curva integral como una soluci
on suya. No siempre es sencillo dibujar las isoclinas y por tanto las
soluciones.
Los siguientes ejemplos muestran cuales son los pasos mas adecuados para llevarlo a cabo, aunque
cada situaci
on puede necesitar un estudio particular.
Ejemplo 1.3.1 y = y x es una ecuacion lineal. Las isoclinas son muy sencillas en este caso: y x = m
son rectas de pendiente 1 y ordenada en el origen m, es decir la pendiente de las soluciones que pasan
por ellas. El dibujo de isoclinas y soluciones es el que aparece en la gura 1.7.
Figura 1.7
mx
x1
curvas que pasan por (0, 0) y tienen una asntota vertical en el punto x = 1. La pendiente en el origen
no esta denida. De la expresi
on obtenida en primer lugar, uno puede deducir que la recta x = 1 es una
isoclina de pendiente = 0. Asimismo x = 0 es una isoclina de la ecuacion asociada (dx/dy) con pendiente
igual a 0 (o si se quiere de la ecuacion inicial con pendiente ). El dibujo de las isoclinas y soluciones
puede verse en la gura 1.8.
Otras caractersticas de las soluciones pueden obtenerse de la propia ecuacion. Por ejemplo, el conjunto
de puntos de inexi
on esta contenido en el conjunto de puntos que anulan a la segunda derivada y puede
obtenerse de la ecuacion sin m
as que derivar (suponiendo que se pueda):
y =
f
f
+
f (x, y) = 0.
x
y
GEOMETRICA.
1.3. INTERPRETACION
ISOCLINAS
Figura 1.8
Ejemplo 1.3.3 y = y 2 x. Las isoclinas de esta ecuacion son las curvas y 2 x = m, es decir par
abolas
con eje horizontal. La derivada segunda de una soluci
on es:
y = 2y y 1 = 2y(y 2 x) 1
y por tanto, la ecuaci
on de los posibles puntos de inexi
on es la expresion anterior igualada a cero es
decir:
1
x = y2 .
2y
En la gura 1.9 pueden verse las isoclinas, curva de puntos de inexi
on y soluciones.
Figura 1.9
Con esto terminamos esta introduccion al estudio de las ecuaciones diferenciales. En la siguiente
seccion estudiaremos diversos metodos de resolucion de ED de primer orden.
TEMA 1. INTRODUCCION
10
1.4
M
etodos elementales de integraci
on
A
un cuando no cabe esperar resolver todas las ED de forma completa es posible en ciertos casos obtener
la soluci
on general de una forma explcita. A continuaci
on estudiaremos algunos casos de ecuaciones
diferenciales de primer orden para los que se puede encontrar la soluci
on general.
1.4.1
Ecuaciones exactas
(1.2)
Desde el punto de vista de la teora de formas diferenciales, si es una 1-forma en IR2 (o en un abierto
on en coordenadas es:
de IR2 ), su expresi
= P (x, y)dx + Q(x, y)dy
por lo tanto la ecuaci
on (1.2) es = 0. Cuando sea una 1-forma exacta, existira una funci
on f (x, y)
tal que
= df
y por lo tanto, al ser = 0, f (x, y) = c es la solucion general de la ecuaci
on. Una condici
on necesaria
para que sea exacta es que sea cerrada, es decir: d = 0. En coordenadas, esta restricci
on se traduce
en:
P
Q
=0
(1.3)
y
x
suponiendo que las funciones P (x, y), Q(x, y) son diferenciables. Esta condici
on es tambien suciente en
el caso en que el abierto de IR2 en el que trabajamos sea, por ejemplo, simplemente conexo, o haciendo
consideraciones de tipo local, como haremos de hecho.
De acuerdo con esta interpretaci
on, llamaremos ecuacion diferencial exacta a aquella que escrita en
la forma (1.2) verique la condici
on (1.3). Las ecuaciones exactas son inmediatamente resolubles, pues
basta encontrar una funci
on f (x, y) cuyas derivadas con respecto a x e y coincidan respectivamente con
P (x, y) y Q(x, y). Veamos como se puede encontrar f (x, y).
De la primera condici
on:
f
= P (x, y)
x
x
f (x, y) =
P (s, y)ds + h(y)
x0
P (s, y)ds
f (x, y) =
x0
Q(x0 , s)ds.
y0
Con la eleccion de extremos de la integral que se ha hecho, f (x, y) = 0 es la solucion que pasa por
actica se consideran las integrales indenidas y la soluci
on general viene dada por
(x0 , y0 ). En la pr
f (x, y) = c en la cu
al solo aparece una constante como era de esperar.
1.4. METODOS
ELEMENTALES DE INTEGRACION
Ejemplo 1.4.1
11
y x3 + (x + y 3 )y = 0.
Q(x, y) = x + y 3
luego:
P
Q
=
= 1.
y
x
Sea f (x, y) la funci
on cuyas curvas de nivel contienen a las soluciones de la ecuacion:
f
= P (x, y)
x
1
f (x, y) = yx x4 + h(y)
4
f
= x + h (y) = x + y 3
y
por tanto:
h(y) =
y4
,
4
f (x, y) = yx
x4 y 4
4
1.4.2
Factores integrantes
P =
Q
y
x
lo que equivale a una ecuaci
on en derivadas parciales de primer orden para la funci
on . La obtenci
on
de la soluci
on de esta ecuacion diferencial es equivalente en dicultad a la resoluci
on de la ecuacion de
partida (el uso del metodo de caractersticas lleva a la ecuacion original) pero no es necesario conocerla.
Basta hallar una funci
on que verique esa ecuacion, es decir, basta una soluci
on particular. Se dice que
(x, y) es un factor integrante para esa ecuaci
on.
Ejemplo 1.4.2 y = (y 2x)/(2y + x). Escribiendo esta ecuaci
on como hemos hecho antes:
(2x y)dx + (2y + x)dy = 0
que no es una ecuacion exacta. Tratemos de buscar un factor integrante para ella. La ecuaci
on que debe
vericar (x, y) es:
(2y + x)x (2x y)y = 2.
Esta ecuacion en derivadas parciales de primer orden lleva a la ecuaci
on de partida. Sin embargo,
puede probarse f
acilmente que la funci
on:
(x, y) =
1
x2 + y 2
TEMA 1. INTRODUCCION
12
es una soluci
on particular. Aunque el metodo aqu descrito no sea muy general, no deja de tener interes.
Hagamos el siguiente cambio de variables:
x = cos
y = sen
la nueva ecuaci
on es:
+ 2 = 2
y suponiendo que no depende de , = 2, ecuacion de la que se obtiene como solucion particular
() = 1/2 , es decir el factor integrante antes dado. Si se supone que solo depende de , se obtiene la
ecuacion: = , con soluci
on:
= e
es decir: = e arctan(y/x) que es otro factor integrante para esta ecuaci
on. Escojamos el primer factor
integrante. La ecuaci
on es ahora:
2x y
2y + x
dx + 2
dy = 0
2
2
x +y
x + y2
que es exacta y tiene como solucion general:
log(x2 + y 2 ) arctan
x
= C.
y
Esta funci
on no dene en todos los puntos a y como funci
on de x. De acuerdo con el teorema de la
funci
on implcita (que da condiciones sucientes) cuando 2y + x = 0, no se puede asegurar que exista esa
funci
on implcita. En esos puntos es donde f (x, y) = (y 2x)/(2y + x) es discontinua.
En el ejemplo siguiente veremos como una hip
otesis adicional sobre , a saber, que dependa tan solo
de la variable x, permite obtener f
acilmente una ecuacion exacta.
Ejemplo 1.4.3 (x2 + y 2 + 2x + 1)dx + y(x + 1)dy = 0
Esta ecuacion no es exacta, P (x, y) = x2 + y 2 + 2x + 1,
P
= 2y;
y
Q
= y.
x
1.4.3
f (x)
.
g(y)
1.4. METODOS
ELEMENTALES DE INTEGRACION
13
y por tanto se pueden usar los metodos expuestos anteriormente. Sin embargo, en la pr
actica resulta mas
directo prescindir de estos planteamientos y escribir:
g(y)y (x)dx = f (x)dx + C
y cambiando la variable de integraci
on en la primera integral:
g(y)dy = f (x)dx + C
relacion que una vez integrada, permitir
a encontrar la soluci
on.
Ejemplo 1.4.4 y = (1 + y 2 )/(1 + x2 ) es una ecuacion de variables separadas, con f (x) = 1/(1 + x2 ),
g(y) = 1/(1 + y 2 ), por lo que su soluci
on se encuentra inmediatamente como:
dx
dy
=
1 + x2
1 + y2
es decir: arctan(x) = arctan(y) + C, ecuacion de la que se puede despejar y(x) obteniendose la solucion
general:
kx
y(x) =
.
1 + kx
Ademas, y(x) = 1/x tambien es solucion, aunque no se obtenga para ning
un valor de k IR (k =
permite obtener esa solucion).
1.4.4
Cambios de variable
Uno de los metodos mas interesantes para la resolucion de ED es el de cambios de variable, tanto
independiente como dependiente. Sin embargo, no siempre es sencillo adivinar cual es el mejor cambio
que simplica la ecuaci
on y la hace resoluble por alg
un metodo elemental. Veremos a continuacion algunos
tipos de ecuaciones y los cambios de variable que ayudan a su soluci
on.
Ecuaciones homog
eneas
Supongamos que la funci
on f (x, y) es homogenea de grado 0, es decir:
f (tx, ty) = f (x, y).
En este caso, si se escribe y = zx, donde z es la nueva inc
ognita, la nueva ecuaci
on es:
z x + z = f (x, zx) = f (1, z)
que es una ecuacion de variables separadas:
f (1, z) z
x
y que puede resolverse con el metodo dado anteriormente.
z =
z2 + 1
2z + 1
TEMA 1. INTRODUCCION
14
Ecuaci
on de Bernouilli
z
cz
1.4. METODOS
ELEMENTALES DE INTEGRACION
15
que no depende de dos constantes, sino solo de una, por ejemplo del cociente k1 /k2 = k. En cualquier
caso, el calculo de las soluciones de esta ecuacion lineal no es m
as sencillo que el problema inicial.
Una propiedad de la ecuaci
on de Riccati es que la solucion general se puede expresar en funci
on de
tres soluciones particulares distintas y de una constante, o lo que es lo mismo, la siguiente expresi
on es
constante:
y(x) y1 (x) y3 (x) y2 (x)
=C
y(x) y2 (x) y3 (x) y1 (x)
de donde uno puede despejar y(x) suponiendo que conoce las otras tres soluciones. Esta propiedad es
debida a la relaci
on que existe entre la ecuacion de Riccati y el grupo de matrices 2 2 con coecientes
reales y determinante igual a uno, hecho tambien relacionado con la ecuaci
on lineal de segundo orden
que antes hemos estudiado. No podemos seguir aqu esta lnea de razonamiento pues necesitaramos un
aparato matematico del que carecemos.
Ejemplo 1.4.7 y = y 2 2/x2 .
Es f
acil comprobar que y(x) = 1/x es una solucion particular de esta ecuaci
on. M
as difcil es establecer
esa conjetura, aunque en este caso se puede pensar que una funci
on del tipo k/x podra ser solucion.
Introduciendola en la ecuaci
on se obtienen dos valores diferentes de k para los que esta funci
on es solucion,
k = 1 y k = 2. En cualquier caso, puesto que la ecuaci
on es de Riccati, una vez conocida una soluci
on,
las demas se pueden obtener f
acilmente desarrollando las ideas del apartado anterior.
u(x) = y(x)
1
x
la nueva ecuaci
on es:
2u
x
ecuacion de Bernouilli, que se resuelve poniendo z = 1/u:
u = u2 +
z = 1
2z
x
una ecuaci
on lineal no homogenea, resuelta en el proximo apartado.
1.4.5
La ecuaci
on lineal de primer orden
La forma m
as general de una ecuacion lineal de primer orden es:
y = a(x)y + b(x)
(1.4)
donde a(x) y b(x) son funciones exclusivamente de x. Esta ecuacion no es exacta, aunque un factor
integrante que solo dependa de x se puede encontrar f
acilmente. Sin embargo, procederemos de otra
forma para calcular su soluci
on. En primer lugar consideremos la llamada ecuaci
on homogenea:
y = a(x)y
que es una ecuacion de variables separadas y por lo tanto integrable por cuadraturas:
dy
= a(x)dx
y
es decir:
log |y| =
o despejando y(x):
a(s)ds + C
x
y(x) = Ke a(s)ds
(1.5)
donde K es una constante real (lo que nos permite eliminar el valor absoluto que apareca en el logaritmo
neperiano). Esta es la soluci
on general de la ecuacion homogenea. Como se ve, todas las soluciones de
TEMA 1. INTRODUCCION
16
esta ecuacion son proporcionales, o dicho de otra manera, forman un espacio vectorial real de dimensi
on
igual a 1. El c
alculo de la soluci
on general de la ecuacion completa puede hacerse utilizando el llamado
metodo de variaci
on de constantes, que consiste en probar soluciones de la forma:
x
y(x) = K(x)e a(s)ds
(1.6)
sustituyendo en la ecuaci
on (1.4), tenemos:
K (x) = b(x)e
x
a(s)ds
3x2
C x3
3x2
1
+ .
C x3
x
1.5. METODOS
APROXIMADOS EN ECUACIONES DE PRIMER ORDEN
17
Las ecuaciones lineales de primer orden son siempre resolubles por cuadraturas cuando las funciones
a(x) y b(x) que aparecen en ellas son integrables, en particular cuando son continuas. Como veremos
mas adelante cuando la ecuaci
on es de orden superior a uno, s
olo si los coecientes son constantes o en
otros casos muy especcos, es posible encontrar la soluci
on general en forma compacta.
N
otese que para la ecuacion lineal homogenea, si se conoce una solucion que no sea la trivial (y(x) = 0),
las demas se obtienen de manera algebraica, es decir:
y(x)
= C.
y1 (x)
Para la ecuaci
on no homogenea necesitamos dos soluciones distintas, y1 (x), y2 (x), de forma que
y(x) y1 (x), y(x) y2 (x) son soluciones de la ecuacion homogenea, con lo que:
y(x) y1 (x)
=C
y(x) y2 (x)
a comparar con la ecuacion de Riccati donde son necesarias tres soluciones. De esta forma, las ecuaciones
lineales, homogeneas o no, se pueden considerar como casos particulares de la ecuacion de Riccati.
1.5
M
etodos aproximados en ecuaciones de primer orden
Dado que no podemos conocer exactamente la solucion de una ED arbitraria, resulta de suma importancia
disponer de alg
un metodo que nos permita saber, al menos con cierto grado de aproximaci
on, esa solucion.
Los metodos aproximados son muy variados y no podemos entrar aqu en una discusi
on profunda. Nos
limitaremos a esbozar dos de ellos. El primero por su sencillez y el segundo porque abre la puerta a
metodos mas completos y que permiten un mayor control sobre los resultados y los errores que de forma
indefectible van unidos a este tipo de metodos.
1.5.1
Poligonal de Euler
TEMA 1. INTRODUCCION
18
1.5.2
M
etodo de Runge-Kutta
El metodo de Euler equivale en cierto sentido a un desarrollo de Taylor de primer orden. Desarrollos
hasta ordenes superiores proporcionan una mejor aproximaci
on. Sin embargo, estos implican el calculo
de derivadas m
as complicadas lo que conlleva dicultades en el calculo y sucesivos errores de redondeo
que se van acumulando. El metodo de Runge-Kutta expuesto aqu, equivale a un desarrollo de Taylor
hasta el cuarto orden pero sustituye las derivadas de estos ordenes por una media ponderada:
yi+1 = yi +
h
(ki1 + 2ki2 + 2ki3 + ki4 )
6
19
Ejemplo 1.5.2 El caso anterior se puede tratar por el metodo de Runge-Kutta. Para n = 10, el valor
obtenido para x = 2.1 es 0.476190 y el error cometido es menor que 1011 . La mejor aproximaci
on que
proporciona este metodo permite obtener, por ejemplo, el valor de esta soluci
on en x = 8, n = 60, con
un error menor que 105 , y60 = 0.124997 frente al valor exacto 0.125.
Sin embargo, antes de aplicar un metodo numerico es necesario saber algo de la solucion y de sus
posibles singularidades. El siguiente ejemplo muestra lo errado de la utilizaci
on del c
alculo numerico sin
antes saber si la solucion existe para los valores que se esta intentando calcular.
Ejemplo 1.5.3 Consideremos nuevamente la ecuacion de Riccati: y = y 2 2/x2 , pero intentemos
calcular ahora la soluci
on con valor inicial: y(2) = 1. Usando el metodo de Euler con n = 10 podemos
calcular el valor en x = 3, que resulta ser 3.248222 frente a 5.733333 que es el valor exacto. El error
cometido es mucho mayor que antes, para la solucion con dato inicial y(2) = 0.5. Si usamos el metodo de
Runge-Kutta, tambien con n = 10, obtendremos 5.726704 que es un valor mucho m
as aproximado. Sin
embargo, supongamos que queremos calcular el valor de esta solucion en x = 3.2. El metodo de Euler
con n = 10 nos da 6.093062, mientras que el Runge-Kutta con el mismo n
umero de pasos da: 447.0796.
En realidad, ninguno de los dos resultados es correcto. En este caso disponemos de la soluci
on exacta
por lo que podemos averiguar que es lo que ocurre. La soluci
on es:
y(x) =
1
3x2
+
x 32 x3
que tiene una singularidad en x = 3.1748, por lo que no tiene sentido preguntarse cu
al es su valor en
x = 3.2, donde no est
a denida.
N
otese tambien, que los errores cometidos en este caso son mayores que en el anterior, debido a la
variaci
on tan fuerte de la soluci
on.
1.6
Existencia y unicidad
x, y I
TEMA 1. INTRODUCCION
20
Demostraci
on. Por el teorema del valor medio dados x, y I, existe c I tal que x < c < y,
veric
andose:
|f (x) f (y)| |f (c)| |x y|.
Pero f esta acotada en I, luego se verica el lema.
QED
Hay funciones que no son derivables y sin embargo son lipschitzianas. Por ejemplo el valor absoluto
en el origen. Veamos un ejemplo
on que no es lipschitziana (y por lo tanto no es derivable,
de una funci
aunque s continua): f (x) = x es continua en x = 0 aunque no derivable ni lipschitziana. En efecto,
aplicando la denici
on:
xy
f (x) f (y) = x y =
x+ y
que no se puede acotar en un entorno de 0. En lo que sigue, consideraremos funciones de varias variables y
exigiremos que sean lipschitzianas en una o varias de ellas. Los comentarios y propiedades anteriormente
expuestos son validos sin m
as que considerar, por ejemplo, derivadas parciales en vez de totales. As,
para una funci
on real de dos variables, se dice que es lipschitziana en un conjunto de IR2 en la segunda
variable, si:
|f (t, x1 ) f (t, x2 )| L|x1 x2 |
para (t, x1 ), (t, x2 ) en el dominio considerado. N
otese que la constante L no puede depender de t. En
general si f : I D IRn con D IRn , se dice que es lipschitziana en x D si:
f (t, x1 ) f (t, x2 ) Lx1 x2
donde . es la norma en IRn y t I, que es un intervalo de IR. Entonces, la existencia y acotaci
on de
las derivadas parciales de f con respecto a xi implica la lipschitzianidad en esas variables.
Teorema 1.6.1 (Existencia y unicidad). Sea la ecuaci
on diferencial de primer orden: x = f (t, x) donde
f es una funci
on continua en:
D = {(t, x) : |t t0 | a, |x x0 | b}
y lipschitziana en la segunda variable en el mismo conjunto D (la condici
on de lipschitzianidad no necesita
establecerse en todo D, pero no entraremos en estos detalles). Entonces existe una soluci
on u
nica x(t)
que verica x(t0 ) = x0 y que est
a denida en un entorno de t0 , |t t0 | T , donde T = min{a, b/K}
siendo K = sup{|f (t, x)| : (t, x) D}.
Demostraci
on. Transformamos la ecuacion diferencial en una integral:
x(t) = x0 +
f (s, x(s))ds
t0
on se
donde hemos sustituido la funci
on x(s) en la integral por su valor en t0 . La segunda aproximaci
construye a partir de la primera por el mismo procedimiento:
x2 (t) = x0 +
f (s, x1 (s))ds
t0
xn (t) = x0 +
21
de esta forma tenemos una sucesion de funciones xn (t) denidas en el conjunto D. Veamos ahora como
la sucesion xn (t) converge uniformemente en el intervalo 0 t t0 T . En primer lugar, comprobemos
que xn (t) no se sale de D:
|xn (t) x0 | b
Esto es cierto para n = 1:
t
t
|x1 (t) x0 | =
f (s, x0 )ds
|f (s, x0 )|ds K(t t0 )
t0
t0
y por inducci
on se demuestra para cualquier n. Supongamos que es cierto para n:
t
|xn+1 (t) x0 | =
f (s, xn (s))ds
K(t t0 ) b
t0
pues xn (s) esta en D para todo s en el intervalo [t0 , t0 +T ]. Usando el mismo procedimiento de inducci
on,
podemos probar la siguiente desigualdad:
|xn+1 (t) xn (t)|
KLn
(t t0 )n+1
(n + 1)!
que se verica para n = 1, pues es la misma desigualdad anterior. Supuesto cierto para n,
t
t0
y usando la condici
on de Lipschitz:
t
L
|xn (s) xn1 (s)|ds L
t0
t0
KLn1
KLn
(s t0 )n ds =
(t t0 )n+1
n!
(n + 1)!
esta desigualdad se verica para todo t [t0 , t0 + T ]. De esta forma construimos una serie de funciones cuyos terminos estan mayorados por una serie numerica convergente y que por lo tanto converge
uniformemente en el intervalo considerado:
x0 +
n=1
Las sumas parciales de esta serie son iguales a xn (t), luego, la sucesion xn (t) converge uniformemente
a una funci
on continua x(t). Probaremos ahora que esa funci
on verica la ecuaci
on diferencial y la
condici
on inicial:
t
t
x(t) = lim xn (t) = x0 + lim
f (s, xn (s))ds = x0 +
f (s, x(s))ds
n
t0
t0
donde se han usado las propiedades de f adecuadamente, es decir, se ha intercambiado la integral por
el lmite debido a la lipschitzianidad de f y se ha tomado el valor de la funci
on en el lmite debido a la
continuidad de f . Al ser f continua, x(t) es diferenciable y por lo tanto verica la ecuaci
on diferencial.
Es inmediato comprobar que tambien cumple la condici
on inicial.
Demostramos ahora la unicidad de la soluci
on: sea x
(t) otra soluci
on distinta de x(t) denida en
[t0 T , t0 + T ] con T T que verica la ecuacion y la condici
on inicial y adem
as:
|
x(t) x0 | b,
t [t0 T , t0 + T ]
Entonces, para 0 t t0 T :
|
x(t) xn (t)|
|f (s, x
(s)) f (s, xn1 (s))|ds L
t0
|
x(s) xn1 (s)|ds
t0
TEMA 1. INTRODUCCION
22
ahora bien, de nuevo por inducci
on, se puede probar que:
|
x(t) xn (t)|
Ln b
(t t0 )n
n!
la funci
on f es discontinua en t = 0 (x = 0). Calculemos la solucion que verica x(1) = 1. En el intervalo
t > 0, la soluci
on es: x(t) = Ket(1t) , y aplicando la condici
on inicial, obtenemos K = 1. En el intervalo
t < 0, la soluci
on es: x(t) = K et(1t) . Podemos empalmar estas dos funciones de forma continua en
t = 0 calculando as el valor de K = 1. La soluci
on completa es
t(1t)
e
t>0
x(t) =
et(1t) t < 0
que es continua en t = 0, aunque obviamente no derivable. Su derivada tiene un salto en t = 0, justamente
el mismo que tena la funci
on f . Esta es la u
nica soluci
on de la ecuacion que verica x(1) = 1.
Si f es continua es posible probar que siempre existe solucion. Sin embargo, si f no es lipschitziana
la soluci
on puede no ser u
nica.
Ejemplo 1.6.3 Consideremos la funci
on f (x) = |x| que como vimos antes era continua pero no lipschitziana. La ecuaci
on diferencial x = f (x) con la condici
on inicial x(0) = 0, no tiene soluci
on u
nica:
tanto x(t) = 0 como: x(t) = t2 /4, x 0, x(t) = t2 /4, x 0, son soluciones de esa ecuacion.
1.7
Estabilidad
Una de las cuestiones mas interesantes que se pueden plantear en torno a las ecuaciones diferenciales es la
de estabilidad de las soluciones, es decir, si se varan los datos iniciales una peque
na cantidad, que se puede
decir del comportamiento, para todo valor de la variable independiente, de las soluciones correspondientes.
El tema no resulta sencillo y solo para algunos tipos de ecuaciones se pueden dar respuestas generales.
Sin embargo, como iremos viendo a lo largo de estas notas, existen teoras y resultados muy potentes
para tratar muchos casos. En esta seccion nos limitaremos a la denici
on de estos conceptos.
Denici
on 1.7.1 Consideremos el problema:
x = f (t, x)
x(t0 ) = x0
t t0
1.8. ECUACIONES AUTONOMAS
23
es decir, las soluciones que tienen puntos iniciales cerca del punto inicial de la soluci
on a estudiar, se
mantienen cerca de esta para todo tiempo posterior. Se puede considerar una clase m
as particular de
estabilidad, la llamada estabilidad asint
otica.
Denici
on 1.7.2 (Estabilidad asint
otica) Se dice que x(t, x0 ) es una soluci
on asint
oticamente estable, si es estable y si existe > 0 tal que, si
x0 x0 < entonces,
lim x(t, x
0 ) x(t, x0 ) = 0.
Notese que se necesita que la solucion sea previamente estable. Es decir, la condici
on de tender a la
soluci
on en el innito no es suciente para asegurar la estabilidad.
1.8
Ecuaciones aut
onomas
Estudiaremos aqu, como un ejemplo, las ecuaciones autonomas de primer orden, que permiten un tratamiento sencillo, y nos abren la puerta de los sistemas aut
onomos, que apareceran en el tema 3.
Denici
on 1.8.1 Una ecuaci
on aut
onoma es: x = f (x), es decir la funci
on f no depende de t.
Esto hace que la ecuacion (que puede ser resuelta por cuadraturas al ser de variables separadas)
presente unas propiedades especiales que hacen su estudio mas sencillo. Veamos en primer lugar unas
propiedades elementales.
Proposici
on 1.8.1 Sea x = f (x), con f derivable con continuidad en IR.
1. Si x(t) es una soluci
on, x(t + ) tambien es soluci
on, para todo IR.
2. Si a IR verica f (a) = 0, entonces x(t) = a es una soluci
on constante de la ecuaci
on diferencial.
3. Toda soluci
on es constante o estrictamente mon
otona.
Demostraci
on. La parte 1) es una consecuencia inmediata del hecho de ser f funci
on exclusiva de x.
La parte 2) es igualmente trivial. En cuanto a 3), puesto que por cada punto de IR2 pasa una soluci
on y
solo una, es claro que para que una soluci
on pasara de ser creciente a decreciente o viceversa, habra de
atravesar un extremo, donde f se hace cero. Pero ese punto es otra solucion, constante por la parte 2)
de la proposici
on.
QED
Una propiedad que nos ser
a muy u
til para describir las soluciones de una ecuaci
on aut
onoma y que
es una consecuencia de un resultado elemental de an
alisis es la siguiente.
Teorema 1.8.1 Todas las soluciones acotadas de una ecuaci
on aut
onoma tienden a una soluci
on constante. Aqu la acotaci
on debe entenderse en el sentido que ya le dimos antes: x(t), con x(t0 ) = x0 est
a
acotada a la derecha si M > 0 tal que |x(t)| M para todo t t0 .
Demostraci
on. Sea x(t) una soluci
on acotada, no constante. Por ser mon
otona, existe el lmite de x(t)
cuando t tiende a innito. Sea a ese lmite. La funci
on f es continua, as que tambien existe el lmite de
f cuando t tiende a innito, es decir el lmite cuando x a, f (a). Entonces:
lim x(t) = a,
Un resultado de an
alisis elemental demuestra que f (a) = 0 y por tanto que x(t) = a es una soluci
on
constante. En efecto, sea la sucesion:
an = x(n + 1) x(n).
Puesto que x(t) es continua, su lmite cuando n es igual a cero. Por el teorema del valor medio
para cada n podemos encontrar n (n, n + 1) tal que:
x(n + 1) x(n) = x (n ).
TEMA 1. INTRODUCCION
24
Ademas, si n entonces n . Por lo tanto:
Figura 1.10
1.8. ECUACIONES AUTONOMAS
25
1
.
1 Ket
x0
x0 1
Figura 1.11
Ejemplo 1.8.2 x = x2 (x 1). Como antes, hay dos soluciones constantes. La solucion x(t) = 0 es
ahora inestable, aunque no se pueda determinar esta caracterstica de la derivada de f que se hace cero
en x = 0. La otra soluci
on constante, x(t) = 1 sigue siendo inestable (gura 1.11).
Ejemplo 1.8.3 x = x3 (x 1). La soluci
on x(t) = 1 es inestable. La solucion x(t) = 0 es estable
asint
oticamente, a
un cuando f (0) = 0. En el caso anterior, f (0) = 2 < 0, mientras que aqu, f (0) = 0
y f (0) = 6 < 0, con lo cu
al uno puede estudiar los cambios de signo de la funci
on f al atravesar x = 0
(gura 1.12).
Para terminar esta seccion dedicada a las ecuaciones aut
onomas, n
otese que podemos proyectar las
soluciones sobre el eje x. Debido a las propiedades de estas ecuaciones, las soluciones que se obtienen
unas de otras por traslaci
on, se proyectan en los mismos puntos aunque para distinto t. Las soluciones
constantes se proyectan en un solo punto (puntos crticos). Si se supone que las gr
acas de las soluciones
se recorren en el sentido de t creciente, se obtienen las gracas que aparecen en la gura 1.13. Las
soluciones que unen dos puntos crticos estan denidas para todo t. Tienden a uno u otro punto crtico
cuando t tiende a m
as o menos innito. Las otras soluciones pueden no estar denidas para todo t,
TEMA 1. INTRODUCCION
26
Figura 1.12
Figura 1.13
Tema 2
2.1
Sistemas lineales
x
= A(t)x + b(t)
x(t0 ) = x0
donde:
A: [t0 , t1 ] Mn (IR),
b: [t0 , t1 ] IRn
A(t)x
, x IRn , x = 0}
x
27
28
2.2
Una vez en condiciones de asegurar la existencia y unicidad de las soluciones, estudiaremos ahora las
propiedades de estas. Para ello consideraremos en primer lugar la ecuacion homogenea x = A(t)x.
Teorema 2.2.1 Una soluci
on de un sistema lineal es un vector de n componentes y el conjunto de
soluciones es un espacio vectorial real (como puede probarse f
acilmente por las propiedades del producto
de matrices). La dimensi
on de este espacio es igual a n.
Para demostrarlo, deniremos antes la noci
on de matriz de soluciones y estudiaremos sus propiedades.
Denici
on 2.2.1 Una matriz de soluciones es una matriz cuyos vectores columna son soluciones del
sistema: X(t) = (x1 (t), x2 (t), ..., xn (t)).
Debido a las propiedades del producto de matrices, se tiene:
X = A(t)X
cuando X(t) es una matriz de soluciones. La siguiente proposici
on se reere al determinante de una
matriz de soluciones. Tengase en cuenta que siempre estamos considerando a A(t) como una funci
on
continua en el intervalo I = [t0 , t1 ] en el que trabajamos.
Proposici
on 2.2.1 Sean x1 (t), x2 (t), . . . , xn (t), n soluciones de un sistema de ecuaciones lineal homogeneo y sea X(t) la matriz que las tiene por columnas. Entonces: o bien det X(t) = 0 para todo
t I, o det X(t) = 0 para todo t I.
En el primer caso las soluciones son linealmente dependientes. En el segundo son linealmente independientes. El determinante de la matriz se llama wronskiano, y como asegura la proposici
on es siempre
distinto de cero en el caso que las columnas de la matriz de soluciones sean linealmente independientes.
Notese que la condicion que establece la proposicion para asegurar la dependencia o independencia lineal
de un conjunto de funciones vectoriales no se aplica en general, sino s
olo a soluciones de un sistema lineal
homogeneo.
Demostraci
on. Basta recordar como se deriva un determinante para obtener:
1
1
x1 .. xn
x1 .. xn1
x1 .. xn1
1
d
.. = det ..
.. + + det ..
..
det ...
.
.
.
.
.
dt
n
x1n .. xnn
x1n .. xnn
x1
..
x
n
n
sustituyendo las derivadas por sus expresiones respectivas y desarrollando los determinantes por la la
en la que esas derivadas aparecen, se llega a:
d
det(X(t)) = tr(A(t)) det(X(t)).
dt
Se trata de una ecuaci
on lineal de primer orden que sabemos resolver. Su soluci
on es la f
ormula de
Abel-Liouville:
t
det X(t) = Ce tr A(s)ds
y por lo tanto, el wronskiano no se anula para ning
un t en el intervalo considerado, o bien (cuando C = 0)
se anula para todo punto.
QED
LINEAL
2.2. EL ESPACIO DE SOLUCIONES DE LA ECUACION
29
Consideremos la funci
on:
x(t) =
ci xi (t)
(2.2)
i=1
ci xi (t) = 0,
t I
i=1
es decir las funciones xi (t), i = 1, . . . , n son linealmente dependientes. Obviamente, si son linealmente
independientes, el wronskiano no se anula en ning
un punto.
Proposici
on 2.2.2 La dimensi
on del espacio de soluciones de un sistema de n ecuaciones lineales homogeneas es igual a n.
Demostraci
on. Consideremos las soluciones de los problemas:
x
= A(t)x
x(t0 ) = ei
donde ei es la base canonica de IRn . Sean xi (t) estas soluciones. Entonces, el conjunto de soluciones
{xi (t), i = 1, . . . , n} es una base del espacio de soluciones, que por tanto tiene dimensi
on n. En efecto,
es inmediato probar que son linealmente independientes, pues en t = t0 el wronskiano es el determinante
de la matriz identidad, que es distinto de cero. Adem
as son un sistema de generadores:
Sea x(t) una soluci
on del sistema, con x(t0 ) = x0 . El vector x0 tiene una cierta expresi
on en la base
canonica:
n
x0 =
x0i ei
i=1
Esta soluci
on es justamente x(t), pues ambas verican la misma condici
on inicial en t = t0 .
QED
Denici
on 2.2.2 Se llama sistema fundamental de soluciones a una base del espacio de soluciones. Se
llama matriz fundamental a una matriz de soluciones cuyas columnas forman un sistema fundamental.
De esta manera, la solucion general del sistema homogeneo se puede escribir como:
x(t) = (t)C
donde (t) es una matriz fundamental y C es un vector de constantes de n componentes. Si la condici
on
inicial es x(t0 ) = x0 , el vector C se calcula como:
C = (t0 )1 x0
30
QED
No es facil calcular las soluciones de un sistema lineal homogeneo o completo. Sin embargo, una vez
conocida una matriz fundamental, lo que proporciona todas las soluciones del problema homogeneo, se
pueden hallar las soluciones del problema completo aplicando, por ejemplo el metodo de variaci
on de
constantes, como hicimos con las ecuaciones de primer orden.
Para ello, sea (t) una matriz fundamental del problema homogeneo. La solucion general de este
problema es: x(t) = (t)C, donde C es un vector constante. Supongamos que C depende de t y veamos
que condiciones debe satisfacer para que (t)C(t) sea solucion del sistema completo.
Sustituyendo en la ecuaci
on:
x (t) = (t) C(t) + (t)C (t) = A(t)(t)C(t) + b(t)
y como (t) = A(t)(t), se tiene:
es decir:
Sin embargo, el c
alculo de (t) puede ser muy complicado. Tan solo cuando los coecientes de A no
dependen de t puede calcularse una matriz fundamental f
acilmente. Si los coecientes de la matriz A son
funciones peri
odicas de t, la teora de Floquet proporciona indicaciones sobre la forma de las soluciones
y permite en algunos casos simples calcularlas.
2.3
Sea el sistema lineal homogeneo con matriz A constante (sistema lineal autonomo), x = Ax. De acuerdo
con lo expuesto hasta ahora, existe una u
nica soluci
on, jada la condici
on inicial, que adem
as esta denida
en todo el eje real. Este tipo de sistemas aparece en muchas situaciones: en problemas de redes electricas
o sistemas mecanicos, como aproximacion de sistemas no lineales en el entorno de un punto crtico, en
grupos de transformaciones uniparametricos (transformaciones innitesimales) etc. Como hemos dicho
31
antes, es posible hallar una matriz fundamental de este sistema y, como vamos a ver ahora, todo se reduce
al calculo de la exponencial de una matriz.
Recordemos la denicion y propiedades elementales de la exponencial de una matriz. Sea A una
matriz real (o compleja) n n. Se dene exp(A):
eA =
An
A2
=I +A+
+
n!
2
n=0
En el espacio de matrices reales n n, Mn (IR), se puede denir una norma que lo convierte en un
espacio de Banach:
Ax
As = sup{
, x IRn , x = 0}
x
donde . es una norma denida en IRn . Usando esta estructura se puede probar que la serie denida
anteriormente converge absolutamente para toda matriz de Mn (IR). Para ello se usa la desigualdad:
Ak s Aks
con lo cual:
m
m
Ak
Aks
s
k!
k!
k=n
k=n
Como la serie exponencial es absolutamente convergente en IR, se tiene lo mismo para la exponencial de
una matriz.
La exponencial de una matriz tiene propiedades similares a la exponencial de n
umeros reales o complejos, salvo aquellas en las que interviene la conmutatividad de la multiplicaci
on.
Entre las propiedades de la exponencial que nos resultar
an m
as u
tiles se
nalemos las siguientes:
1. (eA )1 = eA .
2. det(eA ) = etr A , y por tanto det(eA ) = 0.
Consideremos ahora funciones de un intervalo de la recta real, I, en Mn (IR):
f : I Mn (IR).
Dado que el espacio Mn (IR) es un espacio de Banach, se pueden estudiar series de funciones, continuidad,
derivabilidad, etc. En lo que se reere a nuestro interes, el criterio de convergencia de Weierstrass es
v
alido:
Proposici
on 2.3.1 Si la serie de funciones n0 fn (t), fn : I M , donde M es un espacio de Banach,
est
a mayorada por una serie numerica convergente, entonces converge absoluta y uniformemente en t.
Ademas, si la serie es convergente, y sus terminos son derivables, la serie de las derivadas converge
a la derivada de la serie, si la primera es uniformemente convergente. En nuestro caso se dan esas
circunstancias como veremos despues.
2.3.1
C
alculo de exponenciales de matrices
32
J1
exp(J1 )
..
..
exp
=
.
.
Jk
3. Si A, B Mn (C) conmutan entonces:
exp(Jk )
eA+B = eA eB
La demostracion sigue los mismos pasos que en el caso real o complejo. La propiedad no es cierta
cuando las matrices A y B no conmutan.
4. Si N es una matriz nilpotente de grado r, su exponencial es una suma nita:
eN = I + N +
N2
N r1
+ +
2
(r 1)!
33
Evidentemente, f (A) no depende del polinomio elegido por lo que hemos dicho antes, as que se puede
tomar el de menor grado, que es menor que el del polinomio mnimo, y adem
as es u
nico. N
otese que este
polinomio de menor grado es un polinomio de interpolaci
on y se determina por:
p() = f (), p () = f (), . . . , p(m1) () = f (m1) ()
para todo elemento del espectro de A, m multiplicidad de como raz del polinomio mnimo. Estas
son pues las ecuaciones que permiten calcular p(z) y consiguientemente p(A) = f (A). Se llama a p(z)
el polinomio de interpolaci
on de Lagrange-Sylvester. Este metodo de calculo esta muy ligado al de
proyectores ortogonales.
Ejemplo 2.3.1 Consideremos la matriz:
1
0
A=
1
1
1
0
1
1
p (1) = e1
ya que la multiplicidad de 1 como raz del polinomio mnimo es 2. Sea p(z) = az + b. Las ecuaciones
que determinan a, b son:
= e1
a + b
a = e1
por tanto, a = e1 , b = 2e1 , y se obtiene el resultado anterior al poner:
eA = p(A) = e1 A + 2e1 I.
Ejemplo 2.3.2 Sea la matriz:
A=
2
0
1
1
34
donde:
P =
J=
1
0
1
3
2
0
0
1
.
e2 e1
e2 + 2e1
, b=
3
3
de esta forma:
eA = p(A) = aA + bI
y se obtiene el resultado anterior.
Ejemplo 2.3.3 Finalmente veamos un caso con matrices 3 3.
0 1 0
A = 4 4 0 .
2 1 2
Esta matriz tiene un solo autovalor, 2, y dos cajas de Jordan de dimensiones 2 y 1. En efecto el polinomio
caracterstico es:
( 2)3
y el polinomio mnimo es ( 2)2 , con lo cual tenemos
matriz de Jordan es:
2 1
J = 0 2
0 0
0
0
2
= 2P1
= P1 + 2P2
AP3
2P3
donde se ve que P1 , P3 son los autovectores de la matriz A. Estos autovectores son combinaciones lineales
de (0, 0, 1) y (1, 2, 0). Sin embargo resulta m
as comodo calcular en primer lugar el vector P2 . Para ello
escribamos las dos primeras ecuaciones como:
(A 2I)P1 = 0
(A 2I)P2 = P1
y multiplicando la segunda ecuaci
on por A 2I tenemos:
(A 2I)2 P2 = 0
35
ecuacion que permite calcular P2 . En este caso resulta ser trivial, pues el polinomio mnimo es ( 2)2
y anula a la matriz A. La u
nica restricci
on es que P2 no debe ser un autovector, as que elijamos
on:
P2 = (1, 0, 0). De esta forma P1 queda jado por la segunda ecuaci
P1 = (A 2I)P2
es decir P1 = (2, 4, 2). El tercer vector, que tambien es autovector, se elige linealmente independiente
con P1 , por ejemplo, P3 = (0, 0, 1). Por tanto la matriz P es:
2 1 0
P = 4 0 0
2 0 1
y la exponencial de A:
A
e =P
e2I+N
0
0
e2
P 1
4
e =e
2
A
1
3
1
0
0 .
1
un c
alculo laborioso. Sin embargo, construyamos el polinomio de Lagrange-Sylvester de la matriz A.
Esta matriz tiene un solo autovalor y el polinomio caracterstico tiene grado 2. Por lo tanto p(z) sera un
polinomio de grado 1, p(z) = az + b, y los coecientes a, b se calculan por:
p(2) = e2 ,
p (2) = e2
con lo que a = e2 , b = e2 .
La exponencial de la matriz A es:
eA = p(A) = e2 A e2 I
que es el resultado obtenido anteriormente.
Cuando los coecientes son complejos los metodos de calculo son los mismos. Sin embargo si la
matriz es real, aunque los autovalores sean complejos, la exponencial es una matriz real. En este caso los
autovalores complejos aparecen a pares, y siempre se puede encontrar una base en la cual la matriz se
descomponga en bloques elementales 2 2 asociados a cada pareja de estos autovalores si son simples. Si
no lo son, es posible que la matriz no sea diagonalizable por esos bloques pero en cualquier caso existir
a
una forma similar a la de Jordan y a la postre los calculos de la exponencial se reducir
an a los de la
exponencial de los bloques 2 2. Consideremos una matriz 2 2 con coecientes reales y autovalores
complejos:
a b
A=
c d
(tr A)2 < 4 det A
Sean = + i, los autovalores de esta matriz, con > 0. Se pueden calcular los autovectores complejos
Aw = w, w = u + iv, donde u, v son vectores reales linealmente independientes. La matriz A se escribe
en la base {v, u} como:
36
y la exponencial de esta matriz se calcula facilmente sabiendo que existe un isomorsmo entre el cuerpo
de los n
umeros complejos y el conjunto de matrices reales con esta forma. La exponencial de = + i
es:
e+i = e (cos + i sen )
por lo tanto, la exponencial es:
e
cos
sen
Ejemplo 2.3.4
A=
sen
cos
3
5
1
1
.
.
Los autovalores de esta matriz son 1 i. Los autovectores complejos son: (1, 2 i), es decir
(1, 2) i(0, 1). En la base {(0, 1), (1, 2)} la expresi
on de A es:
1 1
1
1
por lo tanto:
A
=
=
0
1
1 2
e cos 1
e sen 1
e sen 1
e cos 1
2
1
e sen 1
e(cos 1 2 sen 1)
1
0
2.4
Soluci
on general
d At
An n1
d An n d A n n
e =
t =
(
t )=
nt
dt
dt n=0 n!
dt n!
n!
n=0
n=0
es decir, se tiene la relacion:
d At
e = AeAt
dt
que nos permite demostrar lo siguiente:
GENERAL
2.4. SOLUCION
37
Proposici
on 2.4.1 Una matriz fundamental del sistema homogeneo con coecientes constantes:
x = Ax
es (t) = eAt , que adem
as es la u
nica que verica (0) = I.
La demostracion es evidente. La solucion particular que verica x(t0 ) = x0 es:
x(t) = eA(tt0 ) x0 .
Tengase en cuenta ademas que eAt es un grupo uniparametrico con t IR, debido a las propiedades
de la exponencial ya estudiadas y al hecho de que los m
ultiplos de A conmutan entre s. En cuanto al
sistema completo, una vez que conocemos una matriz fundamental, es inmediato escribir la solucion del
problema:
x
= Ax + b(t)
x(t0 ) = x0
como:
x(t) = eA(tt0 ) x0 +
eA(ts) b(s)ds.
t0
Como hemos dicho anteriormente, solo se necesita conocer una matriz fundamental para calcular todas
las soluciones. Si escribimos A en su forma de Jordan: A = P JP 1 :
eAt = P eJt P 1
pero como sabemos, dada una matriz fundamental, el producto de dicha matriz por una matriz de
constantes regular (a la derecha) proporciona una nueva matriz fundamental. Por tanto, para escribir la
soluci
on general del problema homogeneo podemos utilizar:
(t) = P eJt
que es tambien una matriz fundamental, aunque no sea la can
onica en t = 0. Pero es mas, como ahora
veremos, los autovalores de A proporcionan una base del espacio de soluciones en el caso que A sea
diagonalizable, y en cualquier caso llevan a soluciones del sistema.
En efecto, si A es diagonalizable, J es una matriz diagonal y P es una matriz cuyas columnas son los
autovectores del sistema:
t
e 1
t
t
..
(t) = (P1 , . . . , Pn )
= (P1 e 1 , . . . , Pn e n )
.
en t
y por tanto una base del espacio de soluciones es:
{P1 exp(1 t), . . . , Pn exp(n t)}
como por otra parte se puede comprobar directamente. La soluci
on general es una combinaci
on lineal de
estas funciones:
x(t) = c1 P1 e1 t + . . . + cn Pn en t
aunque el c
alculo de las constantes ci implica resolver un sistema de ecuaciones lineales. Este resultado
es cierto a
un cuando algunos autovalores tengan multiplicidad mayor que 1. Lo esencial es que la matriz
sea diagonalizable.
Cuando la matriz no es diagonalizable la situaci
on no es tan clara. La matriz J no es diagonal y la
matriz P contiene en sus columnas los autovectores de A y otros vectores necesarios para formar una
base. Supongamos que P es un autovector con autovalor . Entonces P et es una solucion del sistema:
x (t) = P et = AP et .
38
..
J =
.
.
Ejemplo 2.4.1
x1
x1
= x1 + x2
= x2
La matriz es no diagonalizable. Un autovector es (1, 0) y el vector que completa la base para obtener la
forma de Jordan es (0, 1), pues la matriz esta ya escrita en la forma canonica. Por lo tanto la soluci
on es:
x(t)
1
1
0
= c1
et + c2
t+
et .
y(t)
0
0
1
Ejemplo 2.4.2 La ecuacion que describe el movimiento de cada libre de un cuerpo hacia la tierra es:
dv
= g 2 v
dt
donde v es la velocidad del cuerpo, g la aceleracion de la gravedad y la velocidad de rotaci
on de la
tierra. Se trata de un sistema de ecuaciones lineales de primer orden con coecientes constantes. La
matriz del sistema es:
Av = 2 v
con lo que el sistema se escribe:
v = Av + g.
0
2 3
2
3
0
1
2
1
0
sus autovalores son 0, 2i, donde es el modulo del vector . Calculando el polinomio de interpolaci
on
de la matriz At, que debe ser de grado 2, p(z) = az 2 + bz + c:
p(2it) = e2it ,
p(0) = 1,
lo que proporciona a, b, c:
a=
p(2it) = e2it
sen 2t
1 cos 2t
, b=
,
42 t2
2t
c=1
= eAt v0 + (eAt
eAs )g =
v0 + (I +
1 2
1
A )gt + A(v0
Ag)bt + A(g + Av0 )at2
42
42
39
y escribiendo la expresi
on de los coecientes y la de A:
v(t)
g
g)) + (1 cos 2t) ( v0
)
g
(sen 2t) (
+ v0 )
= v0 + t(g +
2.5
x1
0
1
0
0
x1
x2
0
0
0
x2 0
..
.
.
.
.
.
..
..
.. .. + ..
. =
.
xn1
0
0
1
0
xn1
a0 (t) a1 (t) an1 (t)
b(t)
xn
xn
Como se puede observar, la forma de la matriz de este sistema es muy particular, y, en general, no es
necesario pasar al sistema asociado para resolver la ecuacion. En cualquier caso, cuando los coecientes
no son constantes no es sencillo calcular las soluciones de este tipo de ecuaciones. Las propiedades de las
soluciones se pueden deducir de las demostradas para los sistemas de ecuaciones lineales:
Proposici
on 2.5.1 El conjunto de soluciones de una ecuaci
on lineal homogenea de orden n es un espacio
vectorial real de dimension igual a n.
As, si el conjunto de funciones {x1 (t), . . . , xn (t)} es una base, la solucion general de la ecuaci
on
homogenea es:
x(t) = c1 x1 (t) + c2 x2 (t) + . . . + cn xn (t)
donde c1 , c2 , . . . , cn son constantes que se jan de acuerdo con las condiciones iniciales. Debido a la
independencia lineal de las soluciones, el sistema que ja las constantes ci en funci
on de los datos iniciales
tiene solucion u
nica. Esto es consecuencia de las propiedades del wronskiano que pasamos a enunciar.
Denici
on 2.5.1 Se llama wronskiano de las funciones f1 (t), . . . , fn (t) denidas en un intervalo de la
recta real y derivables al menos hasta orden n 1 al siguiente determinante:
W [f1 , . . . , fn ; t] = det
f1 (t)
f1 (t)
..
.
(n1)
f1
fn (t)
fn (t)
..
.
(n1)
fn
(t)
40
an1 (s)ds
El wronskiano tiene las mismas propiedades que en el caso de sistemas, es decir no se anula en ning
un
punto del intervalo, o es identicamente cero en todo el intervalo. En el primer caso las soluciones de
la ecuacion son linealmente independientes y en el segundo son linealmente dependientes. Por tanto las
constantes que aparecen en la solucion general se jan unvocamente en funci
on de los datos iniciales.
La soluci
on general de la ecuaci
on completa es suma de la solucion general de la ecuaci
on homogenea
mas una soluci
on particular de la completa. El c
alculo de una soluci
on particular se puede hacer usando
el metodo de variaci
on de constantes que sigue las mismas lneas que el expuesto para sistemas lineales.
Sin embargo, aqu solo hay una ecuaci
on y por tanto es necesario imponer condiciones suplementarias.
Sea entonces x(t) la siguiente funci
on, donde {x1 (t), . . . , xn (t)} es una base de soluciones de la ecuacion
homogenea:
n
x(t) =
ci (t)xi (t)
i=1
x (t) =
i=1
Si imponemos la condici
on:
ci (t)xi (t).
i=1
i=1
i=1
ci (t)xi (t)
i=1
i=1
ci (t)xi
(n2)
(t) +
i=1
(n1)
ci (t)xi
(t)
i=1
ci (t)xi
(n2)
(t) = 0
i=1
nalmente, se calcula la derivada de orden n y se sustituye en la ecuacion con lo que se obtienen las n
condiciones que jan las funciones ci (t):
x(n) (t) =
ci (t)xi
i=1
(n1)
(t) +
(n)
ci (t)xi (t).
i=1
Al sustituir en la ecuaci
on aparece una relaci
on entre las ci (t) y las derivadas de orden n igualada a
la funci
on b(t) mas una relaci
on entre ci (t) y las derivadas de las funciones xi (t), que no es mas que la
ecuacion homogenea aplicada a cada una de estas u
ltimas funciones. Como son soluciones de la ecuacion
homogenea, se concluye que:
n
(n1)
ci (t)xi
(t) = b(t).
i=1
41
Esta ecuacion, junto con las anteriores forma un sistema de ecuaciones algebraicas lineales que permite
calcular las funciones ci (t). La matriz de coecientes es justamente el wronskiano de la base de soluciones
con las que se esta trabajando, lo que asegura la existencia de soluci
on. Una vez halladas ci (t) se integran
y multiplican por xi (t) para obtener la soluci
on particular buscada. Veamos en el caso n = 2 como es
esta solucion.
Sea la ecuacion x + a1 (t)x + a0 (t)x = b(t), x1 (t), x2 (t) una base de soluciones de la ecuacion
homogenea. La solucion particular buscada por el metodo de variaci
on de constantes es:
x(t) = c1 (t)x1 (t) + c2 (t)x2 (t)
y las ecuaciones que satisfacen las funciones c1 (t), c2 (t) son:
c1 (t)x1 (t) + c2 (t)x2 (t) = 0
c1 (t)x1 (t) + c2 (t)x2 (t) = b(t)
que se pueden resolver por Cramer, obteniendose:
c1 (t) =
x2 (t)b(t)
x1 (t)b(t)
, c2 (t) =
W (t)
W (t)
1
t sen 2t
2
La soluci
on general es suma de la solucion general de la homogenea, generada por la base x1 (t), x2 (t),
con esta solucion particular.
xp (t) =
42
como y(t) es solucion de la ecuacion de partida, se tiene para v(t) una ecuaci
on lineal de primer orden:
y(t)v + (2y (t) + a1 (t)y(t))v = 0
Su soluci
on es:
v(t) =
C
e
y 2 (t)
a1 (t)
Una vez calculada v(t) se sustituye en la expresion que proporciona x(t), con lo que obtenemos otra
soluci
on de la ecuacion, linealmente independiente con y(t). En efecto, el wronskiano de las soluciones
y(t), x(t) es (si u(t) es la integral de v(t)):
y(t)
y(t)u(t)
W (t) = det
= y 2 (t)v(t) = e a1 (t)
y (t) y (t)u(t) + y(t)v(t)
(tomando C = 1) que no se anula en ning
un punto.
En este caso se ha calculado una base. Para una ecuaci
on de orden n haran falta n 1 soluciones
para reducirla a una de primer orden.
2.6
Como hemos visto en el apartado anterior basta conocer una base de soluciones para calcular cualquier
soluci
on de una ecuaci
on lineal homogenea o no. Sin embargo el c
alculo de la base es en general complicado
y salvo metodos como el de desarrollo de las soluciones en forma de serie, no se puede dar ning
un
esquema completo para cualquier ecuacion. Existen algunos casos donde el c
alculo de una base se puede
hacer de forma sistematica. Concretamente en el caso de coecientes constantes, este calculo es una
cuestion puramente algebraica. De hecho, pasando al sistema lineal asociado obtendramos una matriz
de constantes y por lo tanto sabemos que la soluci
on se calcula hallando la exponencial de esa matriz. Sin
embargo, dado que la matriz de los sistemas asociados a ecuaciones de orden n tiene una estructura muy
peculiar, resulta interesante desarrollar la teora sin referirse a los sistemas. Consideremos una ecuacion
lineal de orden n homogenea de coecientes constantes:
x(n) + an1 x(n1) + . . . + a1 x + a0 x = 0
Denici
on 2.6.1 Se llama polinomio caracterstico de esta ecuaci
on a:
p() = n + an1 n1 + + a1 + a0 .
Suponemos que los coecientes de la matriz son reales. El caso complejo no ofrece ninguna dicultad
adicional. Los elementos b
asicos de esta ecuacion diferencial son las races del polinomio caracterstico.
0
1
0
0
0
1
..
..
..
.
.
.
0
0
0
a0 a1 a2
43
de la matriz A:
..
1
an1
es justamente p() (salvo un signo global), es decir, las races del polinomio caracterstico de la ecuacion
son los autovalores de la matriz del sistema asociado. La siguiente proposicion usa ese resultado, aunque
la demostraremos desde el punto de vista de ecuaciones.
Proposici
on 2.6.1 Sea raz del polinomio caracterstico de una ecuaci
on diferencial de orden n con
coecientes constantes. Entonces, la funci
on:
x(t) = et
es una soluci
on de la ecuaci
on.
Demostraci
on. Es muy simple pero aprovecharemos para introducir la notaci
on de operadores que
simplicar
a los resultados. Sea D = d/dt, y L = Dn + an1 Dn1 + + a1 D + a0 , operador lineal
diferencial de orden n con coecientes constantes. Entonces, p(D) = L. La accion de D sobre las
exponenciales es simplemente:
D(et ) = et
y por lo tanto resulta inmediato comprobar que:
p(D)et = p()et
de esta forma, si es una raz del polinomio caracterstico, p() = 0 y de acuerdo con la expresi
on
QED
anterior, L(et ) = 0.
La siguiente proposici
on establece cuando se puede obtener una base formada solo por exponenciales:
Proposici
on 2.6.2 Si las races del polinomio caracterstico, {1 , . . . , n } son todas distintas entre s,
el conjunto de funciones:
e1 t , e2 t , . . . , en t
es una base del espacio de soluciones de la ecuaci
on.
Demostraci
on. Es tambien muy sencilla. De acuerdo con la proposici
on anterior, todas estas
funciones son soluciones de la ecuacion. As pues, lo u
nico que hay que demostrar es que son linealmente
independientes, ya que sabemos que la dimensi
on del espacio de soluciones es n. Para ello construyamos
el wronskiano de estas soluciones:
en t
e1 t
1 e1 t
n en t
W [x1 , x2 , . . . , xn ; t] =
..
..
.
.
n1
e1 t
1
n1
en t
n
44
ci ei t .
i=1
Como estamos considerando ecuaciones con coecientes reales, el espacio de soluciones es un espacio
vectorial real de dimensi
on n. Se puede demostrar que existe una base de soluciones reales. Si alguna
La pareja de soluciones:
raz es compleja, aparecera tambien su compleja conjugada .
{et , et }
se puede sustituir por:
{et cos t, et sen t}
donde = + i, que son combinaciones lineales de las anteriores y son reales. En el caso de races
complejas, la solucion general, cuando todas las races son distintas es:
x(t) =
r
i=1
i t
ci e
j=1
45
Otra forma de alcanzar este resultado es la siguiente. Considerando exp(t) como una funci
on de las
variables t y se puede escribir:
t
D (et ) =
e = tet
ek t , tek t , . . . , trk 1 ek t
e1 t cos 1 t, e1 t sen 1 t, . . . , ts1 1 e1 t cos 1 t, ts1 1 e1 t sen 1 t
m t
m t
cos m t, e
sm 1 m t
sen m t, . . . , t
Ejemplo 2.6.1 Sea la ecuacion anterior, x + 4x = cos 2t. El polinomio caracterstico es 2 + 4 = 0, por
lo que tenemos dos races complejas. Por tanto, una base real de soluciones de la ecuacion homogenea es
{cos 2t, sen 2t}, como habamos anticipado.
2.7
Coecientes indeterminados
46
bk (t).
k=1
Una forma de resolver este problema es descomponerlo en m problemas no homogeneos, cada uno
de ellos con inhomogeneidad igual a bk (t). De esta forma la solucion particular buscada es la suma
de las soluciones particulares halladas en cada uno de los problemas:
L(
k=1
xk (t)) =
L(xk (t)) =
k=1
bk (t) = b(t)
k=1
47
t
sen 2t
4
como ya sabamos.
2.8
Consideremos un sistema lineal x = A(t)x + b(t), donde se supone que A(t) y b(t) son funciones continuas a partir de un cierto t0 , con lo que las soluciones que parten de ese punto se pueden prolongar
indenidamente hacia la derecha.
Proposici
on 2.8.1 Las soluciones de un sistema de ecuaciones diferenciales de primer orden lineal son
estables (asint
oticamente estables) si y solo si lo es la soluci
on trivial del sistema homogeneo.
Tambien se tiene la misma relacion entre acotacion y estabilidad:
Proposici
on 2.8.2 Las soluciones de un sistema lineal homogeneo son estables si y solo si son acotadas.
Demostraci
on. Supongamos que la ecuaci
on es estable. Entonces la solucion trivial es estable, por
tanto para todo ' > 0 tal que, si x0 < , entonces x(t) < ' para todo t t0 , donde x(t) es la
a en un
soluci
on del sistema con x(t0 ) = x0 . Esto quiere decir que las soluciones cuyo dato inicial est
entorno de 0 est
an acotadas (recuerdese que el concepto de acotacion utilizado aqu se reere a puntos
situados a la derecha del punto inicial). Pero si y(t) es una soluci
on cualquiera con y(t0 ) = y0 , se puede
hacer una homotecia que lleve el dato inicial a ese entorno del origen, y considerar la soluci
on con dato
inicial z(t0 ) = y0 /c, donde y0 /c < , eligiendo adecuadamente la constante c. Como el sistema es lineal,
la soluci
on con este dato inicial es z(t) = y(t)/c y por lo tanto de z(t0 ) < se deduce z(t) < ', es
decir, y(t) c' para todo t t0 , luego toda soluci
on esta acotada.
Supongamos ahora que las soluciones de la ecuaci
on estan acotadas. Esto quiere decir que podemos
construir una matriz fundamental (t), acotada, de forma que dada una soluci
on x(t) = (t)(t0 )1 x0
se tiene:
x(t) = (t)(t0 )1 x0 (t)(t0 )1 s x0 x0
para todo t t0 , pues la matriz (t) esta acotada por que en principio puede depender de t0 (si no es
as, se habla de estabilidad uniforme) pero que no depende de x0 . Usando la desigualdad anterior se ve
que basta escoger = '/ en la denici
on de estabilidad para asegurar que la soluci
on trivial es estable
y por ende el sistema.
QED
N
otese que es necesario que todas las soluciones esten acotadas, concretamente que una base de
soluciones este acotada. En el caso de la ecuacion lineal de primer orden bastaba que una soluci
on no
trivial estuviera acotada. Obviamente, pues la base all tiene un solo elemento.
En el caso de coecientes no constantes la situacion puede complicarse pues no sabremos en general
la forma explcita de las soluciones. En el caso de coecientes constantes veremos como se pueden dar
criterios muy sencillos para estudiar la estabilidad del sistema.
Proposici
on 2.8.3 Sea el sistema de ecuaciones diferenciales lineal homogeneo de coecientes constantes: x = Ax. Entonces:
1. Si la parte real de los autovalores de A es negativa, el sistema es asint
oticamente estable.
2. Si la parte real de los autovalores es negativa, excepto la de algunos que es cero, y estos u
ltimos
tienen cajas de Jordan asociadas de dimensi
on 1, entonces el sistema es estable.
48
Demostraci
on. Es trivial, bas
andose en la estructura de las soluciones. Recordemos que estas son
exponenciales por polinomios, as que el comportamiento cuando t viene dado por la parte real de
los exponentes, que son los autovalores. Si la parte real es negativa, las soluciones est
an acotadas y tienden
a cero cuando t tiende a innito, luego el sistema es asint
oticamente estable. Si la parte real es cero,
habr
a que jarse si existe o no un polinomio (de grado mayor que 0) que multiplique a la exponencial.
Si la multiplicidad geometrica del autovalor es igual a su multiplicidad aritmetica (es decir, si las cajas
correspondientes a ese autovalor son de dimensi
on 1 en la forma de Jordan correspondiente) no existe tal
polinomio, y el sistema sera estable. Si la caja no es diagonal, el sistema es inestable debido al polinomio.
Finalmente si alg
un autovalor tiene parte real positiva la soluci
on correspondiente no estar
a acotada y
por tanto el sistema es inestable.
QED
Ejemplo 2.8.1
x
y
= 5x + 4y
= 3x + 2y
Los autovalores de la matriz A son 1, 2, por lo tanto el sistema es asintoticamente estable. Las
soluciones tienden a cero cuando t tiende a innito. N
otese que tr A = 3 y det A = 2, lo que permite
asegurar sin necesidad de efectuar los calculos explcitos, que las dos races son negativas. Si consideramos
un sistema no homogeneo, por ejemplo:
x
y
= 5x + 4y + t
= 3x + 2y + t
1
1
(t 1)
2.9
49
El criterio de Routh-Hurwitz
an1
1
0
0 0
an3 an2 an1 1 0
..
..
..
.. ..
.
.
.
. .
0
0
0
0 0
0
0
0
0 0
0
0
..
.
a1
0
0
0
..
.
a2
a0
Observese como en la construccion de esta matriz se han colocado los coecientes del polinomio sobre
la diagonal principal (salvo el 1 de n ) y a derecha e izquierda a partir de la diagonal el resto de esos
coecientes en orden creciente.
Del criterio de Routh-Hurwitz se deduce que una condici
on necesaria para que todas las races tengan
parte real negativa es que todos los coecientes del polinomio sean positivos. Sin embargo esta condici
on
no es suciente. La demostracion del criterio de Routh-Hurwitz se basa en el concepto de ndice de
Cauchy pero no entraremos en ella aqu. Veamos algunos casos particulares.
Ejemplo 2.9.1 n = 2, p() = 2 + a1 + a0 . La matriz a considerar es:
a1 1
0 a0
por tanto las condiciones son a0 > 0, a1 > 0.
Ejemplo 2.9.2 n = 4, p() = 4 + a3 3 + a2 2 + a1 + a0 .
a3 1 0 0
a1 a2 a3 1
0 a0 a1 a2
0 0 0 a0
La matriz es:
50
Ejemplo 2.9.3 Veamos ahora el circuito que se expuso al principio de este apartado. Es una ecuaci
on
de tercer orden, y el polinomio caracterstico es:
b
d
c
p() = 3 + 2 + +
a
a
a
donde a = LL0 M 2 , b = R0 L + RL0 , c = R0 /C, d = M A/C + RR0 + L0 /C. Por tanto la matriz a
estudiar es:
b/a
1
0
c/a d/a b/a .
0
0
c/a
y los menores correspondientes:
b db ac c
,
, .
a
a
a
MA
L0
(LL0 M )R0
+ RR0 +
)(R0 L + RL0 )
.
C
C
C
Como se puede ver facilmente, esta condicion se satisface siempre cuando el coeciente M es positivo (se
supone A positivo). Sin embargo, si M < 0 existe un valor crtico de la ganancia por encima del cual el
sistema es inestable:
RR0 C + L0 (LL0 M )R0 /(R0 L + RL0 )
Ac =
|M |
El criterio de Routh-Hurwitz no permite saber que clase de inestabilidad se produce para A > Ac . Para
ver que se trata de un foco inestable, es decir, de una situaci
on oscilante con amplitud creciente, es
necesario recurrir a metodos como el criterio de Nyquist, que estudian el movimiento de las races en el
plano complejo seg
un los valores de A. N
otese que cuando A alcanza el valor crtico, la ecuacion es:
q + (b/a)q + (c/b)q + (c/a)q = 0
y el menor (db ac)/a del criterio de Routh-Hurwitz es cero. Sin embargo los coecientes del polinomio
siguen siendo positivos. Puesto que las races varan continuamente con A, se puede pensar que en
A = Ac , alguna de las races tiene su parte real igual a cero (pues para A > Ac tiene su parte real
positiva). Pero no puede ser cero pues el producto de las tres races es distinto de cero (y negativo). Por
lo tanto en A = Ac aparecen dos races imaginarias puras, que se pueden calcular. Supongamos que son
i. Sustituyendo en el polinomio caracterstico, se tiene:
iab 3 b2 2 + iac + cb = 0
e igualando a cero la parte real y la imaginaria (o sustituyendo tambien i):
2 =
c
R0
=
.
b
(R0 L + RL0 )C
La tercera raz es real negativa: b/a. Cuando A > Ac , aparecen dos races complejas con parte real
positiva y se producen oscilaciones de amplitud creciente (cuando las condiciones iniciales hacen que estas
soluciones aparezcan). Esta u
ltima armaci
on requiere una comprobaci
on m
as cuidadosa, pues podran
presentarse otros casos de inestabilidad sin oscilacion.
51
Ejemplo 2.9.4 Sea la ecuacion diferencial lineal de coecientes constantes cuyo polinomio caracterstico
es:
p() = 3 + 5k2 + (2k + 3) + 10.
Usando el criterio de Routh-Hurwitz se deduce que para k > 1/2 el sistema es asintoticamente estable.
Un an
alisis mas detallado de las races, muestra que para k menor que 0.90037 hay tres races reales, una
de ellas negativa y dos positivas. Para k = 0.90037, las dos races positivas se convierten en complejas
conjugadas con parte real positiva hasta que k vale 1/2, donde la parte real se hace cero. A partir de
ese momento, la parte real es siempre negativa. Sin embargo las races vuelven a ser reales (negativas)
cuando k = 46.907. La tercera raz es siempre negativa.
Ejemplo 2.9.5 Consideremos un circuito electrico en el que la intensidad verica la siguiente ecuaci
on:
I + 2I + 5I = 10 cos t.
El polinomio caracterstico de la ecuacion homogenea es:
p() = 2 + 2 + 5
y sus races son 1 2i, as que el sistema es asintoticamente estable, como por otra parte podra haberse
deducido del criterio de Routh-Hurwitz, pues 2 > 0 y 5 > 0. Una soluci
on particular de la ecuaci
on
completa es, como puede comprobarse facilmente:
5 cos(t + )
con tan = 1/2. Por tanto la soluci
on general de la ecuacion completa es:
52
Tema 3
Sistemas din
amicos
3.1
Introducci
on
En esta seccion emprenderemos el estudio elemental de los sistemas autonomos, es decir, sistemas de
ecuaciones diferenciales en las que no aparece de forma explcita la variable independiente que llamaremos
siempre t, tiempo. Cuando t aparece en el sistema, siempre se puede escribir un sistema autonomo,
considerando a t como funci
on de un cierto par
ametro t = s que ya no esta en las ecuaciones; el sistema
tiene una ecuaci
on y una inc
ognita m
as. La mayor parte de los resultados que estableceremos se referiran
al caso de sistemas autonomos en el plano, donde la teora es muy completa, pero lo que nos impedir
a
adentrarnos en el estudio de problemas m
as complejos, como caos, que aparecen en mas dimensiones
(n
otese que esto excluye la posibilidad de estudiar sistemas en el plano que dependan de t, ya que el
procedimiento indicado anteriormente nos llevara a un espacio de tres dimensiones). La representacion
gr
aca jugar
a un papel esencial en lo que sigue, pues, salvo en el caso de los sistemas lineales, no es facil
obtener soluciones analticas de estos sistemas; a cambio, se pueden dar descripciones cualitativas muy
sugerentes del comportamiento de las soluciones.
3.2
TEMA 3. SISTEMAS DINAMICOS
54
donde t vara en un cierto intervalo; son curvas diferentes, en general, en IR IRn . Sean , las
proyecciones de y en IRn :
= {x(t)}, = {x(t )}
Estas dos curvas, consideradas como conjunto de puntos son las mismas en IRn . Corresponden a
distintas parametrizaciones del mismo lugar geometrico. Veamos como por un punto de IRn , contenido
en el dominio donde estamos trabajando, pasa una u
nica orbita. Sea x0 D y 0 la trayectoria correspondiente a la u
nica soluci
on, x(t), que verica x(0) = x0 . Sea la trayectoria correspondiente a la
u
nica soluci
on, x
(t), que verica x
( ) = x0 . Si x0 no es un punto crtico, las trayectorias 0 y son
distintas. Sin embargo, su proyecci
on sobre el espacio IRn es la misma, pues x(t ) = x
(t) para todo
t donde esten denidas. Esta u
ltima armaci
on es consecuencia del hecho de estar trabajando con un
sistema autonomo. Es decir, una orbita es la proyecci
on de una familia de trayectorias que se obtienen
unas de otras por traslaciones del par
ametro t. En el caso x0 punto crtico, solo hay una trayectoria que
se proyecte en el, x(t) = x0 . Por tanto, cualquier otra trayectoria que tienda a el, lo hace cuando t tiende
a mas innito o menos innito.
Las orbitas se pueden considerar descritas en forma parametrica, con t como parametro. Pero tambien
pueden ser estudiadas en forma implcita, eliminando el par
ametro t. Esto equivale a considerar el
siguiente sistema de ecuaciones:
Si el sistema original es:
x1 = f1 (x),
t, s IR
g 0 = identidad en M
Denici
on 3.2.3 Un ujo es el par formado por el conjunto M y un grupo uniparametrico de transformaciones de M , {g t }. M es el espacio de fases del ujo.
Denici
on 3.2.4 De acuerdo con estas deniciones, una o
rbita en M es la imagen de un punto de M
por todas las aplicaciones del grupo {g t }.
55
g(t, x) = g t x
es una aplicaci
on diferenciable, las aplicaciones:
gt : M M
son difeomorsmos, y {g t } es un grupo uniparametrico de transformaciones de M .
Otro concepto importante es el de campo de vectores.
Denici
on 3.2.7 La velocidad del ujo, denida por:
d t
v(x) =
gx
dt
t=0
proporciona un campo de vectores en el conjunto M , asociando a cada punto x de M el vector v(x)
correspondiente.
Denici
on 3.2.8 Un punto crtico del campo de vectores, es aquel donde la velocidad se hace cero: x0
es un punto crtico si v(x0 ) = 0.
Resulta entonces que los puntos de equilibrio del ujo son puntos crticos del campo de velocidades. Y
viceversa.
Dado un grupo uniparametrico de transformaciones, hemos visto como calcular el campo de velocidades asociado a el. En general el problema es el contrario, dado un campo de vectores, calcular un grupo
uniparametrico de transformaciones que tenga como campo de velocidades el campo de vectores dado.
Es decir, resolver el sistema de ecuaciones diferenciales de primer orden:
x = v(x)
Una soluci
on de esta ecuacion es una funci
on denida en un intervalo de la recta real con valores en
M . La imagen de la aplicaci
on que da la soluci
on es una orbita en el espacio de las fases M . Ademas,
esa orbita es tangente en cada uno de sus puntos al campo de vectores. Finalmente, la soluci
on puede
ponerse como:
x(t) = g t x0
donde x(0) = x0 , y {g t } es un grupo uniparametrico de transformaciones en M , cuyo campo de velocidades
es v(x).
Llamaremos muchas veces sistemas dinamicos a este tipo de sistemas.
TEMA 3. SISTEMAS DINAMICOS
56
3.3
Sistemas lineales
El estudio de los sistemas autonomos lineales es una teora puramente algebraica, como hemos tenido
ocasion de ver, y que puede ser estudiada completamente. No ocurre as con los no lineales. Veremos, sin
embargo, que en muchos casos los sistemas no lineales pueden ser estudiados a partir de las aproximaciones
lineales que de ellos se hacen en entornos de puntos crticos, por lo que repasaremos los sistemas lineales
desde los puntos de vista introducidos previamente.
Consideremos un sistema de ecuaciones lineales autonomo, es decir, de coecientes constantes:
x = Ax
donde A es una matriz n n.
El espacio de fases de este sistema es IRn , y el ujo tiene como grupo uniparametrico de transformaciones {eAt }, con t IR. En efecto, las soluciones de este sistema son:
x(t) = eAt x0
y la derivada de eAt x0 con respecto a t, calculada en t = 0, es justamente Ax0 , la velocidad. Este tipo
de sistemas tiene como puntos crticos las soluciones de:
Ax = 0
Si A es una matriz regular, la u
nica soluci
on es x = 0, u
nico punto de equilibrio del ujo. En general
este sera el caso que estudiemos con mas detalle. Se dice que el punto crtico es elemental.
Ejemplo 3.3.1 Consideremos la ecuacion del oscilador arm
onico amortiguado:
x + x + kx = 0
donde se supone m = 1. Esta ecuacion de segundo orden, lineal de coecientes constantes se puede
escribir como un sistema din
amico de orden dos:
x = y
y = kx y
cuya soluci
on se obtiene inmediatamente. La matriz A es:
0
1
k
y suponiendo que k y son n
umeros reales positivos, no nulos, con 2 mayor que 4k, los autovalores 1 ,
on explcita es:
2 , son reales, distintos y negativos. Sea 1 > 2 . La soluci
x(t)
1
1
1 t
= c1
e + c2
e2 t
y(t)
1
2
Existe una transformaci
on lineal que permite diagonalizar la matriz A. En la nueva base, formada
por los autovectores, la soluci
on se escribe como:
u(t)
1
0
1 t
= a1
e + a2
e2 t
v(t)
0
1
donde a1 = u(0), a2 = v(0). En esta base, la matriz A se convierte en:
1 0
0 2
y por lo tanto el campo de vectores asociado es:
1 u
2 v
57
Figura 3.1
que aparece representado en la gura 3.1 (eje horizontal u, eje vertical v).
El u
nico punto singular del campo es el origen, y los ejes resultan ser lneas del campo, es decir,
tangentes al campo en todos sus puntos, por lo tanto posibles orbitas del sistema. No es cierto que los
dos esten en la misma orbita, ni siquiera que uno de ellos sea una orbita. Las orbitas no se cortan y el
origen es una orbita por s solo. Por tanto cada eje contiene tres orbitas, el semieje positivo, el negativo
y el origen. Puesto que el campo de vectores no tiene ninguna discontinuidad, uno cualquiera de los
semiejes es una sola orbita. No puede haber m
as de una porque eso implicara la existencia de nuevos
puntos crticos, y como hemos dicho el u
nico punto crtico es el origen. No resulta difcil dibujar las
orbitas que aparecen en la gura 3.2.
Figura 3.2
N
otese que todas tienden al origen cuando t tiende a innito, lo que viene representado por la echa
dibujada sobre cada una de ellas. Adem
as, todas ellas son tangentes al eje horizontal (asociado al autovalor
1 ) cuando t tiende a innito, excepto las correspondientes al eje vertical. El campo de vectores entra en
TEMA 3. SISTEMAS DINAMICOS
58
cualquier circunferencia que se trace de centro el origen. Este punto crtico es un atractor (sumidero), es
decir, la soluci
on correspondiente es asint
oticamente estable, como ya sabamos.
La ecuacion de las orbitas en implcitas, se obtiene facilmente eliminando el tiempo:
|v|1 = k|u|2
que representa todas las orbitas, con tal que se tome tambien k = . Estas curvas son curvas integrales
de la ecuacion diferencial:
dv
2 v
=
du
1 u
que tiene un punto singular en el origen, por el que pasan innitas soluciones. Los puntos del eje u = 0 son
tambien singulares, pero por ellos no pasa ninguna soluci
on, con lo que al escribir la ecuaci
on asociada,
cambiando los papeles de u y v, se obtiene una soluci
on u
nica.
En resumen, las curvas integrales de esta ecuacion contienen las orbitas del sistema. Tengase en cuenta
que una curva integral puede contener m
as de una orbita. Por ejemplo, v = 0 es una curva integral de
esta ecuacion que contiene tres orbitas del sistema.
Veamos ahora como las orbitas del sistema entran tangentes al eje horizontal (salvo las del eje vertical).
De la ecuacion asociada no se puede deducir, sin m
as, que la pendiente de todas las curvas integrales,
excepto el eje vertical, se hace cero en el origen. Usando la expresion parametrica de las soluciones se
tiene:
dv
v (t)
=
= be(2 1 )t
du
u (t)
expresion que tiende a cero cuando t tiende a innito, ya que 1 > 2 . Solo cuando b = , es decir,
cuando estudiamos las orbitas contenidas en el eje vertical, u = 0, la pendiente no se hace cero al tender
t a innito.
Si ahora volvemos al sistema original, es decir, en la base can
onica, la matriz del cambio de base es:
1
1
P =
1 2
con la que se obtiene la soluci
on dada anteriormente. El mapa de fases se deforma al sufrir la transformacion P . Sin embargo, los ejes se convierten en rectas, que son los autovectores, y con mas generalidad,
los elementos lineales, es decir el campo de vectores, se transforman linealmente. Por tanto, el nuevo
mapa de fases es el que aparece en la gura 3.3.
Figura 3.3
59
Las orbitas siguen cayendo hacia el origen cuando t tiende a , y entran en el tangentes a una
de las rectas de autovectores, concretamente a la asociada al mayor de los dos autovalores, salvo por
supuesto, las dos orbitas asociadas al otro autovalor, que lo hacen desde lados opuestos a la recta del
autovalor mayor. En este mapa de fases, el eje horizontal es la posici
on del oscilador y el vertical la
velocidad; cada punto representa un estado del sistema, que, como sabemos, viene dado por el par de
datos posici
onvelocidad.
El movimiento en el espacio de conguraci
on, que es en una recta, se puede deducir de la evoluci
on
del estado en el espacio de fases. Por ejemplo, supongamos que en t = 0 el estado del sistema es el punto
a (x0 , v0 ) con velocidad positiva y elongaci
on negativa en el sector de menor angulo entre las rectas de
autovectores. El punto material con el que trabajamos, se dirige hacia el origen (el origen del espacio real)
con velocidad decreciente, que tiende a cero. Cuando t tiende a tanto la posici
on como la velocidad
se anulan, pero el punto no atraviesa el origen. Consideremos ahora el punto b como estado inicial (en
el sector de mayor angulo entre las rectas de autovectores) con velocidad positiva y elongaci
on negativa,
como antes. En este caso la relacion entre posici
on y velocidad es tal que el punto llega al origen con
velocidad no nula en un tiempo nito (insistimos en que se trata del origen en el espacio real, es decir
el punto x = 0). En la orbita atravesamos el eje de velocidades. Debido a la velocidad no nula, el
movil atraviesa el origen y se desplaza hacia posiciones con x positiva, alej
andose del origen hasta que
su velocidad se anula (en la orbita hemos atravesado el eje de posiciones). A partir de este instante su
velocidad es negativa y su posici
on es positiva. El m
ovil cae hacia el origen al que llega en un tiempo
innito. N
otese que desde el punto de vista de la ecuacion de segundo orden de la que hemos partido,
las soluciones tienen su graca en diagramas (t, x), como se ve en la gura 3.4.
t
a
Figura 3.4
Los dibujos en el mapa de fases se pueden interpretar, desprovistos de cualquier comentario referente
a las echas que all aparecen, como el dibujo de las curvas integrales de la ecuaci
on de primer orden
asociada, que se llama, por tanto, ecuaci
on de las orbitas (basta recordar el metodo de isoclinas estudiado
para las ecuaciones de primer orden para relacionar de forma clara estas dos formas de ver el problema).
La relacion entre un sistema de segundo orden y la ecuaci
on de las orbitas asociada no es u
nica (sea el
sistema lineal o no, incluso sea de segundo orden o no). Dado un sistema, la ecuaci
on de las orbitas es
u
nica, pero una ecuaci
on de primer orden est
a asociada a una familia innita de sistemas, con mapas de
fases ciertamente relacionados, pero distintos en general. Si la ecuaci
on es:
y =
dy
f (x, y)
=
dx
g(x, y)
TEMA 3. SISTEMAS DINAMICOS
60
podemos escribir los sistemas:
x
y
= k(x, y)g(x, y)
= k(x, y)f (x, y)
3.4
Consideremos el sistema:
x = f (x)
con f denida en un abierto D de IRn , continua y lipschitziana en D. Sea x0 un punto crtico, es decir,
f (x0 ) = 0. Denimos las siguientes nociones de estabilidad. Supondremos que x0 = 0, para mayor
sencillez de notacion.
Denici
on 3.4.1 Se dice que el punto crtico 0 es estable si para todo ' > 0 existe ('), tal que si
x0 < , entonces x(t) < ' para todo t 0 , donde x(t) es la u
nica soluci
on con x(0) = x0 (gura
3.5).
Figura 3.5
Como sabemos, en los sistemas lineales homogeneos, la estabilidad del origen equivale a la acotaci
on
de las soluciones.
Denici
on 3.4.2 Si el punto crtico es estable y adem
as, para todo ' > 0 existe > 0 tal que
lim x(t) = 0,
t0
61
Figura 3.6
que la parte real de todos los autovalores sea positiva, se dice que el origen es una fuente (repulsor). Lo
dicho anteriormente es ahora v
alido cambiando t por t. El ujo se llama una expansi
on.
Los ujos m
as generales son aquellos en los que la matriz A tiene autovalores con parte real no nula. Se
llaman ujos hiperb
olicos. Se puede demostrar que todo ujo lineal puede ser aproximado arbitrariamente
por un ujo hiperb
olico. Los ujos lineales con autovalores de parte real cero son pues escasos (en el
sentido anterior). Todo ujo lineal hiperb
olico puede descomponerse en una parte correspondiente a un
sumidero y otra correspondiente a una fuente. El siguiente teorema, de car
acter puramente algebraico,
lo arma as:
Denici
on 3.4.3 Sea etA un ujo lineal hiperb
olico, A L(IRn ). Entonces, IRn admite una descomposici
on en suma directa:
IRn = E s E u
invariante bajo A, y de forma que el ujo etA sea una contracci
on cuando se restringe A al espacio E s ,
u
y una expansi
on cuando se hace a E .
Esto no quiere decir, que todas las trayectorias tiendan al origen cuando t tiende a (espacio E s ) o
a (espacio E u ). Habr
a otras que no tengan ninguno de estos dos comportamientos.
3.5
Clasicaci
on de puntos crticos de sistemas lineales
En lo que sigue nos limitaremos a los sistemas en IR2 . El caso n > 2 es mucho mas complejo y no
podemos tratarlo aqu . Estudiaremos primero los sistemas lineales y despues los no lineales. Los puntos
crticos seran elementales, como deniremos a continuacion, aunque alguna nota se har
a respecto a los
no elementales.
Sea el sistema lineal autonomo en IR2 :
x = ax + by
y = cx + dy
donde a, b, c, d son n
umeros reales, y la matriz A:
a b
A=
c d
Denici
on 3.5.1 Se dice que el origen, que es un punto crtico, es un punto elemental si el determinante
de la matriz A es distinto de cero.
Entonces, sus autovalores son distintos de cero. El u
nico punto singular es el origen, y esto es lo que
clasicamos. El tipo de clasicacion que intentamos establecer es el basado en la linealidad del sistema.
Es decir, dos sistemas autonomos son linealmente equivalentes si existe una matriz 2 2 que lleva uno
en otro. Por tanto:
TEMA 3. SISTEMAS DINAMICOS
62
Denici
on 3.5.2 Dos sistema aut
onomos lineales u = Au, v = Bv (A, B matrices n n) son linealmente equivalentes si existe una matriz n n regular, P , tal que:
B = P AP 1
(las coordenadas se transforman como v = P u).
Est
a claro ahora que lo u
nico que interesa a la hora de establecer la equivalencia lineal son los
autovalores y sus multiplicidades aritmetica y geometrica. Teniendo en cuenta que se trata de un sistema
de orden dos, las posibilidades que se presentan son las siguientes (det A = 0).
1. Autovalores reales
(a) (tr A)2 > 4 det A > 0. Es decir, races reales distintas del mismo signo. Seg
un este signo, se
dice que el origen es:
i. si 2 < 1 < 0: NODO ESTABLE
ii. si 0 < 1 < 2 : NODO INESTABLE
Las orbitas aparecen dibujadas en las guras 3.7 y 3.8, donde las orbitas rectas son las direcciones de los autovectores. Notese como en ambos casos todas las orbitas entran (nodo
estable) o salen (nodo inestable) del origen tangentes a la recta de autovalor mayor (estable)
o menor (inestable). Con m
as precision, cuando t tiende a +, las orbitas se aproximan al
origen en el caso estable, mientras que en el caso inestable lo hacen cuando t tiende a . La
demostracion es inmediata y sigue las lneas de lo hecho en el caso del oscilador amortiguado
(mutatis mutandis).
y
2
Figura 3.7
(b) (tr A)2 = 4 det A. Es decir, races reales iguales. En este caso la matriz A es diagonal
(recuerdese que es 2 2) o bien no es diagonalizable. En cualquier caso se sigue hablando de
nodos.
i. A diagonal. La raz
on entre x(t) e y(t) es constante, por lo que las orbitas son rectas que
tienden al origen o se alejan de el, seg
un que el autovalor sea negativo o positivo. Como
antes, estamos en un ujo hiperb
olico que es una contraccion o una expansi
on. En este
caso se suele hablar en ocasiones de un nodo estelar estable o inestable (guras 3.9 y 3.10).
ii. A no diagonalizable. Este caso se llama nodo de una tangente (solo hay un autovector).
Hay dos orbitas que son rectas (situadas sobre una misma recta que pasa por el origen) y
63
Figura 3.8
todas las demas entran (nodo estable, autovalor negativo) o salen (nodo inestable, autovalor positivo) del origen tangentes a ellas (guras 3.11 y 3.12).
En resumen, los nodos aparecen ligados a ujos hiperb
olicos que son una contracci
on o
una expansi
on. Todas las orbitas acaban en el origen, bien cuando t +, o cuando
t .
(c) det A < 0. Es decir autovalores de distinto signo: 1 < 0 < 2 . El ujo es a
un hiperb
olico,
pero no es una contracci
on ni una expansi
on. De acuerdo con el teorema anterior, IR2 se puede
poner como suma directa de dos espacios unidimensionales, que son justamente los asociados
a los dos autovectores. Sobre uno de ellos, el correspondiente al autovalor negativo, el ujo es
una contracci
on. Sobre el otro, correspondiente al autovalor positivo, el ujo es una expansi
on.
Hay dos orbitas que son rectas que tienden al origen cuando t +. Y otras dos orbitas
rectas que tienden al origen cuando t . Las otras orbitas no tienden al origen en ning
un
caso. Se dice que el origen es un PUNTO SILLA. En la gura 3.13 se dibujan las orbitas
correspondientes.
2. Autovalores complejos = i, > 0
(a) = 0. Como ya hemos visto cuando estudiamos los sistemas lineales, existe una transformacion lineal que permite escribir la matriz A en su forma can
onica:
P AP 1 =
TEMA 3. SISTEMAS DINAMICOS
64
Figura 3.9
ujo hiperb
olico que se obtiene es una expansion. Las orbitas son espirales que se alejan del
origen cuando t +. En el primer caso se tiene un FOCO ESTABLE. En el segundo se
obtiene un FOCO INESTABLE (ver guras 3.14, 3.15).
(b) = 0. Estamos en el u
nico caso en que no aparece un ujo hiperb
olico. Ahora la parte real
de los autovalores es cero. El sistema no es estructuralmente estable, en el sentido que una
perturbaci
on peque
na hace que la parte real deje de ser cero. Se dice que el punto crtico es
un CENTRO, y es estable pero no asint
oticamente estable. Las orbitas son circunferencias de
centro el origen ya que el m
odulo de z es constante. En cualquier caso, las orbitas giran en
torno al origen en sentido antihorario (positivo) (gura 3.16).
Los razonamientos anteriores se podran haber hecho pasando a polares, donde se advierte el
caracter espiral de las orbitas, en el caso de un foco, o como estas son circunferencias en el
caso de un centro. Sea:
z = ei
Las ecuaciones que verican el radio y el angulo son:
z = z ei + i ei = ( + i)ei
de donde:
=
=
cuya soluci
on es inmediata:
(t)
= Cet
(t)
= t + b
Obtenemos pues espirales logartmicas crecientes ( > 0), decrecientes ( < 0) o circunferencias ( = 0), mientras el angulo crece linealmente con t ( > 0). Si se elimina t entre ambas
ecuaciones se obtiene la ecuacion implcita de las orbitas:
() = 0 e/
N
otese que x(t), y(t) son funciones arm
onicas de t, con amplitud dependiente tambien de t.
65
Figura 3.10
Supongamos ahora el caso general, en el que A tiene autovalores complejos pero no esta en
forma can
onica. Al hacer la transformaci
on P que la lleva a la forma can
onica, calcular el
mapa de fases y volver atr
as, las orbitas se deforman, de manera que las espirales se alargan
en alguna direcci
on y las circunferencias se transforman en elipses.
Ademas, el sentido de giro de las orbitas puede ser positivo o negativo. Esta u
ltima propiedad
es facilmente detectable en la matriz A. En efecto, el sentido es positivo si la transformaci
on P
conserva la orientaci
on (ya que hemos visto que en la forma can
onica el sentido era positivo).
As pues, basta calcular el determinante de la matriz P . Si es positivo, las orbitas giran en
sentido positivo. Si es negativo, lo hacen en sentido negativo. Pero la matriz P es:
0
b
P =
a
y su determinante es:
det P = b
como > 0, si b es negativo, el sentido de giro de las orbitas es positivo, y si b es positivo el
sentido de giro es negativo. La constante b (el elemento 12 en la matriz A) no puede ser cero
si hay autovalores complejos.
Supongamos que tenemos un centro. Los autovalores son = i, por lo que la traza de A
es cero y el determinante es 2 > 0. Sea A:
a b
A=
c d
con bc < a2 . Entonces 2 = bc a2 . La ecuacion de las orbitas puede obtenerse de la
siguiente forma. Consideremos la ecuacion de primer orden asociada:
dy
cx ay
=
dx
ax + by
que es una ecuacion homogenea (como siempre cuando el sistema es lineal), por lo que un
cambio apropiado sera v(x) = y/x. Sin embargo, cuando la traza de la matriz A es cero, es
decir cuando se trata de un centro y en algunos tipos de puntos silla, la ecuaci
on anterior no
solo es homogenea sino tambien exacta. Esto hace las cosas mucho mas faciles:
(ay cx)dx + (ax + by)dy = 0
TEMA 3. SISTEMAS DINAMICOS
66
Figura 3.11
La soluci
on viene dada por las curvas de nivel de la funci
on:
U (x, y) = by 2 cx2 + 2axy
que son elipses. La matriz de la forma cuadr
atica que se construye es denida positiva (o
denida negativa), pues, suponiendo que b sea mayor que cero, (ya sabemos que no es cero en
este caso) c debe ser menor que cero (tampoco puede ser cero), y ademas, bc a2 es positivo
(el caso b < 0 es totalmente equivalente). As pues las curvas:
by 2 cx2 + 2axy = k 2
son elipses de centro el origen. En cuanto al c
alculo de sus ejes, comunes para toda la familia,
se puede hacer de las m
ultiples formas en las que uno calcula los ejes de una c
onica. Por
ejemplo, en coordenadas polares:
x = cos
y
= sen
k2
= b sen2 c cos2 + a sen 2
2
Los ejes unen el centro con los puntos mas alejados (eje mayor) o menos (eje menor). Basta
pues hallar los m
aximos y mnimos de la funci
on:
h() = b sen2 c cos2 + a sen 2
Derivando:
h () = (b + c) sen 2 + 2a cos 2
2a
b+c
y de aqu podemos obtener la posici
on de los ejes.
tan 2 =
67
Figura 3.12
1. Autovalores reales
(a) Del mismo signo: (Positivos: Inestable; Negativos: Estable)
i. Distintos: NODO
ii. Iguales:
A. Matriz diagonalizable: Nodo estelar
B. Matriz no diagonalizable: Nodo de una tangente
(b) De distinto signo: PUNTO SILLA
2. Autovalores complejos = i, > 0
(a) Con parte real distinta de cero: FOCO ( > 0: Inestable; < 0: Estable)
(b) Con parte real igual a cero: CENTRO
En la gura 3.17, donde se han representado en el eje de abcisas el determinante de la matriz A y en el
de ordenadas la traza, se hace un esquema de esta clasicacion.
Ejemplo 3.5.1
x
y
= x + 2y
= 2x 2y
Los autovalores de la matriz A asociada son: 1 = 3, 2 = 2. Se trata por tanto de un punto silla.
Las u
nicas orbitas rectas corresponden a los autovectores de la matriz que son:
1
(1, 2)
(2, 1)
Sobre la recta asociada al primer autovector, hay tres orbitas, el origen y dos que entran en el cuando
t tiende a innito. Sobre la otra, las dos orbitas correspondientes salen. Las otras orbitas tienden a
las rectas cuando t tiende a . El hecho de que los dos autovectores sean ortogonales corresponde
simplemente a que la matriz es simetrica. En general no ocurre as, como sabemos (gura 3.18).
TEMA 3. SISTEMAS DINAMICOS
68
Figura 3.13
Ejemplo 3.5.2
x
y
= 5x + 4y
= 3x + 2y
En este caso los autovalores son 1 = 2, 2 = 1, siendo el origen un nodo estable. Los autovectores
correspondientes son:
1
(4, 3)
(1, 1)
Todas las orbitas tienden al origen cuando t tiende a innito, y todas entran tangentes a las orbitas
correspondientes al autovalor 1, el mayor de los dos, salvo las correspondientes al autovalor 2, que lo
hacen cada una desde un lado de la recta del autovalor 1. El dibujo del campo de vectores en algunos
puntos puede ayudar a obtener el mapa de fases (gura 3.19).
Ejemplo 3.5.3
x
y
= 6x + 4y
= 4x + 2y
Ejemplo 3.5.4
x
y
= 3x y
= 2x + y
Los autovalores son ahora complejos: = 2 i. Por lo tanto, el origen es un foco inestable. Las
rbitas giran en torno al origen en sentido positivo, (pues 1 < 0) alej
o
andose de el cuando t tiende a
innito (gura 3.21).
69
Figura 3.14
Ejemplo 3.5.5
x
y
= x + 5y
= x y
Los autovalores son = 2i. Se trata de un centro. Las orbitas son elipses que giran en torno al
origen en sentido negativo (5 > 0). La ecuacion de las orbitas es, como hemos visto:
5y 2 + x2 + 2xy = C
donde C es una constante positiva. Los ejes de las elipses se pueden obtener de:
tan 2 =
2a
1
=
b+c
2
de donde:
= 0.23,
= 1.34
3.6
Supongamos que uno de los dos autovalores de la matriz A es cero. Sea el otro autovalor no nulo y
consideremos la matriz en su forma canonica:
0 0
A=
0
Los puntos del eje x, correspondiente al n
ucleo del operador A, son todos puntos crticos. El campo
vectorial es paralelo al eje y, (0, y), y se dirige hacia el eje x o en sentido contrario, seg
un sea negativo
o positivo. Las soluciones explcitas son:
x(t)
y(t)
El mapa de fases aparece en la gura 3.23.
= a
= bet
TEMA 3. SISTEMAS DINAMICOS
70
Figura 3.15
Si los dos autovalores son cero, aparte del caso trivial en el que la matriz A es cero, la forma canonica
es:
A=
0
0
1
0
Todos los puntos situados en el eje x son crticos en este caso (nuevamente los situados en el n
ucleo
del operador A). Las soluciones explcitas son:
x(t) = at + b
y(t) = a
por lo que las orbitas son paralelas al eje x y no tienden a ning
un punto crtico (gura 3.24).
n
En IR la situaci
on es similar, aunque el n
umero de posibilidades sea mayor. Sin embargo, cuando
el sistema es no lineal las cosas cambian. En lo que sigue estudiaremos la estabilidad de un sistema no
lineal y los casos que se presentan en el plano, a
un cuando algunos conceptos sean v
alidos para cualquier
dimensi
on.
3.7
Sistemas aut
onomos no lineales planos
Cuando nos limitamos a IR2 , la teora de los sistemas autonomos con puntos elementales (a denir m
as
adelante) se puede hacer de manera bastante completa. Veremos como en estos casos la aproximacion
lineal proporciona una informaci
on muy detallada sobre el mapa de fases en un entorno del punto crtico,
y otros datos, como el ndice, campos de vectores, integrales primeras, existencia de ciertas orbitas
peri
odicas aisladas etc. . . , permiten hacerse una idea cualitativa del mapa completo.
Supongamos entonces un sistema aut
onomo en el plano:
x = f (x, y)
y = g(x, y)
donde f , g son funciones analticas en un abierto de IR2 . Los puntos crticos de este sistema se obtienen
resolviendo las ecuaciones:
f (x, y) = 0
g(x, y) = 0
3.7. SISTEMAS AUTONOMOS
NO LINEALES PLANOS
71
Figura 3.16
g
g(x, y) = g(0, 0) +
x
g
x+
y
0
y + g2 (x, y)
0
donde las funciones f2 (x, y), g2 (x, y) son de segundo orden en x, y, y la matriz jacobiana en el origen es:
a b
c d
con a = [f /x]0 , b = [f /y]0 , c = [g/x]0 , d = [g/y]0 , las derivadas primeras calculadas en el
origen.
Denici
on 3.7.1 Se dice que el punto crtico es elemental si el determinante de la matriz A es diferente
de cero.
La matriz A es la matriz de la aplicacion tangente, y el hecho de tener determinante distinto de cero
implica ciertas consecuencias, como el que el punto crtico es aislado. El sistema anterior se puede escribir
como:
x = ax + by + f2 (x, y)
y = cx + dy + g2 (x, y)
Al sistema lineal autonomo cuya matriz es A se le llama sistema lineal asociado. Enunciaremos
primero un teorema que establece como el sistema lineal determina el no lineal. Los puntos crticos de
un sistema aut
onomo en el plano reciben los mismos nombres que los correspondientes de los sistemas
lineales, aunque algunas caractersticas sean propias de estos u
ltimos.
Teorema 3.7.1 El comportamiento de las o
rbitas en un entorno de un punto crtico elemental es el
mismo que para la primera aproximaci
on salvo cuando los autovalores de la matriz A son imaginarios
puros. En este u
ltimo caso el sistema lineal tiene un centro, pero el no lineal puede tener un centro o un
foco.
TEMA 3. SISTEMAS DINAMICOS
72
NODO
TrA INESTABLE
FOCO INESTABLE
PUNTO
SILLA
CENTRO
detA
FOCO ESTABLE
NODO
ESTABLE
Figura 3.17
La estructura local de los mapas de fases en un entorno de un punto crtico elemental es muy sencilla y
consecuencia directa del anterior teorema. La expondremos en dos teoremas concernientes a la estructura
de los puntos silla y de los nodos no lineales.
Teorema 3.7.2 (Estructura local de un punto silla no lineal)
Sea (0, 0), punto crtico del sistema x = f (x, y), y = g(x, y), un punto silla (es decir, lo es en la
aproximaci
on lineal). Sean P y Q las rectas asociadas a los autovectores de la matriz de la aproximaci
on
lineal, P al autovalor negativo y Q al positivo. Entonces, existen dos u
nicas o
rbitas U1 y U2 que para
t tienden al origen. Junto con el punto (0, 0) forman una curva continua, derivable y tangente en
(0, 0) a la recta P. Existen tambien dos u
nicas o
rbitas V1 y V2 que tienden al origen cuando t
y que, junto con (0, 0) forman una curva continua, derivable y tangente en el origen a la recta Q. Las
dem
as o
rbitas se comportan en un entorno de (0, 0) como en el caso lineal (gura 3.25).
Teorema 3.7.3 (Estructura local de un nodo no lineal)
Sea (0, 0) un punto crtico de un sistema x = f (x, y), y = g(x, y), que es un nodo estable para la
aproximaci
on lineal (el caso de un nodo inestable, u otro tipo de nodo, es similar). Sean P, Q las rectas
asociadas a los autovectores de la matriz A de la aproximaci
on lineal, Q con autovalor 1 , y P ,2 con
2 < 1 < 0. Todas las o
rbitas que pasan sucientemente pr
oximas al origen tienden a el cuando t tiende
a innito y tienen una tangente en el. Solo hay dos de ellas que son tangentes a la recta P y se aproximan
al origen desde lados opuestos de la recta Q. Las dem
as
orbitas son tangentes a Q (gura 3.26). Para
un nodo inestable el comportamiento es el mismo cuando t tiende a menos innito.
N
otese que las rectas P y Q que aparecen en estos teoremas no son en general orbitas del sistema.
Si el sistema lineal asociado presenta un nodo estelar o un nodo de una tangente, los resultados para el
sistema no lineal son similares a los expuestos en el teorema anterior. Las orbitas pueden entrar (o salir)
del origen con tangente arbitraria o una sola tangente.
Cuando el punto crtico del sistema lineal asociado es un centro, en el no lineal puede aparecer
un foco o conservarse el centro, es decir las orbitas pueden ser abiertas (foco) o cerradas (centro). Para
determinarlo hay que emplear otras tecnicas, como el estudio del posible caracter hamiltoniano del sistema
que trataremos mas adelante o la existencia de ciertas simetras del campo de vectores.
Ejemplo 3.7.1 Sea el sistema autonomo no lineal:
x = y
y = x + h(y)
73
Figura 3.18
3.8
Una de las tecnicas importantes en la solucion de ecuaciones diferenciales es el estudio de las simetras que
presentan estas ecuaciones frente a transformaciones de coordenadas, cambios de variable, etc. Consideremos un abierto de IRn , U , y un campo de vectores v(x) denido en el. Sea f : U U un difeomorsmo de
U . El campo de vectores v(x) se transforma de acuerdo con la aplicaci
on tangente de f , que llamaremos
f (es decir la matriz jacobiana de f ):
Si (t) es una curva integral del campo, la curva transformada es f ((t)) y el vector tangente en un
punto f (x0 ) con (0) = x0 , es:
f (v)j (f (x0 )) =
n
f j
d j
f ((t))
=
(x0 )i (0)
dt
x
i
t=0
i=1
TEMA 3. SISTEMAS DINAMICOS
74
Figura 3.19
Dg =
cos
sen
sen
cos
75
y
x
Figura 3.20
TEMA 3. SISTEMAS DINAMICOS
76
y
x
Figura 3.21
x
y
= x y 2
= x2 + y
= f (x, y)
= g(x, y)
= f (x, y)
= g(x, y)
77
Figura 3.22
de donde:
S (v)(x, y) = (f (x, y), g(x, y))
v(S(x, y)) = v(x, y) = (f (x, y), g(x, y)) = (f (x, y), g(x, y))
es decir:
S (v) = v(S)
y por los mismos razonamientos que antes, las orbitas son simetricas respecto al eje x. De la misma forma
se prueba el resultado para la segunda condici
on. En este u
ltimo caso, el mapa de fases es simetrico
respecto al eje y.
QED
N
otese que no se indica que las orbitas son cerradas simplemente porque el mapa sea simetrico respecto
a un eje. Lo que ocurre es que las orbitas pr
oximas al origen giran en torno a el, ya que este punto es
un centro o un foco; al ser simetricas son cerradas y el punto crtico es centro. Cuando la simetra no es
respecto a un eje las condiciones no son tan sencillas de expresar.
Ejemplo 3.8.3 Sea el sistema:
x
y
= y
= x + h(y)
x
y
= x + y2
= x2 y
La aproximaci
on lineal de este sistema en el punto crtico (1, 1) tiene un centro. Las funciones f (x, y) =
x + y 2 , y g(x, y) = x2 y no verican ninguno de los criterios de paridad dados en la proposici
on anterior.
Sin embargo, con el difeomorsmo considerado anteriormente S(x, y) = (y, x), el sistema tiene orbitas
simetricas respecto la bisectriz del segundo cuadrante, as que las pr
oximas al punto (1, 1) son cerradas
y se trata de un centro.
TEMA 3. SISTEMAS DINAMICOS
78
Figura 3.23
3.9
Integrales primeras
x
y
= x
= y
Este sistema no tiene integrales primeras (siempre supondremos no constantes). En efecto, las orbitas
del sistema son las semirrectas que salen del origen. Pero sobre cada una de ellas, una posible integral
primera es constante. Al tender t a menos innito, todas tienden al origen, luego el valor de esa constante
es el mismo para todas ellas, que llenan el plano, luego F es constante. Formalmente, la funci
on:
F (x, y) =
y
x
79
Figura 3.24
y
y
x+ =0
x2
x
Pero la funci
on F no es diferenciable, ni siquiera continua en un entorno del origen.
Ejemplo 3.9.2
x
y
= x
= y
dV
dx
TEMA 3. SISTEMAS DINAMICOS
80
P
Q
Figura 3.25
La energa total del sistema se conserva a lo largo de una trayectoria, con lo que tenemos una integral
primera:
1
H(x, v) = v 2 + V (x)
2
siendo v = x la velocidad. Los u
nicos tipos de puntos crticos para este sistema son centros y puntos silla
(si son elementales). Ademas, las orbitas estan contenidas en las curvas de nivel de la funci
on H(x, v).
Como sabemos, un punto crtico corresponde a un mnimo del potencial:
dV
=0
dx
y el valor de la derivada segunda en ese punto nos da el tipo de punto crtico:
1. Si es positiva, se trata de un mnimo, es decir de un centro.
2. Si es negativa, tenemos un m
aximo, punto silla.
3. Si es cero, nos encontramos con un punto crtico no elemental,
una clasicaci
on inmediata a partir, por ejemplo, del teorema de Lagrange, o del estudio de la matriz de
la aproximaci
on lineal: si el sistema es (y = v):
x = v
v = f (x)
los puntos crticos son: f (x0 ) = 0, v0 = 0. La matriz de la aproximaci
on lineal es:
0
1
f (x0 ) 0
y los autovalores son:
= f (x0 )
81
Figura 3.26
1
2C
+ 3
x2
x
1
(1 1 + 4CE)
2E
TEMA 3. SISTEMAS DINAMICOS
82
1
(1 + 1 + 4CE)
2E
x
v
= v
= sen x
1 2
v + 1 cos x
2
y las curvas de nivel, que contienen a las orbitas del sistema son:
1 2
v + 1 cos x = E
2
83
Figura 3.27
x = n,
nZ
y corresponden a centros si n es par (mnimos del potencial) y a puntos silla si n es impar (maximos del
potencial). Calculemos la matriz de la aproximaci
on lineal en los puntos silla, para hallar los autovectores
y por tanto la direcci
on de tangencia de las separatrices:
0 1
1 0
por lo que los autovectores son:
1
1
,
1
1
con autovalores 1 y 1 respectivamente. Con estos datos es muy sencillo dibujar el mapa de fases que
aparece en la gura 3.28.
Cuando la energa es menor que 2, el movimiento es periodico (para E = 0 estamos en un punto de
equilibrio estable). Cuando la energa es igual a 2, nos movemos por una separatriz. El movimiento no es
peri
odico, y se tarda un tiempo innito en recorrerla. Para E > 2 la orbitas son abiertas (el movimiento
es periodico si se considera a x como una variable angular en [0, 2] y el mapa de fases sobre un cilindro).
Como antes, el periodo en las orbitas cerradas depende de la energa y se puede dar una expresi
on
para calcularlo:
b
ds
T =4
2(E 1 + cos s)
0
donde b es la primera solucion positiva de la ecuaci
on:
1 2
v + 1 cos b = E
2
y 0 < E < 2. Para una separatriz, el tiempo empleado en ir desde x = hasta x = es innito:
ds
=
2(1
+ cos s)
TEMA 3. SISTEMAS DINAMICOS
84
Figura 3.28
(d/c, a/b)
H
H
(a by)x +
(cx d)y = 0
x
y
85
Figura 3.29
3.10
Sistemas hamiltonianos
Volvamos al caso de los sistemas conservativos en una dimension. Supongamos que existe una funci
on
H(x, y), C 1 en alg
un dominio de IR2 , tal que las ecuaciones se pueden escribir como:
x =
H
y
H
x
Se dice que el sistema es hamiltoniano y que H es el hamiltoniano del sistema. Una condici
on necesaria
para que un sistema sea hamiltoniano es la siguiente. Sea el sistema:
x = f (x, y)
y = g(x, y)
y =
TEMA 3. SISTEMAS DINAMICOS
86
Figura 3.30
Entonces:
f
g
+
=0
x y
H
H
f (x, y) +
g(x, y) = 0
x
y
ya que:
f (x, y)
g(x, y)
H
y
H
=
x
=
87
x
de donde:
H(x, y) =
= ax + by
= cx ay
1 2
(by cx2 + 2axy)
2
y sus curvas de nivel son conicas, elipses si b y c tienen signos opuestos (determinante positivo, centro) o
hiperbolas si tienen el mismo signo (determinante negativo, punto silla).
Ejemplo 3.10.1 Los sistemas conservativos en una dimension son obviamente hamiltonianos. Sea la
ecuacion:
x = x3 x
El hamiltoniano asociado es simplemente en este caso la energa cinetica mas la potencial:
x
1 2
p2
x2
x4
H(x, y) = y +
(s s3 )ds =
+
2
2
2
4
0
donde y = x y las orbitas del sistema estan contenidas en las curvas de nivel de H(x, y):
2y 2 + 2x2 x4 = 4E
El sistema tiene tres puntos crticos correspondientes a los extremos del potencial:
dV
= x(1 x2 ) = 0
dx
de donde x = 1, 0, 1. Los situados en x = 1 son maximos, y por tanto puntos silla, y x = 0 es un
mnimo, es decir un centro. Como siempre en estos sistemas que proceden de una ecuacion de segundo
orden (es decir cuya primera ecuaci
on es x = y), en los puntos crticos y = 0.
Las orbitas son cerradas en un entorno del centro (correspondientes a energas entre 0 y 1/4). En
cada curva de nivel de la funci
on H(x, y) hay tres orbitas, una cerrada y dos abiertas (ver gura 3.31).
Por encima de 1/4 las orbitas son abiertas (y hay dos orbitas en cada curva de nivel). Cuando E = 1/4
las orbitas que aparecen son las seis separatrices (los puntos silla tienen dos separatrices comunes) y los
puntos silla mismos. La ecuacion de esta curva de nivel es:
2y 2 + 2x2 x4 = 1
es decir:
2y 2 = (x2 1)2
que son dos par
abolas simetricas:
1
y = (x2 1)
2
Ejemplo 3.10.2 Volvamos de nuevo al sistema:
x = x + y2
y = x2 y
Se trata de un sistema hamiltoniano (lo que nos permite asegurar sin m
as que el centro de la aproximaci
on
lineal se conserva). El hamiltoniano no es ahora tan trivial de escribir como en el caso anterior, pues
TEMA 3. SISTEMAS DINAMICOS
88
Figura 3.31
el sistema no procede directamente de una ecuacion de segundo orden. En cualquier caso, resulta muy
sencillo resolver:
H
y
H
= x + y2
= x2 y
obteniendose:
1 3
(y x3 + 3xy)
3
Como se ve en este caso, la segunda variable y no es la derivada de la primera x con respecto a t,
impidiendonos una interpretaci
on tan sencilla como en el primer ejemplo (gura 3.32).
H(x, y) =
Figura 3.32
Tema 4
Introducci
on
Supongamos que queremos calcular las soluciones de x +x = 0 en un entorno del origen. Si estas admiten
un desarrollo en serie de Taylor que converge en un entorno de t = 0, podemos pensar en calcular dicho
desarrollo sustituyendo una serie de potencias en la ecuaci
on y hallando los coecientes de esta serie.
Tomemos entonces:
x(t) =
an tn
n=0
e introduzcamos la serie en la ecuacion. Para ello necesitamos que la serie se pueda derivar termino a
termino. Si la soluci
on es analtica en un entorno de cero, esto se puede hacer sin problemas tantas veces
como queramos. Supongamos por ahora que es posible. De esta forma:
n=0
an tn = 0.
n=0
Podemos cambiar el ndice de la primera suma, para colocar ambos terminos bajo el mismo smbolo de
suma:
(n + 2)(n + 1)an+2 tn +
an tn = 0
n=0
y por tanto:
n=0
n=0
Los coecientes de esta serie, puesto que se suponen validas todas las operaciones debido a la analiticidad de las series, deben ser cero:
(n + 2)(n + 1)an+2 + an = 0, n 0.
Esta ecuacion (en diferencias nitas) se llama relaci
on de recurrencia entre los coecientes de la serie que
representa la solucion. En este caso se puede resolver. Despejando:
an+2 =
1
an , n 0
(n + 2)(n + 1)
cuya soluci
on se calcula f
acilmente:
a2n =
(1)n
a0 ,
(2n)!
a2n+1 =
89
(1)n
a1 , n 0
(2n + 1)!
90
(1)n 2n
t ,
(2n)!
n=0
x2 (t) =
(1)n 2n+1
t
(2n + 1)!
n=0
la primera vericando x1 (0) = 1, x1 (0) = 0, y la segunda x2 (0) = 0, x2 (0) = 1. El radio de convergencia
de estas series es innito como se puede comprobar utilizando el criterio del cociente:
a2n t2n
(2n + 2)! 2
t = (2n + 2)(2n + 1)t2
=
a2n+2 t2n+2
(2n)!
que tiende a cuando n tiende a para cualquier t jado (para la otra serie se obtiene lo mismo). Est
a
claro en este caso que estas dos series representan el coseno y el seno de t respectivamente, soluciones de la
ecuacion como ya sabamos. La sencillez del calculo expuesto no debe enga
nar sobre la situaci
on general.
No es obvio que siempre existan soluciones desarrollables en forma de serie en el entorno de cualquier
punto. Tampoco es obvio que las relaciones de recurrencia lleven a soluciones para los coecientes de
forma sencilla. Finalmente, este caso, en el que la serie converge en toda la recta, no es general. En
lo que sigue trataremos de dar criterios para saber cuando existen estos desarrollos en serie y como se
pueden calcular.
4.2
91
Las ecuaciones de Euler (como estas dos) son prototipos de los casos que se presentan en general para
una cierta clase de puntos singulares.
Para los puntos ordinarios se tiene el siguiente resultado:
Teorema 4.2.1 Sea t0 un punto ordinario para la ecuaci
on:
x + p(t)x + q(t)x = 0
es decir, p(t), q(t) son funciones analticas en un cierto entorno de t0 . Entonces, la soluci
on general de
esta ecuaci
on es:
x(t) =
an (t t0 )n = a0 x1 (t) + a1 x2 (t)
n=0
con x1 (t) y x2 (t) soluciones linealmente independientes, analticas en t0 con radio de convergencia mayor
o igual que el menor de los radios de convergencia de las series que representan a p(t) y q(t), y que
verican las condiciones iniciales:
x1 (t0 ) = 1, x1 (t0 ) = 0, x2 (t0 ) = 0, x2 (t0 ) = 1
Los coecientes an se jan introduciendo la serie en la ecuaci
on.
Es decir, en los puntos ordinarios la situaci
on es muy similar a la estudiada en el ejemplo de la ecuaci
on
del oscilador arm
onico tratada anteriormente.
Los coecientes de la serie dependen de las funciones p(t) y q(t). Los primeros terminos del desarrollo
son:
1
1
x1 (t) = 1 q(0)t2 + [p(0)q(0) q (0)]t3 + . . .
2
6
1
1
x2 (t) = t p(0)t2 + [p(0)2 p (0) q(0)]t3 + . . .
2
6
Ejemplo 4.2.3 En el estudio del oscilador arm
onico en mecanica cu
antica se llega a la siguiente ecuacion:
+ t2 = 2E.
Si hacemos el cambio:
(t) = x(t)e 2 t
1 2
x 2tx + x = 0
con = 2E 1, que es la llamada ecuacion de Hermite. No es sencillo calcular las soluciones de esta
ecuacion. Pero el metodo de series permite obtener desarrollos que convergen en toda la recta (pues los
coecientes de la ecuacion lo hacen). En efecto, t0 = 0 es un punto ordinario, as que probemos la serie:
x(t) =
an tn
n=0
sustituyendo en la ecuaci
on:
n=0
n=0
nan tn1 +
an tn = 0
n=0
n=0
92
2n
an , n 0
(n + 2)(n + 1)
y la soluci
on general de la ecuaci
on es:
x(t)
2 (4 ) 4 (8 )(4 ) 6
t
t
t + ) +
2!
4!
6!
2 3 (6 )(2 ) 5 (10 )(6 )(2 ) 7
a1 (t +
t +
t +
t + )
3!
5!
7!
= a0 (1
Utilizando el criterio del cociente se comprueba como estas series convergen absolutamente para todo
t. Es mas, se puede ver como crecen en general mas rapido que exp(t2 /2), con lo que las soluciones de la
ecuacion inicial (la del oscilador arm
onico cu
antico) no son de cuadrado integrable (concretamente, en lo
que a nosotros nos interesa, no tienden a cero en ). Sin embargo, cuando toma ciertos valores, una
de las dos series se corta y la solucion es un polinomio. Seg
un sea /2 entero impar o par, es la primera
soluci
on o la segunda la que se hace un polinomio. Son los polinomios de Hermite:
H0 (t)
H1 (t)
H2 (t)
=
=
1
2t
4t2 2
H3 (t)
=
..
.
8t3 12t
Hn (t) = (1)n et
o bien:
[n/2]
Hn (t) =
k=0
dn t2
e , n = 0, 1, 2, . . .
dtn
(1)k n!
(2t)n2k .
k!(n 2k)!
Ademas, la funci
on generatriz es:
2
w(t, z) = e2tzz =
Hn (t) n
z .
n!
n=0
Es decir, las derivadas sucesivas de w(t, z) con respecto a z calculadas en t = 0 son los polinomios de
Hermite. Para demostrarlo, se puede escribir w(t, z) como:
w(t, z) = et e(tz)
2
y usar:
2
(tz)2
e
= e(tz) .
z
t
Entre los polinomios de Hermite existen una serie de relaciones de recurrencia que relacionan unos
polinomios con otros y con sus derivadas:
93
1
2t
2n
Hn+1 (t)z n =
Hn (t)z n
Hn1 (t)z n
n!
n!
n!
n=0
n=0
n=0
1
2n
n
Hn (t)z =
Hn1 (t)z n .
n!
n!
n=0
n=0
De estas expresiones se deduce sin dicultad que los polinomios as denidos verican la ecuaci
on de
Hermite para = 2n. Es decir, uno puede partir de la denici
on dada m
as arriba de Hn (t) y demostrar
que verican la ecuaci
on de Hermite.
Los polinomios de Hermite son una familia ortogonal con peso exp(t2 ) en toda la recta, es decir:
2
Hn (t)Hm (t)et dt = cn nm
expresion que se demuestra de la siguiente forma. Consideremos la ecuacion inicial del oscilador arm
onico
cu
antico para dos valores = 2n, 2m
n + (2n 1 t2 )n = 0
m
+ (2m 1 t2 )m = 0
94
et H12 (t)dt
2
y usando la expresi
on de H1 (t) e integrando:
2
et Hn2 (t)dt = 2n n! .
Otras muchas representaciones pueden darse de los polinomios de Hermite, por ejemplo como ciertas
integrales de una funci
on (relacionada con la funci
on generatriz). Asimismo, una clase muy amplia de
funciones puede ser desarrollada en serie de polinomios de Hermite. Muchas de estas propiedades son
compartidas por otras familias de polinomios ortogonales, soluciones tambien de ecuaciones diferenciales
lineales de segundo orden: ecuaciones de Legendre, Laguerre, Tchebychev,. . .
Ejemplo 4.2.4 Ecuaci
on de Legendre.
Como hemos dicho antes, el punto t0 es un punto ordinario para la ecuaci
on:
(1 t2 )x 2tx + ( + 1)x = 0
Por tanto podemos sustituir la serie:
x(t) =
an tn
n=0
en la ecuacion, obteniendo:
(1 t )
2
n(n 1)an t
n2
2t
n=0
nan t
n1
+ ( + 1)
n=0
an tn = 0
n=0
n(n + 1) ( + 1)
an , n 0
(n + 2)(n + 1)
por tanto, la soluci
on general del problema se puede representar en un entorno de t = 0 por las series
siguientes:
an+2 =
a0 [1 +
(1)n
( 2) . . . ( 2n + 2)( + 1)( + 3) . . . ( + 2n 1) 2n
t ]+
(2n)!
(1)n
n=1
a1 [t +
n=1
Puesto que las funciones p(t) = 2t/(1 t2 ) y q(t) = ( + 1)/(1 t2 ) son analticas en un entorno
de t = 0 y las series que las representan tienen radio de convergencia 1, las soluciones tienen por lo menos
radio de convergencia igual a 1. As es en este caso. El radio de convergencia de las series es 1 y las dos
divergen bien en 1 o en 1. En realidad no siempre ocurre esto. En efecto, si es un n
umero entero
positivo, una de las dos series se corta y se obtiene un polinomio: son los polinomios de Legendre. Si
= 2n, es la primera serie, obteniendose un polinomio par (la segunda serie diverge en 1 o 1). Si
= 2n + 1, es la segunda serie la que da el polinomio, de grado impar. Los primeros polinomios son:
P0 (t)
= 1
P1 (t) = t
1 2
P2 (t) =
(3t 1)
2
1 3
P3 (t) =
(5t 3t)
2
..
.
95
1
2n n!
dn 2
(t 1)n , n = 0, 1, 2, . . .
dtn
y una funci
on generatriz:
w(t, z) = (1 2tz + z 2 )1/2 =
Pn (t)z n
n=0
v
alida para t sucientemente peque
no. Los polinomios de Legendre son ortogonales en el intervalo [1, 1]:
1
2
Pn (t)Pm (t)dt =
nm
2n
+1
1
y verican una serie de relaciones de recurrencia:
(n + 1)Pn+1 (t) (2n + 1)tPn (t) + nPn1 (t) = 0, n = 1, 2, . . .
Pn+1
(t) Pn1
(t) = (2n + 1)Pn (t), n = 1, 2, . . .
n=0
an tn
n=0
1
an , n 0
(n + 3)(n + 2)
1
a0 , k = 1, 2, . . .
3k(3k 1)(3k 3)(3k 4) . . . 6.5.3.2
1
a1 , k = 1, 2, . . .
(3k + 1)(3k)(3k 2)(3k 3) . . . 7.6.4.3
a3k+2 = 0, k = 0, 1, 2, . . .
Esta funci
on juega un papel fundamental en muchas de las ecuaciones que veremos a continuaci
on,
por lo que resumimos aqu sus propiedades m
as importantes:
96
(1)n 1
et tz1 dt, z = 0, 1, 2, . . .
+
n!
z
+
n
1
n=0
2. La funci
on gamma generaliza el factorial en el siguiente sentido:
(z + 1) = z(z)
3. Otras propiedades que nos ser
an u
tiles son:
(z)(1 z) =
sen z
1
1
22z1 (z)(z + ) = 2 (2z)
2
32k k!
(k + 23 )
( 23 )
1
2
74
(3k + 1)(3k)(3k 2)(3k 3) 4 3 = 32k [k(k 1) 2 1][(k + )(k ) . . .
] =
3
3
33
32k k!
(k + 43 )
.
( 43 )
La soluci
on general es:
x(t) = a0
( 23 )
( 43 )
3k
t
t3k+1 .
+
a
1
2k k!(k + 2 )
2k k!(k + 4 )
3
3
3
3
k=0
k=0
Se denen las funciones de Airy como dos soluciones linealmente independientes de esta ecuaci
on con
las condiciones iniciales siguientes:
Ai(0) =
32/3
34/3
2 , Ai (0) =
( 3 )
( 43 )
Bi(0) =
31/6
35/6
.
2 , Bi (0) =
( 3 )
( 43 )
Concretamente, Ai(t) es la u
nica soluci
on (salvo constante multiplicativa) de la ecuaci
on de Airy que
tiende a cero cuando t tiende a +. Entonces:
Ai(t) =
Bi(t) =
1
1
3k
3k+1
t
2
4 t
2k+2/3
2k+4/3
3
k!(k
+
)
3
k!(k
+
)
3
3
k=0
k=0
3[
1
1
3k
+
t
t3k+1 ].
2k+2/3 k!(k + 2 )
2k+4/3 k!(k + 4 )
3
3
3
3
k=0
k=0
Aunque no sea f
acil de demostrar, la funci
on Ai(t) es siempre mayor que cero. Cuando t es mayor
que cero es decreciente y tiende a cero cuando t tiende a +. Cuando t es menor que cero es oscilante.
La funci
on Bi(t) es tambien positiva. Cuando t es mayor que cero es creciente y tiende a innito cuando
t tiende a +. Cuando t es menor que cero es tambien oscilante. Se puede probar que el wronskiano de
estas dos soluciones (que no depende de t como prueba la f
ormula de Abel-Liouville) es igual a 1/.
4.3
97
Puntos singulares
98
Ejemplo 4.3.3 Aunque el punto t = 0 es tambien singular regular para la siguiente ecuaci
on, existen
soluciones que son analticas en 0:
2
x + x + x = 0
t
Una base de soluciones es:
sen t
cos t
x1 (t) =
, x2 (t) =
.
t
t
La primera de estas funciones es analtica en t = 0. La segunda tiene un polo de primer orden.
Ejemplo 4.3.4 El punto t = 0 es singular irregular para la ecuaci
on:
t3 x + t(1 + 3t)x + x = 0.
Las funciones:
1
x1 (t) = 1 + , x2 (t) = e1/t
t
son una base del espacio de soluciones de esta ecuacion. Ninguna de ellas es analtica en t = 0. La
primera tiene un polo y la segunda una singularidad esencial.
En los puntos singulares regulares puede ocurrir que las soluciones sean analticas. Sin embargo en
los singulares irregulares siempre hay alguna soluci
on que presenta una singularidad esencial. Cuando el
orden de la ecuaci
on es mayor que 2, se pueden dar criterios similares para distinguir los puntos singulares
regulares de los irregulares. El siguiente teorema proporciona la forma de las soluciones en un entorno de
un punto singular regular (para facilitar la comprensi
on se toma t0 = 0; para cualquier t0 las conclusiones
del teorema son facilmente trasladables a ese punto):
Teorema 4.3.1 (Frobenius). Sea t0 = 0 punto singular regular para la ecuaci
on:
x + p(t)x + q(t)x = 0
es decir tp(t) y t2 q(t) son analticas en t = 0:
tp(t) =
pn t n ,
t2 q(t) =
n=0
q n tn
n=0
donde p0 , q0 o q1 son distintos de cero. Sea el menor de los radios de convergencia de estas dos series.
Se dene el polinomio indicial de la ecuaci
on como:
r(r 1) + p0 r + q0
donde
p0 = lim tp(t),
t0
q0 = lim t2 q(t)
t0
= |t|r1
= |t|r2
n=0
n=0
an (r1 )tn
an (r2 )tn
99
2. Si r1 = r2 ,
= |t|r1
x1 (t)
an (r1 )tn
n=0
x2 (t)
bn (r1 )tn
n=1
donde a(r0 ) = 1. N
otese que la segunda serie empieza en t, para evitar repetir la primera soluci
on.
3. Si r1 r2 = N , entero positivo,
x1 (t)
= |t|
r1
an (r1 )tn
n=0
x2 (t)
cn (r2 )tn
n=0
donde a0 (r1 ) = c0 (r2 ) = 1 y la constante a puede ser cero. Los coecientes de las series, as como la
constante a, se calculan introduciendo las series en la ecuaci
on diferencial. Las series son convergentes
al menos en (, ), deniendo funciones analticas en t = 0. Es decir, todas las singularidades est
an en
tr y en log t, y son por tanto, como ya habamos anunciado, polos y puntos de ramicaci
on.
Aunque no vamos a demostrar este teorema, s daremos una serie de indicaciones sobre sus resultados.
Supongamos que t = 0 es un punto singular regular, por tanto p(t) o q(t) no son analticas. Sustituyamos
en la ecuacion una soluci
on de la forma:
x(t) = tr
an tn
n=0
(n + r)(n + r 1)an t
n+r2
+t
n=0
n=0
pn t
(m + r)am t
m=0
m+r1
n=0
qn t
am tm+r = 0
m=0
de donde se deduce:
r(r 1) + rp0 + q0 = 0
que es el polinomio indicial. Obviamente a0 no puede ser cero, pues el comportamiento de la solucion
cerca de t = 0 no sera la potencia r de t sino r +1 u otra superior. Por eso se toma a0 = 1 en el enunciado
del teorema.
(rp1 + q1 )a0 + ((r + 1)r + (r + 1)p0 + q0 )a1 = 0
De esta segunda ecuacion tenemos que calcular a1 . As que el coeciente de a1 no debera ser cero. Sea
r1 la mayor de las dos races del polinomio indicial, en el caso en que sean reales (si son complejas no hay
problemas). Entonces, el coeciente de a1 no es cero:
(r1 + 1)(p0 + r) + q0 = p0 + 2r1 = 1 + r1 r2 > 0
un en el
puesto que r1 es la mayor de las races (si son complejas, este coeciente tampoco es cero). A
caso en que las races sean iguales, ese coeciente es positivo. Luego a1 se puede calcular siempre en
terminos de a0 . Consideremos ahora el termino siguiente:
(rp2 + q2 )a0 + ((r + 1)p1 + q1 )a1 + ((r + 2)(r + p0 + 1) + q0 )a2 = 0
100
(r + n)(r + n 1)
tp(t)x p0 (r + n)
t2 q(t)x q0
f (n, r1 ) = n(n + r1 r2 )
que es positivo para todo n. Por lo tanto, podemos ir calculando los coecientes de la serie de una forma
recursiva. Calculados a0 , a1 , . . . , an , se puede hallar an+1 . Si la segunda raz es distinta de la primera y
no diere de ella en un entero positivo, el coeciente b
asico es ahora:
f (n, r2 ) = n(n + r2 r1 )
que tampoco es cero. Luego existe una solucion que tiene la forma indicada en el teorema. Es obvio que
cuando r1 = r2 solo hay una soluci
on de ese tipo. Pero el caso mas curioso aparece cuando las dos races
dieren en un entero positivo: r1 r2 = N . Ahora, el coeciente b
asico es:
f (n, r2 ) = n(n N )
que se anula para n = N , es decir, el coeciente aN no se puede calcular en general a partir de los
anteriores, y la segunda soluci
on tiene la forma indicada en el teorema. Puede ocurrir sin embargo, que
el coeciente de tN +r2 sea identicamente nulo, en cuyo caso la segunda soluci
on tiene a = 0.
Como hemos visto, siempre hay una solucion de la forma:
x(t) = tr1 (t)
donde (t) es una funci
on analtica en un entorno de cero, con (0) distinto de cero, y r1 es la raz mayor
del polinomio indicial en el caso en que sean reales (o una cualquiera de las complejas en el caso que lo
sean). La otra soluci
on puede tener el mismo aspecto o presentar un logaritmo. Veamos que podemos
decir de ella. Como sabemos una solucion, podemos reducir el orden de la ecuaci
on:
x(t) = tr1 (t) v
tv + (tp(t) + 2t
+ 2r1 )v = 0.
Esta ecuacion tiene un punto singular regular en t = 0 (es inmediato trasladar la denici
on de puntos
singulares regulares a ecuaciones de primer orden) pues el coeciente de v(t) es analtico. El polinomio
indicial sera:
r + (0) = 0
donde (t) es el coeciente de v(t) en la ecuacion diferencial. Calculando se obtiene (como era de esperar):
r = 1 r1 + r2
101
donde g(t) es analtica, con g(0) distinto de cero. Sustituyendo para encontrar x(t):
r1
r2 r1 1
r1
x(t) = t (t) t
g(t)dt = t (t) [c0 tr2 r1 1 + c1 tr2 r1 + ]
donde c0 , c1 , . . . son los coecientes del desarrollo en serie de g(t). Est
a claro que, dependiendo de los
exponentes r1 , r2 , puede aparecer un logaritmo. Si r1 = r2 , se obtiene un logaritmo. Si la diferencia
r1 r2 entre los exponentes es un entero positivo, puede aparecer un logaritmo, si el correspondiente
coeciente del desarrollo de g(t) es distinto de cero. En la expresi
on anterior aparece condensado (y
demostrado en buena parte) el teorema de Frobenius.
Ejemplo 4.3.5 La ecuacion de Bessel de orden .
t2 x + tx + (t2 2 )x = 0, 0
Supongamos que queremos calcular las soluciones de esta ecuacion en un entorno de t = 0, con t > 0
(la ecuacion de Bessel aparece asociada a la separacion de variables en coordenadas cilndricas, y all t
es el radio que es positivo). En cualquier caso, se podra considerar una variable t compleja e incluso
compleja con 0. Est
a claro que t = 0 es un punto singular regular. Los coecientes p(t) y q(t) son:
p(t) =
1
,
t
q(t) =
t2 2
t2
por tanto:
p0 = lim tp(t) = 1,
t0
q0 = lim t2 q(t) = 2
t0
y el polinomio indicial:
r(r 1) + r 2
que tiene por races:
r1 = ,
r2 = .
an tn .
n=0
Sustituyendo en la ecuaci
on:
n=0
simplicando:
( + n)an tn+ +
n=0
an tn++2
n=0
n=0
2 an tn+ = 0
n=0
an2 tn+ = 0
n=2
0, n 2
102
22n n!(
(1)n
a0 , n 1
+ n)( + n 1) . . . ( + 1)
utilizando la funci
on gamma, podemos escribir:
a2n =
(1)n ( + 1)
a0 , n 1.
+ n + 1)
22n n!(
1
2 (
+ 1)
2n
(1)n
t
t
J (t) =
.
2
n!(n
+
+
1)
2
n=0
Esta funci
on, cuyo comportamiento en el origen es t , es siempre una solucion de la ecuacion de
Bessel, para cualquier . Calculemos ahora una segunda soluci
on linealmente independiente de la primera.
Ahora necesitamos distinguir varios casos, de acuerdo con el teorema. Si la diferencia entre las races del
polinomio indicial, 2, no es un entero positivo o cero, la segunda soluci
on es:
x2 (t) = t
bn tn
n=0
(1)n
t
t
J (t) =
2
n!(n + 1) 2
n=0
que es linealmente independiente de la primera si 2 no es entero positivo. Si 2 es entero positivo,
esta solucion podra ser a
un linealmente independiente de la primera, pues la soluci
on presentada en el
teorema contiene una constante, a, en el termino logartmico que puede ser cero. Sin embargo, veamos
como en el caso = p entero positivo, las funciones Jp (t) y Jp (t) son proporcionales:
p
2n
t
t
(1)n
Jp (t) =
.
2
n!(n
p
+
1)
2
n=0
Pero la funci
on tiene polos en los enteros negativos as que la serie realmente comienza en n = p:
Jp (t) =
2n p
2(n+p)
p
(1)n
(1)n+p
t
t
t
t
=
2
n!(n p + 1)! 2
2
(n + p)!n! 2
n=p
n=0
n=1
bn tn
103
sustituyendola en la ecuaci
on, tx + x + tx = 0:
(tJ0 + J0 + tJ0 ) log t + 2J0 + b1 + 4b2 t +
n=2
El parentesis que multiplica a log t es cero, pues J0 (t) es solucion de la ecuacion. Esto ocurre siempre, el
logaritmo no aparece a la hora de resolver la ecuaci
on. Sustituyendo la expresi
on de J0 (t):
2n
(1)n t
J0 (t) =
(n!)2 2
n=0
2n1
(1)n
t
2n
+ b1 + 4b2 t +
[(n + 1)2 bn+1 + bn1 ]tn = 0.
2
(n!)
2
n=0
n=2
Conviene separar la segunda serie en terminos pares e impares:
2n1
(1)n
t
2
2n
2n
+
b
+
4b
t
+
[(2n
+
1)
b
+
b
]t
+
[(2n)2 b2n + b2n2 ]t2n1 = 0
1
2
2n+1
2n1
2
(n!)
2
n=0
n=1
n=2
de donde se obtienen las siguientes relaciones de recurrencia:
b1
1 + 4b2
(2n + 1)2 b2n+1 + b2n1
(1)n 4n
+ (2n)2 b2n + b2n2
(n!)2 22n
=
=
0
0
0, n 1
0, n 2
La soluci
on de este conjunto de ecuaciones jar
a los coecientes bn . La relacion entre los coecientes de
ndice impar y la primera ecuaci
on b1 = 0 implica:
b2n+1 = 0, n 0.
La ecuacion que liga los terminos de ndice par tambien puede ser resuelta. Para escribirla de una forma
compacta, pongamos:
n
1
Hn =
k
k=1
(1)n+1
Hn , n 1
22n (n!)2
on:
Una vez conocidos los coecientes bn , resulta inmediato escribir la segunda soluci
x2 (t) = J0 (t) log t +
(1)n+1 Hn 2n
t .
22n (n!)2
n=1
(1)n+1 Hn 2n
2
t
N0 (t) =
t
( + log )J0 (t) +
2
22n (n!)2
n=1
que es la funci
on de Neumann de orden cero. Esta funci
on tiene una singularidad de tipo logartmico en
t = 0. De acuerdo con la notaci
on dada antes:
N0 (t) =
2
2
x2 (t) + ( log 2)J0 (t)
104
El c
alculo anterior puede hacerse para = p entero arbitrario siguiendo los mismos razonamientos,
pero resulta muy complicado. Denamos en su lugar las siguientes funciones:
N (t) =
p1
2n
p
(p n 1)! t
2
1
t
t
+
( + log )Jp (t)
2
n!
2
n=0
p p
2n
Hp t
(1)n (Hn + Hn+p ) t
t
.
+
p! 2
2 n=1
n!(n + p)!
2
Todas ellas tienen una singularidad logartmica (cuando no es entero, no existe ese tipo de singularidad, aunque en cualquier caso no son analticas en cero).
Las funciones de Neumann as denidas, son soluciones de la ecuaci
on de Bessel para cada , y son
linealmente independientes con J (t). No entraremos en detalles sobre estas armaciones. Baste recordar
aqu que, para dado, las funciones:
J (t), N (t)
son una base del espacio de soluciones de la ecuacion de Bessel de orden . Si no es entero, las funciones:
J (t), J (t)
son tambien una base de soluciones.
No hemos establecido que ocurre cuando 2 es entero, pero no lo es. Seg
un lo anterior, J (t) y
J (t) son una base, y no aparece ninguna singularidad logartmica, luego la constante a del teorema
debe ser cero y J (t) y N (t) son tambien una base. Calculemos J y N cuando = 1/2:
N 12 (t) = J 12 (t)
2n
12
(1)n
t
t
J (t) =
3
2
2
n!(n
+
)
2
n=0
1
2
3
1
n!(n + ) =
(2n + 1)!
2
2
y sustituyendo en la expresi
on de J 12 :
2
sen t.
t
El mismo tipo de razonamiento permite calcular J 12 :
J (t) =
1
2
J 12 (t) =
2
cos t
t
que forman una base del espacio de soluciones de la ecuacion de Bessel de orden 1/2.
105
Las funciones de Bessel verican una serie de relaciones de recurrencia tales como:
d
[t J (t)] = t J1 (t)
dt
d
[t J (t)] = t J+1 (t)
dt
J1 (t) J+1 (t) = 2J (t)
2
J1 (t) + J+1 (t) =
J (t)
t
que se demuestran facilmente usando la ecuacion y la denici
on de J (t).
Por ejemplo, la primera de ellas:
2n
2(n+)1
2
d
(1)n 2
(1)n 2(n + ) t
d
t
t
=
[t J (t)] =
dt
dt
2
n!(n + + 1) 2
n!(n + + 1) 2
n=0
n=0
como (n + + 1) = (n + )(n + ):
2(n+)1
2(n+)1
(1)n 2
(1)n
t
t
=
=t
= t J1 (t)
n!(n
+
)
2
n!(n
+
)
2
n=0
n=0
La segunda se demuestra exactamente igual. La tercera se prueba a partir de las dos primeras. Multiplicando la primera por t , la segunda por t y sumando:
J1 (t) J+1 (t) = t
d
d
[t J (t)] + t [t J (t)] = 2J (t)
dt
dt
Y la cuarta, restando:
d
d
[t J (t)] t [t J (t)] = 2t1 J (t)
dt
dt
No podemos entrar aqu en una discusi
on del comportamiento de estas funciones cuando t tiende .
Pero el resultado es particularmente simple (y nada sorprendente en el caso de orden 1/2):
2
J (t) =
cos(t (2 + 1) ) + o(t3/2 )
t
4
2
N (t) =
sen(t (2 + 1) ) + o(t3/2 )
t
4
es decir, tanto J (t) como N (t) oscilan indenidamente, mientras la amplitud tiende a cero cuando t
tiende a .
Para terminar este estudio elemental de la ecuacion de Bessel, mencionemos aqu la relaci
on entre
esta ecuacion y la de Bessel esferica de orden :
J1 (t) + J+1 (t) = t
2
( + 1)
x + x + (1
)x = 0.
t
t2
Un cambio de variable lleva esta ecuacion a la de Bessel de orden + 12 :
y
x=
( + 12 )2
1
y + y + (1
)y = 0
t
t2
y por tanto una base del espacio de soluciones de la ecuaci
on de Bessel esferica es:
j (t) =
J 1 (t)
2t + 2
n (t) =
N 1 (t).
2t + 2
106
4.4
Singularidades en el innito
Como hemos visto, el tratamiento de los puntos ordinarios o singulares regulares no presenta ninguna
dicultad. Sin embargo, en orden al estudio de los comportamientos de las soluciones de una ecuaci
on
diferencial cuando t tiende a , resulta necesario introducir una serie de metodos que permitan aplicar
la teora estudiada previamente a esta situaci
on. La manera m
as usual de hacerlo es cambiar la variable,
pasando de t a su inversa, con lo cual el punto del innito pasa a ser el origen. Consideremos la ecuaci
on:
R(t)x + P (t)x + Q(t)x = 0
hagamos el cambio de variable t = 1/s. La nueva ecuaci
on es:
dx
1 d2 x
2 dx
1 dx
d2 x
=
+ 2
= 2
,
dt
t ds
dt2
t4 ds2
t ds
2
1 d x
1
1
dx
1
3
2
s4 R
+
2s
R
P
s
+
Q
x = 0.
2
s ds
s
s
ds
s
Por lo tanto, el punto t = (es decir s = 0) es un punto ordinario de la ecuaci
on inicial si las
funciones:
1
2
1
1
1
1
1
1
1Q
R
2P
,
4
s
s
s
s
s
R s
s R s
son analticas en un entorno de s = 0.
De forma similar, t = es un punto singular regular para la ecuaci
on de partida si alguna (o las dos)
de las funciones anteriores no es analtica en s = 0, pero s son analticas las funciones:
1
1
1
1
1
1
1 2R
1Q
P
,
.
2
s
s
s
s
R s
s R s
Ejemplo 4.4.1 La ecuacion de Legendre.
(1 t2 )x 2tx + ( + 1)x = 0.
Las funciones a estudiar son:
2s
( + 1)
, 2 2
.
1 s (s 1)
s2
1
1+ 2
s
,
s4
x = tx.
1
2
, 5
s
s
as que t = es un punto singular irregular para esta ecuaci
on. Lo mismo ocurre con la ecuacion de
Bessel.
HIPERGEOMETRICA
4.5. LA ECUACION
107
4.5
La ecuaci
on hipergeom
etrica
La ecuacion:
tiene puntos singulares regulares en 0, 1, . Esto hace que podamos calcular sus soluciones como series
de potencias en torno a cualquiera de estos tres puntos. Los radios de convergencia de estas series no son
en general innitos, as que sera necesario considerarlas en distintas situaciones seg
un las necesidades de
cada caso. Ademas, seg
un los valores de las constantes, pueden aparecer logaritmos o no. Dado que no
intentamos hacer una teora completa de la ecuacion hipergeometrica, nos limitaremos a los casos mas
sencillos.
Consideremos en primer lugar los desarrollos en serie en torno al punto t = 0. Los exponentes para
este punto son 0 y 1 . Siempre existir
a una soluci
on del tipo una potencia de t por una funci
on
analtica. El exponente ser
a 0 o 1 , seg
un cu
al de los dos sea mayor. Si la diferencia entre ambos
no es un entero, el teorema de Frobenius permite asegurar la existencia de dos soluciones linealmente
independientes de la forma dicha anteriormente. Supongamos entonces que no es un entero negativo o
cero, con lo cual existe una soluci
on de la forma siguiente:
x(t) =
an tn
n=0
Sustituyendo en la ecuaci
on:
t(1 t)
n(n 1)an t
n2
+ ( ( + + 1)t)
n=0
nan t
n1
n=0
an tn = 0
n=0
n=1
es decir:
(n(n 1) + n( + + 1) + )an tn = 0
n=0
n=0
( + n)( + n)
an , n 0
(n + 1)( + n)
Si se dene el smbolo:
()n = ( + 1)( + 2) . . . ( + n 1)
se encuentra como solucion, tomando a0 = 1:
an =
()n ()n
, n1
n!()n
La serie correspondiente se llama serie hipergeometrica, y converge, con las restricciones anteriormente
dichas sobre , en el intervalo (1, 1):
w01 (t) = F (, , ; t) =
()n ()n n
t .
n!()n
n=0
108
bn tn
n=0
y los coecientes se podran calcular de la manera usual. Sin embargo, una de las propiedades m
as
interesantes de la ecuacion hipergeometrica es su comportamiento frente a transformaciones de la variable
dependiente e independiente. Sin entrar en una discusi
on detallada, para este caso tenemos lo siguiente.
Si:
y = t(1) x
la nueva ecuaci
on es:
t(1 t)y + ((2 ) ( + 2 + 3)t)y ( + 1)( + 1)y = 0
que es una ecuacion hipergeometrica de par
ametros, + 1, + 1, 2 . En t = 0, los exponentes
son 0, 1, por lo que la soluci
on asociada a 0 es:
y(t) = F ( + 1, + 1, 2 ; t)
de donde la segunda soluci
on es:
w02 (t) = t1 F ( + 1, + 1, 2 ; t).
Desde un punto de vista m
as general, se puede considerar a F como dependiente de una variable
compleja z. De acuerdo con lo dicho de F , esta esta denida en el interior del crculo unidad (como
siempre, no puede tomar valores que sean 0 o un entero negativo). Es posible demostrar que F se
puede extender a una funci
on analtica en todo el plano complejo salvo en un corte [1, ). Esta funci
on
se puede representar por una integral, pero no iremos m
as lejos en esta lnea.
Si queremos calcular el desarrollo en serie en el punto t = 1, podemos actuar como antes con series
en t 1. Sin embargo es m
as comodo hacer un cambio de variable que nos lleve el punto 1 al 0. Sea
entonces s = 1 t. La ecuacion transformada es:
s(1 s)x + (( + + 1) ( + + 1)s)x x = 0
otra vez la ecuacion hipergeometrica con otros par
ametros. Por tanto las soluciones correspondientes son:
w11 (t)
w12 (t)
= F (, , + + 1; 1 t)
=
(1 t) F ( , , 1 + ; 1 t)
Si si-
= t F (, + 1, 1 + ; t1 )
w2 (t)
= t F (, + 1, 1 + ; t1 )
Las seis soluciones w(t) obtenidas convergen en los dominios adecuados, que se solapan en algunos
casos. Es evidente que en esas zonas solo hay dos soluciones linealmente independientes, as que existen
ciertas relaciones entre ellas. Tambien es posible demostrar como aparecen relaciones de recurrencia entre
las funciones hipergeometricas con distintos par
ametros.
Eligiendo adecuadamente los par
ametros, se obtienen otras ecuaciones ya tratadas individualmente.
Por ejemplo: = n, = n + 1, = 1, s = 1 2t nos lleva a la ecuacion de Legendre:
(1 s2 )x 2sx + n(n + 1)x = 0
HIPERGEOMETRICA
4.6. LA ECUACION
CONFLUENTE
109
4.6
La ecuaci
on hipergeom
etrica conuente
t
)
t
+1
)x + ( (1 +
)t)x x = 0
()n ()n t
t
1 F1 (, ; t) = lim F (, , ; ) = lim
n!()n
n=0
es decir:
1 F1 (, ; t)
()n n
t
n!()n
n=0
(2n)!
1 2
1 F1 (n, ; t )
n!
2
110
t dn n+ t
(t
e ), n = 0, 1, 2, . . .
n! dtn
L1 (t)
L2 (t)
1+t
1
((1 + )(2 + ) 2(2 + )t + t2 )
2
..
.
Estos polinomios estan relacionados con los de Hermite a traves de las siguientes ecuaciones:
(1)n
H2n ( t)
2n
2 n!
(1)n 1/2
1/2
Ln (t) =
H2n+1 ( t)
t
2n+1
2
n!
La demostracion de este resultado se puede hacer usando una representaci
on integral de los polinomios
de Laguerre, que escribimos seguidamente para mostrar las relaciones que existen entre las funciones
especiales, y que han llevado a muchos tratamientos unicadores (como por ejemplo los que usan la
teora de los grupos de Lie):
1 /2 t n+/2 s
Ln (t) = t
e
s
e J (2 st)ds, > 1, n = 0, 1, 2, . . .
n!
0
L1/2
(t)
n
donde J es la funci
on de Bessel de orden . Nada de extra
no tiene que la ecuacion de Bessel este tambien
relacionada con la ecuaci
on hipergeometrica conuente.
La notaci
on 1 F1 se reere a las llamadas series hipergeometricas generalizadas:
p
(r )n tn
r=1
p Fq (r , s ; t) =
q
s=1 (s )n n!
n=0
por lo que las series hipergeometricas que introdujimos al principio son 2 F1 , y las conuentes 1 F1 . Estas
series convergen en (1, 1) (en el disco unidad, aunque pueden extenderse por prolongaci
on analtica
fuera de ese disco).
4.7
El
atomo de hidr
ogeno
dr2
r2
h2
h2 r
con el signicado usual de las constantes. Si simplicamos la ecuaci
on cambiando adecuadamente las
variables y constantes:
= l+1 e/2 vl ()
r
=
8|E|
h
Ze2
=
2|E| h
ul (r)
4.7. EL ATOMO
DE HIDROGENO
se obtiene:
111