Sei sulla pagina 1di 24

2 5

2. Sistemas y ecuaciones lineales


Si ya se podan resolver muy pocas ecuaciones de primer orden, menos an se pueden resolver
sistemas de tales ecuaciones o ecuaciones de orden mayor que uno. Salvo escasas excepciones, slo en el
caso lineal se puede caracterizar la estructura de las soluciones y casi slo si los coeficientes son constantes
se pueden hallar explcitamente tales soluciones mediante mtodos elementales.
En la seccin 2.1 enunciaremos las propiedades bsicas (muy similares a las de ecuaciones de primer
orden) de los sistemas de n ecuaciones (lineales o no) y de las ecuaciones de orden n , que se pueden
considerar como un caso particular de sistemas. No daremos las demostraciones (bastara casi sustituir en las
del caso n=1 los valores absolutos por normas). Como en la solucin general de un sistema o de una
ecuacin de orden n aparecen n constantes arbitrarias (as lo sugieren los ejemplos ms sencillos de
sistema: x'=0 , y'=0 , y de ecuacin: x"=0 ) el problema de valores iniciales consistir en hallar la solucin
que satisfaga n condiciones iniciales. Ser fcil ver cuando este problema tiene solucin nica local.
Tambin daremos un resultado de prolongabilidad y la definicin de estabilidad. No generalizaremos, sin
embargo, dos secciones del captulo anterior: el dibujo aproximado y los mtodos numricos. En el primer
caso, porque no se puede: las soluciones de un sistema son curvas en un espacio de dimensin mayor que
dos (en el captulo 4, para sistemas autnomos de segundo orden, s nos preocuparemos del dibujo de las
proyecciones de las soluciones sobre el plano t=0 ). Los mtodos numricos son tan parecidos al caso n=1
que no merece la pena estudiarlos de nuevo.
La seccin 2.2 se centra ya en el caso lineal y, para ir fijando ideas, en el ms sencillo n=2 :
[S]
{
x' = a(t)x+b(t)y+f(t)
y' = c(t)x+d(t)y+g(t)
Tendremos una frmula de variacin de las constantes que nos dar las soluciones de [S] si somos
capaces de hallar lo que se llama una matriz fundamental W(t) (formada por soluciones del sistema
homogneo). Esta matriz sabremos calcularla (utilizando resultados de lgebra) si las funciones a , b , c y d
son constantes (entonces W(t) ser la exponencial de una matriz). De lo anterior deduciremos resultados
para las ecuaciones de segundo orden: [e] x" +a(t)x' +b(t) x = f(t) . Resolver [e] ser especialmente
sencillo para coeficientes constantes. Si son variables, veremos los pocos casos (ecuaciones de Euler, si
b(t)0 y si conocemos una solucin de la homognea) en que an se puede hallar su solucin a travs de
integraciones (en el resto de los casos habr que utilizar series, siguiendo el captulo 3).
En la seccin 2.3 , y con pocas demostraciones, veremos los resultados para un n general. Aunque la
teora sea prcticamente la misma, los clculos se complican para los sistemas (salvo que la matriz del sistema
sea diagonalizable; daremos ideas de cmo proceder aunque no sea el caso). Pero si los coeficientes son
constantes seguir siendo fcil dar la solucin de ecuaciones homogneas, en el caso excepcional de que
podamos hallar las races (autovalores) de un polinomio (caracterstico). Para resolver un buen nmero de no
homogneas tendremos el mtodo de coeficientes indeterminados.
En 2.4 analizaremos la estabilidad de sistemas y ecuaciones lineales de cualquier orden, que se podr
precisar fcilmente en el caso de coeficientes constantes: bastar con saber si la parte real de los autovalores
es negativa o no. Y podremos decidir esto incluso aunque no se pueda resolver el sistema o la ecuacin, por
aparecernos polinomios de races no calculables.
La seccin 2.5 introduce una tcnica totalmente diferente para hallar soluciones particulares de sistemas
y ecuaciones lineales con coeficientes constantes: la transformada de Laplace. Esta tcnica no permite
resolver nada que no pudisemos resolver con las secciones previas, pero a menudo nos da la solucin de
una forma ms rpida y nos permite abordar problemas para los que nuestros conocimientos algebraicos no
nos basten. La transformada es especialmente til cuando los trminos no homogneos son discontinuos o
cuando contienen la 'funcin' (ta) .
La ltima seccin (2.6) muestra como obtener informacin sobre el nmero de soluciones peridicas
de sistemas y ecuaciones lineales con coeficientes peridicos, sin necesidad de resolverlos.
2 6
2.1 Propiedades generales de sistemas y ecuaciones
Sea el sistema de n ecuaciones de primer orden: [S]

'


x
1
' = f
1
(t,x
1
,,x
n
)


x
n
' = f
n
(t,x
1
,,x
n
)
Sus soluciones son conjuntos de n funciones x
1
(t) , , x
n
(t) , definidas y derivables en un intervalo
comn I , que convierten cada ecuacin de [S] en una identidad. Llamaremos [P] al problema de valores
iniciales formado por [S] y las n condiciones:

x
1
(t
o
) = x
1o
, , x
n
(t
o
) = x
no


En notacin vectorial:
[P]



'


x ' = f (t , x)
x(t
o
)=x
o

, con x=

_
x
1
:
x
n
, f =

_
f
1
:
f
n
, x
o
=

_
x
1o
:
x
no
. Las soluciones x(t) =

_
x
1
(t)
:
x
n
(t)
las podemos mirar entonces como funciones vectoriales de I en R
n
.
Consideramos en R
n
la norma eucldea
||
x
||
=

x
1
2
++x
n
2
, y llamaremos bola de centro a y radio r al
conjunto B(a,r) = {xR
n
:
||
xa
||
<r} (un crculo en el plano, una esfera en el espacio, ).
Los teoremas de existencia y unicidad y prolongabilidad son muy parecidos a los de n=1 :
Teor 1.
Sean f
i
y
f
i
x
k
, i , k=1, , n continuas en [t
o
h,t
o
+h] xB(x
o
,r) .
Entonces [P] tiene solucin nica definida al menos en un entorno de t
o
.
.
(y si slo las f
i
son continuas existe solucin, aunque podra no ser nica)
Teor 2.
Si f
i
y
f
i
x
k
son continuas en [t
o
,

)xR
n
o bien existe t
1
tal que
||
x(t)
||

cuando tt
1
o bien la solucin x(t) de [P] est definida para todo t t
o
.
.
(y si son continuas en un conjunto DR
n+1
las soluciones llegan hasta la frontera de D )
Tambin hay dependencia continua de parmetros y datos iniciales y la definicin de estabilidad es como
la de primer orden, sustituyendo valores absolutos por normas:
Una solucin x(t) definida en [t
o
,

) es estable si >0 >0 tal que toda solucin x*(t)


con
||
x(t
o
)x*(t
o
)
||
< existe, est definida en [t
o
,

) y verifica
||
x(t)x*(t)
||
< para todo t t
o
.
Si adems
||
x(t)x*(t)
||
0 cuando t, se dice que x(t) es asintticamente estable.
(pero para un sistema puede ocurrir que
||
x(t)x*(t)
||
0 cuando t y sin embargo
que no consigamos hacer que
||
x(t)x*(t)
||
sea menor que cualquier prefijado)
Ej 1.

x ' = 3tx
1/3
+ lny

y ' = xy t
3
Posee solucin con x(t
o
)=x
o
, y(t
o
)=y
o
si y
o
>0 . Es nica si x
o
0 .
No sabemos, ni sabremos, hallar su solucin general, ni ver que soluciones estn definidas para todo t ,
ni estudiar su estabilidad (aunque se podran hallar los valores aproximados para unos datos iniciales
concretos por mtodos numricos). Es trivial comprobar que una solucin del sistema es
x(t) =
( )
t
3
1
(la nica que satisface x(1)=y(1)=1 , aunque tal vez haya ms con x(0)=0, y(0)=1 ).
2 7
Consideremos ahora la ecuacin de orden n : [E]

x
(n)
= g(t,x,x' ,,x
(n-1)
)

.
Sus soluciones son funciones x(t) derivables n veces en un intervalo I que llevadas a [E] la
convierten en una identidad. Llamamos [PE] al problema de valores iniciales consistente en hallar la
solucin de [E] que satisface las n condiciones:

x(t
o
)=x
o
, x'(t
o
)=x
o
' , , x
(n-1)
(t
o
)=x
o
(n-1)

Toda ecuacin de orden n se puede convertir en un sistema (sistema equivalente) haciendo:
x=x
1
, x' =x
2
,, x
(n-1)
=x
n
[SE]

'


x
1
' = x
2
x
2
' = x
3

x
n
' = g(t,x
1
,,x
n
)
. Llamando x =

_
x
1
:
x
n
=

_
x
:
x
(n-1)
, es claro que x
es solucin de [E] si y slo si x lo es de [SE]. Si adems x cumple x(t
o
) =

_
x
o
:
x
o
(n-1)

, x es solucin de [PE].
Gracias a esto, de cualquier resultado que obtengamos para sistemas podremos deducir consecuencias
inmediatas para ecuaciones (aunque iremos viendo que stas tendrn formas de resolverse ms directas,
con lo que casi nunca acudiremos al sistema equivalente para hallar soluciones). Por ejemplo, los teoremas 1
y 2 se pueden aplicar a ecuaciones. Veamos la forma particular que adopta el de existencia y unicidad:
Teor 3.
Sean g ,
g
x
, ,
g
x
(n-1)
continuas en un entorno de ( t
o
,x
o
,x
o
' , ,x
o
(n-1)
) .
Entonces [PE] tiene solucin nica definida al menos en un entorno de t
o
.
.
Por ltimo, se dice que x(t) es solucin estable o asintticamente estable de [PE] si lo es la
solucin x(t) del sistema equivalente (y por lo tanto se han de parecer tanto x(t) y x*(t) como las n1
primeras derivadas de las dos soluciones).
Ej 2.

t
2
x " 2tx' +2x = 0

Posee solucin nica con x(t
o
)=a , x'(t
o
)=b si t
o
0 .
En la prxima seccin veremos que su solucin general es: x = c
1
t + c
2
t
2

.
La nica solucin que satisface x(1)=a , x'(1)=b es x = (2ab) t +(ba) t
2

(que, como deba, es funcin
continua de los datos iniciales). Las infinitas soluciones x = c
2
t
2

satisfacen x(0)=0 , x'(0)=0 , pero no hay
ninguna satisfaciendo x(0)=1 , x'(0)=0 .
La solucin con x(1)=1, x'(1)=1 (es decir, x=t ) es inestable pues para el sistema equivalente
{
x' = y
y ' = 2t
2
x+2t
1
y
es inestable x(t) =
( )
t
1
, ya que ||
( )
t
1

( )
(2ab) t +(ba) t
2
(2ab) +2(ba) t
|| ,
para infinitos a y b tan cercanos como queramos a 1 .
(Escribir las soluciones del sistema equivalente a partir de las de la ecuacin es muy sencillo: basta formar
un vector cuyo primer elemento sea la solucin de la ecuacin, y los sucesivos de debajo sus derivadas; y
si resolvemos una ecuacin a partir del equivalente (poco til como se ha dicho) lo que obtendremos es un
vector en el que cada elemento es derivada del de arriba, y el primero es la solucin de la ecuacin).
2 8
2.2 Sistemas de 2 ecuaciones lineales y ecuaciones lineales de orden 2
Sea

x ' = a(t)x+b(t)y+f(t)
y' = c(t)x+d(t)y+g(t)

o en forma vectorial [S]

x' = A(t)x+f(t)

, con x =

,
_
x
y
, A =

,
_
a b
c d
y f =

,
_
f
g
.
Suponemos a , b , c , d , f , g funciones de R en R continuas (o sea, la matriz A(t) y la funcin vectorial f(t)
lo son) en un intervalo I (finito o infinito, abierto o cerrado) y sea t
o
I
.
El teorema de existencia y unicidad
asegura que una nica solucin de [S] cumple cualquier par de datos iniciales x(t
o
)=x
o
, y(t
o
)=y
o
. Como
ocurra en las lineales de primer orden, se puede probar que la solucin nica est definida tI .
Consideremos primero el sistema homogneo: [Sh]

x' = A(t)x

.
Una matriz W(t) =

,
_
x
1
(t) x
2
(t)
y
1
(t) y
2
(t)
cuyas columnas x
1
=
( )
x
1
y
1
y x
2
=
( )
x
2
y
2
son soluciones
de [Sh] y tal que el determinante |W(t
o
)|0 se llama matriz fundamental de [Sh] .
.
El siguiente teorema asegura que [Sh] est resuelto conocida una W(t) (pero no nos dice como calcularla):
Teor 1.
El conjunto V de soluciones de [Sh] es un espacio vectorial de dimensin 2 . Una base de
V es el conjunto {x
1
, x
2
} , soluciones que constituyen una matriz fundamental W(t) .
Por tanto, la solucin general de [Sh] es: x = c
1
x
1
+

c
2
x
2
= W(t)c , con c =
( )
c
1
c
2
arbitrario.
-
Es fcil comprobar que cualquier combinacin lineal de soluciones de [Sh] es tambin solucin. Adems
vemos que son base de V las soluciones e
1
(t) y e
2
(t) de [Sh] de valores iniciales respectivos
( )
1
0
y
( )
0
1
:
Son linealmente independientes: c
1
e
1
(t) + c
2
e
2
(t) 0 c
1
e
1
(t
o
) + c
2
e
2
(t
o
) = 0 c
1
= c
2
=0 .
Cualquier solucin x(t) =
( )
x(t)
y(t)
se puede escribir como combinacin lineal de ellas:
z(t) = x(t
o
)e
1
(t)+y(t
o
)e
2
(t) es solucin con z(t
o
)=x(t
o
) . Por unicidad es x(t)z(t) tI .
Sean ahora x
1
, x
2
soluciones cualesquiera cumpliendo |W(t
o
)|0 . Dichas soluciones son independientes:
c
1
x
1
(t) +c
2
x
2
(t) = W(t)c 0 W(t
o
) c = 0 c
1
=c
2
=0 .
Un sistema tiene infinitas matrices fundamentales W(t) . A partir de cualquier de ellas podramos calcular la
solucin de [Sh] con el dato inicial x(t
o
)=x
o
simplemente resolviendo el sistema de dos ecuaciones con dos
incgnitas W(t
o
)c=x
o
, que tiene solucin nica por ser el determinante |W(t
o
)| 0 . Pero lo podemos hacer
tambin directamente a partir de la llamada 'cannica':
Se llama W
c
(t) , matriz fundamental cannica en t
o
, a aquella que cumple W
c
(t
o
)=I .
Dada cualquier W(t) , a partir de ella se puede hallar la cannica, pues W
c
(t) = W(t) W
1
(t
o
) .
La solucin x de [Sh] que satisface x(t
o
)=x
o
es: x = W
c
(t)x
o
= W(t) W
1
(t
o
) x
o
.
Es claro que W(t) W
1
(t
o
) es la matriz unidad I en t =t
o
y adems el producto de W(t) por la derecha por
cualquier matriz constante no singular sigue siendo fundamental (sus columnas, como es fcil comprobar,
son combinaciones lineales de soluciones, y por tanto son soluciones, y su determinante sigue siendo no
nulo). Que la ltima expresin satisface x(t
o
)=x
o
es evidente.
[Para la mayora de los sistemas lineales, incluso para estos 2x2, va a ser imposible hallar ninguna W(t) (y, por
tanto, tampoco las soluciones; cuando la matriz A del sistema sea constante, pronto veremos cmo calcular
una, que precisamente va a ser la cannica). Esto es ya mucho ms complicado que las lineales de primer
orden que vimos en el captulo 1. All la 'matriz fundamental' era simplemente un escalar, expresable siempre
en trminos de primitivas (era la exponencial de la

a ), y si a era constante esa 'matriz' era e


at
].
2 9
Consideremos ahora el sistema no homogneo: [S]

x ' = A(t)x + f(t)

.
Teor 2.
i] Si x
p
es cualquier solucin de [S] y W(t) es una matriz fundamental de [Sh],
la solucin general de [S] viene dada por x = W(t)c+x
p
.
ii] Una solucin particular de [S] es x
p
= W(t)

W
1
(t) f(t) dt .
iii] Si W
c
(t) es la cannica en t
o
la solucin de [S] que cumple x(t
o
)=x
o
es
x = W
c
(t)x
o
+ W
c
(t)

t
t
o

W
c
1
(s) f(s) ds
.
[A las frmulas de ii] y iii] se les llama de variacin de las constantes, como en las de primer orden].
i] Sea x cualquier solucin de [S]. Entonces [xx
p
] ' = Ax+f Ax
p
f = A[xx
p
]
Por tanto xx
p
= W(t)c para algn c , pues satisface [Sh]. Toda solucin se puede escribir as.
ii] Veamos que W
1
existe, que la W(t) es no singular tI . Si fuera |W(s)|=0 para algn sI existiran
b
1
, b
2
no ambos nulos tales que b
1
x
1
(s) + b
2
x
2
(s) = 0 . Entonces x(t) = b
1
x
1
(t)+b
2
x
2
(t) sera solucin
con x(s)=0 . Por unicidad sera x(t)0 y por tanto sera |W(t)| =0 para todo t I , en particular para t
o
.
Y como derivar matrices y vectores es anlogo a derivar funciones de una variable:
x
p
'

= W'

W
1
f dt + W W
1
f = Ax
p
+ f , pues W' = AW por ser solucin cada columna.
iii] Por i] y ii] es solucin de [S]. Adems cumple el dato inicial: x(t
o
) = W
c
(t
o
)x
o
= I x
o
= x
o .
As pues, hallada cualquier W(t) est resuelto el sistema homogneo y el no homogneo (y
tambin el problema de valores iniciales). Pero slo tendremos un mtodo para calcular la W(t) en el caso de
que la matriz A sea constante. En ese clculo necesitaremos utilizar unos cuantos resultados algebraicos
que enunciamos a continuacin y cuya demostracin se pueden encontrar en los libros de lgebra.
La exponencial de una matriz B se define mediante: e
B
= I + B +
1
2!
B
2
+ ... ,
serie convergente (sus elementos son series numricas convergentes) para toda B .
Se tiene que e
B
es no singular, que su inversa

es e
B
y que e
B+C
= e
B
e
C
si BC=CB .
El clculo de la exponencial de una matriz no se realiza directamente, sino a partir de su forma de Jordan
(la forma ms sencilla en que se puede escribir la matriz haciendo cambios de base). Aunque en general sea
complicado escribir la matriz J de Jordan asociada a una matriz A , en el caso n=2 que estamos tratando es
fcil hallar tanto la J como la matriz P del cambio de base:
Sea A una matriz 2x2 y sean
1
,
2
sus autovalores [es decir, las races de | AI |=0 ] .
Entonces existe una matriz no singular P tal que A= P JP
1
donde:
i] Si
1

2
y v
1
, v
2
son vectores propios asociados a ellos [o sea, (A
i
I )v
i
= 0 ],
J =

,
_

1
0
0
2
y P=
(
v
1
v
2
)
, matriz cuyas columnas son v
1
y v
2
.
ii] Si
1
=
2
= y slo existe un vector propio v linealmente independiente asociado,
J =

,
_
0
1
y P=
(
w v
)
, siendo w cualquier vector con (AI)w= v .
iii] Si
1
=
2
= y existen dos vectores propios linealmente independientes asociados a ,
entonces A es ya diagonal.
[Los autovalores de una matriz real, desde luego, pueden ser reales o complejos conjugados;
en este ltimo caso la J y la P sern complejas, aunque PJP
1
ha de ser real si lo es la A ].
3 0
Consideremos ya los sistemas lineales de coeficientes constantes:
[C]

x ' = A x+f(t)

y [Ch]

x ' = Ax

, con A =

,
_
a b
c d
matriz constante.
Teor 3.
W
c
(t) = e
A(tt
o
)
es la matriz fundamental cannica en t
o
de [Ch]
.
En efecto,
d
dt
e
At
=
d
dt

k=0


(At)
k
k!
=

k=0


d
dt

A
k
t
k
k!
= A

k=1


A
k1
t
k1
(k1)!
= Ae
At
donde hemos admitido que la serie se puede derivar trmino a trmino (lo que se puede justificar) y hemos
tomado t
o
=0 por comodidad en la escritura. Es, pues, e
A(tt
o
)
matriz fundamental ya que entonces cada
una de sus columnas satisface tambin [Ch]. Adems e
A(t
o
t
o
)
= I , con lo que es la cannica.
Hemos reducido el problema de resolver [C] al de hallar la exponencial de la matriz At (es decir, del producto
del escalar t por la matriz A ). Tal exponencial es fcilmente calculable usando la J asociada a A :
La e
At
est relacionada con la e
Jt
de la misma forma que la A lo estaba con la J :

e
A t
= P e
Jt
P
1

,
ya que

k=0


A
k
t
k
k!
=

k=0


PJ
k
P
1
t
k
k!
= P

k=1


J
k
t
k
k!
P
1
= Pe
Jt
P
1
, pues A
k
=(PJP
1
)

(PJP
1
)=PJ
k
P
1
.
Y la e
Jt
se calcula fcilmente en las dos posibles situaciones que ofrece la teora de Jordan para n=2 :
i] Si J =

,
_

1
0
0
2
, es e
Jt
=

_
e

1
t
0
0 e

2
t
. ii] Si J =

,
_
0
1

, es e
Jt
=

,
_
1 0
t 1
e
t
.
i] Directamente con la definicin: e
Jt
=

,
_
1 0
0 1
+

1
t 0

0
2
t
+
1
2!

,
_

1
2
t
2

0

0
2
2
t
2
+ =

_
e

1
t
0
0 e

2
t
.
ii] Como J =

,
_
0
0

,
_
0 0
1 0
= D+N ,

e
Jt
= e
Dt
e
Nt
=

_
e
t
0
0 e
t

]
1
1

,
_
1 0
0 1
+

,
_
0 0
t 0
=

,
_
1 0
t 1
e
t
.
De lo anterior y de la frmula para sistemas lineales cualesquiera deducimos la frmula de variacin de
las constantes para la solucin de [C] que satisface el dato inicial x(t
o
)=x
o
:
x = P e
J( t t
o
)
P
1
x
o
+ P

t
t
o
e
J(ts)
P
1
f(s) ds
donde todas las matrices que aparecen son calculables (hallada la e
Jt
, basta sustituir la t por tt
o
o por ts
para obtener las otras). Insistimos en que los pueden ser complejos, as como las matrices P , P
1
y e
Jt
,
pero si A es real han de ser reales la matriz fundamental e
At
y la solucin x .
Para efectuar los clculos de esta frmula es aconsejable efectuar las operaciones de derecha a izquierda,
de forma que slo haya que multiplicar matrices por vectores (y no matrices por matrices lo que es mucho ms
largo y mayor fuente de errores).
Si lo que se busca es la solucin general nos podramos ahorrar algunos clculos, ya que no necesitamos la
cannica. Por ejemplo, W(t) = Pe
Jt
es una matriz fundamental de [Ch] (ya que es el producto por la derecha
de la matriz fundamental cannica por la P no singular) y de ella deducimos que la solucin general del
sistema homogneo [Ch] es simplemente x = Pe
Jt
c , con c arbitrario. Pero esta expresin es inadecuada
si los son complejos, pues queda x expresada en trminos de funciones y constantes complejas (en ese
caso mejor hallamos la P
1
o seguimos otros caminos que describiremos ms adelante).
3 1
Ej 1. Resolvamos
x ' = 2x+y

y ' = 3x+4y+e
t

con

x(0)=0 , y(0)=1

, o sea, x' =
( )
2 1
3

4
x +
( )
0
e
t
, x(0)=
( )
0
1
.
[Sabemos que dicha solucin es nica y que est definida para todo tR] .
|AI| =
2
6+5 = 0 tiene por soluciones
1
=5 y
2
=1 . Por tanto, J =
( )
5 0
0

1
, e
Jt
=
( )
e
5t
0
0 e
t
.
(A5I) v =
( )
3 1
3

1
v = 0 v
1
=
( )
1
3
, (AI) v =
( )
1 0
3

3
v = 0 v
2
=
( )
1
1

P =
( )
1 1
3

1
P
1
=
1
4

( )
1 1
3

1
=
1
4

( )
1 1
3

1
.
(Escribir la inversa de una matriz 2x2 es casi inmediato: P =
( )
a b
c

d
P
1
=
1
|P|

( )
d b
c

a
,
es decir, se cambian a y d de sitio, se cambian b y c de signo, y se divide por el determinante).
Por tanto: x(t) =
1
4
P e
Jt

( )
1 1
3

1

( )
0
1
+
1
4
P

t
0
e
J(ts)

( )
1 1
3

1

( )
0
e
s
ds =
=
1
4
P
( )
e
5t
0
0 e
t

( )
1
1
+
1
4
P

t
0

( )
e
5(t s)
0
0 e
t s

( )
e
s
e
s
ds =
1
4

( )
1 1
3

1

( )
e
5t
e
t
+
1
4
P

_
t
0
e
5t4s
ds

t
0
e
t
ds
=
1
4

,
_
e
5t
e
t

3e
5t
+e
t
+
1
4

( )
1 1
3

1

,
_
1
4
[e
5t
e
t
]
t e
t
=
1
16

,
_
5e
5t
5e
t
4t e
t

15e
5t
+e
t
+4te
t
Si lo que quisiramos fuera la solucin general, los clculos seran algo ms cortos. La solucin general de
la homognea se escribe rpidamente una vez calculados los autovalores y vectores propios asociados.
x
hom
= W(t) c = Pe
Jt
c =
( )
e
5t
e
t
3e
5t
e
t
c = c
1
e
5t
( )
1
3
+ c
2
e
t
( )
1
1
[ = c
1
e

1
t
v
1
+ c
2
e

2
t
v
2
]
Para la solucin particular de la no homognea s necesitamos hallar alguna inversa:
W
1
(t) =
1
4

( )
e
5t
e
5t
3e
t
e
t
, x
p

= W(t)

W
1
(t) f(t) dt =
1
4
W(t)
( )
e
4t
/ 4
t
=
( )
e
t
/ 16 t e
t
/ 4
3e
t
/ 16 + t e
t
/ 4
.
Englobando los trminos con e
t
de la x
p
en la constante c
2
, obtenemos esta solucin general del sistema:
x = x
hom
+ x
p
= c
1
e
5t
( )
1
3
+ c
2
e
t
( )
1
1
+
1
4
t e
t
( )
1
1
Ej 2. Resolvemos
x ' =x y +2

y ' =x +y

con

x(0)=0 , y(0)=1

x' =
( )
1 1
1

1
x +
( )
2
0
, x(0)=
( )
0
1
.
|AI| = (1)
2
+1 = 0 =1i e
Jt
=
( )
e
t +i t
0
0 e
t i t

=
( )
e
t
[cost +i sent ] 0
0 e
t
[cost i sent ]
.
[Recordemos que e
a+i b
= e
a
[cosb+i senb] y que, por tanto, e
i b
+e
i b
= 2cosb , e
i b
e
i b
= 2i senb ].
(A[1i ] I) v =0 v

=
( )
i
1
P =
( )
i i
1

1
P
1
=
1
2

( )
i 1

i

1
[comprobamos: PP
1
=
1
2

( )
2i
2
0

0

2
].
x(t) =
1
2
Pe
Jt
( )
i 1

i

1

( )
0
1
+
1
2
P

t
0
e
J(ts)

( )
i 1

i

1

( )
2
0
ds =
e
t
2
P
( )
e
i t
e
i t
+ P

t
0

( )
ie
(1+i)(ts)
ie
(1i)(ts)
ds =
= e
t

( )
sent
cost
+
1
2
P
( )
[1+i ][1e
(1+i ) t
]
[1i ][1e
(1i ) t
]
=
( )
e
t
sent
e
t
cost
+
( )
1+e
t
[cost sent ]
1+e
t
[cost +sent ]
=
( )
e
t
cost 1
e
t
sent+1
Est claro que trabajar con autovalores complejos complica mucho los clculos. Por suerte conoceremos otros
caminos para resolver estos sistemas: pronto veremos como convertirlos en ecuaciones de segundo orden
(mucho ms manejables) y en 2.4 dispondremos de la transformada de Laplace. Para este ejemplo concreto (con
f(t) constante) podamos haber atajado buscando una solucin del sistema no homogneo que sea tambin
constante (no siempre existir). Basta resolver el sistema xy +2=0 , x+y =0 para obtenerla: x=1 , y=1 .
Faltara ya slo escribir la solucin general de la homognea, sumar esa x
p
, e imponer los datos.
3 2
Deduzcamos de todo lo anterior resultados para ecuaciones lineales de segundo orden que, como
vimos en la seccin 2.1, se pueden considerar como un caso particular de los sistemas de orden dos.
Consideremos [e]

x " + a(t)x' + b(t) x = f(t)

, con a , b y f continuas en I .
Sabemos que entonces existe solucin nica definida en todo el intervalo I para cada pareja de datos
iniciales x(t
o
)=x
o
, x'(t
o
)=x
o
' si t
o
I . Haciendo x' =y obtenemos el sistema
{
x' = y
y' =b(t)xa(t)y+f(t)
, cuyas soluciones sern funciones vectoriales

,
_
x
y
=

,
_
x
x'
.
Este sistema est resuelto conociendo una matriz fundamental W(t) . Para ello basta hallar dos soluciones
x
1
y x
2
de la ecuacin homognea asociada a [e] (pues la fila inferior de la matriz estar formada por las
derivadas x
1
'

y x
2
' ) tales que sea no nulo en algn sI el llamado
determinante wronskiano de x
1
y x
2
: |W| (t) =

x
1
x
2
x
1
'

x
2
'
La solucin general de [e] ser entonces la primera componente del vector:
W(t)c+W(t)

W
-1
(t)
( )
0
f(t)
dt , y como W
-1
(t) =
1
|W|(t)

,
_
x
2
'(t ) x
2
(t)
x
1
'(t)

x
1
(t)
,
unas pocas operaciones nos permiten concluir de los teoremas vistos para sistemas que:
Teor 4.
i] Si x
1
y x
2
son dos soluciones de la homognea tales que |W| (s) 0 para algn sI y x
p

es
cualquier solucin particular de [e], la solucin general de [e] es: x = c
1
x
1
+ c
2
x
2
+ x
p
.
ii] Una solucin particular de [e] es: x
p

= x
2


x
1

f
|W|
dt x
1


x
2

f
|W|
dt [
f rmul a de vari aci n
de l as const ant es
]
.
La expresin de las dos soluciones en trminos de funciones elementales se podr dar slo en los pocos
casos que vamos a describir (en el captulo 3 resolveremos las ecuaciones del tipo [e] por medio de series).
Resolvamos la ecuacin con coeficientes constantes: [c]

x " + ax' + bx = f(t)

Llamemos [ch] a la ecuacin homognea ( f 0 ).
La matriz del sistema asociado es A =
( )
0 1
b a
, de ecuacin caracterstica

P()
2
+a+b = 0

.
Como los elementos del vector real Pe
Jt
P
1
c , solucin general del sistema homogneo, estn formados
por combinaciones lineales arbitrarias de los elementos de la matriz e
Jt
, la solucin general de [ch] es:
Si
1

2
reales ,

x = c
1
e

1
t
+c
2
e

2
t
Si doble (real) , x = (c
1
+c
2
t ) e
t
Si =pqi , x = (c
1
cosqt + c
2
senqt) e
pt
pues e
Jt
es, en cada caso,

_
e

1
t
0
0 e

2
t
,

,
_
1 0
t

1
e
t
,

,
_
e
pt
(cosqt + i senqt) 0
0 e
pt
(cosqt i senqt)
[Se puede llegar a la solucin por un camino directo que no exige pasar al sistema equivalente: probando en [ch]
soluciones del tipo x=e
t
se deduce que debe satisfacer la ecuacin caracterstica de arriba; si
1

2
R

es
inmediato que el |W| de e

y e

es no nulo; si doble, se comprueba de te

tambin es solucin y que es


0 el |W| de ambas; y si C se utiliza que la parte real y la imaginaria de una solucin compleja tambin lo son].
Para hallar la solucin particular de la no homognea [c] disponemos siempre de la frmula de variacin de
las constantes, pero en muchas ocasiones ser preferible utilizar el mtodo de los coeficientes
indeterminados que precisaremos en la prxima seccin e iremos introduciendo en los ejemplos.
3 3
Ej 3. Resolvemos

x "2x' +x = 6t e
t
con x( 1) =x '(1) =0

.

2
2+1 = 0 tiene la raiz doble =1 , luego la solucin de la ecuacin homognea es x
h
= (c
1
+c
2
t) e
t
.
Como |W|(t) =

e
t

t e
t

e
t

(t+1)e
t
= e
2t

,

x
p
= 6te
t


e
t
te
t
e
2t
dt 6e
t


te
t
te
t
e
2t
dt = t
3
e
t

x = (c
1
+c
2
t) e
t

+ t
3
e
t
Imponiendo las condiciones iniciales:
x(1) =[c
1
+c
2
+1] e=0
x '(1) =[c
1
+2c
2
+4] e=0
} x = (23t+t
3
)e
t
, solucin buscada.
[Para esta f(t) se podra hallar la x
p
con el mtodo de coeficientes indeterminados que precisaremos; la idea de
este mtodo es buscar una x
p
de forma similar a la de la f(t) ; en nuestro caso se podra pensar que una buena
candidata a solucin particular es un polinomio multiplicado por e
t
pues sus derivadas son funciones parecidas;
como e
t
y te
t
ya figuran en la solucin de la homognea el polinomio debe contener al menos trminos t
2
e
t
;
como nos dir la prxima seccin, de hecho la buena candidata debe ser x
p
=t
2
e
t
[At +B] , para unos valores
adecuados de A y B ; para fijarlos llevamos a la ecuacin esa x
p
y sus derivadas x'
p
=e
t
[At
3
+(B+3A)t
2
+2Bt ]
y x"
p
=e
t
[At
3
+(B+6A)t
2
+(4B+6A) t +2B] ; hacindolo obtenemos [6At+2B]e
t
= 6te
t
y por tanto deben ser B=0 ,
A=1 ; de esta forma hallamos de nuevo la x
p
= t
3
e
t
; en este ejemplo parece ms largo este camino que el de
variacin de constantes que utilizamos antes, pero en muchos otros ahorra el clculo de largas primitivas].
Aunque sea un muy mal camino, repasemos las matrices resolviendo el sistema equivalente:
{
x ' =y
y ' =x +2y+6te
t
, o sea, x' =
( )
0 1
1 2
+
( )
0
6te
t
, x(1) =
( )
0
0
. Como =1 doble e
Jt

=
( )
1 0
t 1
e
t
(nunca la matriz de un sistema proveniente de una ecuacin puede ser diagonal).
El nico (salvo producto por un escalar) vector v asociado al =1 doble es v =
( )
1
1
.
Escogemos w tal que
( )
1 1
1 1
w = v , por ejemplo w =
( )
0
1
P =
( )
0 1
1 1
P
1
=
( )
1 1
1 0

x =
( )
0 1
1 1

t
1
e
ts
( )
1 0
t s 1
( )
1 1
1 0
( )
0
6se
s
ds =
( )
t
3
3t +2
t
3
+3t
2
3t 1
e
t
(su x es la de antes y su y es la x' ).
Ej 4. Hallemos la solucin general de estas dos ecuaciones: a)

x "+x = e
t

y b)

x "+x = tant

.
En ambos casos es:
2
+1=0 =i x = c
1
cost + c
2
sent + x
p
, solucin general de la ecuacin.
Para hallar la x
p
con la frmula de variacin de las constates: |W|(t) =

cos t

sen t
sen t

c o s t
= 1 , de dnde:
a) x
p
= sent

e
t
cost dt cost

e
t
sent dt =

= s
1
2
e
t
[ c+s] c
1
2
e
t
[ sc] = [s
2
+c
2
]
1
2
e
t
=
1
2
e
t
.
[Mucho ms corto ser probar x
p
= Ae
t
2Ae
t
= e
t
A =
1
2
, x
p
=
1
2
e
t
].
b) x
p
= sent

sent dt cost


sen
2
t
cost
dt = sc+se c


dt
c
= cost ln
1+sent
cost
, pues


dt
c

u=sent
=


du
1u
2
=

[En esta ecuacin, como veremos, ni el mtodo de coeficientes determinados ni Laplace seran aplicables].
Aunque es perder el tiempo pasar de ecuaciones a sistemas, en cambio, s es prctico convertir un
sistema dado en una ecuacin de mayor orden, sobre todo si los autovalores son complejos:
Ej 5. Volvamos a resolver el ejemplo 2:
x ' =x y +2 x ( 0) =0
y ' =x +y y ( 0) =1
, convirtindolo en una ecuacin:
Despejemos la y de la segunda ecuacin (ms corta que la otra): x = y ' y .
Sustituyendo en la primera: y"y ' = y ' y y +2 , y"2y' +2y = 2 .
La solucin general de la homognea la obtenemos de la ecuacin caracterstica (la misma que la de la matriz)
y la solucin particular en este caso salta a la vista x
p
= 1 (con la frmula de variacin de las constantes sera
largo y el mtodo de coeficientes indeterminados lo que sugerir es probar una constante). As pues:

2
2+2 = 0 = 1i y = (c
1
cost + c
2
sent) e
t
+ 1
Imponiendo los datos iniciales: y(0) =1, y'(0) =x(0) +y(0) =1 obtenemos la y de antes: y = e
t
sent + 1 .
Y simplemente sustituyendo esta y obtenemos la x : x = y ' y = e
t
cost 1 .
3 4
Consideremos otros tres casos de ecuaciones lineales de segundo orden [e], ahora con coeficientes
variables, que son resolubles por mtodos elementales.
i) Ecuaciones de Euler: [u]

t
2
x " + at x' + bx = h(t )

, t >0
Haciendo el cambio de variable independiente t =e
s
:
dx
dt
=
1
t

dx
ds
,
d
2
x
dt
2
=
1
t
2
[
d
2
x
ds
2

dx
ds
] ,
la ecuacin [u] se convierte en la siguiente ecuacin lineal con coeficientes constantes :

d
2
x
ds
2
+ (a1)
dx
ds
+ bx = h(e
s
) de ecuacin caracterstica

Q()
2
+(a1)+b = 0

.
Como conocemos las soluciones de la ecuacin homognea para esta segunda ecuacin, deshaciendo el
cambio ( s = ln t ), tenemos que la solucin general de una ecuacin de Euler homognea es:
Si
1

2
reales

, x = c
1
t

1
+ c
2
t

2
Si doble (real) , x = (c
1
+ c
2
ln t ) t

Si =pqi , x = [ c
1
cos(q ln t ) + c
2
sen(q ln t ) ]

t
p
(observemos que la 'ecuacin caracterstica' de una ecuacin de Euler sera
la que obtendramos probando en la homognea soluciones de la forma t

).
Para hallar la solucin particular de la no homognea dispondremos siempre de la frmula de variacin
de las constantes con f(t) = h(t) / t
2

(y para la ecuacin de coeficientes constantes en s del mtodo de
coeficientes indeterminados de 2.3, si h(e
s
) es del tipo adecuado).
Ej 6. Hallemos la solucin general de

t
2
x " +t x ' x = t

. La 'ecuacin caracterstica' es
2
+(11)1=0 , =1
la homognea tiene por solucin general x
h
=c
1
t +c
2
t
1
(vlida en este caso para todo t0 ) .
Como |W|(t) =

t

t
1
1

t
2
= 2t
1

y f(t) = t
1



x
p
= t
1


t t
1
2t
1
dt t


t
1

t
1
2t
1
dt =
t
2
ln t
t
4

la solucin general de la no homognea es x = c
1
t + c
2
t
1

+
t
2
ln t (hemos englobado el t/4 en c
1
t ).
[La x
p
, como hemos dicho arriba, se podra calcular utilizando coeficientes indeterminados en la lineal de
coeficientes constantes x" x = e
s
a la que conduce el cambio t=e
s
; nos dir la prxima seccin que la x
p
que deberamos probar en la ecuacin en s es x
p
=Ase
s
(o lo que es lo mismo, podramos probar x
p
=At lnt
en la de Euler inicial); si lo hicisemos, comprobaramos que el valor de A debe ser 1/2 como antes].
ii) Si en la ecuacin [e] es b(t)0 :

x "+a(t)x' = f(t)

, el cambio x' =y convierte dicha ecuacin en
una lineal de primer orden en y , resoluble con la frmula del captulo 1. Integrando y obtendremos la x .
(Observemos que el cambio anterior reduce tambin una ecuacin no lineal en la que no
aparece la x en una de primer orden, tal vez resoluble: x" = g(t,x') y' =g(t,y) ; este es uno
de los pocos casos de ecuaciones no lineales que se pueden resolver elementalmente).
Ej 7. Calculemos la solucin general de

t x" 2x' = t cos t

x ' =y y' =
2y
t
+ cos t y = Ct
2

+ t
2

t
2
cos t dt x = K + Ct
3
+

[t
2

t
2
cos t dt] dt
(primitivas que no son calculables elementalmente).
La ecuacin es tambin de Euler ( a=2 , b=0 y h(t) = t
2
cos t ) y se puede resolver como el ejemplo 6:

2
3=0 =0 , =3 x
h
= c
1
+ c
2
t
3
, solucin de la homognea. |W|(t) = 3t
2

x = c
1
+ c
2
t
3
+ t
3


cos t
3t
2
dt


t cos t
3
dt , que debe poderse hacer coincidir con la de antes.
3 5
iii) Si conocemos una solucin x
1
de la ecuacin homognea x"+a(t)x' +b(t)x=0 , el cambio

x = x
1

udt

lleva la ecuacin [e] a una lineal de primer orden en u .
[No son, por tanto, necesarias las dos soluciones que exiga el teorema 4; basta slo hallar una;
el problema es que en pocas ocasiones podremos encontrar esa solucin: a veces a simple
vista, a veces tanteando, a veces nos aparecer cuando estemos resolvindola por series].
En efecto, llevando x , x' = x
1
'

udt + x
1
u y x" = x
1
"

udt + 2x
1
' u + x
1
u' a [e] obtenemos:
x
1
u' + (2x
1
' +ax
1
)u + (x
1
" +ax
1
' +bx
1
)

udt = f(t) u' = (2x


1
' x
1
1
+a)u + f(t) x
1
1
pues x
1
satisface la homognea. El conocimiento de la x
1
permite hallar tambin (sin necesidad de hacer el
cambio) una segunda solucin x
2
de la homognea, pues integrando la ecuacin en u con f(t)=0 :
u = e

adt
x
1
2


x
2
= x
1


e
adt
x
1
2

d t

[El a de la frmula, desde luego, es el que queda cuando se escribe la ecuacin en la forma de arriba x"+ax ' +

;
utilizaremos bastantes veces esta frmula en el captulo 3, en el que trabajaremos, sobre todo, con homogneas].
Ej 8. Resolvamos

t
3
x " t x ' + x = 1

.
Las nicas soluciones de la homognea que pueden saltar a la vista son las rectas x = t +b (pues entonces el
trmino de la x" no apaarece y basta mirar los otros dos). En este caso x
1
= t es solucin de la homognea.
Para resolver la ecuacin dada podemos ahora seguir dos caminos diferentes:
1) Efectuar explcitamente el cambio x = t

u , x' =

u+tu , x" = 2u + tu' ,


para convertir la ecuacin inicial en la lineal de primer orden no homognea:
t
4
u' + (2t
3
t
2
) u = 1 u' = ( t
2
2t
1
) u + t
4

.
Resolver esta lineal: u = c
2
t
2
e
1/t

+ t
2
e
1/t

t
2
e
1/t
dt

= c
2
t
2
e
1/t

t
2

.
Y deshacer el cambio: x = t ( c
1
+ c
2

t
2
e
1/t
dt

t
2
dt ) = c
1
t + c
2
t e
1/t
+ 1 .
[No olvidemos la constante de integracin; la solucin general debe contener 2 constantes arbitrarias].
2) Hallar una segunda solucin de la homognea por la frmula deducida antes: x
2
= t


e
t
2
dt
t
2
dt = t e
1/t
y calcular una solucin particular de la no homognea con la frmula de variacin de constantes:
|W|( t) = e
1/t

x
p
= t e
1/t

t
2
e
1/t
dt

t

t
2
dt = t + 1

x = c
1
t + c
2
t e
1/t
+ 1
(el trabajo con la no homognea ha sido absolutamente intil y podamos perfectamente
habrnoslo ahorrado, porque la x
p

= 1 se vea tambin a simple vista)
3 6
2.3 Ecuaciones y sistemas lineales de orden n
Veamos, casi sin demostraciones, los resultados esenciales, anlogos vistos en el caso n=2 . Empezamos
en este caso tratando las ecuaciones lineales de orden n , bastante ms sencillas que los sistemas:
Sea [e]

x
( n)
+a
1
(t)x
(n-1)
+

+a
n-1
(t)x' +a
n
(t)x = f (t )

con a
i
, f continuas en I .
Tiene solucin nica, definida en todo el intervalo I , satisfaciendo x(t
o
)=x
o
, . . . , x
(n-1)
(t
o
)=x
o
(n-1)
, si t
o
I .
Teor 1.
Si x
1
,..., x
n
son n soluciones de la homognea, su wronskiano |W|(t) =

x
1
x
n
: :
x
1
(n1)
x
n
(n1)
es no
nulo en algn sI y x
p
es solucin de [e] , la solucin general de [e] es x = c
1
x
1
+
...
+c
n
x
n
+x
p
.
.
[Utilizando la teora de sistemas que veremos luego se podra calcular una x
p
a partir las n soluciones de la
homognea (lo que no es posible casi nunca es hallar esas n soluciones), pero no nos ocuparemos de ello].
Nos vamos a centrar ya en las ecuaciones con coeficientes constantes:
Sea [c]

L[ x] x
( n)
+a
1
x
(n-1)
+. . . +a
n-1
x' +a
n
x = f(t)

, y llamemos [ch] a la homognea L[x] = 0 .
Para resolver [ch] basta hallar las races de un polinomio P() de orden n (llamadas autovalores
de la ecuacin). Como se sabe, eso en general es imposible, y slo se podr dar la solucin exacta en
casos excepcionales. Como para n=2 , el P() es el que aparece al probar soluciones del tipo e
t
en [ch]:

P()
n
+a
1

n-1
+

+a
n-1
+a
n
= 0

(ecuacin caracterstica)
P() tiene, en general, m races reales
1
, ,
m
, de multiplicidades r
1
, ... , r
m
, y 2k races complejas
p
1
iq
1
, ... , p
k
iq
k
de multiplicidades s
1
, ... , s
k
[ser r
1
+

+ r
m
+ 2 (s
1
+

+s
k
) = n ]. Desde luego, todas
podran ser reales, o todas complejas; y perfectamente puede ser r
k
=1 s
k
=1 (autovalores simples).
Necesitamos n soluciones, tantas como races de P() . Este teorema dice cmo conseguirlas:
Teor 2.
Las r funciones e
t
, t e
t
, ... , t
r-1
e
t
son soluciones linealmente independientes de
L[x] =0 , si es raz real de P() =0 de multiplicidad r . Lo mismo sucede con las 2s
funciones e
pt
cosqt , e
pt
senqt , te
pt
cosqt , te
pt
senqt , ... , t
s-1
e
pt
cosqt , t
s-1
e
pt
senqt ,
si piq son races complejas de multiplicidad s .
.
[No es difcil ver que te
t
, ... , t
r-1
e

son tambin soluciones de [ch] utilizando que es raz de


las primeras derivadas de P() y que si z es solucin compleja de [ch] lo son tambin sus partes
real e imaginaria; y hallando su wronskiano en t =0 se comprueba que son independientes].
[Si r=1 , la nica solucin que tenemos ser la e
t
, claro; y si s=1 , slo e
pt
cosqt y e
pt
senqt ].
Ej 1.

x
v
4x"+3x' = 0

tiene por ecuacin caracterstica P()
5
4
2
+3 = 0 , de races calculables.
Salta a la vista que P() (
4
4+3) . Probando con los divisores de 3 obtenemos el autovalor =1 , es
decir
4
4+3 = (1)(
3
+
2
+3) . =1 vuelve a ser raz del ltimo polinomio:
3
+
2
+3 = (1)(
2
+2+3) .
Y la ecuacin de segundo grado es fcilmente resoluble: = 1 i 2 . En resumen los 5 autovalores son:
=0 , =1 doble y = 1 i 2 , y el teorema 2 nos da las 5 soluciones independientes:
e
0t
=1 , e
t
, te
t
, e
t
cos 2 t y e
t
sen 2 t .
La solucin general ser una combinacin lineal arbitraria de estas 5 soluciones:
x = c
1
+ (c
2
+ c
3
t) e
t

+ ( c
4
cos 2 t + c
5
sen 2 t ) e
t
.
[Bastaba cambiar, por ejemplo, el 4 de la ecuacin por un 5 para que no supisemos resolverla
(las frmulas para el clculo de races de polinomios de grados 3 y 4 son muy poco tiles en la prctica)].
3 7
Para resolver la ecuacin no homognea [c] no dispondremos ahora de una frmula tan sencilla como la
de variacin de constantes dada en el caso n=2 para el clculo de la x
p
a partir de las soluciones de la
homognea (como ltimo recurso nosotros podremos resolver el sistema equivalente mediante matrices).
Pero cuando la f(t) est formada por sumas y productos de polinomios, exponenciales, senos y cosenos
podemos acudir al mtodo de los coeficientes indeterminados (del tanteo organizado) del prximo
teorema. La idea, como ya cometamos en la seccin anterior, es probar en [c] una solucin similar a la f(t) con
constantes arbitrarias que se determinan resolviendo simplemente sistemas lineales:
Teor 3.
i] Si f(t)=e
t
p
k
(t) , con p
k
polinomio de grado k , y no es autovalor de [ch] existe solucin
particular de [c] de la forma x
p
=e
t
P
k
(t) , donde P
k

es otro polinomio de grado k

cuyos
coeficientes se precisan llevando x
p

a [c]. Si es autovalor de multiplicidad r , x
p
=t
r
e
t
P
k
(t) .
ii] Si f(t)=e
pt
[p
j
(t) cosqt +q
k
(t)senqt ] , p
j
y q
k
de grados j y k , y piq no

es autovalor hay
solucin particular x
p
= e
pt
[P
m
(t)cosqt + Q
m
(t)senqt] , con P
m
y Q
m
de grado m=mx { j , k} .
Si piq es autovalor de multiplicidad s existe

x
p

= t
s
e
pt
[P
m
(t)cosqt + Q
m
(t)senqt] .
iii] Si f(t) = f
1
(t)+

+f
m
(t) y L[x
i
] = f
i
(t)

entonces L[x
1
+

+x
m
] = f(t) .
-
[En particular, si =0 , o sea, si f(t) es un polinomio, bastar probar segn i] un polinomio adecuado, y
desde luego entendemos una constante como un polinomio de grado 0 ].
Ej 2. Calculemos x
p
de

x " + x = f(t)

para diferentes f(t) . Su solucin general es x = c
1
cos t + c
2
sen t + x
p
.
Si

f ( t ) = t
3

, existe x
p
=At
3
+Bt
2
+Ct +D (polinomio arbitrario de grado 3, pues =0 no es autovalor)
6At +2B + At
3
+Bt
2
+Ct +D = t
3
A=1 , B=0 , C=6A=6 , D=2B=0 x
p
= t
3
6t .
Si

f ( t ) = t e
t

, hay x
p
= e
t
(At +B) , x
p
' = e
t
(At + B+A) , x
p
" = e
t
(At + B+2A)
e
t
[ (At + B+2A) + (At + B) ] = t e
t
A =
1
2
, B = A =
1
2
x
p
= e
t
(
t
2

1
2
) .
Si

f ( t ) = e
t
cos t

, hay x
p
=e
t
(Acos t +Bsen t) [hay autovalores i , pero no 1i , y debe estar el sent ]
(A+2B) cost + (B2A) sent = cost {
A+2B=1
B2A=0
x
p
=e
t
(
1
5
cost +
2
5
sent) .
Si

f ( t ) = sen t

, como i es autovalor simple (o de otro modo, como [ch] ya tiene soluciones de esa forma):
x
p
=t ( Acos t +Bsen t) 2Bcost 2Asent = sent x
p
=
t
2
cost .
Si

f ( t ) = cos
2
t

, aparentemente no podemos utilizar coeficientes indeterminados, pero como
cos
2
t =
1
2
(1+cos2t) existe x
p
= A + B cos2t + C sen2t x
p
=
1
2

1
6
cos2t .
Si

f ( t ) = (cos t)
1

, tenemos que acudir a la frmula de variacin de las constantes:
|W(t)| =1 x
p
= sent

cost (cost)
1
dt cost

sent (cost)
1
dt = t sent + cost ln(cost) .
Ej 3. Calculemos una x
p
de

x '" + 2x " + 4x ' + cx = t

para todos los valores de la constante real c .
Existe solucin particular de la forma x
p
= At +B , cuando =0 no sea autovalor (es decir, cuando c0 )
4A + c(At+B) = t A =
1
c
, B =
4A
c
=
4
c
2
x
p
=
t
c

4
c
2
, si c0 .
Si c=0 , hay que 'engordar' la x
p
con una t ( =0 es simple): x
p
= At
2
+Bt x
p
=
t
2
8

t
8
, si c=0 .
En este caso podemos adems dar la solucin general: x = c
1

+ (c
2
cos 3 t + c
3
sen 3 t ) e
t
+
t
2
8

t
8
.
No podemos hacer lo mismo c, por no saber resolver
3
+2
2
+4+c =0 . Slo podemos para valores elegidos
de c ; por ejemplo, si c=3 es P()=(+1)(
2
++3) x = c
1
e
t

+ ( c
2
cos
11
2
t + c
3
sen
11
2
t ) e
t/2
+
t
3

4
9
.
3 8
Pasemos ahora a tratar el sistema de n ecuaciones lineales de primer orden en general :
[S]

x ' = A(t)x+f(t)

, [Sh]

x ' = A(t)x

, con A =

_
a
11

a
1 n
: :
a
n1

a
n n
, x=

_
x
1
:
x
n
, f =

_
f
1
:
f
n
, A , f continuas en I .
Hay entonces solucin nica definida en todo I cumpliendo x(t
o
)=x
o
si t
o
I . Una matriz fundamental es
W(t) =

_
x
11
(t)

x
1n
(t)
: :
x
n1
(t)

x
nn
(t)
cuyas n columnas son

soluciones de [Sh] y tal que |W(t
o
)| 0 .
La matriz fundamental cannica W
c
(t) [ = W(t) W
1
(t
o
) ] es la que cumple W
c
(t
o
) = I . De nuevo conocida
cualquier W(t) el sistema homogneo, el no homogneo y el problema de valores iniciales estn resueltos:
Teor 4.
La solucin general de [Sh] es x

= W(t)c . La de [S] es x

= W(t)c + x
p
, siendo x
p
cualquier solucin de [S]. Una x
p
viene dada por: x
p
= W(t)

W
1
(t) f(t) dt .
La solucin de [S] que cumple x(t
o
)=x
o
es x = W
c
(t)x
o
+ W
c
(t)

t
t
o

W
c
1
(s) f(s) ds .
.
Pero hallar W(t) es difcil, incluso para coeficientes constantes: [C]

x ' = Ax+f(t)

, A matriz constante.
La matriz fundamental cannica del homogneo [Ch] x' = Ax sigue viniendo dada por una exponencial:
Teor 5.
W
c
(t) = e
A(tt
o
)
es la matriz fundamental cannica en t
o
del sistema homogneo [Ch] .
-
Pero ahora es complicado hallar e
At
, ya que, en general, la J y la P son difciles de calcular, incluso en el
caso excepcional de que podamos hallar de forma exacta los autovalores de A , races de un polinomio de
grado n . Slo es sencillo dar la exponencial si los autovalores son calculables y la J resulta ser diagonal:
Teor 6. Si hay n vectores propios v
1
, ... , v
n
linealmente independientes (asociados a
1
, . . . ,
n
) ,
entonces:

e
At
= Pe
Jt
P
1
= P

_
e

1
t
0

0
0 e

2
t

0
: :
.
.
. :
0 0

n
t

P
1
con P =
(
v
1


v
n
)
.
.
Esto suceder, desde luego, si los
i
son races simples del polinomio caracterstico, pero tambin puede
pasar aunque haya mltiples.

Si hay menos de n vectores propios independientes la J no ser diagonal
(existirn unos en la diagonal inferior acompaando a algn autovalor mltiple, y, como ocurra para n=2 ,
aparecern trminos de la forma t
n
en la matriz exponencial). Cuando A sea no diagonalizable, acudiremos
a otros mtodos de resolucin que iremos describiendo (convertir el sistema en ecuacin, Laplace,...).
Como siempre, la matriz exponencial ser real, aunque los
i
puedan ser complejos.
Como en la seccin anterior, para resolver el homogneo podemos evitar el clculo de la P
1
, ya que la
solucin general de [Ch] es simplemente:
x = Pe
Jt
c = c
1
e

1
t
v
1
+

+ c
n
e

n
t
v
n
.
Lleguemos a la ltima expresin por otro camino ms directo, que nos puede dar ideas de cmo proceder
utilizando matrices an en los casos de J no diagonal. Comprobemos primero que:
Si es autovalor de A , y v es vector propio asociado , entonces x =e
t
v es solucin de [Ch].
Esto es cierto, ya que x' = e
t
v = Ae
t
v =Ax y se cumple que v = Av .
As pues, si conseguimos hallar n vectores propios linealmente independientes, tendremos n soluciones
de esa forma, que constituirn una matriz fundamental W(t) = (e

1
t
v
1


e

n
t
v
n
) , puesto que |W(0)| 0 por
ser los v
k
independientes. Basta entonces escribir x = W(t)c para obtener el resultado de arriba.
3 9
Ej 4. Hallemos la solucin general de
x ' =x +2y
y ' =2x +2y +2z
z ' =2y +3z
, o sea, de x' =

,
_
1 2 0
2 2 2
0 2 3
x
3
6
2
+3+10 = 0 .
Los y v asociados son: =1 v =

,
_
2
2
1
, =2 v =

,
_
2
1
2
, =5 v =

,
_
1
2
2
. Por tanto, P =

,
_
2 2 1
2 1 2
1 2 2
.
Para la solucin general no necesitamos la P
1
[la calcularamos para hallar una x
p
si fuese no homognea]:
x = Pe
Jt
c = P

_
e
t
0 0
0 e
2t
0
0 0 e
5t
c = c
1
e
t

,
_
2
2
1
+ c
2
e
2t

,
_
2
1
2
+ c
3
e
5t

,
_
1
2
2
.
Si lo que queremos es una solucin particular, por ejemplo la que cumple x(0)=6, y(0)=0, z(0)=3, podemos:
o calcular P
1
=
1
9

,
_
2 2 1
2 1 2
1 2 2
y efectuar el producto Pe
Jt
P
1

,
_
6
0
3
= Pe
Jt

,
_
1
2
0
=

_
2e
t
+4e
2t
2e
t
+2e
2t
e
t
4e
2t
,
o imponer los datos en la solucin general anterior y resolver el sistema de tres ecuaciones resultante.
Tambin podemos convertir el sistema en una ecuacin, como hacamos para n=2 . Por desgracia, para
n=3, 4,... , los clculos no son tan sistemticos como all. No se puede dar ideas generales de qu ecuaciones
conviene derivar, por dnde empezar a sustituir, no es raro que tras unos clculos haya que volver a empezar...
Pero, a pesar de estas dificultades, en muchas ocasiones sigue siendo mejor que utilizar matrices ( complejos,
sistemas no homogneos, J no diagonal,). En este caso, por ejemplo, podemos proceder as:
De la 1 ecuacin y =
x'x
2
, que llevado a la 2 y despejando z =
x"3x' 2x
4
. Sustituyendo ambas en la 3:
x'"6x"+3x' +10x = 0 (su ecuacin caracterstica es la misma que la de la matriz) x = c
1
e
t
+ c
2
e
2t
+c
3
e
5t
.
Hallemos directamente la particular. Debe ser: x(0) =6 , x'(0) =x(0)+2y(0) =6 , x"(0) =x'(0)+4x(0)+4y(0)+4z(0) =18
x = 2e
t
+4e
2t
y =
x'x
2
= 2e
2t
2e
t
, z =
x" 3x' 2x
4
= 2e
t
4e
2t
.
Ej 5.
x ' = 2y3z
y ' = 2x+3y6z
z ' = 2e
t
z
con
x(0)=3
y(0)=1
z(0)=1

La z , 'desacoplada', se puede hallar primero: z = c
1
e
t
+e
t

z(0) =1
z = e
t
.
Queda un sistema 2x2 que convertimos en ecuacin: y =
x' +3e
t
2

x"3x'4x = 6e
t
; =1,4 ; x
p
= Ae
t
, A=1 x = c
2
e
t
+c
3
e
4t
+e
t

x(0) =3, x'(0) =1
x = 2e
t
+e
t
y = 2e
t
e
t
.
Mucho ms largo:
=1
doble
, v
1,2
=

,
_
3
0
1
,

,
_
2
1
0
; =4, v
3
=

,
_
1
2
0
. P =

,
_
3 2 1
0 1 2
1 0 0
, P
1
=
1
5

,
_
0 0 5
2 1 6
1 2 3
, e
Jt
=

_
e
t
0 0
0 e
t
0
0 0 e
4t
,
x =
1
5
Pe
Jt

,
_
5
1
2
+
1
5
P

t
0
e
J(ts)

,
_
10
12
6
e
s
ds =
1
5

_
13e
t
+2e
4t
e
t
+4e
4t
5e
t
+
1
5

_
5e
t
3e
t
2e
4t
10e
t
6e
t
4e
4t
5e
t
5e
t
=

,
_
1
2
1
e
t
+

,
_
2
1
0
e
t
.
Ej 6.
x ' = x 2y+2z
y ' = x y
z ' = y 2z
con
x(0)=1
y(0)=1
z(0)=1
A =

,
_
1 2 2
1 1 0
0 1 2
; =0 v
1
=

,
_
2
2
1
; =1 doble:

,
_
2 2 2
1 0 0
0 1 1
v=0 v
2
=

,
_
0
1
1
nico vector propio. A no es diagonalizable. Para hallar la solucin general necesitamos 3 soluciones linealmente
independientes. Como x=e
t
v , con autovalor y v vector propio es solucin, ya tenemos 2. Y la tercera?
Lo que hemos visto de ecuaciones y Jordan para n=2 hace creble probar en x' =Ax soluciones de la forma:
x =( w+ t u) e
t
( uw t u) e
t
= ( Aw+ t Au) e
t

{
( A+I )u = 0
( A+I )w= u
u vector propio ( v
2
de arriba) y
w tal que ( A+I )w=v
2
, por ejemplo w=

,
_
1
1
0
solucin general: x = c
1
v
1
+ c
2
e
t
v
2
+ c
3
e
t
( w+t v
2
) .
Imponiendo los datos en ella:

'


c
1
+c
3
=1
2c
1
+c
2
+c
3
=1
c
1
+c
3
=1
c
1
=1 , c
2
=0 , c
3
=1 x =

_
2e
t
2e
t
t e
t
1t e
t
.
O bien, con una de las muchas formas de convertir el sistema en ecuaciones: y = z ' +2z x = z" +3z' +2z
z'" +2z"+z ' = 0 c
1
+ c
2
e
t
+ c
3
te
t
con z(0)=1, z'(0)=1, z"(0)=x(0)y(0)2z'(0)=2 z = 1t e
t
y = z ' +2z=2e
t
t e
t
x = y ' +y = 2e
t
.
4 0
2.4 Estabilidad de sistemas y ecuaciones lineales.
En las lineales de primer orden y' =a(tt)y+f(t) la estabilidad de todas las soluciones la daba la e
a
, es decir, la 'matriz
fundamental'. En general va a suceder lo mismo, pero, como sabemos, se puede hallar muy pocas veces una W(t) .
Estudiemos primero la estabilidad de las soluciones del sistema lineal general [S]

x ' = A(t)x+f(t)

.
Suponemos A y f continuas en I =[t
o
,) con lo que todas las soluciones de [S] estn definidas t t
o
.
Definimos en 2.1 la norma de un vector, pero no hemos definido la de una matriz. En los libros avanzados de
anlisis matemtico se ve que se pueden definir varias. Nosotros elegimos, por ejemplo:
Llamaremos || W(t) || , norma de W(t) , a la suma de los valores absolutos de sus elementos.
[Hay ms normas posibles, como el supremo de los valores absolutos (el determinante | W(t) | no es una norma);
y se prueba que todas son 'equivalentes', es decir, que si una es grande o muy pequea, las otras tambin lo son].
Si W(t) es una matriz fundamental cualquiera y x(t) , x*(t) son dos soluciones de [S] usando la frmula de
variacin de las constantes, y el hecho de que en los libros de anlisis se ve que la norma de un producto de
matrices es menor que una constante por el producto de las normas de ambas, deducimos:
|| x(t)x*(t) || = || W(t)W
1
(t
o
)[x(t
o
)x*(t
o
)] || K || W(t) || || x(t
o
)x*(t
o
) || ,
Como x(t) es estable (asintticamente), si esta norma es pequea (tiende a 0 ) para t t
o
(cuando t ), si
la distancia entre los datos iniciales || x(t
o
)x*(t
o
) || es suficientemente pequea], concluimos:
Teor 1. Todas las soluciones de [S] sern estables, asintticamente estables o inestables dependiendo
de que, respectivamente, la || W(t) || est acotada, tienda a 0 cuando t

o no est acotada.
.
[Esto claramente significa que a partir de t
o
todos los elementos de W(t) estn acotados,
que todos tienden a 0 o que al menos uno de sus elementos no est acotado].
Por tanto, como ocurra en las lineales de primer orden, se puede hablar de la estabilidad del sistema
[S] pues se ve que todas sus soluciones tienen la misma estabilidad [que no depende para nada de la f(t) ].
Ej 1.

t
3
x " t x ' +x = 1

(ej. 8 de 2.2). Una W(t) =
( )
t te
1/t
1 (1+t
1
)e
1/t
, pues x
h
= c
1
t +c
2
te
1/t
era la solucin de
la homognea. Como || W(t) || es no acotada (2 de los elementos de W(t) no lo estn), la ecuacin es inestable.
Ej 2.

t
2
x " +4t x ' +2x = t
4

(1)+4+2=0 x
h
= c
1
t
1
+ c
2
t
2

W(t) =
( )
t
1
t
2

t
2
2t
3
. Como ||W(t)|| 0
cuando t , todas las soluciones para t>0 son asintticamente estables (no influye nada la x
p
= t
4
/ 31 ).
Para el caso de coeficientes constantes [C]

x ' = Ax+f(t)

se deduce un resultado ms directo:
Teor 2. Si todos los autovalores de A tienen Re<0 , el sistema [C] es asintticamente estable.
Si todos los autovalores de A tienen Re0 y para cada de multiplicidad m con Re=0
existen m vectores propios linealmente independientes, el sistema [C] es estable.
Si existe algn autovalor con Re>0 o si existe de multiplicidad m con Re=0 y menos
de m vectores propios linealmente independientes, el sistema [C] es inestable.
.
[Los elementos de W(t)=e
At
son exponenciales e
t

tal vez multiplicadas (si la J no es diagonal) por
polinomios en t ; si Re<0 cada uno de estos elementos, y por tanto la || W(t) || , tiende a 0 si t

;
si hay con Re=0 y la parte de la J que los incluye es diagonal hay trminos que son constantes,
senos o cosenos y permanecen acotados sin tender hacia 0 ; si existe algn con Re>0 o si los
trminos provenientes de un con Re=0 estn multiplicados por polinomios, existir algn trmino
de la exponencial no acotado y la norma de la matriz tampoco lo estar].
As pues, conocer Re basta casi siempre para precisar la estabilidad de un sistema d e
coeficientes constantes (y de una ecuacin, por tanto, que era estable si lo era su sistema equivalente y
ambos tienen el mismo polinomio caracterstico). Slo en algunos casos de mltiples con Re=0 habr
que hallar los v asociados para distinguir entre estabilidad no asinttica e inestabilidad. Y esto ni siquiera
ser necesario en las ecuaciones, pues sabemos que siempre aparecen potencias de t con los mltiples.
4 1
Ej 3.

x ' =
( )
0 1
1 2
x +
( )
1
t


2
21= 0 , =1 2 sistema inestable [la f(t) =
( )
1
t
no influye].
Ej 4.

x'"+ 3x" +3x' +x = e
t


3
+3
2
+3+1=0 , =1 triple la ecuacin es estable asintticamente.
[Todas las soluciones se van a infinito, por la solucin particular Ae
t
, pero esto no tiene que ver con la EA;
lo importante es que todas las soluciones se parezcan entre s; insistimos en que la f(t) no influye nada].
Ej 5. Hallemos la solucin de
x ' =x +y
y ' =5xy +z
z ' =z
con
x(0) =1
y(0) =2
z(0) =5
y precisemos su estabilidad.
z desacoplada: z=Ce
t

z(0)=5
z = 5e
t
, y = x 'x x"+4x = 5e
t

x
p
=Ae
t
x = c
1
cos2t +c
2
sen2t +e
t
;
imponiendo x(0) =1, x'(0) =x(0)+y(0)=1 x = e
t
y = e
t
e
t
= 2e
t
.
La estabilidad de esta solucin (la de todo el sistema) viene dada por

1 1 0
5 1 1
0 0 1
= 0 =1, 2i .
Como Re0 y los 2i son simples, esta solucin (y todas) es estable no asintticamente.
[Que nuestra x0 cuando t no tiene nada que ver; EA no significa que una determinada solucin tienda a
0 , sino que lo haga la diferencia entre dos soluciones cualesquiera que partan cerca (todas en las lineales)].
Ej 6.

x ' =

,
_
1 6 7
1 6 5
1 2 1
x

; | AI | = 0 =4 y =0 doble. Necesitamos ver si J es o no diagonal.
Como el rango de A0I es 2, slo existe un v independiente asociado a =0 y el sistema es inestable.
Ej 7.

x' "+4x" = e
t

=4 y =0 doble como en el ejemplo anterior. Pero ahora podemos decir directamente
que la ecuacin es inestable pues aparece seguro una t en la solucin (y en cualquier W(t) ].
[Para las ecuaciones siempre es fcil analizar el caso Re=0 ].
El problema es que si n>2 , y a diferencia de lo que ocurra con los ejemplos anteriores, normalmente los
no son calculables (sin acudir a mtodos numricos). Pero este hecho no nos va a impedir estudiar la
estabilidad. El siguiente teorema nos permitir precisar, sin necesidad de hallar los autovalores, cuando hay
estabilidad asinttica y muchas situaciones de inestabilidad:
Teor 3.
Sea P() =
n
+a
1

n-1
+. . . +a
n-1
+a
n
.
i] Si algn a
i
0 ( <0 ) existen races de P() con Re 0 ( >0 ).
ii] (Criterio de Routh-Hurwitz). Consideremos la matriz nxn : B =

_
a
1
1 0 0 0

0
a
3
a
2
a
1
1 0

0
a
5
a
4
a
3
a
2
a
1

0

0 0 0 0 0 0 a
n
.
Entonces todos los ceros de P() tienen Re<0 son

estrictamente positivos
los n determinantes: a
1
,

a
1
1
a
3
a
2
,

a
1
1 0
a
3
a
2
a
1
a
5
a
4
a
3
, , |B| .
Y si alguno de esos n determinantes es <0 P() tiene alguna raz con Re>0 .
.
i] es fcil de probar: si todos los , reales o complejos, tienen Re <0 el polinomio tiene la forma:
P() = (+a)
r

(
2
+b+c)
s
, con a,,b,c>0 a
i
>0 (y anlogamente Re 0 a
i
0 ).
ii] es de muy complicada demostracin y lo admitimos sin ella.
[Observemos que el coeficiente de
n
debe ser 1 ; que la parte de Re<0 de ii] es un , pero no el resto;
que en B la diagonal est formada por los coeficientes a
1
,,a
n
; que | B| es simplemente el anterior por a
n
].
4 2
Ej 8. La ecuacin

x
v i
+5x
v
+6x
iv
+7x'"+x" 2x' +3x = 4

es inestable porque hay un a
k
<0 .
Ej 9. El sistema
x ' =x z
y ' =3x y
z ' =x +y z

3
+
2
+3=0 (sin races enteras) no es AE porque es 0 el coeficiente de .
Ser estable no asintticamente o inestable. Veamos si hay con Re=0 : =qi . Debe ser (3q
2
)i q
3
= 0 .
Esto no es posible para ningn q y sabemos que hay con Re0 hay con Re>0 es inestable.
[O de otra forma (usando Routh-Hurwitz): B =

,
_
1 1 0
3 0 1
0 0 3
1>0 ,

1 1
3 0
<0 , | B|<0 es inestable].
Ej 10.

x
i v
+4x'"+8x" +8x' +4x = 4t

P() =
4
+4
3
+8
2
+8+4=0 puede ser AE (los a
k
>0 ).
B =

_
4 1 0 0
8 8 4 1
0 4 8 8
0 0 0 4
. Como todos los menores: 4>0 ,

4

1
8

8
= 24>0 ,

4 1 0
8 8 4
0 4 8
=128>0 , | B| = 512>0
la ecuacin es AE. De hecho sus autovalores son sencillos (aunque no sea fcil encontrarlos):
P() = (
2
+2+2)
2
=1i dobles x
h
= (c
1
+c
2
t)e
t
cost +(c
3
+c
4
t)e
t
sent .
(Y como x
p
= At+B x
p
= t2 , la solucin general de la no homognea es: x = x
h
+ t 2 ).
Ej 11.

x
i v
+2x'"+5x" +4x' +6x = 7

puede ser AE (a
k
>0). B =

_
2 1 0 0
4 5 2 1
0 6 4 5
0 0 0 6
2,

2

1
4

5
=6,

2 1 0
4 5 2
0 6 4
=0, | B|=0
no es AE. Probamos =qi q
4
5q
2
+6 + 2(2q
2
)qi = 0 q
2
=2 P()=(
2
+2)(
2
+2+3) .
Como dos autovalores tienen Re<0 y los otros dos tienen Re=0 y son simples, la ecuacin es EnoA.
Ej 12.

x
v
+6x
iv
+7x'"+x" = e
t

No es AE y no sabemos hallar todos sus . Pero hay =0 doble
la solucin de la homognea es de la forma c
1
+c
2
t +c
3
x
3
+c
4
x
4
+c
5
x
5
la ecuacin es inestable pues no est acotada la W(t) formada por esas 5 soluciones y sus derivadas .
Ej 13. Discutamos la estabilidad de

x' "+2x" +4x' + cx = t

P() =
3
+2
2
+4+c =0 .
Si c<0 es inestable, porque un coeficiente es <0 . Si c=0 no es asintticamente estable por el a
k
0 .
Slo podra ser asintticamente estable si c>0 . Veamos que nos dice Routh-Hurwitz:
B =

,
_
2 1 0
c 4 2
0 0 c
2 ,

2

1
c

4
= 8c , | B| = c(8c) es AE 0<c <8 y es inestable tambin si c>8 .
Por ahora no sabemos lo que sucede para c=0 y para c=8 (estabilidad no asinttica? inestabilidad?).
Probamos autovalores =qi iq(4q
2
) + (c2q
2
) = 0 o bien q=0 (y c=0 ) o bien q=2 (y c=8 ) .
Para c=0 adems de =0 es =1i 3 ; para c=8 , P() = (
2
+4) (+2) si c=0, 8 la ecuacin es EnoA.
[En el ejemplo 3 de 2.4 hallamos una solucin particular de la no homognea c (que una vez ms decimos que
no influye en la estabilidad) y la solucin general para dos valores de c ( 0 y 3 ). Por ejemplo, la de c=3 era:
x = c
1
e
t

+ ( c
2
cos
11
2
t + c
3
sen
11
2
t ) e
t/2
+
t
3

4
9
,
donde, mirando la homognea, se comprueba la EA que nos aseguraba R-H. Se ve adems que para grandes
valores de t , todas las soluciones se parecern a una recta, pues los trminos de la homognea tienden a 0 .
Y esto mismo podemos decirlo para todos los c entre 0 y 8 (aunque no podamos calcular la solucin!)].
4 3
2.5 Transformada de Laplace
Sea f(t) una funcin continua a trozos en [0,

) . Se llama transformada de Laplace de f a la funcin


Lf = F definida por F(s) =

0
f(t) e
st
d t para todo s tal que la integral converge.
Citamos sin demostraciones (la mayora son simples ejercicios de integracin), algunas de sus propiedades.
El operador L: f F es claramente lineal. Dada una F(s) puede que no exista una f(t) tal que L[f] = F , pero
si existe se prueba que hay una nica f que es continua. Podemos, pues, definir el operador L
1
: F f . A
L
1
[F] = f le llamaremos transformada inversa de Laplace de F . Est claro que tambin L
1
es lineal.
Lo bsico para resolver ecuaciones diferenciales y sistemas lineales es el hecho de que la L transforma las
derivadas de una x(t) en una expresin en la que no aparecen las derivadas de X(s) :
Teor 1.
L[x
(n)
(t)] = s
n
X(s) s
n1
x(0) s
n2
x'(0)

x
(n1)
(0) .
-
En particular: L[x'(t)] = sX(s)x(0) .
Necesitaremos tambin conocer la transformadas de las siguientes funciones:
Teor 2.
L[t
n
] =
n!
s
n+1
; L[e
at
] =
1
s a
; L[ senat ] =
a
s
2
+a
2
; L[ cosat ] =
s
s
2
+a
2
.
-
Y las siguientes reglas para calcular otras transformadas a partir de ellas:
Teor 3.
L[e
at
f(t)] = F(sa) ; L[t
n
f(t)] = (1)
n
F
(n)
(s) .
-
La primera de las expresiones podra escribirse:
L
1
[F(sa)] = e
at
L
1
[F(s)] .
La transformada de un producto no es el producto de las transformadas. Pero se tiene:
Teor 4. Se llama convolucin de f y g a la funcin f
*
g (t) =

t
0
f(tu) g(u) du .
Se tiene que f
*
g = g
*
f y que L[ f
*
g] = L[f]L[g] .
Con slo estos resultados se pueden resolver muchos sistemas y ecuaciones lineales con coeficientes
constantes (aquellos en que la f(t) sea producto de polinomios, exponenciales, senos y cosenos; es
decir, los mismos en que se puede aplicar coeficientes indeterminados). La L es sobre todo til cuando hay
datos iniciales. Aplicando L convertiremos el problema diferencial en otro algebraico (con los datos ya
incorporados como se ve en el teorema 1). Resuelto ste, bastar calcular alguna transformada inversa.
Ej 1.
x ' =2y 2e
2t

x(0)=0
y ' =4y2x2 y(0)=1
Aplicando L a las 2 ecuaciones:
{
sX0 = 2L[y] 2L[e
2t
] = 2Y 2/(s2)
sY1 = 4L[y] 2L[x} 2L[1] = X+4Y 2/s
.
Despejando, por ejemplo, la Y de la primera: Y =
s
2
X +
1
s2
, que sustitiuido en la otra lleva a: X =
8
(s2)
3
s
.
Es muy habitual que para encontrar la L
1
haya que descomponer en fracciones simples. Aqu:
8
(s2)
3
s
=
A
s
+
B
s2
+
C
(s2)
2
+
D
(s2)
3
= [resolviendo el sistema] =
1
s
+
1
s2
+
2
(s2)
2
+
4
(s2)
3
.
Como L
1
es lineal y L
1
[
1
(sa)
k
] = e
at
L
1
[
1
s
k
] = e
at

t
k1
(k1)!
, concluimos que x = 1+e
2t
2te
2t
+2t
2
e
2t
.
[Podramos haber hallado x mediante una convolucin pues X es el producto de dos transformadas conocidas:
L
1
[X] = 4 L
1
[
1
s
] L
1
[
2
(s2)
3
] = 4 [1
*

t
2
e
2t
] = 4

t
0
u
2
e
2u
du =
,
pero normalmente este segundo camino no es viable y si lo es suele ser mejor pasar a fracciones simples; slo
nos veremos obligados a usar la convolucin cuando haya polinomios en el denominador del tipo (s
2
+as+b)
2
].
Para calcular la y lo ms corto es volver al sistema y sustituir: y = e
2t
+
x'
2
= e
2t
+ 2t
2
e
2t

.
Tambin podramos (aqu sale fcil, aunque usualmente es ms largo) hallar la Y y calcular su L
1
:
Y =
4
(s2)
3
+
1
s2
cuya L
1
es esa y (normalmente habra que volver a descomponer).
[El nico camino que podra competir en rapidez sera convertir el sistema en ecuacin: y = e
2t
x '/2
x"4x'+4x = 4e
2t
4 , x
p
= At
2
e
2t
+B , x = c
1
e
2t
+ c
2
t e
2t
+2t
2
e
2t
1 con x(0) =x'(0) =0 ].
4 4
Ej 2.
x ' =x y +2 x ( 0) =0
y ' =x +y y ( 0) =1
(ej. 2 y 5 de 2.2) {
sX = XY + 2/s
sY1 = X +Y
X = (s1)Y1 (s
2
2s+2) Y = s1+
2
s
[el polinomio que acompaa a la Y es precisamente el caracterstico].
Pasamos a fracciones simples:
s
2
s +2
s [s
2
- 2s+2]
=
A
s
+
Bs+C
s
2
- 2s+2
=
[A+B] s
2
+[ C2A] s +2A
s [s
2
- 2s+2]
=
1
s
+
1
s
2
- 2s+2
El segundo denominador no tiene races reales. Para l completaremos el cuadrado y utilizaremos el teorema 3:
y = 1 L
1
[
1
(s1)
2
+1
2
] = 1 + e
t
L
1
[
1
s
2
+1
2
] = 1 + e
t
sen t x = yy ' = e
t
cos t 1 .
O bien: X =
(s1)(s
2
s+2)
s
3
2s
2
+2s
1 =
s
2
+2s2
s [s
2
- 2s+2]
=

=
s1
(s1)
2
+1
2

1
s
, llegando a lo mismo.
Ej 3.

x " 2x' +x = 6te
t
con x(1)=x'(1)=0

(ejemplo 3 de 2.2). Como Laplace pide datos en t =0 hacemos:
t =u+1 x" 2x' +x = 6(u+1) e
u+1
, x(0)=x'(0)=0 (s1)
2
X = 6e(L[ue
u
] +L[e
u
] ) = 6e[
1
(s1)
2
+
1
s1
]
x = 6eL
1
[
1
(s1)
4
] + 6eL
1
[
1
(s1)
3
] = ee
u
L
1
[
6
s
4
] + 3ee
u
L
1
[
2
s
3
] = e
u+1
[u
3
+3u
2
] = e
t
[t
3
3t+2]
Ej 4.

x '" +x ' = 2sent con x(0)=x'(0)=0, x"(0)=1

[s
3
+s] X+1 =
2
s
2
+1
, X =
1s
2
s (s
2
+1)
2
. Descomponemos:
1s
2
s(s
2
+1)
2
=
A
s
+
Bs+C
s
2
+1
+
Ds+E
(s
2
+1)
2

A(s
2
+1)
2
+[Bs+C]s(s
2
+1) +(Ds+E)s
s(s
2
+1)
2


'


A+B=0 , C=0 ,
2A+B+D=1 ,
C+E=0 , A=1 .
A=1, B=1, D=2, C=E=0 x = 1cost L
1
[
2s
(s
2
+1)
2
] .
La ltima transformada no aparece en las tablas de la pgina anterior (tal vez pueda uno darse cuenta de que lo
de dentro del corchete es la derivada cambiada de signo de L[sent] ). Es situacin tpica para usar convolucin:
L
1
[
2s
(s
2
+1)
2
] = 2 L
1
[
1
s
2
+1
]
*
L
1
[
s
s
2
+1
] = 2 sent
*
cost = 2

t
0
sen(tu) cosu du =
= sent

t
0
2 cos
2
u du cost

t
0
2 senu cosu du = t sent + sent
1
2
sen2t cost sen
2
t = t sent .
Alternativamente se podra seguir el camino de la seccin 2.4:
3
+=0 x = c
1
+c
2
sent +c
3
cost + x
p
,
x
p
=t [Ac+Bs] x
p
' = Ac+Bs + t [As+Bc] , x
p
" = 2As+2Bc t [Ac+Bs] , x
p
'" = 3Ac3Ba + t [AsBc]
x
p
'" +x
p
' = 2Acost 2Bsent = 2sent A=0 , B=1 x
p
= t sent .
Imponiendo los datos y resolviendo el sistema 3x3 resultante se vuelve a obtener x = 1cost t sent .
Con la L hemos hallado la solucin del problema directamente, ahorrndonos el proceso de clculo de la general,
de una particular y la determinacin de las constantes arbitrarias a partir de los datos iniciales; a cambio, hemos
tenido que sufrir la pesada descomposicin en fracciones simples y, en este caso, el clculo de una integral de
convolucin. En ambos procesos de clculo nos hemos enfrentado a la necesidad de conocer las races del
polinomio s
3
+s = 0 (es decir, del polinomio caracterstico que, como es inmediato comprobar, acompaar
siempre a la X cuando trabajemos con Laplace). Por tanto, si no podemos hallar los autovalores de la ecuacin
(o del sistema), tampoco podremos resolver nada utilizando Laplace.
Ej 5. Otra utilidad de la convolucin. Hallemos la solucin general de

x '" +x ' = f(t)

.
La solucin general es de la forma (ejemplo anterior): x = c
1
+ c
2
sent+ c
3
cost + x
p
. Busquemos la x
p
.
Como slo queremos una, para aplicar Laplace escogemos los datos ms sencillos: x(0)=x'(0)=x"(0)=0
s
3
X+sX = L[f(t)] = F(s) X =
F(s)
s(s
2
+1)
= [
1
s

s
s
2
+1
] F(s) x
p
= [ 1cost ]
*
f(t) =

t
0
[1cos(tu)] f(u) du .
Resolverlo con matrices es mucho ms largo. Slo tenemos una frmula de variacin de constantes para
ecuaciones cuando n=2 , as que hay que ir a la teora general de sistemas. Necesitamos una W(t) :
W(t) =

,
_
1 cost sent
0 sent cost
0 cost sent
W
1
(t) =

,
_
# # 1
# # cost
# # sent
x
p
= primer elemento de W(t)

W
1
(t)

,
_
0
0
f(t)
dt
x
p
=

f(t)dt cost

cost f(t) dt sent

sent f(t) dt , que coincide con lo de arriba.


4 5
Ej 6.

x
i v
+4x'"+8x" +8x' +4x = 4t con x(0)=1 , x '(0)=0 , x "(0)=0 , x '"(0)=2

En el ejemplo 10 de 2.4 encontramos su solucin general: x = (c
1
+c
2
t ) e
t
cos t + (c
3
+c
4
t ) e
t
sen t

+ t 2 ;
imponiendo los datos y

resolviendo el sistema

4x4: x = e
t
cost + t 2 . Resolvmosla ahora con la L :
s
4
X+s
3
2+4s
3
X+4s
2
+8s
2
X+8s+8sX+8+4X =
4
s
2
X =
s
5
4s
4
8s
3
6s
2
+4
s
2
[s
4
+4s
3
+8s
2
+8s+4]
.
Para descomponer en fracciones simples necesitamos factorizar el denominador, problema que ya se nos
plante en 2.4. All ya observamos que el corchete es el cuadrado de un polinomio de segundo grado:
s
5
4s
4
8s
3
6s
2
+4
s
2
[s
2
+2s+2]
2
=
A
s
+
B
s
2
+
Cs+D
s
2
+2s+2
+
Es+F
[s
2
+2s+2]
2
= [largo sistema] =
2
s
+
1
s
2
+
s+1
s
2
+2s+2
.
L
1
[
s+1
s
2
+2s+2
] = L
1
[
s+1
(s+1)
2
+1
] = e
t

L
1
[
s
s
2
+1
] = e
t

cos t x = L
1
[X] = 2 + t + e
t

cos t
Ej 7.
x ' = 2x +y +z
y ' = x +2y +z
z ' = x +y +2z
c on
x(0)=1
y(0)=2
z(0)=3


'


sX1 = 2X+Y+Z Z=(s2)XY1

sY2 = X+2Y+Z
sZ+3 = X+Y+2Z
Y=X+
1
s1


[ s
2
5s+4] X=s4
X =
1
s1
[ x=e
t
] Y =
2
s1
[ y=2e
t
] Z =
s22s+1
s1
=
3
s1
[ z=3e
t
; o bien z = x' 2x y = 3e
t
].
[Cambiando los datos iniciales se complicaran los clculos y habra que descomponer en facciones simples].
Por matrices:

2 1 1
1 2 1
1 1 2
= 0 =1 doble:

,
_
1 1 1
1 1 1
1 1 1
v=0

,
_
1
1
0
,

,
_
1
0
1
y =4 :

,
_
2 1 1
1 2 1
1 1 2
v=0

,
_
1
1
1
P =

,
_
1 1 1
1 0 1
0 1 1
, P
1
=
1
3

,
_
1 2 1
1 1 2
1 1 1
, e
Jt
=

_
e
t
0 0
0 e
t
0
0 0 e
4t
x = Pe
Jt
P
1

,
_
1
2
3
x = P

_
2e
t
3e
t

0
=

_
e
t

2e
t
3e
t
A lo mejor es ms rpido escribir la solucin general, imponer los datos y resolver el sistema correspondiente:
x = c
1
e
t

,
_
1
1
0
+ c
2
e
t

,
_
1
0
1
+ c
3
e
4t

,
_
1
1
1


'


c
1
+c
2
+c
3
=1
c
1
+c
3
=2
c
2
+c
3
=3
c
1
=2 , c
2
=3 , c
3
=0 x =

_
e
t

2e
t
3e
t
Y ahora, derivando. Lo ms corto, con un poco de vista: [x+y +z ] ' =4[ x +y +z ] , [ x +y +z ](0) =1+23=0
x+y +z =0 z = x y

'


x ' = x , x( 0) =1 x = e
t
y ' = y , y( 0) =2 y = 2e
t
z=3e
t
Con menos vista: x" = 2x ' +y ' +z ' =2x ' +2x +3[ y +z ] =5x ' +4x x = c
1
e
t
+ c
2
e
4t

x(0)=1

x'(0)=2+23
x = e
t
z=ye
t
y' = e
t
+2yy e
t
= y y = ce
t

y(0)=2
y = 2e
t
z=3e
t
[Para hallar la solucin general parece mejor (en sistemas homogneos con reales) usar matrices o pasar a
ecuaciones. Con la L haramos x(0)=a, y(0)=b, z(0)=c y tendramos la solucin con 3 constantes arbitrarias
(trabajando de ms: no slo hallaramos la general, sino la particular que cumple unos datos iniciales dados)].
Los dos siguientes ejemplos los resolvimos en 2.4 (5 y 6 de all), as que podemos seguir comparando la velocidad de
cada mtodo. El segundo de ellos ( J no diagonal) se puede resolver por Laplace sin preocupaciones matriciales.
Ej 8.
x ' = 2y3z
y ' = 2x+3y6z
z ' = 2e
t
z
con
x(0)=3
y(0)=1
z(0)=1

'


s X3 = 2Y3Z Y = (sX3+3Z)/2
sY1 = 2X+3Y6Z (s
2
3 s 4 ) X = (3s
2
13s+4) / (s1)
sZ1 = 2/(s1) Z Z= 1/ (s1) , z=e
t
X =
(s4) (3s1)
(s+1) (s4) (s1)
=
3s1
(s+1) (s1)
=
A
s+1
+
B
s1
=
2
s+1
+
1
s1
x = 2e
t
+e
t
y =
x'+3z
2
= 2e
t
e
t
.
Ej 9.
x ' = x 2y+2z
y ' = x y
z ' = y 2z
con
x(0)=1
y(0)=1
z(0)=1


'


s X1 = X2Y+2Z
sY1 = XY
sZ1 = Y2Z
Y=(s+2)Z1

X=(s+1)(s+2)Zs2
Z=
s
2
+s+1
s(s+1)
2
Z =
A
s
+
B
s+1
+
C
(s+1)
2
A=1, B=0, C=1 z=1t e
t
y=z ' +2z=2e
t
t e
t
x=y ' +y =2e
t
.
4 6
La tansformada de Laplace simplifica los clculos si queremos resolver ecuaciones en las
que aparecen f(t) que tienen varias expresiones o son discontinuas, como la llamada
funcin paso u
a
(t) , definida por u
a
(t) =
{
0 si t <a
1

si ta
,

0
1
a
a
u (t)
o la 'funcin' delta (ta) , cuya definicin rigurosa exige la llamada teora de
distribuciones, pero con la que es fcil trabajar formalmente. La (ta) se puede
definir intuitivamente como el 'lmite' cuando n de
f
n
(t) =
{

n si t[a1/2n,a+1/2n]
0 en el rest o
Esta (ta) tiene las siguientes propiedades (que bastan para trabajar con ella):
(ta) = 0 si ta ;
d
dt
u
a
(t) = (ta) ;

c
b
f(t) (ta) dt =
{

f(a) si a[b,c]
0 si a[ b, c]
a

(ta)
a
Teor 5.
Si a>0 : L[u
a
(t)] =
1
s
e
as
, L[(ta)] = e
as
, L[u
a
(t) f(ta)] = e
as
F(s)
[es decir:
L
1
[e
as
F(s)] =u
a
(t) f(ta) ]
Ej 9. x''' + x " = f (t ) =
{
6t si 0t<1
0 si 1t
con x(0)=1 , x '(0)=3 , x"(0)=6
Para calcular la L[f(t)] = 6 L[ t t u
1
(t) ] podemos aplicar el teorema 3 o el 5:
L[ t u
1
] =
d
ds
L[u
1
] =
d
ds
[
e
s
s
] = e
s
[
1
s
+
1
s
2
] o bien L[(t1)u
1
+u
1
] = e
s
L[ t ] + L[u
1
] = e
s
[
1
s
+
1
s
2
]
y por tanto s
3
X+s
2
3s+6+s
2
X+s3 =
6
s
2
6e
s

s+1
s
2
X =
s
4
+2s
3
3s
2
+6
(s+1)s
4
e
s

6
s
4
.
La descomposicin del primer sumando es:
1
s
+
3
s
2

6
s
3
+
6
s
4
. Para invertir el otro, usamos el teorema 5:
L
1
[

6
s
4
] = t
3

L
1
[

e
s

6
s
4
] = u
1
(t) (t1)
3

x = 1+3t3t
2
+t
3
u
1
(t) (t1)
3

=
{

(t1)
3

si t1
0 si t 1
.
Resolvamos el problema de forma totalmente diferente. Hallamos la solucin general x
1
para t1 [ f(t)=6t ] y
x
2
para t1 [ f(t) =0 ] y utilizamos el hecho de que, como f es una funcin integrable, la solucin va a tener
dos (pero no tres) derivadas continuas en t=1 (resolver una ecuacin diferencial de tercer orden viene a
equivaler a integrar tres veces; no ser pues, estrictamente hablado, solucin en t=1 ):
Para t1 , x
p
=At
2
+Bt
3

x
1
= c
1
+c
2
t +c
3
e
t
+t
3
3t
2


datos en t=0
c
1
=1 , c
2
=3 , c
3
=0 x
1
= (t1)
3
.
A partir de t=1 es x
2
= c
4
+c
5
t +c
6
e
t

. No tiene sentido aplicarle los datos de t=0 . Pero al ser la solucin una
funcin de clase 2 los valores de x , x' y x" a la derecha de t=1 han de coincidir con los que proporciona x
1
a
la izquierda. Imponemos pues a x
2
que x
2
(1)=x
1
(1)=0 , x
2
'(1)=x
1
'(1)=0 , x
2
"(1)=x
1
"(1)=0 x
2
0 , si t1 .
Ej 10.
x ' =x+e
1
(t1) x(0)=0
y ' =x y y ( 0 ) =1


sX=X+e
1
e
s
sY1=XY
X = e
1

e
s
s+1
, Y =
1
s+1
+ e
1
e
s
(s+1)
2
L
-1
[

1
s+1
] = e
t

, L
-1
[

1
(s+1)
2
] = te
t
L
-1
[

e
s
s+1
] = u
1
(t) e
t+1

, L
-1
[

e
s
(s+1)
2
] = u
1
(t) (t1)e
t+1
x = u
1
(t) e
t

= {
0 si t <1
e
t
si t1
, y = e
t
+ u
1
(t) (t1)e
t

=
{

e
t
si t 1
te
t
si t1
.
(la x deba ser discontinua en t=1 para que al derivarla salga la ; en rigor no es solucin en ese punto).
Resolvamos el problema por otros caminos. Como la matriz del sistema ya est en forma de Jordan es
fcil utilizar matrices (la frmula funciona, aunque nosotros la demostramos para f(t) continuas):
x(t) = e
t
( )
1 0
t 1
( )
0
1
+

t
0
e
st
( )
1 0
ts 1 ( )
e
1
(s1)
0
ds =
( )
0
e
t
+ e
1

t
0

( )
e
st
(ts)e
st
(s1) ds .
Esta integral es 0 si t<1 y vale
( )
e
1t
(t1)e
1t
si t1 x =
( )
0
e
t
si t<1 y x =
( )
e
t
te
t
si t1 .
O bien. Resolvemos la ecuacin en x : es x=c
1
e
t

si t<1 y si t>1 y la x debe dar en t=1 un salto de altura e

1

para que al derivarla aparezca e
1
(t1) : x(0)=0 x0 si t<1 x(1

)=0 x(1
+
)=e
1
x=e
t

si t>1 .
Llevando esta x a la otra ecuacin: y' = y +u
1
(t)e
t
, que podemos resolver por ejemplo:
Si t<1 : y = c
1
e
t

y(0)=1
y = e
t

. Si t1 : y
p
=Ate
t

y = c
2
e
t
+te
t

y = te
t

, pues y(1
+
)=y(1

)=e
1
.
O tambin: y = e
t
+ e
t

t
0
e
s
e
s

u
1
(s) ds y = e
t
+0 si t<1 , y = e
t
+e
t

t
1
1 ds = te
t
si t1 .
4 7
2.6 Soluciones peridicas de ecuaciones lineales
Sea el sistema [S]

x ' =A(t)x+f(t)

con A y f continuas y de periodo T [ es decir, A(t+T)=A(t) ; f(t+T)=f(t) ]
(sus soluciones son nicas y estn definidas para todo t ).
Teor 1. x(t) , solucin de [S] , es de periodo T x(0) = x(T)
-
La es trivial. La no es cierta, evidentemente, para funciones cualesquiera, pero esa condicin es
suficiente para las soluciones del sistema [S]: Sea x(t) solucin de [S] con x(0)=x(T) . Entonces
z(t)=x(t+T) es tambin solucin [pues z'(t) = x'(t+T) = A(t+T)x(t+T) +f(t+T) = A(t)x(t+T) +f(t) = A(t)z(t)+f(t) ]
y satisface z(0)=x(T)=x(0) . Por unicidad, z(t)=x(t+T)=x(t) para todo T.
Teor 2. El sistema homogneo tiene como nica solucin T-peridica la trivial x0
el sistema [S] tiene una nica solucin T-peridica
-
Sea x(t) = W(t)c + x
p
(t) la solucin general de [S]. Por el teorema 1, x(t) es T-peridica si y slo si se
cumple [W(0)W(T)]c = x
p
(T)x
p
(0) . Este sistema algebraico tiene solucin nica si y slo si el sistema
homogneo [W(0)W(T)]c = 0 tiene slo la solucin c=0 y esto equivale a que el sistema homogneo
tenga slo x0 como solucin T-peridica.
Si el homogneo tiene otras soluciones peridicas la situacin se complica. Para precisar lo que ocurre hay
que conocer las soluciones del homogneo, lo que en general no se puede. Nos
limitamos a tratar un caso particular de inters fsico: las oscilaciones de un sistema
muelle-masa con o sin rozamiento proporcional a la velocidad, sometido a fuerzas
externas T-peridicas. Es decir, estudiamos la ecuacin:
[c]

x " +ax' +
2
x = f (t ) con a0 , 0 y f continua y T-peridica.
El x representa entonces la separacin de la masa de la posicin de equilibrio.
En qu condiciones es el movimiento de la masa de periodo T?
Sabemos por la seccin 2.2 que la homognea [ch] tiene soluciones peridicas no triviales si y slo si hay
autovalores de la forma =qi . Esto slo ocurre cuando a=0 . Entonces la solucin general de [ch] es:
x = c
1
cos t + c
2
sen t , y todas son peridicas de periodo mnimo

2/
(no tienen que ser de periodo T ).
El teorema 2 asegura que [c] tiene una nica solucin T-peridica cuando [ch] tiene como nica solucin
T-peridica la trivial, es decir, si a0 o si a=0 , pero T2n/ . Adems:
Teor 3. Si a=0 y T=2n/ para algn nN (todas las soluciones de [ch] son T-peridicas) entonces:
a] Si

T
0
f(t)

cos t dt =

T
0
f(t)

sen t dt = 0 , toda solucion de [c] es T-peridica
b] Si alguna de las integrales no es 0 , ninguna solucin de [c] es T-peridica
-
La frmula de variacin de las constantes nos da la solucin general de [c] :
x = c
1
cos t + c
2
sent +
1

sent

t
0
f(s)

cos s ds +
1

cos t

t
0
f(s)

sen s ds
Entonces x(T) x(0) =
1

T
0
f(s)

sen s ds y x'(T) x'(0) =

T
0
f(s)

cos s ds
El teorema 1 asegura que si las dos integrales son 0 cualquier x es T-peridica. Si alguna no es 0 , no
hay soluciones T-peridicas.
Si a>0 , es decir, si hay rozamiento, los dos autovalores tienen Re<0 , con lo que la ecuacin no
homognea tiene una nica solucin T-peridica. Como hay estabilidad asinttica todas las soluciones se
acercarn a ella, con lo que, en la prctica, se ver al cabo del tiempo oscilar a la masa con el periodo de la
fuerza externa (matemticamente, el movimiento no sera peridico, pues, salvo que los datos iniciales
proporcionen la nica solucin peridica, existen otros trminos con exponenciales decrecientes).
4 8
Si a=0 (no hay rozamiento), la situacin puede ser ms complicada.
Supongamos por comodidad que b=1 [la ecuacin es [d] x" + x = f(t) y x = c
1
cos t + c
2
sen t + x
p
es su solucin general] e impongamos fuerzas externas peridicas de diferentes tipos:
f(t) = sen
5
(t) . Su periodo mnimo es 2 . Como la homognea no tiene soluciones de ese periodo (salvo,
como siempre, x0 ) hay una nica solucin 2-peridica

de [d]. Slo para aquellos datos iniciales
que nos den c
1
=c
2
=0 obtendremos esa solucin de periodo 2. Las dems soluciones sern
sumas de funciones de diferentes periodos y no sern peridicas (ni siquiera asintticamente).
f(t) = cos t . De periodo mnimo 2. Como las soluciones de la homognea son todas de ese mismo periodo
es necesario evaluar las integrales:

2
0
sen t

cos t dt = 0 ,

2
0
cos
2
t dt 0
con lo que [d] no tiene soluciones 2-peridicas. Podemos, en este caso, hallar una x
p
por
coeficientes indeterminados: x
p
= t sen t /2 , y comprobar que todas las soluciones oscilan con
creciente amplitud (resonancia).
f(t) = e
sent
. Periodo mnimo 2. Ahora hay que ver si son 0 las integrales:

2
0
e
sent
sen t dt y

2
0
e
sent
cos t dt
La segunda se calcula fcilmente: es 0 . La otra no tiene primitiva elemental. Sin embargo
analizando la grfica del integrando (o numricamente) es fcil ver que no se anula. No hay por
tanto soluciones 2-peridicas (ni de otro periodo porque la segunda integral es no nula en
cualquier intervalo [0,2k]). Y en este caso no podramos hallar explcitamente la solucin (si lo
intentsemos por variacin de constantes nos encontraramos la integral de antes).
f(t) = sen
2
t . Periodo mnimo . Hay una nica solucin de [d] de periodo porque la homognea no tiene
soluciones no triviales de ese periodo. Como

2
0
sen
3
t dt = 0 ,

2
0
sen
2
t cos t dt = 0
todas son 2-peridicas, aunque para afirmarlo no era preciso evaluar esas integrales: si x
p
es de
periodo todas las c
1
cost+c
2
sen t+x
p
son de periodo 2 pues x
p
tambin lo es .
f(t) = sen(2 t) si t[2k,(2k+1)] , kZ y 0 en el resto. Tiene periodo mnimo 2. Como

2
0
f(t) sen t dt =

0
sen2t sen t dt = 0 ,

2
0
f(t) cos t dt =

0
sen2t cos t dt = 0 ,
la masa se mueve peridicamente para cualquier posicin y velocidad iniciales a pesar de aplicarle
una fuerza del mismo periodo que el libre del muelle.

Potrebbero piacerti anche