Sei sulla pagina 1di 11

3.

Sistemi ed equazioni differenziali lineari


I sistemi e le equazioni dierenziali lineari rivestono una notevole importanza sia dal
punto di vista matematico, sia dal punto di vista sico.
Essi costituiscono, infatti, sostanzialmente lunica vasta classe di sistemi ed equazioni
dierenziali dei quali `e possibile svolgere una trattazione completa e descrivere la struttura
dellintegrale generale in forma espressiva e compatta, anche se solo in casi particolari `e
possibile dare una formula risolutiva esplicita.
Dal punto di vista sico si osserva che una vasta classe di fenomeni, che vengono ap-
punto detti fenomeni lineari, pu` o essere descritta da modelli matematici basati su equazioni
e sistemi dierenziali lineari. Inoltre anche i fenomeni non lineari, in prima approssi-
mazione, possono essere descritti da fenomeni lineari.
Consideriamo, dunque, il sistema dierenziale lineare
y

= Ay + b
dove A `e una matrice N N che dipende solo dalla variabile indipendente x, mentre
y e b sono vettori a N componenti, entrambi funzioni di x. Lipotesi fondamentale che
assumiamo `e che i coecienti di A e le componenti del vettore b siano funzioni continue
denite su un intervallo aperto I; dunque
a
ij
C
0
(I; R), i, j = 1, . . . , N b
k
C
0
(I; R) k = 1, . . . , N.
Il vettore b `e indicato come termine noto, mentre A `e la matrice dei coecienti. Analoga-
mente a quanto fatto nella Sezione precedente, se b = 0 parliamo di sistema omogeneo,
mentre diciamo che il sistema `e completo se b = 0.
Alla forma di sistema lineare si riconducono anche le equazioni lineari del tipo
a
0
(x)y
(N)
+ a
1
(x)y
(N1)
+ . . . + a
N
y = f(x)
per le quali nuovamente assumiamo a
i
, f C
0
(I; R). Infatti se poniamo
_

_
y

= u
y

= u

= v
.
.
.
y
(N1)
= u
(N2)
= v
(N3)
= . . . = w
lequazione si riscrive in questa forma
_

_
y
u
v
.
.
.
w
_

=
_

_
0 1 0 0 . . .
0 0 1 0 . . .
0 0 0 1 . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

a
N
a
0

a
N1
a
0
. . . . . .
a
1
a
0
_

_
_

_
y
u
v
.
.
.
w
_

_
+
_

_
0
0
0
.
.
.
f
a
0
_

_
3.1
Si osservi che trA =
a
1
a
0
. Chiaramente se vogliamo che i coecienti di A e le componenti
di b siano continui in tutto lintervallo I, rispetto a quanto gi`a supposto prima, occorre
anche richiedere che a
0
(x) = 0 x I.
come gi`a detto, linteresse nello studio dei sistemi lineari deriva da due fatti importanti,
fra loro legati:
a) per un sistema lineare `e possibile dare in maniera precisa la struttura dellintegrale
generale;
b) molte applicazioni in campo sico ed ingegneristico sono descritte in prima approssi-
mazione da sistemi lineari.
Osservazione 1. - Dato un generico x
0
I, comunque si scelga y
0
R
N
il problema di
Cauchy
_
y

= Ay + b
y(x
0
) = y
0
ha ununica soluzione y C
1
(I; R
N
). Infatti basta applicare il Teorema di esistenza ed
unicit` a in grande (si veda la Sezione 1), dal momento che, per la struttura stessa del
sistema, le derivate rispetto a y
k
del membro di destra sono forzatamente limitate nella
striscia I R
N
.
Osservazione 2. - Una propriet` a fondamentale dei sistemi lineari `e il cosiddetto Principio
di sovrapposizione. Consideriamo infatti i due sistemi
y

= Ay + b
1
,
y

= Ay + b
2
,
con le rispettive soluzioni y
1
e y
2
.
`
E immediato rendersi conto che y
1
+ y
2
`e soluzione del
sistema
y

= Ay + b
1
+ b
2
.
In particolare se b
1
= b
2
allora z = y
1
y
2
`e soluzione del sistema omogeneo
z

= Az.
Se poi z
1
e z
2
sono soluzioni del sistema omogeneo, anche una qualunque loro combinazione
lineare z
1
+ z
2
`e soluzione del medesimo sistema lineare .
In base alla teoria della Sezione 1, possiamo stabilire a priori la regolarit` a delle
soluzioni. In particolare
A C
k
(I), b C
k
(I) y C
k+1
(I);
A C

(I), b C

(I) y C

(I);
Utilizzando una terminologia tratta dallAlgebra, possiamo dire che lo spazio delle
soluzioni del sistema omogeneo (il suo integrale generale) `e uno spazio vettoriale. Inoltre,
3.2
se z `e soluzione di un sistema omogeneo e y `e soluzione di un sistema completo con la
medesima matrice dei coecienti, la loro somma `e soluzione del sistema completo e, daltro
canto, ssata una soluzione u del sistema completo, ogni altra soluzione w del medesimo
sistema `e data dalla somma di u con una opportuna soluzione z dellomogeneo associato.
Dunque, utilizzando nuovamente una terminologia algebrica, possiamo dire che lintegrale
generale di un sistema completo costituisce uno spazio ane.
Rivediamo questo discorso in altra forma. Dato il sistema lineare
(1) y

= Ay + b,
consideriamo loperatore
L
A
: C
1
(I; R
N
) C
0
(I; R
N
)
L
A
y = y

Ay.
`
E evidente che tale operatore `e lineare da C
1
a C
0
. Possiamo quindi riscrivere il sistema
(1) come
(2) L
A
y = b.
Dato b C
0
(I; R
N
), lintegrale generale di (1), che non `e vuoto per quanto osservato sopra,
`e la controimmagine di b attraverso L
A
. Ben noti risultati di Algebra Lineare permettono
allora di concludere che
Teorema 1. - Sia I un intervallo aperto, A e b continue in I. Se w `e una soluzione di
(2), allora linsieme delle soluzioni dello stesso `e linsieme ker L
A
+ w, cio`e `e linsieme
costituito da tutte le funzioni z + w ottenute al variare di z in ker L
A
, integrale generale
del sistema omogeneo z

= Az associato al sistema completo (1).


Osservazione 3. - Risolvere un sistema dierenziale lineare comporta dunque due fasi:
a) risolvere il sistema omogeneo associato;
b) determinare un integrale particolare del sistema completo .
Passiamo, allora, alla risoluzione del sistema omogeneo. Sappiamo gi` a che lintegrale
generale costituisce uno spazio vettoriale. Siamo, ora, in grado di dire di pi` u. Infatti
Teorema 2. - Sia I R un intervallo aperto e A una matrice N N continua nellinter-
vallo I. Fissato comunque x
0
I, lapplicazione dallo spazio vettoriale ker L
A
a R
N
denita da
v v(x
0
)
`e un isomorsmo da ker L
A
a R
N
. In particolare ker L
A
`e uno spazio vettoriale di dimen-
sione N e una sua base `e costituita dalle soluzioni degli N problemi di Cauchy
_
z

= Az
z(x
0
) = z
k
k = 1, . . . , N
3.3
dove (z
1
, z
2
, . . . , z
N
) `e una base qualunque di R
N
.
Dimostrazione. - Per vericare che lapplicazione `e un isomorsmo, occorre far vedere
che si tratta di un operatore lineare iniettivo e suriettivo. La linearit` a `e evidente. Quanto al
resto, basta far vedere che (x
0
, v
0
) con x
0
I, esiste (suriettivit` a) ed `e unica (iniettivit` a)
la soluzione del corrispondente problema di Cauchy
_
z

= Az
z(x
0
) = v
0
,
ma questo `e ben noto. Inoltre gli isomorsmi conservano la dimensione vettoriale degli
spazi fra cui operano (che di fatto si possono identicare), per cui possiamo concludere
che dimker L
A
= N. Considerata, poi, una base di R
N
, tali vettori risultano linearmente
indipendenti ed altrettanto, dunque, lo saranno gli N vettori corrispondenti in ker L
A
; dal
momento che N vettori linearmente indipendenti in uno spazio vettoriale di dimensione N
sono automaticamente una base per lo stesso spazio, abbiamo concluso .
Corollario. - Se z
1
, z
2
, . . ., z
N
sono una N-pla di soluzioni del sistema z

= Az, il
determinante della matrice
Z(x) = [z
1
|z
2
| . . . |z
N
]
non si annulla mai se le soluzioni costituiscono una base di ker L
A
, mentre esso `e identi-
camente nullo in caso contrario .
Alternativamente, il risultato precedente si pu` o enunciare cos`:
Proposizione 1. - Condizione necessaria e suciente anch`e i vettori soluzione z
1
, z
2
,
. . ., z
N
siano linearmente indipendenti `e che, indicata con Z(x) la matrice che si ottiene
accostando gli N vettori, ossia
Z(x) = [z
1
|z
2
| . . . |z
N
],
risulti det Z(x) = 0, x I.
Deniamo Z(x) matrice wronskiana e indichiamo con W(x) il suo determinante, noto come
determinante wronskiano o, pi` u semplicemente, wronskiano.
Nel caso dellequazione lineare omogenea di ordine N
a
0
z
(N)
+ a
1
z
(N1)
+ . . . + a
N
z = 0,
abbiamo gi`a visto che essa si riscrive come un sistema lineare ponendo
z

= u
u

= v
.
.
.
3.4
Dunque, se z
1
, z
2
, . . ., z
N
sono N soluzioni dellequazione, la matrice Z(x) ha espressione
Z(x) =
_

_
z
1
z
2
. . . z
N
z

1
z

2
. . . z

N
.
.
.
.
.
. . . .
.
.
.
z
(N1)
1
z
(N1)
2
. . . z
(N1)
N
_

_
.
In virt` u della Proposizione 1, i vettori colonna sono linearmente indipendenti se e solo se
det Z(x) = W(x) = 0, x I. Daltra parte i vettori sono linearmente indipendenti se e
solo se lo sono le prime componenti, come `e facile vericare. Il viceversa `e ovvio e possiamo
concludere che
Proposizione 2. - Condizione necessaria e suciente anch`e N soluzioni di
a
0
z
(N)
+ a
1
z
(N1)
+ . . . + a
N
z = 0,
siano linearmente indipendenti `e che
x I det
_

_
z
1
z
2
. . . z
N
z

1
z

2
. . . z

N
.
.
.
.
.
. . . .
.
.
.
z
(N1)
1
z
(N1)
2
. . . z
(N1)
N
_

_
= 0.
Vale la pena di osservare che le Proposizioni 1 e 2 sono false se i vettori considerati non
sono soluzioni di un sistema lineare. In tal caso lannullarsi del wronskiano `e solo con-
dizione necessaria, ma non suciente per la lineare dipendenza delle funzioni in esame.
Consideriamo infatti i due vettori
z
1
=
_
x
x
_
, z
2
=
_
1
1
_
.
`
E chiaro che x I c
1
z
1
+ c
2
z
2
= 0 se e solo se c
1
= c
2
= 0. Daltro canto
det Z(x) = det
_
x 1
x 1
_
= 0.
Da tutti i discorsi precedenti `e chiaro che la conoscenza di N soluzioni linearmente in-
dipendenti permette di scrivere lintegrale generale del sistema omogeneo. Precisamente,
determinati N vettori z
i
tali che W(x) = 0, poniamo
z = Zc
dove c `e un vettore di N costanti arbitrarie. In questo caso la matrice wronskiana si dice
fondamentale.
3.5
Proposizione 3. - Data Z(x) wronskiana (non necessariamente fondamentale), risulta
x I Z

(x) = A(x)Z(x).
Dimostrazione. - Abbiamo
Z(x) =
_

_
z
11
z
12
. . . z
1N
z
21
z
22
. . . z
2N
.
.
.
.
.
. . . .
.
.
.
z
N1
z
N2
. . . z
NN
_

_
, Z

(x) =
_

_
z

11
z

12
. . . z

1N
z

21
z

22
. . . z

2N
.
.
.
.
.
. . . .
.
.
.
z

N1
z

N2
. . . z

NN
_

_
.
Poich`e ogni vettore z
i
`e soluzione, possiamo anche dire che
z

i
= Az
i
;
accostando gli N vettori otteniamo
z

ij
=
N

k=1
a
ik
z
kj
che `e proprio lequazione vettoriale voluta .
Denizione. - Data Z(x) fondamentale, se in corrispondenza di x = x
0
risulta Z(x
0
) =
I
N
, tale matrice `e detta risolvente o di transizione e si indica con la scrittura Z(x; x
0
) .
Tale denominazione deriva dal fatto che la soluzione di
_
z

= Az
z(x
0
) = v
0
`e z = Z(x; x
0
)v
0
e, dunque, Z(x; x
0
) fa passare dalla soluzione al tempo x
0
alla soluzione
al generico tempo x.
Proposizione 4. - Data la matrice di transizione Z(x; x
0
) abbiamo
a) Z(x; x) = I
N
x I;
b) Z(x; x
1
)Z(x
1
; x
0
) = Z(x; x
0
);
c) [Z(x; x
0
)]
1
= Z(x
0
; x).
Dimostrazione. - La propriet` a a) deriva dalla denizione. Infatti Z(x; x
0
) `e di transizione
se Z(x
0
, x
0
) = I
N
: data la genericit`a di x
0
I abbiamo concluso. Per quanto riguarda b),
per la denizione di matrice di transizione, la soluzione di
_
z

= Az
z(x
0
) = v
0
3.6
risulta w(x) = Z(x; x
0
)v
0
, mentre la soluzione di
_
z

= Az
z(x
1
) = w(x
1
)
risulta z(x) = Z(x; x
1
)w(x
1
). Daltro canto w(x
1
) = Z(x
1
; x
0
)v
0
e dunque concludiamo
che z(x) = Z(x; x
1
)Z(x
1
, x
0
)v
0
. Poich`e inoltre z(x) = Z(x; x
0
)v
0
, per la arbitrariet` a di v
0
abbiamo nito. Inne c) `e una semplice conseguenza di b) .
Prima di proseguire, richiamiamo alcune nozioni di Algebra Lineare che ci serviranno nel
seguito.
Proposizione 5. - Se una matrice N N A ha autovalori
1
,
2
, . . .,
N
, allora la
matrice I
N
+ A ha autovalori 1 +
1
, 1 +
2
, . . ., 1 +
N
.
Dimostrazione. - Gli autovalori di I
N
+ A sono le soluzioni dellequazione algebrica
nellincognita
det(I
N
(I
N
+ A)) = 0.
Abbiamo
det(( 1)I
N
A) = 0 det(
1

I
N
A) = 0.
Posto =
1

, ricaviamo det(I
N
A) = 0 da cui otteniamo

1
=
1
,
2
=
2
, . . . ,
N
=
N
,
cio`e anche
= 1 +
1
, . . . , 1 +
N
.
Proposizione 6. - Data una matrice NN A di autovalori
1
, . . .,
N
, per 0 risulta
det(I
N
+ A) = 1 + tr A + O(
2
).
Dimostrazione. - In base alle note propriet` a che legano il determinante agli autovalori
della matrice, abbiamo
det(I
N
+ A) =
N

i=1
(1 +
i
) = 1 +
N

i=1

i
+ O(
2
) =
= 1 + trA + O(
2
) per 0
+
.
Indichiamo lo spazio delle matrici NN con M
NN
; su di esso mettiamo una norma (non
`e dicile vericare che si tratta eettivamente di una norma) denita da
A
M
NN =
N

i,j=1
|a
ij
|.
3.7
Dotato lo spazio M
NN
della struttura normata, la serie

k=1
A
k
si dir` a convergente se
la successione delle somme parziali `e convergente rispetto a tale norma. Di particolare
interesse `e la serie

k=0
A
k
k!
; tale serie denisce la matrice esponenziale e
A
che potrebbe
anche essere denita equivalentemente da lim
k
(I
N
+
A
k
)
k
. In generale calcolare la matrice
esponenziale `e complesso. Tuttavia, se A = diag[
1
, . . . ,
N
], allora
e
A
= diag[e

1
, . . . , e

N
].
Se A `e diagonalizzabile tramite S, ossia se

A = S
1
AS con

A diagonale, allora
e

A
= diag[e

1
, . . . , e

N
] e e
A
= Se

A
S
1
.
A fronte della dicolt`a del calcolo esplicito di e
A
, il suo determinante `e di facile valutazione.
Infatti
det e
A
= det
_
lim
k
(I
N
+
A
k
)
k
_
= lim
k
_
det(I
N
+
A
k
)
k
_
=
= lim
k
_
det(I
N
+
A
k
)
_
k
= lim
k
_
_
k

j=1
(1 +

j
k
)
_
_
k
= lim
k
_
1 +
tr A
k
+ O(
1
k
2
)
_
k
= e
tr A
.
Da questo ricaviamo in particolare che e
A
non `e mai singolare. Concludiamo ricordando
alcune propriet` a di e
A
di facile verica.
Proposizione 7. - Sia data una matrice N N costante A. Risulta allora
a) e
0A
= I
N
;
b) e
tA
e
sA
= e
(t+s)A
;
c) [e
tA
]
1
= e
tA
;
d)
d
dt
e
tA
= Ae
tA
.
Dimostrazione. - La propriet` a a) `e immediata e c) `e una conseguenza diretta di a) e b)
(basta infatti prendere s = t). Verichiamo b). Abbiamo
e
tA
= (I
N
+ tA +
t
2
2
A
2
+ . . .)
e
sA
= (I
N
+ sA +
s
2
2
A
2
+ . . .)
Perci`o
e
tA
e
sA
= (I
N
+ tA +
t
2
2
A
2
+ . . .)(I
N
+ sA +
s
2
2
A
2
+ . . .) =
3.8
(I
N
+ (t + s)A +
1
2
(t
2
+ 2ts + s
2
)A
2
+ . . .) =

k=0
(t + s)
k
A
k
k!
= e
(t+s)A
.
Concludiamo con la verica della propriet` a d). Abbiamo
d
dt
e
tA
=
d
dt

k=0
t
k
A
k
k!
=

k=0
d
dt
t
k
k!
A
k
=
=

k=0
k
t
k1
k!
A
k
=

k=1
t
k1
(k 1)!
AA
k1
= A

k=0
t
k
A
k
k!
= Ae
tA
.
Torniamo ora ai sistemi dierenziali lineari. Abbiamo detto prima che il wronskiano W(x)
o `e sempre diverso da zero o `e sempre uguale a zero. La Proposizione che segue esprime
quantitativamente tale fatto.
Proposizione 8 (Teorema di Liouville). - Data una matrice wronskiana Z(x) e preso
x
0
I, x I il suo determinante W(x) soddisfa la seguente relazione
W(x) = W(x
0
) e
_
x
x
0

N
k=1
a
kk
(t) dt
= W(x
0
) e
_
x
x
0
tr A(t) dt
.
Dimostrazione. - Poich`e Z

= AZ, preso > 0, per ogni intervallo ]x


0
, x
0
+[ I abbiamo
per il Teorema di Lagrange
Z(x
0
+) = Z(x
0
)+Z

(x
0
)+o() = Z(x
0
)+A(x
0
)Z(x
0
)+o() = (I
N
+A(x
0
))Z(x
0
)+o().
Passando ai determinanti, otteniamo
W(x
0
+ ) = det ((I
N
+ A(x
0
))Z(x
0
)) + o() = W(x
0
) det (I
N
+ A(x
0
)) + o() =
= W(x
0
)(1 + tr A(x
0
) + O(
2
)) + o() = W(x
0
)(1 + tr A(x
0
)) + o().
Perci`o, dividendo tutto per , otteniamo
W(x
0
+ ) W(x
0
)

= W(x
0
)tr A(x
0
) + o(1).
Il membro di destra ammette limite per 0 e tale limite vale W(x
0
)tr A(x
0
). Con-
seguentemente anche il membro di sinistra ha limite nito e vale W

(x
0
). Quindi W

(x
0
) =
W(x
0
)tr A(x
0
). Integrando otteniamo proprio la tesi .
Osservazione. - Dalla relazione precedente `e chiaro che se W(x
0
) = 0, allora W(x) = 0
x I. Se, invece, W(x
0
) = 0, allora W(x) = 0 in tutto lintervallo I .
Nel caso delle equazioni lineari omogenee, come gi`a osservato in precedenza, il sistema
lineare equivalente `e tale per cui tr A =
a
1
a
0
; perci`o in questo caso il Teorema di Liouville
si esprime dicendo che
W(x) = W(x
0
) e

_
x
x
0
a
1
(t)
a
0
(t)
dt.
3.9
Per i sistemi omogenei, come dovrebbe ormai essere chiaro, il punto fondamentale `e la de-
terminazione di N integrali linearmente indipendenti. Nella prossima sezione esamineremo
in dettaglio il caso dei sistemi a coecienti costanti, per i quali si sa dare la soluzione in
forma esplicita. Qui concludiamo la trattazione generale, considerando il caso dei sistemi
completi.
Dato, dunque, il sistema completo
y

= Ay + b
e indicata con zA(x) una matrice fondamentale per il corrispondente sistema omogeneo,
lintegrale generale y ha lespressione
y(x) = Z(x)c + w(x),
dove c `e un vettore di costanti arbitrarie e w un integrale particolare del sistema com-
pleto. Per determinare questultimo, lidea (dovuta originariamente a Lagrange) `e quella
di cercare w(x) nella forma
w(x) = Z(x)c(x),
dove c(x) `e un opportuno vettore da determinare. Questo metodo va sotto il nome di
Metodo di variazione delle costanti arbitrarie. Scelto, dunque w della forma indicata sopra,
`e facile vedere che
w

= Z

c +Zc

.
Sostituendo nel sistema abbiamo
Z

c +Zc

= AZc + b (Z

AZ)c +Zc

= b.
Per la Proposizione 3 il primo termine del membro a sinistra si annulla. Ricordando,
inoltre, che Z `e fondamentale, otteniamo
c

= Z
1
b c(x) =
_
x
x
0
Z
1
(t)b(t) dt
ed anche
w(x) = Z(x)
_
x
x
0
Z
1
(t)b(t) dt.
Se poi ci interessa la soluzione del problema di Cauchy
_
y

= Ay + b
y(x
0
) = v
0
,
introducendo la matrice di transizione e sfruttandone le propriet` a viste prima, abbiamo
y(x) = Z(x; x
0
)v
0
+Z(x; x
0
)
_
x
x
0
Z(x
0
; t)b(t) dt.
3.10
Nel caso delle equazioni lineari di ordine N, possiamo applicare il risultato precedente e
poi considerare solo la prima componente del vettore cos` costruito. In realt` a `e possibile
dare una espressione pi` u diretta dellintegrale particolare dellequazione completa.
Senza entrare nel dettaglio del calcolo, data una matrice fondamentale per lequazione
di ordine N, abbiamo
W(t) = det
_

_
z
1
(t) z
2
(t) . . . z
N
(t)
z

1
(t) z

2
(t) . . . z

N
(t)
.
.
.
.
.
. . . .
.
.
.
z
(N1)
1
(t) z
(N1)
2
(t) . . . z
(N1)
N
(t)
_

_
e deniamo
W
N1
(x, t) = det
_

_
z
1
(t) z
2
(t) . . . z
N
(t)
z

1
(t) z

2
(t) . . . z

N
(t)
.
.
.
.
.
. . . .
.
.
.
z
1
(x) z
2
(x) . . . z
N
(x)
_

_
.
Ricaviamo allora
w(x) =
_
x
x
0
W
N1
(x, t)
W(t)
f(t)
a
0
(t)
dt.
In eetti, come vedremo anche meglio nel caso delle equazioni a coecienti costanti, in
molti casi la ricerca degli integrali particolari pu` o essere semplicata ricorrendo ad oppor-
tune tabelle.
3.11

Potrebbero piacerti anche