Sei sulla pagina 1di 11

SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI

DANIELE ANDREUCCI
DIP. METODI E MODELLI, UNIVERSITÀ LA SAPIENZA
VIA A.SCARPA 16, 00161 ROMA, ITALY
andreucci@dmmm.uniroma1.it

1. Lo spazio delle soluzioni


Un sistema N × N lineare omogeneo di equazioni differenziali ordinarie è
y10 = a11 (t)y1 + a12 (t)y2 + · · · + a1N (t)yN ,
y20 = a21 (t)y1 + a22 (t)y2 + · · · + a2N (t)yN , (1.1)
...
0
yN = aN 1 (t)y1 + aN 2 (t)y2 + · · · + aN N (t)yN ,
ove le aij sono assegnate funzioni continue su un certo intervallo J di R, e la
soluzione (y1, . . . , yN ) è una N -upla di funzioni C 1 (J ).
Con una notazione più compatta, possiamo riscrivere (1.1) come
y 0 = A(t)y , (1.2)
ove
   
a11 (t) a12 (t) . . . a1N (t) y1 (t)
 a21 (t) a22 (t) . . . a2N (t)   y2 (t) 
A(t) =  
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . y = y(t) = 
 ...  ,
 t∈J.
aN 1 (t) aN 2 (t) . . . aN N (t) yN (t)
Le soluzioni di (1.2) costituiscono uno spazio vettoriale rispetto alle usuali ope-
razioni di somma tra vettori e prodotto per scalari. Più specificamente
Proposizione
Pp 1.1. Siano yi , i = 1, . . . , p, soluzioni di (1.2). Allora anche
c y
i=1 i i lo è, per ogni scelta di scalari ci ∈ R.
Dimostrazione. Ovviamente
p p p p
d X X X X
ci yi = ci yi0 = ci A(t)yi = A(t) ci yi .
dt
i=1 i=1 i=1 i=1

Dunque lo spazio vettoriale S delle soluzioni di (1.2) deve avere una base, la cui
cardinalità coincide—per definizione—con la dimensione dello spazio medesimo.
Ricordiamo che p elementi y1 ,. . . , yp di S si dicono linearmente indipendenti se
e solo se da
c1 y1 + c2 y2 + · · · + cp yp = 0 , ci ∈ R , i = 1 , . . . , p ,
segue ci = 0 per ogni i. Si osservi però che gli elementi dello spazio vettoria-
le S sono funzioni; dunque l’elemento nullo 0 nell’uguaglianza sopra va inteso
come funzione identicamente nulla. Possiamo quindi enunciare la definizione di
1
2 DANIELE ANDREUCCI

lineare indipendenza di funzioni in S cosı̀: y1 ,. . . , yp in S si dicono linearmente


indipendenti se e solo se da
c1 y1 (t) + c2y2 (t) + · · · + cp yp (t) = 0 , per ogni t ∈ J ,
ove i ci sono scalari, segue ci = 0 per ogni i.
Il nostro prossimo passo sarà la determinazione di una base di S, e quindi della
sua dimensione. Useremo il
Lemma 1.1. Siano yi , i = 1,. . . , p soluzioni di (1.2). Allora le yi sono linear-
mente indipendenti in S se e solo se i loro valori yi (t0) in un arbitrario fissato
t0 ∈ J sono linearmente indipendenti come vettori di RN .
Dimostrazione. Equivalentemente, dimostriamo che le yi sono linearmente dipen-
denti in S se e solo se i vettori yi (t0 ) sono linearmente dipendenti in RN .
Siano le yi linearmente dipendenti; allora esistono p scalari, ci , non tutti nulli,
tali che
c1 y1 (t) + c2y2 (t) + · · · + cp yp (t) = 0 , per ogni t ∈ J .
Sostituendo in questa uguaglianza t = t0 si ottiene che i vettori yi (t0 ) sono li-
nearmente dipendenti in RN .
Viceversa, supponiamo che i vettori yi (t0 ) siano linearmente dipendenti in RN .
Allora esistono p scalari, ci , non tutti nulli, tali che
c1 y1 (t0) + c2 y2 (t0 ) + · · · + cpyp (t0) = 0 .
Definiamo, per questa scelta degli scalari ci , la funzione
X p
y(t) = ci yi (t) , t∈J.
i=1
La y è una soluzione di (1.2), per la Proposizione 1.1, ed assume il dato di Cauchy
nullo in t0. Quindi, per il teorema di unicità, deve essere nulla per ogni t ∈ J .
Ma, visto che i ci non sono tutti nulli, questo implica che le yi sono linearmente
dipendenti in S. 
Possiamo ora dimostrare
Teorema 1.1. Sia {vi | i = 1, . . . , N } una base di RN (ossia i vi siano N vettori
di RN linearmente indipendenti). Allora le N soluzioni dei problemi di Cauchy:
( ( (
y10 = A(t)y1 , y20 = A(t)y2 , 0
yN = A(t)yN ,
... (1.3)
y1 (t0 ) = v1 ; y2 (t0) = v2 ; yN (t0 ) = vN ;
costituiscono una base di S. Qui t0 ∈ J è fissato ad arbitrio (ma è lo stesso in
ognuno degli N problemi di Cauchy).
Dimostrazione. Per il Lemma 1.1, le yi , i = 1, . . . , N , sono linearmente indipen-
denti, e occorre pertanto solo dimostrare che generano tutto S. In altri termini,
vogliamo mostrare che ogni soluzione y di (1.2) si può scrivere come combinazione
lineare a coefficienti costanti di y1 , . . . , yN .
Fissiamo allora una y soluzione di (1.2). Dato che per ipotesi i vi costituiscono
una base di RN , esisteranno certamente N scalari ci , . . . , cN tali che
N
X N
X
y(t0) = ci vi = ci yi (t0 ) .
i=1 i=1
SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 3

PN
Sia z definita da z(t) = i=1 ci yi (t), per ogni t ∈ J . Allora sia z che y risolvono
(
w 0 = A(t)w ,
w(t0) = y(t0 ) .
Per il teorema di unicità deve quindi valere z ≡ y in J , ossia
N
X
y(t) = ci yi (t) , per ogni t ∈ J .
i=1


Segue subito
Corollario 1.1. La dimensione di S è uguale a N .
Abbiamo quindi dimostrato che tutte e sole le soluzioni di (1.2) si possono scrivere
come
XN
y(t) = ci yi (t) , t∈J, (1.4)
i=1
ove le yi sono una N -upla fissata di soluzioni linearmente indipendenti (cioè una
base di S), e le ci variano ad arbitrio in R. La (1.4) è perciò un integrale generale
di (1.2).

2. Matrici risolventi

Osservazione 2.1. Ricordiamo che, per la definizione del prodotto righe per co-
lonne, le colonne della matrice prodotto
C = AB , A matrice N × N e B, C matrici N × p,
sono combinazioni lineari delle colonne di A. Più specificamente, se denotiamo
con colj (C) = (cij )Ni=1 la j-esima colonna della matrice C, e A = (aij ), B = (bij ),
vale
X N N XN XN
colj (C) = (cij )N
i=1 = a b
ih hj = b (a ) N
hj ih i=1 = bhj colh (A) .
h=1 i=1 h=1 h=1

Ne segue che l’integrale generale (1.4) può essere messo nella forma vettoriale
y = Y (t)C , (2.1)
ove Y è una matrice le cui colonne siano N soluzioni linearmente indipendenti di
(1.2), e C ∈ RN è un arbitrario vettore colonna di scalari. Poniamo allora la
Definizione 2.1. Una matrice Y le cui colonne costituiscano una base di S si
dice matrice risolvente del sistema (1.2).
Il seguente lemma, di dimostrazione quasi banale, risulta di grande importanza:
Lemma 2.1. Sia Y una matrice risolvente di (1.2), e sia B una matrice non
singolare N × N (cioè det(B) 6= 0) a coefficienti reali. Allora anche Y B è una
matrice risolvente di (1.2).
4 DANIELE ANDREUCCI

Dimostrazione. Visto che ovviamente Y B è non singolare perché


det(Y (t)B) = det(Y (t)) det(B) 6= 0 ,
basterà dimostrare che tutte le colonne di Y B sono soluzioni di (1.2). Ma questo
segue subito dall’Osservazione 2.1 e dalla Proposizione 1.1. 
Una conseguenza importante di questo risultato è il seguente teorema, che dà un
modo canonico di scrivere le soluzioni di problemi di Cauchy di (1.2).
Teorema 2.1. Sia t0 ∈ J e sia Y una matrice risolvente di (1.2). Allora, posto
Φ(t, t0) = Y (t)Y (t0)−1 , l’unica soluzione di
y 0 = A(t)y , y(t0 ) = u0 , (2.2)
N
u0 ∈ R , è data da
y(t) = Φ(t, t0)u0 , t∈J. (2.3)
Inoltre la matrice Φ non dipende da Y , ossia date due diverse matrici risolventi
Y1 e Y2 vale Y1 (t)Y1(t0 )−1 = Y2(t)Y2(t0)−1 per ogni t ∈ J ; più in generale, se
Φ0 (t, t0) è un’altra matrice con la proprietà di fornire tutte le soluzioni di (2.2)
secondo (2.3), questa coincide con Φ(t, t0).
Dimostrazione. Che la y definita in (2.3) sia una soluzione di (1.2) segue subito
dall’Osservazione 2.1 e dal Lemma 2.1. Inoltre
y(t0 ) = Φ(t0, t0)u0 = Y (t0 )Y (t0 )−1u0 = Iu0 = u0 .
Dunque la y è effettivamente l’unica soluzione di (2.2).
Siano poi Φ1 (t, t0) = Y1 (t)Y1(t0)−1 , Φ2 (t, t0) = Y2 (t)Y2(t0)−1 ; per quanto sopra le
due funzioni
y1 (t) = Φ1 (t, t0)u0 , y2 (t) = Φ2 (t, t0)u0 , t∈J,
sono entrambe soluzioni di (2.2). Per il teorema di unicità, esse devono coincidere
per ogni t ∈ J , ossia per ogni fissato t ∈ J ,
Z := Φ1 (t, t0) − Φ2 (t, t0) ,
deve soddisfare Zu0 = 0 per ogni u0 ∈ RN . Ne segue che Z è la matrice nulla.
Nello stesso modo si procede per una Φ0 come nell’enunciato. 
Definizione 2.2. La matrice Φ(t, t0) si dice matrice risolvente canonica, o ma-
trice di transizione, di (1.2) in t = t0 .

3. Matrici risolventi per sistemi a coefficienti costanti


In questa sezione ci occupiamo del caso in cui la matrice A ha tutti i coefficienti
costanti, ossia aij ∈ R per ogni ij. Il sistema diviene allora
y 0 = Ay , A matrice costante. (3.1)
Diamo senza dimostrazione il seguente fondamentale
Teorema 3.1. Sia A una qualunque matrice reale N × N . La matrice esponen-
ziale etA
∞ i i
tA
X tA t 2A 2 t 3A 3
e := = I + tA + + + ... , (3.2)
i! 2! 3!
i=0
SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 5

risulta definita per ogni t ∈ R, e vale


d tA
e = AetA , per ogni t ∈ R. (3.3)
dt
Si ricordi che la derivazione di matrici, come anche la convergenza di una serie
di matrici, va intesa elemento per elemento, come nel caso dei vettori. In (3.2)
le potenze Ai vanno calcolate secondo l’usuale prodotto righe per colonne. Si
osservi che per t = 0

X 0i Ai
e0A = =I.
i!
i=0
La serie di matrici in (3.2) è formalmente ricopiata dallo sviluppo in serie della
funzione esponenziale di numeri reali: vedi il paragrafo 3.2 sotto. Alternativa-
mente, proprio la (3.3) permetterebbe di definire etA come l’unica soluzione di
Y 0 = AY con Y (0) = I.
Il teorema asserisce che la serie in (3.2) converge in modo tale da rendere rigoroso
lo scambio delle operazioni di serie e di derivazione (qui inteso solo formalmente)
∞ ∞ ∞
d tA d X t i Ai X d t i Ai X ti−1 Ai
e = = = i =
dt dt i! dt i! i!
i=0 i=0 i=1
∞ ∞
X ti−1 Ai−1 X t j Aj
A =A = AetA .
(i − 1)! j!
i=1 j=0

Usando la formula (3.3) possiamo dimostrare il


Teorema 3.2. La matrice di transizione di (3.1) in t = 0 è etA . Quindi la
soluzione di
y 0 = Ay , y(0) = u0 , (3.4)
u0 ∈ RN , è data da
y(t) = etAu0 , t ∈ R. (3.5)
Dimostrazione. Vale infatti per ogni u0 ∈ RN e t ∈ R:
 
d d tA d tA
y(t) = (e u0) = e u0 = AetA u0 = Ay(t) ;
dt dt dt
inoltre
y(0) = e0Au0 = Iu0 = u0 .
Dunque la matrice esponenziale coincide con l’unica matrice risolvente canonica
di (3.1), secondo il risultato di Teorema 2.1. 
Osservazione 3.1. È facile verificare che la matrice risolvente canonica per (3.1)
in t = t0 è e(t−t0 )A .
3.1. Calcolo effettivo di una matrice risolvente. In genere la matrice etA
non può essere calcolata esattamente senza sommare la serie infinita in (3.2).
Tuttavia esiste un metodo che permette di trovare (basandosi su questa serie)
N soluzioni linearmente indipendenti, evitando il calcolo della serie completa.
Con queste soluzioni si costruisce subito l’integrale generale del sistema, come
spiegato sopra. Una volta trovata cosı̀ una matrice risolvente Y (t), la matrice di
transizione in t = 0 è data da Y (t)Y (0)−1 (vedi Teorema 2.1).
6 DANIELE ANDREUCCI

Si noti però che i calcoli necessari sono comunque di solito troppo complessi per
essere svolti a mano.
L’idea. Fissata una base (ξ1 , . . . , ξN ) di RN , e assegnato un qualunque dato di
Cauchy u0, con u0 = N
P
h=1 ch ξh , ch ∈ R, la soluzione di (3.4) si può scrivere

N N N ∞ i i
tA tA
X X
tA
X X tA
y(t) = e u0 = e ch ξh = ch (e ξh ) = ch ξh . (3.6)
i!
h=1 h=1 h=1 i=0

L’idea consiste nello scegliere opportunamente la base ξh , in modo che tutte le N


ti A i
serie ∞
P
i=0 i! ξh , h = 1, . . . , N possano, in sostanza, essere calcolate sommando
solo un numero finito di termini diversi da 0, ossia si riducano a somme finite.
Autovettori reali. Cominciamo con l’osservare che questa proprietà è senza dubbio
goduta dagli autovettori della matrice: sia ξ ∈ RN , ξ 6= 0, un autovettore di A
corrispondente a un autovalore λ ∈ R, ossia

Aξ = λξ , ossia (A − λI)ξ = 0 . (3.7)

Allora vale
∞ i
X t (A − λI)i
et(A−λI ) ξ = ξ=
i!
i=0
t2 (A − λI)2ξ t3(A − λI)3ξ
Iξ + t(A − λI)ξ + + + . . . = Iξ = ξ .
2! 3!
Quindi se per esempio la matrice A ha una base di autovettori ξh come sopra
(con autovalori λh ∈ R), le N soluzioni linearmente indipendenti sono1

etAξh = et(λh I +A−λh I ) ξh = etλh I et(A−λh I ) ξh = etλh I ξh = eλh t ξh . (3.8)

Si noti che ragionando come sopra, si dimostra che etA ξ è una soluzione (comples-
sa), anche se ξ è un autovettore corrispondente a un autovalore complesso. Poiché
a noi interessano soluzioni reali, il caso di autovalori complessi viene trattato a
parte nel seguito.
Autovettori generalizzati. Poiché però non tutte le matrici hanno una base di
autovettori, occorre in generale cercare i vettori linearmente indipendenti ξh non
solo tra gli autovettori, ma tra gli autovettori generalizzati di A: per definizione
si dice che ξ ∈ C N , ξ 6= 0, è un autovettore generalizzato di A se esistono un
autovalore λ ∈ C di A e un m ∈ N tali che

(A − λI)m ξ = 0 . (3.9)

Più precisamente, si dice che ξ è un autovettore m-generalizzato corrispondente


a λ. Chiaramente, se m = 1 l’autovettore generalizzato è un autovettore in senso
tradizionale.

1La seconda e l’ultima uguaglianza in (3.8) richiederebbero una dimostrazione, che è facile nel
caso dell’ultima uguaglianza, ma lo è meno nel caso della seconda.
SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 7

Se ξ è un autovettore m-generalizzato di A corrispondente a λ, vale


∞ i m−1
X t (A − λI)i X i t (A − λI)i
et(A−λI ) ξ = ξ= ξ=
i! i!
i=0 i=0
2 2
t (A − λI) ξ tm−1 (A − λI)m−1 ξ
Iξ + t(A − λI)ξ + + ···+ =: Q(t; λ, ξ) ,
2! (m − 1)!
(3.10)
ove Q è un polinomio di grado m−1 in t (naturalmente con coefficienti vettoriali).
Dunque
etAξ = et(λI +A−λI ) ξ = etλI et(A−λI ) ξ = etλI Q(t; λ, ξ) = eλt Q(t; λ, ξ) . (3.11)
Osserviamo per inciso che Q(t; λ, ξ) = ξ se m = 1. Dunque anche gli autovettori
generalizzati danno luogo a soluzioni che si possono calcolare sommando solo un
numero finito di termini nella serie etAξ. Se si trova una base di autovettori ge-
neralizzati reali, è a questo punto chiaro come procedere per scrivere un integrale
generale di (3.1).
Il caso di autovalori complessi. Tuttavia, si noti che in generale gli autovalori
possono essere complessi. Dato che gli autovalori di A sono tutte e sole le radici
dell’equazione polinomiale a coefficienti reali
det(A − λI) = 0 , (3.12)
se λ = β + iγ (β, γ ∈ R, γ 6= 0) è un autovalore, anche il suo coniugato λ̄ = β − iγ
lo è. In questo caso, con la notazione di (3.11), osserviamo che
etAξ = eβt(cos γt + i sin γt)[Q1(t) + iQ2 (t)] , (3.13)
ove Q1(t) = Re Q(t; λ, ξ), Q2(t) = Im Q(t; λ, ξ). Svolte le moltiplicazioni, la
(3.13) si riscrive come
etAξ = eβt(Q1(t) cos γt − Q2(t) sin γt) + ieβt (Q2(t) cos γt + Q1 (t) sin γt)
=: y1 (t) + iy2 (t) ,
con yi , i = 1, 2 funzioni reali. È facile verificare che y1 e y2 sono separatamente
soluzioni del sistema differenziale. Infatti, sappiamo la che etAξ è una soluzione
e dunque:
[y1 (t) + iy2 (t)]0 = [etAξ]0 = AetA ξ = A[y1 (t) + iy2 (t)] = [Ay1 (t) + iAy2 (t)] .
Dato che A è una matrice reale, uguagliando le parti reale e immaginaria dei
membri di destra e di sinistra si ottiene yi0 = Ayi , i = 1, 2. Perciò da ogni soluzione
complessa si estraggono due soluzioni reali del sistema; questo è il motivo per cui
nello schema illustrato sotto, considereremo solo uno degli autovalori complessi
λ per ogni coppia di coniugio λ, λ̄ di soluzioni di (3.12).
Ecco infine il metodo di calcolo, che diamo senza dimostrazione:
1) Si determinino tutti gli autovalori di A, ossia tutte le radici distinte λk ∈ C ,
k = 1, . . . , p dell’equazione
Pp (3.12); quindi 1 ≤ p ≤ N . Sia νk la molteplicità
algebrica di λk ; dunque k=1 νk = N .
2) Per ogni autovalore reale λk , e per uno tra λk e λ̄k in ogni coppia di autovalori
complessi coniugati: si trovino tutti gli autovettori linearmente indipendenti con
autovalore λk . Se questi sono in numero inferiore a νk , si cerchino gli autovettori
2-generalizzati corrispondenti a λk , poi quelli 3-generalizzati, e cosı̀ via. Ad ogni
8 DANIELE ANDREUCCI

passo si troverà almeno un autovettore generalizzato linearmente indipendente


dai precedenti, finché se ne saranno trovati esattamente νk .
3) Per ogni autovalore reale λk : siano ξkh , h = 1, . . . , νk autovettori generalizzati
(reali) corrispondenti a λk e linearmente indipendenti; allora le
eλk t Q(t; λk, ξk1) , eλk t Q(t; λk , ξk2) , ... eλk t Q(t; λk, ξkνk ) ,
sono νk soluzioni linearmente indipendenti di (3.1). Si noti che i Q(t; λk , ξkh )
(definiti in (3.10)) sono polinomi in t di gradi (in genere) diversi tra di loro, ma
comunque inferiori a νk .
4) Per ogni coppia di autovalori complessi coniugati λk = βk + iγk , λ̄k = βk −
iγk : siano ξkh , h = 1, . . . , νk autovettori generalizzati corrispondenti a λk e
linearmente indipendenti; allora, posto per ogni ξkh
Q(t; λk , ξkh ) = Q1(t; λk, ξkh) + iQ2 (t; λk, ξkh) ,
con Q1 e Q2 polinomi reali, le
eβk t [Q1(t; λk , ξkh ) cos(γk t) − Q2(t; λk , ξkh) sin(γk t)] ,
eβk t [Q2(t; λk , ξkh ) cos(γk t) + Q1(t; λk , ξkh) sin(γk t)] ,
sono 2νk soluzioni linearmente indipendenti di (3.1). Si noti che i Qi (t; λk , ξkh )
sono polinomi in t di gradi (in genere) diversi tra di loro, ma comunque inferiori
a νk .
5) Le soluzioni trovate nei punti 3) e 4) sono in numero complessivo di N e
sono linearmente indipendenti; dunque danno un integrale generale del sistema
differenziale a coefficienti costanti (3.1). In altri termini, la matrice Y le cui
colonne sono le N soluzioni trovate sopra è una matrice risolvente.

3.2. Complementi: La serie esponenziale. Per ogni t ∈ R vale


Zt Zt  Zτ1 
t τ1 τ2
e =1+ e dτ1 = 1 + 1+ e dτ2 dτ1
0 0 0
Z t Zτ1 Z t Zτ1  Zτ2 
τ2 τ3
=1+t+ e dτ2 dτ1 = 1 + t + 1+ e dτ3 dτ2 dτ1
0 0 0 0 0
Zt Z t Zτ1 Zτ2
=1+t+ τ1 dτ1 + eτ3 dτ3 dτ2 dτ1
0 0 0 0
t τ τ
(3.14)
2 Z Z1Z2 Zτ3 
t
=1+t+ + 1+ eτ4 dτ4 dτ3 dτ2 dτ1
2
0 0 0 0
Zt Z t Zτ1 Zτ2 Zτ3
t2 τ12
=1+t+ + dτ1 + eτ4 dτ4 dτ3 dτ2 dτ1
2 2
0 0 0 0 0
Z t Zτ1 Zτ2 Zτ3
t2 t3
=1+t+ + + eτ4 dτ4 dτ3 dτ2 dτ1 .
2 2·3
0 0 0 0
SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 9

È chiaro che procedendo in questo modo si arriva a dimostrare per ogni n ≥ 0


t2 t3 tn
et = 1 + t + + + ···+ + Rn+1 (t) , (3.15)
2! 3! n!
ove Rn+1 è dato dagli n + 1 integrali ripetuti
Z t Zτ1 Zτn
Rn+1 (t) = ... eτn+1 dτn+1 . . . dτ2 dτ1 . (3.16)
0 0 0

Vale
Z|t| Zτ1 Zτn
|t|n+1
|Rn+1(t)| ≤ ... e|t| dτn+1 . . . dτ2 dτ1 = e|t| .
(n + 1)!
0 0 0

Sia k ≥ 1 il più grande intero minore o uguale a |t| se |t| ≥ 1, o k = 1 altrimenti.


Quindi per n → ∞ si ha

|t| |t| |t| |t| |t|


|Rn+1(t)| ≤ e|t| ... · ...
1 2 k k+1 n+1
 n+1−k
|t| |t| |t|
= C(t) ... ≤ C(t) → 0,
k+1 n+1 k+1
perché |t| < k + 1. Qui C(t) risulta definita dall’uguaglianza sopra e non dipende
da n perché k non dipende da n.
Dunque prendendo il limite n → ∞ in (3.15) si ottiene per ogni t ∈ R

t t2 t3 tn X tn
e = 1 + t + + + ···+ + ··· = . (3.17)
2! 3! n! n!
n=0

Questo sviluppo in serie di et vale, di fatto, anche per tutti i numeri complessi t.

4. Il caso delle equazioni di ordine n


Consideriamo sistemi che provengono da equazioni lineari a coefficienti costanti,
nella forma
y (n) + a1 y (n−1) + a2 y (n−2) + · · · + an−1 y 0 + an y = 0 , (4.1)
con a1 , . . . an numeri reali, e n ≥ 1.
Con le posizioni
y1 = y , y2 = y 0 , y3 = y 00 , ... yn = y (n−1) ,
la (4.1) può essere scritta nella forma vettoriale, o di sistema,
y10 = y2 ,
y20 = y3 ,
... (4.2)
0
yn−2 = yn ,
yn0 = −an y1 − an−1 y2 − · · · − a1 yn .
10 DANIELE ANDREUCCI

La corrispondente matrice dei coefficienti è data da


 
0 1 0 ... 0
 0 0 1 ... 0 
 
A = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. (4.3)
 0 0 0 ... 1 
−an −an−1 −an−2 . . . −a1
Seguendo le idee del paragrafo 3.1, siamo interessati a trovare gli autovalori di A.
Vale
Proposizione 4.1. Per ogni λ ∈ R si ha
(−1)n det(A − λI) = λn + a1 λn−1 + a2 λn−2 + · · · + an−1 λ + an . (4.4)
Dimostrazione. Procediamo per induzione. Per n = 2

−λ 1 = λ 2 + a1 λ + a 2 .

det(A − λI) =
−a2 −a1 − λ
Quindi la (4.4) è verificata in questo caso.
Supponiamo poi lo sia nel caso n − 1. Allora vale

−λ 1 0 ... 0

0 −λ 1 ... 0

det(A − λI) = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

0 0 0 ... 1

−an −an−1 −an−2 . . . −a1 − λ

−λ 1 ... 0 1 0 . . . 0

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . n
−λ 1 . . . 0
= −λ + (−1) an
0 0 ... 1 . . . . . . . . . . . . . .

−an−1 −an−2 . . . −a1 − λ 0 0 . . . 1
= −λ(−1)n−1 (λn−1 + a1 λn−2 + a2 λn−3 + · · · + an−1 ) + (−1)n an
= (−1)n(λn + a1 λn−1 + a2 λn−2 + · · · + an−1 λ + an ) .
Si è usata qui l’ipotesi di induzione. 
Definizione 4.1. Il polinomio nel termine di destra della (4.4) si dice polinomio
caratteristico dell’equazione (4.1), mentre l’equazione
λn + a1 λn−1 + a2 λn−2 + · · · + an−1 λ + an = 0 (4.5)
si dice equazione caratteristica.
Procedendo come indicato nel paragrafo 3.1 si perviene al seguente metodo di
calcolo dell’integrale generale della (4.1):
(1) Determinare tutte le radici dell’equazione caratteristica (4.5); indichiamo
con λ1 , . . . λr le radici reali distinte, e con α1 ± iβ1 , . . . αs ± iβs le radici
complesse coniugate distinte (i è l’unità immaginaria, e αk , βk sono reali).
(2) Ad ogni radice reale λk , di molteplicità algebrica 1 ≤ νk ≤ n si associano le
νk funzioni
e λk t , teλk t , t 2 e λk t , ... tνk −1 eλk t . (4.6)
SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 11

(3) Ad ogni coppia di radici complesse coniugate αk ± iβk , di molteplicità


algebrica 1 ≤ ν̃k ≤ n si associano le 2ν̃k funzioni
sin(βk t)eαk t , t sin(βk t)eαk t , ... tν̃k −1 sin(βk t)eαkt ,
(4.7)
cos(βk t)eαk t , t cos(βk t)eαk t , ... tν̃k −1 cos(βk t)eαkt .
(4) Le funzioni in (4.6) e in (4.7) sono in numero di
ν1 + · · · + νr + 2ν̃1 + · · · + 2ν̃s = n ,
e costituiscono una base per lo spazio delle soluzioni di (4.1), ossia ogni
soluzione di quest’ultima si esprime come combinazione lineare a coefficienti
costanti di tali funzioni.