Sei sulla pagina 1di 44

ALGEBRA LINEARE

APPUNTI
Daniele Corradetti
2 novembre 2015

Indice
1

Spazi vettoriali
1.1 Schema generale del discorso
1.2 Spazi vettoriali . . . . . . . . .
1.3 Cambi di coordinate . . . . .
1.4 Spazi Euclidei . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

3
3
3
6
6

Forme bilineari
2.1 Schema generale del discorso . . . . . . . . . . . . . . . . . . . . . . .
2.2 Forme Lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Forme Bilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Rappresentazione matriciale di una forma bilineare . . . . . .
2.3.2 Cambio di base di una forma bilineare . . . . . . . . . . . . . .
2.4 Forme Quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Diagonalizzazione di una forma quadratica . . . . . . . . . . .
2.4.2 Riduzione di una forma quadratica tramite matrici triangolari
2.4.3 Il Determinante di Gramm . . . . . . . . . . . . . . . . . . . .
2.5 La legge di inerzia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6 Lo spazio Complesso n-dimensionale . . . . . . . . . . . . . . . . . .
2.6.1 Cambio di base di una forma bilineare Hermitiana . . . . . .
2.7 Esercizio di diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

9
9
10
11
11
12
12
13
15
18
19
20
21
22

Trasformazioni lineari
3.1 Senso del discorso . . . . . . . . . . . . . . . . . . . . .
3.2 Trasformazioni Lineari e operazioni elementari . . . .
3.2.1 Cambio di base in una trasformazione lineare
3.3 Sottospazi invarianti e Polinomio caratteristico . . . .
3.4 Trasformazioni lineari e Forme Bilineari . . . . . . . .
3.4.1 Propriet delloperazione aggiunta . . . . . . .
3.5 Trasformazioni Hermitiane o Autoaggiunte . . . . . .
3.6 Trasformazioni Unitarie . . . . . . . . . . . . . . . . .
3.7 Trasformazioni Normali . . . . . . . . . . . . . . . . .
3.8 Trasformazioni Lineari nello Spazio Euclideo Reale .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

24
24
25
27
27
31
32
32
33
33
33

.
.
.
.
.

34
34
35
36
36
37

La Forma di Jordan
4.1 Matrice e polinomio caratteristico . . . . . . .
4.1.1 Metodo efficace per il calcolo di B()
4.2 Autovalori e Autovettori di A . . . . . . . . .
4.3 Polinomio minimo . . . . . . . . . . . . . . .
4.3.1 Propriet della matrice C () . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

INDICE
5

Decomposizioni e forme canoniche


5.1 Senso del discorso . . . . . . . . . . . . . . . . . .
5.2 Decomposizione A = UH . . . . . . . . . . . . .
5.3 Decomposizione di Jordan . . . . . . . . . . . . .
5.3.1 Potenze di matrici nella forma di Jordan .
5.4 Esercizio di Decomposizione in Forma di Jordan

.
.
.
.
.

38
38
38
39
39
40

Applicazioni fisiche
6.1 ODE radici complesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Equazione Differenziale 2 Ordine . . . . . . . . . . . . . . . . . . . . . .

42
42
43

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

Capitolo 1
Spazi vettoriali
1.1

Schema generale del discorso

Definire uno spazio vettoriale a partire da un campo scalare: un gruppo commutativo rispetto a +, loperazione associativa, loperazione lineare rispetto a
campo scalare ;
Definire vettori linearmente indipendenti;
Definire una base di uno spazio vettoriale di dimensione n;
Definire le coordinate di un vettore dello spazio secondo una definita base;
Teorema: dato un insieme di n vettori linearmente indipendenti in uno spazio
vettoriale di dimensione n allora questi vettori formano una base dello spazio
e qualsiasi vettore appartenente allo spazio ha una rappresentazione unica come
combinazione lineare di questi vettori e i coefficienti di questa rappresentazione
sono chiamati coordinate del vettore rispetto alla base.
Teorema: tutti gli spazi vettoriali di dimensione n sono isomorfi fra di loro.
A questo punto possiamo definire i cambi di coordinate nello spazio vettoriale
Successivamente per poter fare geometria su questo spazio dovremo definire un
prodotto interno, dal quale potremo definire e derivare una norma e dunque la
lunghezza di un vettore, la distanza e langolo fra due vettori.
Una volta definito langolo fra due vettori possiamo finalmente parlare di Basi
Ortogonali.
Da qui possiamo poi definire un vettore ortogonale a un sottospazio e la proiezione di questo vettore sul sottospazio assieme alla distanza minima del vettore
dal sottospazio.

1.2

Spazi vettoriali

Definizione 1. Uno spazio vettoriale su un campo scalare R un insieme V con vettori


v, w, z tali che soddisfa le seguenti caratteristiche:
(i) V un gruppo rispetto alloperazione + quindi chiuso rispetto alloperazione e
questa ha un elemento neutro e ogni elemento ha linverso
3

CAPITOLO 1. SPAZI VETTORIALI

(ii) loperazione commutativa: v + w = w + v


(iii) loperazione associativa: (v + w) + z = v + (w + z)
(iv) loperazione lineare sul campo scalare (v + w) = v + w
Esempio 2. Esempi classici: Rn , le matrici di un certo ordine a partire da un campo
scalare, i polinomi con ordine minore di n.
Definizione 3. Un insieme di vettori x, y, z, ..., v si dicono linearmente indipendenti se
dati 1 , .., n tali che
1 x + 2 y + ... + n v = 0
implica necessariamente che 1 = .. = n = 0.
Uno spazio vettoriale si dice di dimensione n se contiene n vettori linearmente indipendenti. In questo caso ogni insieme di n vettori e1 , .., en linearmente indipendenti
chiamato base dello spazio vettoriale V. Chiaramente essendo lo spazio vettoriale di
dimensione n, questo vuol dire che un qualsiasi altro vettore appartenente allo spazio
linearmente dipendente e quindi pu essere scritto come combinazione lineare degli
elementi della base. Infatti dati 1 , .., n+1 non tutti nulli tali che
1 x + 2 e1 + ... + n+1 en = 0
posssiamo scrivere il vettore x come la combinazione:
x=

2
e1 + ... + n+1 en
1
1

Questa rappresentazione anche unica dato che se non fosse unica allora sottraendo la prima con la seconda potremmo derivare una combinazione lineare dei
vettori della base capace di dare il vettore nullo e quindi dedurne che i vettori sono
linearmente dipendenti.
Dunque data una base in uno spazio vettoriale n ovvero n vettori linearmente
indipendenti e1 , .., en , ogni vettore x pu essere scritto come combinazione lineare
x = 1 e1 + .. + n en e i coefficienti ( 1 , .., n ) sono chiamati coordinate di x nella base
e1 , .., en .
Esempio 4. Dati i seguenti vettori
v1 = (1, 1, 1, ...1, 1)
v2 = (0, 1, 1, ...1, 1)
v3 = (0, 0, 1, ...1, 1)
..
.
vn = (0, 0, 0, ...0, 1)
scrivere un vettore x di coordinate ( 1 , ... n ) nella base e1 , ..., en nelle nuove coordinate 1 , ...n . Da adesso usiamo la convenzione di Einstein sulla somma sugli indici
ripetuti e spostando gli indici delle coordinate in alto. Ricordiamoci che se vogliamo
poi passare alla notazione matriciale, gli indici in alto indicano colonne e quindi dei
coefficienti con indice in alto sono rappresentati da 1 riga, mentre gli indici in basso
indicano righe e dunque dei coefficienti con indici in basso sono rappresentati da 1
colonna:
x = i ei = i v i

CAPITOLO 1. SPAZI VETTORIALI

Tuttavia sappiamo anche che, dato che i vettori {vi } sono una base dello spazio:
j

ei = i v j
e dunque abbiamo che
j

x = i i v j = j v j
Nel caso esplicito abbiamo
e1 = v 1 v 2
e2 = v 2 v 3
e3 = v 3 v 4
..
.
en = vn
Ovvero

j
i

1 1 0
0 1 1
0 0
1
..
...
.
0 0
0

0
0
0

1
1

e abbiamo cos

( 1 2 n )

i j
i =

1 1 0
0 1 1
0 0
1
..
..
.
.
0 0
0

0
0
0

1
2
1
3 2
..
.




=

1
1
n n

A questo punto possiamo definire quello che consideriamo essere isomorfismi fra
spazi vettoriali e che sono omeomorfismi fra gruppi ma tali che oltre che alla somma
struttura di somma venga trasportata dallapplicazione anche la struttura di moltiplicazione per campo scalare.
Con questo possiamo formulare il primo Teorema che dice che tutti gli spazi vettoriali della stessa dimensione n sono isomorfi fra loro.
Esempio 5. Esempi di come lisomorfismo viene realizzato possono essere:
Spazio lineare dei polinomi:
p(t)
x
1

1 + 2 t + ... + n tn1
..
.
n
Spazio delle Matrici:
2
V 31 x A M2 (R)

 1 2 
2

3
3 4
4

CAPITOLO 1. SPAZI VETTORIALI

1.3

Cambi di coordinate

Nel paragrafo precedente abbiamo introdotto il concetto di base di uno spazio vettoriale e di coordinata di un vettore secondo una determinata base. Adesso supponiamo
di avere due basi distinte e di voler calcolare il cambio di coordinate da una base allaltra. Questo non altro che una generalizzazione dellesempio che abbiamo fatto in
precedenza.
Abbiamo infatti che se vogliamo passare da un sistema di coordinate nella base
B = {ei }a un sistema di coordinate nella base P = {vi }
x = i ei = j v j
Dobbiamo in primo luogo scrivere i vettori {ei } come combinazione lineare dei {vi }
j

e1 = a1 v j = a11 v1 + ... + a1n vn


j
e2 = a2 v j = a12 v1 + ... + a2n vn
j
e3 = a3 v j = a13 v1 + ... + a3n vn
..
.
j

en = an v j = a1n v1 + ... + ann vn


Ovvero

A=

e abbiamo cos
1 t

( 1 2
2

=
..
.
n

a11
a12
..
.

a21
a22

a31

ann

a1n

a11
a12
..
.

a1n
a2n
..
.

a21
a22

n)

1
an

a31

a1n
a2n
..
.




=

n
an

i a1i
i a2i
i a3i
..
.
i ain

Abbiamo dunque il seguente schema che valido:

[. ] B Rn
% CBP
V

& CPB
[. ] P Rn
Per ottenere le due matrici che sono una linversa dellaltra sufficiente scrivere i
vettori della base di destinazione nei termini della base di partenza.

1.4

Spazi Euclidei

Per poter sviluppare una forma di Geometria Euclidea con angoli, misure e quantaltro
abbiamo bisogno di un prodotto scalare.

CAPITOLO 1. SPAZI VETTORIALI

Definizione 6. Un prodotto interno una applicazione <, >: V V R tale che


soddisfa le seguenti propriet:
(i) simmetrica: < x, y >=< y, x >
(ii) bilineare: < x1 + x2 , y >= < x1 , y > + < x2 , y > rispetto a tutte e due le
entrate
(iii) semidefinita positiva: < x, x > 0 e con < x, x >= 0 solo se x = 0.
La propriet della simmetria ci serve perch se vogliamo definire delle lunghezze a
partire da questo prodotto interno vogliamo che la lunghezza da un punto a a un punto
b sia la stessa della lunghezza da un punto b a un punto a. La bilinearit per mantenere
qualcosa di coerente nella struttura di spazio vettoriale e la definizione positiva per
avere vettori di norma sempre positiva e mai negativa.
Esempio 7. Alcuni esempi classici di norme possono essere:
- dati due vettori nello spazio tridimensionale ordinario il coseno dellangolo fra i
due vettori soddisfa tutte le richieste.
- dato uno spazio vettoriale possiamo definire dati due vettori x = i ei e y = i ei :

< x, y >= i i
- in altro modo possiamo definire un prodotto interno dei due vettori x e y come:
1

a1 a21 a31 a1n


1
( 1 2 n )
a1 a2
2
a2n
j

2
2
i ai j =
..
.. ..
.
. .
n
a1n
ann
questa un prodotto interno se la matrice A simmetrica.
- unaltra metrica classica pu essere quella definita sullo spazio delle funzioni
continue e con prodotto interno
a
< f (t), g(t) >=
f (t) g(t)dt
b

Dato il prodotto interno definiamo:


lunghezza di un vettore x: | x | =

< x, x >
< x,y>

angolo fra due vettori x e y: = arcos( | x||y| )


distanza fra due vettori x e y : d = | x y|
A questo punto possiamo definire una base di coordinate ortonormale come una base
che soddisfi la condizione
< ei , e j >= ij
E possibile dimostrare come Teorema che in ogni spazio vettoriale di dimensione
n possibile trovare una base di vettori ortonormali.
Esempio 8. Un esempio non classico quello di trovare una base ortonormale per lo
spazio dei polinomi di grado minore uguale di 2. Supponiamo di avere come prodotto
interno

< p(t), q(t) >=

p(t)q(t)dt
1

CAPITOLO 1. SPAZI VETTORIALI



Sappiamo che una base per V formata da 1, t, t2 che sono vettori linearmente
indipendenti. Vediamo di fornire una base ortogonale a partire da questi:
- il primo elemento della base semplicemente il primo elemento cio 1
- il secondo elemento della base poniamolo come il secondo meno il primo con un
opportuno coefficiente t 1 e imponiamo la condizione di ortogonalit
1
(t )dt = 2
0 =< t , 1 >=
1

che portano a richiedere lannullamento di = 0 e dunque abbiamo il secondo


elemento che t
- il terzo elemento della base lo poniamo come il terzo a cui sottriamo una combinazione lineare del primo e del secondo cio t2 t e imponiamo la condizione di
ortogonalit
 3 1
1
t
2
2
(t t )dt =
0 =< t t , 1 >=
0 2
3 1
1
che porta alla condizione per cui = 13 e il terzo elemento t2 13 . In generale una
base ortonormale nello spazio dei polinomi di grado minore di n
3
1
1, t, t2 , t3 t...
3
5
Date queste nozioni possiamo definire cosa intendiamo per vettore ortogonale a un
sottospazio vettoriale (ovvero semplicemente un vettore il cui prodotto interno con i
vettori che formano una base del sottospazio identicamente nullo) e soprattutto cosa
intendiamo per proiezione ortogonale di un vettore su un sottospazio come pure cosa
intendiamo per distanza minima di un vettore da un sottospazio.
Procediamo con lultima: Dato un sottospazio H V e un vettore f che non appartiene al sottospazio. In questo caso vogliamo dunque trovare un vettore f 0 tale che
h = | f f o | sia ortogonale al sottospazio in questione e allora calcolando la norma di
h abbiamo la distanza del punto indicato da f dal sottospazio H.

< f f o , ek >= 0

k = 1..m

< f 0 , ek >=< f , ek >


Dato che

f 0 = c i ei

k = 1..m

i = 1..m

Allora abbiamo che la condizione precedente si trasforma in


c1 < e1 , ek > +... + cm < em , ek >=< f , ek >

k = 1..m

Se la base ortonormale, la soluzione triviale perch < ei , ek >= ik . Nel caso


generale questo sistema di m equazioni in m incognite ha soluzione se e solo se il determinante dei coeffienti diverso da zero ovvero se diverso da zero quello che si
chiama determinante di Gramm:

< e1 , e1 > < e2 , e1 > < e m , e1 >


< e1 , e2 > < e2 , e2 > < e m , e2 >

det
6= 0
..
..
..
...

.
.
.
< e1 , e m > < e2 , e m > < e m , e m >

Capitolo 2
Forme bilineari
2.1

Schema generale del discorso

Si introducono le forme lineari come funzioni lineari e si mostra che formano


uno spazio vettoriale.
Si analizza definisce poi una forma bilineare e si vede che per via della sua
bilinearit possibile rappresentarla sotto forma matriciale in una data base
Si analizza il cambio di coordinate di una forma bilineare dato da A0 = C T AC
Dopo aver definito le forme bilineari si definiscono le forme quadratiche A(x, x)
e si vede come sono esattamente equivalenti alle forme bilineari simmetriche. Si
defiisce quindi la forma polare di una forma quadratica.
Forme quadratiche definite positive sono equivalenti a definire prodotto interno. Uno spazio Euclideo dunque uno spazio con associato una forma quadratica da cui possiamo definire un prodotto interno.
A questo punto si pu definire una Forma canonica di una forma quadratica in
cui la matrice associata quella diagonale. Tale forma canonica definita se i
minori principalid ella amtrice associati alla forma bilineare sono diversi da zero,
allora abbiamo
A(x, x) =

4
40 1 1
+ .. + n1 n n = ii i i
41
4n

Basandoci sul risultato ottenuto della forma canonica possiamo stabilire una equivalenza essenziale fra Forme quadratiche definite positive e determinanti principali maggiori di zero. In particolare questo ci dice che avere i determinanti
principali maggiori di zero non dipende dalla scelta della base.

40 > 0, 41 > 0, ...4n > 0


Considerando che Forme quadratiche definite positive sono equivalenti a definire un prodotto interno possiamo tradurre i risultati trovati nel linguaggio
di un prodotto interno su uno spazio Euclideo e ricavare cos a partire da delle condizioni sul Determinante di Gramm alcuni risultati come la disuguaglianza di
Schwarz.

CAPITOLO 2. FORME BILINEARI

10

Da notare che in uno spazio euclideo il determinante di Gramm di k vettori il


Volume al quadrato
di un parallelepipedo avente i vettori come spigoli per cui
2
Vol (e1 , .., ek ) = 4k
A questo punto possiamo ricavare la legge di inerzia ovvero il fatto che indipendentemente dalla base il numero di autovalori i diversi da zero costante.
Questo permette di definire il Rango di una forma bilineare e il Kernel di una
forma bilineare come indipendenti dalla scelta della base.
A questo punto si estendono i risultati cambiando il campo dai Reali ai Complessi. Con la piccola modifica della coniugazione complessa al posto della simmetria
nel prodotto interno, si possono estendere tutti i primi risultati elementari validi negli spazi Euclidei Reali al caso degli Spazi Euclidei complessi introducendo
norma, distanza, ortogonalit, base ortonormale e dunque lisomorfismo fra tutti
gli spazi Unitari.
Viceversa per introdurre le forme bilineari dobbiamo introdurre prima le forme
lineari di I e di II specie e poi le forme bilineari
A questo punto si introducono le forme bilineari hermitiane A( x, y) = A(y, x )
che faranno la funzione delel forme bilineari simmetriche
Se A la matrice della forma bilineare hermitiana A( x, y) relativa a una base
{ei } e B la matrice della stessa forma bilineare A( x, y) ma nella base { f i } con
f j = cij ei allora abbiamo
B = C AC
dove C la trasposta e congiugata di C. In pratica cij = c ji

2.2

Forme Lineari

Definizione 9. Una forma lineare o funzione lineare f definita su uno spazio vettoriale V se
per ogni vettore x associata una f ( x ) tale che:
(i) f (x + y) = f (x) + f (y)
(ii) f (x) = f (x)
Se prendiamo un vettore x di coordinate i nella base ei allora

1
2
n

1
( )
2

f ( x ) = f ( i e i ) = i f ( ei ) = i i =
..
.
n
Supponiamo adesso di cambiare base per x e quindi avere per lo stesso vettore
coordinate i nella base vi . E supponiamo
f (x) = i fii
Proviamo a cambiare base da ei vi allora dobbiamo esprimere i vettori ei come
combinazione lineare della nuova base

CAPITOLO 2. FORME BILINEARI

11

e1 = a1 v j = a11 v1 + ... + a1n vn


j
e2 = a2 v j = a12 v1 + ... + a2n vn
j
e3 = a3 v j = a13 v1 + ... + a3n vn
..
.
j

en = an v j = a1n v1 + ... + ann vn


A questo punto possiamo esprimere
j

f ( x ) = i f ( e i ) = i ai f ( v j ) = i ai j
j

quindi abbiamo f (ei ) = ai f (vj )

2.3

Forme Bilineari

Definizione 10. Una funzione Bilineare una funzione A(x, y) tale che :
(i) una funzione lineare in x per ogni y fisso
(ii) una funzione lineare in y per ogni x fissato

2.3.1

Rappresentazione matriciale di una forma bilineare

Un modo di rappresentare una forma bilineare A(x, y) tramite una matrice A. Per
farlo si fa cos:
In primo luogo si considera una base ei e le coordinate dei vettori x, y su questa
base:
x = i ei
y = i ei
Essendo dunque lineare sia in x che in y abbiamo che
A(x, y) = A( i ei , j e j ) =

A(ei , e j ) i j = aij i j

definendo quindi
A(ei , e j ) = aij
abbiamo una rappresentazione della forma bilineare secondo una data base:

( 1
xt Ay =

n)

a11 a12
a12 a22
..
...
.
a1n a2n

a1n
a2n
..
.
ann

1
2
..
.
n

= aij i j =

aij i j

Una forma bilineare chiamata simmetrica se A(x, y) = A(y, x) un esempio di


forma bilineare il prodotto interno nello spazio Euclideo.

CAPITOLO 2. FORME BILINEARI

2.3.2

12

Cambio di base di una forma bilineare

Abbiamo detto che una forma bilineare pu essere rappresentata in forma matriciale
secondo lidentificazione
A(ei , e j ) = aij
Se adesso vogliamo cambiare la base e usare la base f i allora dobbiamo trovare i
coefficienti:
A(fi , f j ) = aij0
Quindi come prima cosa dobbiamo scrivere la nuova base nei termini della vecchia
p

f1 = c11 e1 + .. + c1n en = c1 e p
p
f2 = c12 e1 + .. + c2n en = cn e p
..
.
p

fn = c1n e1 + .. + cnn en = cn e p
A questo punto applicare
p

p q

p q

aij0 = A( f i , f j ) = A(ci e p , c j eq ) = A(e p , eq )ci c j = a pq ci c j


che in forma matriciale altro non che
A0 = C T AC

2.4

Forme Quadratiche

Data una forma bilineare si A(x, y) si ottiene una forma quadratica semplicemente
considerando A( x, x ). Una forma simmetrica bilineare A(x, y) pu essere ottenuta da
una forma quadratica A( x, x ) tramite la semplice equivalenza:
A(x + y, x + y) = A(x, x) + A(y, x) + A(x, y) + A(y, y)
ma dato che che la forma simmetrica e A(x, y) = A(y, x) abbiamo che
2A(x, y) = A(x, x) + A(y, y) A(x + y, x + y)
Per cui da una forma quadratica possiamo estrarre la cosidetta forma polare per vettori
non identici.
Forma quadratica e forma bilineare simmetrica sono dunque due cose equivalenti.
Definizione 11. Una forma quadratica si dice definita positiva se A(x, x) > 0 per ogni
x 6= 0
Per la definizione che ne abbiamo dato nel paragrafo precedente un prodotto interno una forma bilineare corrispondente a una forma quadratica definita positiva. anche vero il viceversa ovvero ogni forma quadratica definita positiva definisce
un prodotto interno su uno spazio vettoriale per cui le due nozioni sono esattamente
equivalenti. Possiamo cos dare una definizione alternativa di Spazio Euclideo:
Uno spazio vettoriale chiamato Euclideo se definita una forma quadratica positiva A(x, x). In tale spazio il prodotto interno < x, y > di due vettori preso come
valore A(x, y) dellunica forma bilineare associata alla forma quadratica A(x, x)

CAPITOLO 2. FORME BILINEARI

2.4.1

13

Diagonalizzazione di una forma quadratica

Una qualsiasi forma bilineare simmetrica pu essere ricondotta a una forma quadratica
e qualsiasi forma quadratica pu essere diagonalizzata ovvero pu essere trovata una
base ei tale che in questa base:
A(x, x) = 11 1 1 + .. + nn n n = ii i i
Per trovare una base effettiva si procede in questo modo:
Prendiamo una forma quadratica che nella forma generale scritta in questo modo:
A(x, x) = aij i j ,

x = i fi

e cerchiamo di trovare un cambio di base per cui aij = 0 se i 6= j. In primo luogo ci


si riconduce alla situazione in cui a11 6= 0 .1 A questo punto si fa una trasformazione
adatta per liberare tutti i termini misti con il primo termine e quindi si isolano dalla
forma bilineare i termini misti che contengono 1
A(x, x) = a11 1 1 + 2a12 1 2 + ... + 2a1n 1 n + altri
Allora per realizzare un cambio di base adatto basta considerare che
2
1 
a11 1 + a12 2 + ... + a1n n = a11 1 1 + 2a12 1 2 + ... + 2a1n 1 n B
a11
E quindi fare il cambio di base tale che

= a11 1 + a12 2 + ... + a1n n


=
2
...
...
=
n

1
2
...
n

In pratica si deve sostituire al primo coefficiente la somma di tutti i termini misti


divisi per due di modo che una volta elevato il nuovo coefficiente al quadrato tutti i
termini misti si eliminino.
Nelle nuove coordinate infatti abbiamo che
A(x, x) =

1 1 1
+ B + altri
a11

Dove il termine altri non in funzione di 1 ma solo delle altre coordinate. Possiamo dunque procedere nuovamente lasciando fissa la prima coordinata.
Esercizio 12. Procedere nella diagonalizzazione della forma
A(x, x) = 1 1 + 2 1 2 + 4 2 3 8 3 3
1 Se

ci non possibile con una permutazione dei vettori della base allora si prende una situazione in
cui a12 1 2 6= 0 e si fa un cambio di base del tipo
1
2
3
n
In questo modo il nuovo a11 6= 0.

= 1 + 2
= 1 2
=
3
=
n

CAPITOLO 2. FORME BILINEARI


ovvero

14

1 1 0
A= 1 0 2
0 2 8

Per primo cambio base si mette:


1 = 1 + 2
2 =
2
3 =
3
e la forma diventa
A(x, x) = 1 1 + 2 2 + 42 3 83 3

1 0 0
A= 0 1 2
0 2 8
Come secodno cambio base si mette:
1 =
1
2 = 2 + 23
3 =
3
E nelle nuove coordinate abbiamo
A(x, x) = 1 + 2 12 3

1 0 0
0
A= 0 1
0 0 12
Per trovare il cambio base basta
1 =
1
= 1 + 2
2 = 2 + 23 =
+ 2 +2 3
3 =
3
=
+ 3
E quindi la matrice di passaggio per il cambio dei coefficienti

1 1 0
C = 0 1 +2
0 0 1
A questo punto bisogna trovare la matrice che permette la rotazione. Per farlo basta
invertire la matrice C

1 1 2
U = C 1 = 0 1 2
0 0 1
Questa matrice U permette il passaggio dalla base fi alla base ei
A questo punto abbiamo

CAPITOLO 2. FORME BILINEARI

15

1 0 0
1 1 0
0 1
0 = UT 1 0 2 U
0 0 12
0 2 8

1 0 0
1 0 0
1 1 0
1 1 2
0 1
0 = 1
1 0 1 0 2 0 1 2
0 0 12
2 2 1
0 2 8
0 0 1
Si ottiene la matrice diagonalizzante:
q

1
q3

0
0

U = 43
2
0
q
q q
1
1
12
12
8
8

2.4.2

Riduzione di una forma quadratica tramite matrici triangolari

Abbiamo una forma quadratica che possiamo scrivere nei termini di una base f i nella
seguente forma:
A(x, x) = aij i j

x = i fi ,

A(fi , fj ) = aij

Vogliamo a questo punto torvare una nuova base in cui questa forma quadratica
assume una struttura diagonale ovvero tale che A(ei , ek ) = 0 se i 6= k.
Supponiamo inoltre che i minori principali della matrice A non abbiano mai determinante uguale a 0 ovvero che:

41 = det| a11 | 6= 0
a

a
42 = det 11 12 6= 0
a21 a22
..
.


a11 a12 a1n


a21 a22 a2n


4n = det ..
..
.. 6= 0
..
.
.
.
.

an1 an2 ann
Il motivo che nella nuova base abbiamo che

a11 0
0
0
0 a22 0
0

.
.. 0
0
0
0
0
0 ann

e i coefficienti sulla diagonale sono:


akk = A(ek , ek ) =

4 k 1
4k

k = 1..n,

40 = 1

CAPITOLO 2. FORME BILINEARI

16

Teorema 13. (Jacobi) Una qualsiasi forma quadratica tale che in una sua rappresentazione
matriciale abbia tutti i minori principali diversi da zero, pu essere diagonalizzata ovvero pu
essere trovata una base ei tale che in questa base su un vettore x di coordinate x = i ei assume
una forma:
4
40 1 1
+ .. + n1 n n = ii i i
A( x, x ) =
41
4n
Dimostrazione: La dimostrazione abbastanza semplice: abbiamo una forma quadratica che possiamo scrivere nei termini di una base f i nella seguente forma:
A(x, x) = aij i j

x = i fi ,

A( f i , f j ) = aij

Vogliamo a questo punto torvare una nuova base in cui questa forma quadratica
assume una struttura diagonale ovvero tale che A(ei , ek ) = 0 se i 6= k. Cerchiamo una
nuova base della forma:
e1 = a11 f1
e2 = a12 f1 + a22 f2
..
..
.
.
en = a1n f1
+..
..+ ann fn
In questo tipo di base notiamo che
A(ek , ei ) = 0 = A(ek , fi ) = 0

i<k

Imponiamo inoltre A(ek , fk ) = 1 e otteniamo sostituendo otteniamo:


A(ek , fi ) = A( ak1 f1 + .... + akk fk , fi ) = 0

i<k

A( ak1 f1 + .... + akk fk , fk ) = 1


Questo diventa:
ak1 A(f1 , f1 )+
ak2 A(f1 , f2 )+
..
.

ak2 A(f2 , f1 )
ak2 A(f2 , f2 )
..
.

+... +
+... +

ak1 A(fk , f1 )
ak2 A(fk , f2 )

=0
=0
..
.
akk1 A(f1 , fk1 )+ ak2 A(f2 ,fk1 ) +... + akk1 A(fk , fk1 ) = 0
akk A(f1 , fk )+
ak2 A(f2 , fk ) +... +
akk A(fk , fk )
=1
un sistema nelle incognite akk e la soluzione
A(ek , ek ) = akk =

4 k 1
4k

Esempio 14. Un esempio pu essere la seguente forma bilineare simmetrica


2 1 1 + 3 1 2 + 4 1 3 + 2 2 + 3 3
questa rappresentata dalla matrice

2 32 2
3 1 0
2
2 0 1

CAPITOLO 2. FORME BILINEARI

17

Abbiamo dunque che i minori principali sono 41 = 2, 42 = 14 , 43 = 17


4.
Abbiamo dunque che nella nuova base la matrice assume questa forma
1

0 0
2
0 8 0
1
0 0 17
La matrice per il cambio di base in questione
1

0
0
2
C = 6 8 0
8
12
1
17 17 17
Infine possiamo considerare le forme quadratiche definite positive.
In questo caso se la forma quadratica definita positiva si pu dimostrare che automaticamente non solo ha tutti i minori principali diversi da 0 ma 4k > 0 per ogni k.
Per cui possiamo direttamente formulare il seguente teorema:
Teorema 15. (Jacobi-Forma Canonica) Una qualsiasi forma quadratica definita positiva, pu
essere diagonalizzata nella FORMA CANONICA
A(x, x) =

4
40 1 1
+ .. + n1 n n = ii i i
41
4n

A cui possiamo aggiungere un criterio famoso per determinare a partire da una


forma bilineare simmetrica se la corrispondente forma quadratica definita positiva.
Teorema 16. (Sylvester) La forma quadratica di una qualsiasi forma bilineare simmetrica
definita positiva, se e solo se
40 > 0, 41 > 0, ...4n > 0
Questo un caso particolare del fatto che la segnatura di una forma quadratica indipendente rispetto alla base scelta. Allo stesso modo il rango di una forma
differenziale bilineare sempre lo stesso indipendentemente dalla scelta della base.
Facciamo comunque una dimostrazione:
= Supponiamo che i minori siano tutti positivi

40 > 0, 41 > 0, ...4n > 0


questo logicamente implica che:
A(x, x) =

4
40 1 1
+ .. + n1 n n = ii i i > 0
41
4n

x 6= 0

=Supponiamo la forma bilineare sia definita positiva. Il nostro primo passo


dimostrare che tutti i miori sono diversi da zero. Questo in realt facile perch se

A ( f1 , f1 )
A(f2 , f1 ) ... A(fk , f1 )
A ( f1 , f2 )
A(f2 , f2 ) ... A(fk , f2 )

.
.
.
.
.
.
det
=0
.
.
.

A(f1 , fk1 ) A(f2 , fk1 ) ... A(fk , fk1 )


A ( f1 , f k )
A(f2 , fk ) ... A(fk , fk )

CAPITOLO 2. FORME BILINEARI

18

Allora per via una delle righe sarebbe combinazione lineare delle altre. Esplicitando
questa combinazione lineare tramite dei coefficienti k questo grazie alla bilinearit di
A vuol dire che una combinazione lineare degli fk darebbe come risultato
A(1 f1 + ... + k fk , 1 f1 + ... + k fk ) = 0
Il che contraria lipotesi che per cui A definita positiva.
Una volta dimostrato che i minori sono diversi da zero allora per il teorema precedente la forma bilineare pu essere scritta in forma canonica e dato che
A(x, x) =

4
40 1 1
+ .. + n1 n n = ii i i > 0
41
4n

x 6= 0

ne consegue che

40 > 0, 41 > 0, ...4n > 0

2.4.3

Il Determinante di Gramm

Abbiamo detto che una forma lineare definita positiva equivalente a un prodotto
interno tramite quivalenza
A(x, x) < x, x >
E a quel punto possiamo definire
A(x, y) =< x, y >
La condizioni che avevamo sui minori che dovevano essere maggiori di zero per le
forme quadratiche definite positive si traduce nella conseguenza che dati k vettori ei

< e1 , e1 > < e2 , e1 > ... < e , e1 >
k

< e1 , e2 > < e2 , e2 > ... < e , e2 >
k

det
..
..
..

.
.
.

< e1 , ek > < e2 , ek > ... < ek , ek >






> 0 ei


indipendenti

Corollario 17. (Disuguaglianza di Schwarz) < x, y >2 < x, x >< y, y >


La dimostrazione presto fatta dato che basta notare che il Determinante di Gramm
per i due vettori un minore di ordine 2 della forma bilineare definita positiva alla base
del prodotto interno utilizzato:


< x, x > < y, x >
0
42 =
< x, y > < y, y >
Da notare che il determinante di Gramm di 3 vettori x, y, z altro non che il quadrato del volume di un parallelepipedo avente i 3 vettori come spigoli:


< x, x > < y, x > < z, x >


43 = V 2 = < x, y > < y, y > < z, y > 0
< x, z > < y, z > < z, z >
dove



x1 x2 x3

p
V = y1 y2 y3 = 43 > 0
z1 z2 z3

CAPITOLO 2. FORME BILINEARI

2.5

19

La legge di inerzia

Noi abbiamo trovato un modo per diagonalizzare la matrice, chiaramente questo modo
non unico. In realt semplicemente operando un cambio di base possiamo semplicemente fare in modo che sulla diagonale ci siano solo i {1, 0, 1}. Questo equivale,
in uno spazio euclideo a definire una base tale che un volume formato da tre vettori sia
un volume unitario. Ora la domanda da porsi se il numero di i > 0, i < 0 e i = 0
rimanga costante oppure no. La legge di inerzia dice che:
Teorema 18. (Legge di Inerzia) In qualsiasi modo diagonalizziamo la matrice il numero di
coefficienti nulli costante
Per dimostrare questo teorema bisogna prima dimostrare il Lemma:
Lemma 19. Dati due sottospazi H e H0 di dimensione p e q di uno spazio vettoriale di
dimensione n e tali che p + q > n allora esiste un vettore x H H0 .2
Adesso supponiamo di avere in una base {ei }
A(x, x) = 1 1 + .. + p p p+1 p+1 .. n n
e in una base
0

A(x, x) = 1 1 + .. + p p p +1 .. n n
e supponiamo per esempio che p > p0 allora per via del Lemma dato che n
+ p > n un vettore x che appartiene al sottospaziospan(f p0 +1 , .., fn ) e contemporaneamente al sottospazio span(e1 , .., e p ), se calcoliamo la forma bilineare su x allora
abbiamo che
A(x, x) = 1 1 + .. + p p > 0
p0

e contemporaneamente
0

A(x, x) = p +1 .. n n < 0
Che assurdo.
Corollario 20. (Rango) Il Rango di una forma bilineare invariante per scelta della base
Per contro possiamo definire il Kernel
Corollario 21. (Kernel) Il Kernel di una forma bilineare un sottospazio dello spazio originale
ed invariante per scelta di base
2 Questa

dimostrazione si fa molto facilmente perch dato che il numero di vettori delle due basi dei
due sottospazi supera la dimensione dello spazio vuol dire che esistono dei coefficienti tali che:
1 e1 + .. + p e p + 1 f1 + .. + q fq = 0
Questo semplicemente vuol dire che x =1 e1 + .. + p e p = 1 f1 + .. + q fq il vettore cercato.

CAPITOLO 2. FORME BILINEARI

2.6

20

Lo spazio Complesso n-dimensionale

Indicativamente gran parte dei risultati trovati nel caso Reale valgono anche nel caso
Complesso. Ci sono tuttavia dei problemi essenziali sulla propriet di simmetria e con
il prodotto per scalare richiesta per il prodotto interno.
Abbiamo infatti che la bilinearit implicherebbe

< x, x >= 2 < x, x >


ma nel caso del campo Complesso ponendo come = i avremmo

< ix, ix >= < x, x >


Che violerebbe la richiesta di avere una forma bilineare definita positiva ovvero >
0 per qualsiasi x.
Per risolvere il problema si corregge la definizione del prodotto interno con luso
del complesso coniugato:
Definizione 22. Un prodotto interno Complesso una applicazione <, >: V V C
tale che soddisfa le seguenti propriet:
(i) simmetrica: < x, y >= < y, x >
(ii) bilineare: < x1 + x2 , y >= < x1 , y > + < x2 , y >
(iii) semidefinita positiva: < x, x > 0 e con < x, x >= 0 solo se x = 0.
Nota: le precedenti definizioni implicano che < x, y >= < x, y >
Uno spazio Euclideo Complesso con queste caratteristiche si dice Spazio Unitario.
Esempio 23. Esempio di Spazio Unitario. Possiamo ad esempio definire su C3 il prodotto interno per cui dati 2 vettori z = (z1 , z2 , z3 ) e w = (w1 , w2 , w3 ) il prodotto interno
definito come < z, w >= z1 w1 + z2 w2 + z3 w3
Un altro esempio pu essere dato dallo spazio delle funzioni integrabili su un
intervallo [a,b] a valori Complessi e con prodotto interno definito come
b

< f (z), g(z) >=

f (z) g(z)dz
a

Da questa definizione di prodotto interno si pu definire come logica conseguenza:


norma di un vettore z Cn kzk =

< z, z >

distanza fra due vettori z, w Cn d(z, w) = kz wk


due vettori ortogonali z, w Cn quando< z, w >= 0
Dopo aver definito i vettori ortogonali si definisce una base ortonormale e si trova
lisomorfismo fra tutti gli spazi Unitari. Pertanto i risultati visti nel capitolo precedente
sono facilmente estendibili agli Spazi Unitari.
Nel caso complesso dunque lo stesso problema si riscontra nella definizione di
funzione lineare che ovviamente pu essere di due tipi

CAPITOLO 2. FORME BILINEARI

21

Definizione 24. Una forma lineare o funzione lineare f definita su uno spazio vettoriale
complesso V :
del I tipo: se per ogni vettore x associata una f (x) tale che:
(i) f (x + y) = f (x) + f (y)
(ii) f (x) = f (x)
del II tipo: se per ogni vettore x associata una f (x) tale che:
(i) f (x + y) = f (x) + f (y)
(ii) f (x) = f (x)
E da questa definizione definiamo una forma bilineare su uno spazio complesso
Definizione 25. Una funzione Bilineare una funzione A(x, y) tale che :
(i) una funzione lineare del primo tipo in x per ogni y fisso A(x1 + x2 , y) = A(x1 , y) +
A(x2 , y)
(ii) una funzione lineare del secondo tipo in y per ogni x fissato A(x, y1 + y2 ) =
A(x, y1 ) + A(x, y2 )
Un esempio generale di forma bilineare complessa :
A(x, y) = aij i j = A(ei , e j ) i j
x = i ei
y = i ei
Teorema 26. Una forma bilineare complessa unicamente determinata dalla sua forma quadratica
Definizione 27. Una forma bilineare si chiama Hermitiana se A(x, y) = A(y, x)
Teorema 28. Perch una forma si Hermitiana e necessario e sufficiente che la sua forma
quadratica A(x, x) abbia valori reali per ogni vettore x.

2.6.1

Cambio di base di una forma bilineare Hermitiana

Se A la matrice della forma bilineare hermitiana A(x, y) relativa a una base {ei } e B
la matrice della stessa forma bilineare A(x, y) ma nella base {fi } con f j = cij ei allora
abbiamo
B = C AC
dove C la trasposta e congiugata di C. In pratica cij = c ji con la matrice per
cambio di base

c11 c12 c1n


c2 c2 c2
1 2
n
.. .. . .
..
. .
. .
n
n
c1 c2 cnn
Teorema 29. (Jacobi) Una qualsiasi forma Hermitiana quadratica su uno spazio vettoriale
complesso ha una base ei tale che in questa base su un vettore x di coordinate x = i ei assume
una forma:
4
40 1 1
+ .. + n1 n n = ii i i
A(x, x) =
41
4n
dove i determinanti 4k sono numeri Reali.

CAPITOLO 2. FORME BILINEARI

2.7

22

Esercizio di diagonalizzazione

Supponiamo di avere la seguente forma bilineare:


A(x, x) = au1 u1 + 2du1 u2 + 2eu1 u3 + bu2 u2 + 2 f u2 u3 + cu3 u3
dove chiaramente x = ui ei . Riscrivendo la forma bilineare in notazione matriciale
abbiamo dunque che nella base {ei } la forma assume:

a d e
A= d b f
e f c
Adesso procediamo nel nostro cambio di coordinate x = ui ei = vi fi . Facciamo in
modo di scegliere la nuova base di modo tale che :
v1 = au1 + du2 + eu3
v2 =
u2
v3 =
u3
Con questo cambio di base adesso dobbiamo esplicitare il termine au1 u1 e lo facciamo calcolando:
v1 v1 = a2 u1 u1 + 2adu1 u2 + 2aeu1 u3 + d2 u2 u2 + 2deu2 u3 + e2 u3 u3
da cui si ottiene:
d2
de
e2
1 1 1
v v = au1 u1 + 2du1 u2 + 2aeuu3 + u2 u2 + 2 u2 u3 + u3 u3
a
a
a
a
e dunque
d2
de
e2
1 1 1
v v 2dv1 v2 2aev1 v3 v2 v2 2 v2 v3 v3 v3 = au1 u1
a
a
a
a
Da cui nelle nuove coordinate
A(x, x) =

1 1 1 ab d2 2 2
f a de 2 3 ca e2 3 3
v v +
v v + 2(
)v v +
v v
a
a
a
a

A questo punto siamo pronti per lultimo cambio di coordinate x = ui ei = vi fi =


i in cui scegliamo la nuova base di modo che

wi g

w1 = v1
p=
w2 =
pv2 +qv3 dove
q=
w3 =
v3

abd2
a
f ade
a

Con questo cambio di coordinate abbiamo


1 2 2
q2
w w = pv2 v2 + 2qv2 v3 + v3 v3
p
p
ovvero

1 2 2
q2
w w 2qw2 w3 w3 w3 = pv2 v2
p
p

CAPITOLO 2. FORME BILINEARI

23

e dunque nelle nuove coordinate abbiamo la diagonalizzazione


A(x, x) =

1 1 1 1 2 2
ca e2 q2 3 3
w w + w w +(
)w w
a
p
a
p

ovvero

A(x, x) =

1 1 1
(ca e2 )( ab d2 ) ( f a de)2 3 3
a
2 2
w
w
+
(
)w w
w w +
a
ab d2
a2 ( ab d2 )

cio:

1
a

A= 0
0

a
abd2

0
0
(cae2 )( abd2 )( f ade)2

a2 ( abd2 )

A questo punto se siamo interessati al cambio di base dobbiamo notare che


w1 = v1
=
au1
+du2
+eu3
2
w2 =
pv2 +qv3 =
+ aba d u2 + f aa de u3
w3 =
v3 =
u3
Da qui abbiamo dunque

a
C= 0
0

abd2
a

f ade
a

Calcolando dunque linversa per operare il cambio di base sulla forma bilineare
otteniamo:

bed f
1
a

U = C 1 = 0
0
Per cui abbiamo
1
a

a
abd2

d
abd2
a
abd2

0
0
(cae2 )( abd2 )( f ade)2
a2 ( abd2 )

abd2
de a f
abd2

a d e

T
= U d b f U
e f c

Capitolo 3
Trasformazioni lineari
3.1

Senso del discorso

Sono funzioni lineari da uno spazio vettoriale a uno spazio vettoriale e possono essere rappresentate sotto forma matriciale. Si dimostra che data una base
e uninsieme di n vettori, esiste ununica trasformazione lineare che manda i
vettori della base nei vettori prescelti. Si trova la formula per il cambio di base:
B = C 1 AC dove C la matrice per il passaggio di base fk = Cek .
Si definiscono sottospazi invarianti, autovettori e autovalori. Si definisce come
fare a trovare un autovettore.
Si introduce il polinomio caratteristico. Si fa vedere che il polinomio carateristico
indipendente dalla scelta della base.
Si fa vedere che n autovettori con autovalori distinti sono linearmente indipendenti.
Come corollario se ne deduce che ogni matrice con polinomio caratteristico con
n radici distinti diagonalizzabile.
Si dimostra che P() = n + tr ( A)n1 + ... + tr (n1 A) + detA dove k A
sono i minori principali di ordine k. Nel caso in cui A sia diagonale invece il
polinomio molto pi facile essendo P() = ( a11 ) . . . ( ann ) e che se P()
il polinomio caratteristico della matrice A allora P( A) = 0.
A questo punto si introduce la relazione fra trasformazioni lineari e forme bilineari.1 A(x, y) = ( Ax, y) = (x, A y)

Trasformazioni Autoaggiunte
Dopo aver introdotto la trasformazione aggiunta si tratta delle trasformazioni
lineari autoaggiunte A = A e di come ogni trasformazione lineare possa essere
decomposta in somma di due trasformazioni autoaggiunte A = A1 + iA2 .
Il prodotto di due autoaggiunte AB autoaggiunto A e B commutano.
Si fa vedere che se autoaggiunta, A ha tutti autovalori reali. Il sottospazio ortogonale allautovettore corrispondente forma un sottospazio invariante rispetto
alla trasformazione A.
1 dove

con le parentesi ( , ) si indica il prodotto interno canonico e con le parentesi < , > il prodotto
interno derivato dalla forma bilineare

24

CAPITOLO 3. TRASFORMAZIONI LINEARI

25

Teorema: Sia A una trasformazione lineare sullo spazio Euclideo n dimensionale. Affinch A sia autoaggiunta necessario e sufficiente che esista una base ortogonale relativa a
cui la matrice A sia diagonale (con autovalori reali?).
in trasformazioni Autoaggiunte Autovettori corrispondenti a diversi autovalori
sono ortogonali fra loro.

Trasformazioni Unitarie
Si definiscono le trasformazioni unitarie. Le trasformazioni unitarie sono quelle
trasformazioni che lasciano invariate le lunghezze dei vettori e lortogonalit dei
vettori. Inoltre gli autovalori di trasformazioni unitarie sono in valore assoluto
uguali a 1.
Una trasformazione unitaria ha una base rispetto alla quale la trasformazione
assume forma diagonale e gli autovalori sono in valore assoluto uguali a 1. Data
A autoaggiunta U 1 AU autoaggiunta.
Data A una matrice Hermitiana, A pu essere rappresentata come A = U 1 DU

Trasformazioni Commutative e Normali


Se AB = BA allora gli autovettori di A formano uno spazio invariante rispetto a B. Ogni due trasformazioni lineari che commutano AB = BA hanno un
autovettore comune.
A e B commutano sono diagonalizzabile rispetto a una stessa base.
Una trasformazione normale A A = A A diagonalizzabile

3.2

Trasformazioni Lineari e operazioni elementari

Fino ad adesso abbiamo parlato di funzioni lineari a valori in un campo scalare, adesso
vogliamo trattare di funzioni da uno spazio vettoriale a uno spazio vettoriale.
Definizione 30. Se ad ogni vettore x V univocamente definito un vettore y V allora la mappa y = A(x) chiamata trasformazione. Se poi tale da soddisfare le seguenti
condizioni:
(i) A(x1 + x2 ) = A(x1 ) + A(x2 )
(ii) A(x) = A(x) allora si dice trasformazione lineare.
Se abbiamo il vettore x = i ei e y = A(x) con y = i ei possiamo rappresentare la
trasformazione in forma matriciale dato che:
y = i ei = aij j ei ovvero i = aij j

1
2
..
.
n

a11 a12 ... a1n


a21 a22 ... a2n
..
.. . .
.
. ..
.
.
a1n a2n . . . ann

1
2
..
.
n

Esempio 31. Esempi di trasformazioni lineari possono essere:

CAPITOLO 3. TRASFORMAZIONI LINEARI

26

Rotazioni in uno spazio Euclideo


Cambio di base in uno spazio vettoriale
Proiezioni su un piano
Nello spazio dei polinomi la derivazione
L:

V = R3 [t]
W = R2 [ t ]
d
2
p ( t ) = + a2 t + a1 t + a0
dt p ( t )
t3

Nello spazio delle funzioni continue e integrabili lintegrazione lungo un intervallo definito
Dati n vettori arbitrari g1 , .., gn esiste ununica trasformazione lineare A tale che
A(e1 ) = g1 ... A(en ) = gn
Si trova che esiste una corrispondenza univoca fra Trasformazioni lineari in uno spazio
Euclideo e matrici che rappresentano la trasformazione lineare.
Esempio 32. Rappresentiamo sotto forma matriciale la trasformazione lineare L =
R3 [t] R2 [t]. Abbiamo il seguente schema:

d
dt

R3 [ t ]
R2 [ t ]
p(t)
dtd p(t)

A : V = R4 W = R3
L:



2 , t3 e invece come base di R [ t ] la
Troviamo
come
base
di
R
[
t
]
la
base
B
=
1,
t,
t
3
2


2
base D = 1, t, t . Per trovare la matrice che rappresenta la trasformazione lineare
sufficiente calcolare il valore che la funzion assume sulla base e scrivere questi valori
in termini della base di arrivo:
L ( e1 )
L ( e2 )
L ( e3 )
L ( e4 )

= L (1) = 0
=0
= L ( t ) = 1 = e1
= L(t2 ) = 2t = 2e2
= L(t3 ) = 3t2 = 3e3

da cui otteniamo la seguente rappresentazione matriciale A che relativa alla base


B di aprtenza e manda nella base D di arrivo:

0 1 0 0
[ L] BD = A = 0 0 2 0
0 0 0 3
Successivamente si definisce il prodotto di trasformazioni lineari come prodotto
matriciale per cui
j

Cx = cik k = ABx = ( aij bk ) k prodotto di trasformazioni lineari


Cx = cij j = ( A + B)x = ( aij + bij ) j somma di trasformazioni lineari
Poi definiamo:
un polinomio di matrici P( A) = a0 I + a1 A + ... + an An
la trasformazione lineare inversa A1 A = AA1 = I

CAPITOLO 3. TRASFORMAZIONI LINEARI

3.2.1

27

Cambio di base in una trasformazione lineare

Supponiamo di avere due basi su uno stesso spazio vettoriale E = {ei } e F = {fi } e di
avere una matrice di passaggio
j

fk = ck e j per cui

fk = CEF ek dove C =

c11 c12
c21 c22
..
.

c1n
c2n
..
.

c1n c2n

cnn

chiaramente C1 fk =ek

A questo punto supponiamo di voler operare un cambio di base alla trasformazione


lineare L : V V , la stessa trasformazione pu essere scritta in due modi secondo
due basi diverse. Chiamiamo [ L] EE la rappresentazione della matrice data come base
di partenza la base E e come base di arrivo la base F

[ L] EE Lx [ L] FF
e ovviamente abbiamo che:
1
[ L] FF = CFE [ L] EE CEF = CEF
[ L] EE CEF

Ha una rappresentazione matriciale A nella base {ei } e una rappresentazione matriciale B nella base {fi } .
Per ogni vettore x = i ei = j f j abbiamo che Lx pu essere scritto nella base {ei } o
nella base {fi }.
Lek = Aei = aik ei mentre nellaltra base Lfk = Bfi = bki fi
Abbiamo dunque che per specificare la base in cui scritto un certo vettore

[ A[ x ] E ] E = Lx
Vuol dire che abbiamo un vettore scritto nella base {ei } e la cui trasformazione
letta nella base {ei } viceversa vgliamo trovare la matrice che manda vettori letti nella
base {fi }e in cui il vettore di destinazione letto nella base {fi }

[ B[x]F ] F = Lx
[CA[ x ] E ] F = Lx
[CA[C 1 x ] F ] F = Lx =[ B[x]F ] F
Da cui deriva C 1 AC = B.

3.3

Sottospazi invarianti e Polinomio caratteristico

Definizione 33. Un spazio H V si dice invariante rispetto alla trasformazione lineare


A se x H abbiamo che Ax H.

CAPITOLO 3. TRASFORMAZIONI LINEARI

28

Esempio 34. Supponiamo di avere una trasformazione lineare A tale che la rappresentazione matriciale

1
a1 a1k a1k+1
a1n
..
..
..
..
.
.
.
.

.
.
k
..
..

a1 akk

.
.
0
..
..
0
0

..
..
0
0
0
.
.
ann
0
0
0 ank+1
In questo caso il span(e1 , .., ek ) = H un sottospazio invariante per la trasformazione A.
Definizione 35. Un vettore x si dice autovettore se soddisfa la relazione Ax = x . Nel
caso si chiama autovalore.
Esempio 36. Un esempio di spazio invariante, di autovettore e autovalore pu essere
dato dal seguente:

1 1 0
A= 0 1 0
0 0 3
Abbiamo due autovettori con autovalore 1 e 3 rispettivamente
Ae1 = e1 e Ae3 = 3e3
E uno sottospazio invariante che dato da span(e1 , e2 )
Un altro esempio pu essere se consideriamo la derivazione come trasformazione
lineare sullo spazio delle funzioni C (C)
L : C (C) C (C)
d
f (t) dt
f (t)
In questo caso abbiamo che
L(e3t ) = 3e3t un autovettore con autovalore 3
L(cost + isint) = i (cost + isint) autovettore con autovalore i
Definizione 37. Una matrice A si dice diagonalizzabile se pu essere rappresentata in
una base di autovettori.
Se A diagonalizzabile e riesco a trovare una base di autovettori {bi } con rispettivi
autovalori i allora ho che con un cambio di base:

1 0 0
0 2
0

1
1
A = CEB ..
.. CEB = CEB DCEB
.
.
0 0 . . . n
con la matrice di passaggio dalla base E alla base B che data semplicemente dalle
coordinate degli autovettori

CEB = ( b 1 , , b n )
Quindi se riusciamo a trovare gli autovettori e gli autovalori di una matrice possiamo facilmente diagonalizzarla se essa diagonalizzabile.

CAPITOLO 3. TRASFORMAZIONI LINEARI

29

Osservazione 38. Da notare che se riusciamo ad avere la matrice in forma diagonale


automaticamente abbiamo che le potenze della matrice dato che
1
1
1 2
A2 = CEB
DCEB CEB
DCEB = CEB
D CEB e in generale
1 n
An = CEB
D CEB

Questo ci riporta a considerare pi da vicino lequazione Ax = x .


Lequazione Ax = x equivalente a richiedere

( A I )x = 0 per un qualche vettore non nullo


e questo equivalente a richiedere che
det( A I ) = 0
I = i o soluzioni del polinomio caratteristico per cui il determinante si annulla
sono dunque gli autovalori per cui esiste un autovettore x della trasformazione.
Un modo esplicitato per vedere questo stesso discorso questo:

+ a1n n = 1
..
.. ovvero
.
.
a11 1 + + a1n n = n

a11 1 +
+ a1n n =
0
..
..
..
.
. 
.
1
1
1
n
a1 +
+ an = 0
a11 1 +
..
.

che ha sempre una soluzione se


1
a1
..

det
..

.
ann

a1n
..
.
..
.
n
an

6= 0

Questo un polinomio di grado n in funzione di chiamato polinomio caratteristico.


Esempio 39. Supponiamo di avere la seguente matrice:
1

a1
a12
a13
det a21
a22
a23
a31

a33
Il determinante della matrice o polinomio caratteristico della trasformazione lienare

3 (1) + 2 ( a33 + a22 + a11 ) + ( a12 a21 a22 a11 + a13 a31 + a23 a32 a33 a11 a33 a22 ) + detA
Si dimostra che P() = n + tr ( A)n1 + ... + tr (n1 A) + detA dove k A sono
i minori principali di ordine k. Nel caso in cui A sia diagonale invece il polinomio
molto pi facile essendo P() = ( a11 ) . . . ( ann ) e che se P() il polinomio
caratteristico della matrice A allora P( A) = 0.

CAPITOLO 3. TRASFORMAZIONI LINEARI

30

Teorema 40. Se e1 , .., ek sono autovalori di una trasformazione A e i corrispondenti autovalori


1 , .., k sono distinti, allora e1 , .., ek sono linearmente indipendenti.
si prova per induzione.
Corollary 41. Se il polinomio caratteristico di una matrice contiene n radici distinte allora la
matrice diagonalizzabile.
Esercizio 42. Diagonalizzare la matrice

1 3 3
A = 3 5 3
6 6 4

Abbiamo che il polinomio caratteristico P() = 3 02 12 16 = ( + 2)2 (


4) per cui gli autovalori sono i = {2, 4}. A questo punto necessario calcolare gli
autovettori della matrice e dunque sostituiamo gli autovalori per risolvere il seguente
sistema


1
3
3
x
0
3

5
3
y
0
=
6
6
4
z
0
Caso = 2 abbiamo


3 3 3
x
0
3 3 3 y = 0
6 6 6
z
0
da cui dividendo tutte le righe per un opportuno coefficiente otteniamo


1 1 1
x
0
1 1 1
x
0
1 1 1 y = 0 cio 0 0 0 y = 0
1 1 1
z
0
0 0 0
z
0
ovvero

x y + z = 0
y=y

z=z

x = a b = 0
= y = a

z=b

ovvero

ab
1
1
av1 + bv2 = a = a 1 + b 0
b
0
1
Otteniamo cos gli autovettori v1 v2 associati allautovalore = 2. A questo punto
passiamo a = 4 e abbiamo


3 3 3
x
0
1 1 1
x
0
3 9 3 y = 0 ovvero 1 3 1 y = 0
6 6 0
z
0
1 1 0
z
0

CAPITOLO 3. TRASFORMAZIONI LINEARI

31

che con qualche operazione si riduce a


1 1 1
x
0
0 2 1 y = 0
0 0 0
z
0
ovvero

x + y z = 0
2y z = 0

z=z

x = 2 + a
= y = 2a

z=a

ovvero

1
a
v3 = 1
2
2
Da cui abbiamo finalmente i 3 autovettori


1
1
1

1 ,
0
v1 , v2 , v3 =
, 1

0
1
2
La matrice per il cambio di base dunque

1 3 1
1 1 1
1
1
0
CEB = 1 0 1 e CEB
= CBE = 2 2
2
1 1 1
0 1 2
Da cui infine abbiamo la finale diagonalizzazione

2 0 0
1 3 1
1 3 3
1 1 1
0 2 0 = 1 2 2
0 3 5 3 1 0 1
2
0
0 4
1 1 1
6 6 4
0 1 2

3.4

Trasformazioni lineari e Forme Bilineari

A questo punto si introduce la relazione fra trasformazioni lineari e forme bilineari.


Le forme bilineari e le trasformazioni lineari sono entrambe rappresentabili con una
matrice, ma non possiamo farle corrispondere nel modo canonico in quanto esso sarebbe privo di senso dato che con il cambio di base le trasformazioni lineari cambiano
con C 1 AC mentre le forme bilineari cambiano come C T AC.
Possiamo per far corrispondere alla forma bilineare A(x, y) = ( Ax, y) ovvero il
prodotto scalare usuale dove per i vettori x sono stati trasformati con la trasformazione lienare A. Con le parentesi ( , ) si indica il prodotto interno canonico e con le
parentesi < , > il prodotto interno derivato dalla forma bilineare A(x, y) = ( Ax, y) =
(x, A y) < x, y > A .
La corrispondenza A(x, y) = ( Ax, y) una corrispondenza univoca fra forme bilineari e trasformazioni lineari.

CAPITOLO 3. TRASFORMAZIONI LINEARI

3.4.1

32

Propriet delloperazione aggiunta

( AB) = B A
( A ) = A
( A + B) = A + B
(A) = A
( I ) = I
Definizione 43. Una trasformazione lineare A si dice autoaggiunta o hermitiana A =
A se la forma bilineare corrispondente A(x, y) = ( Ax, y) Hermitiana ovvero se
A(x, y) = A(y, x). In pratica la sua rappresentazione matriciale tale che A T + A = 0.
In particolare per una trasformazione lineare Hermitiana abbiamo che ( Ax, y) =
(x, Ay).
Teorema 44. Ogni trasformazione lineare A pu essere decomposta in A = A1 + iA2 dove
A1 e A2 sono autoaggiunte
Per dimostrare il teorema basta porre:
A A
A + A
e A2 =
2
2
Teorema 45. Date A e B autoaggiunte, il prodotto AB autoaggiunto se e solo se A e B
commutano
A1 =

Definizione 46. Una trasformazione si dice Unitaria se U U = I ovvero U 1 = U

3.5

Trasformazioni Hermitiane o Autoaggiunte

Definizione 47. Una trasformazione lineare A si dice autoaggiunta o hermitiana A =


A se la forma bilineare corrispondente A(x, y) = ( Ax, y) Hermitiana ovvero se
A(x, y) = A(y, x). In pratica la sua rappresentazione matriciale tale che A T + A = 0.
Lemma 48. Ogni autovalore di una trasformazione autoaggiunta reale
La dimostrazione semplice: dato che A = A prendiamo un autovettore Ax = x
e se calcoliamo su questo vettore la forma bilineare otteniamo:

( Ax, x) = (x, x) = (x, x) = (x, Ax) = (x, x) = (x, x)


da cui =
Lemma 49. Dato e autovettore di A lo spazio dei vettori ortogonali a e un sottospazio
invariante rispetto a A
Se (x, e) = 0 ovvero x ortogonale a e allora anche ( Ax, e) = (x, Ae) = (x, e) = 0
ovvero anche Ax ortogonale a e.
Teorema 50. Se A una trasformazione autoaggiunta, allora esistono n autovettori ortogonali.
I corrispondenti autovalori di A sono tutti reali.
pi in generale vale il seguente teorema
Teorema 51. Sia A una trasformazione lineare sullo spazio Euclideo n dimensionale. Affinch
A sia autoaggiunta necessario e sufficiente che esista una base ortogonale relativa a cui la
matrice A sia diagonale.
A questo punto notiamo anche che in una trasformazione autoaggiunta gli autovettori corrispondenti a differenti autovalori sono tutti ortogonali.

CAPITOLO 3. TRASFORMAZIONI LINEARI

3.6

33

Trasformazioni Unitarie

Le trasformazioni unitarie sono definite da U U = I il che vuol dire che (UU x, y) =


(Ux, Uy) = (x, y) ovvero preservano le lunghezze e gli angoli.
Questo avviene se
j
j
aij ai = 1 e aij ak = 0
Questa condizione si traduce in

(Uei , Uek ) = ik
Si definiscono le trasformazioni unitarie. Le trasformazioni unitarie sono quelle
trasformazioni che lasciano invariate le lunghezze dei vettori e lortogonalit dei
vettori. Inoltre gli autovalori di trasformazioni unitarie sono in valore assoluto
uguali a 1.
Una trasformazione unitaria ha una base rispetto alla quale la trasformazione
assume forma diagonale e gli autovalori sono in valore assoluto uguali a 1. Data
A autoaggiunta U 1 AU autoaggiunta.
Data A una matrice Hermitiana, A pu essere rappresentata come A = U 1 DU

3.7

Trasformazioni Normali

Teorema 52. Se AB = BA allora gli autovettori di A formano uno spazio invariante rispetto
a B.
Se Ax = x allora ABx = BAx = Bx
Ogni due trasformazioni lineari che commutano AB = BA hanno un autovettore
comune.
A e B commutano sono diagonalizzabile rispetto a una stessa base.
Teorema 53. Una trasformazione normale A A = A A diagonalizzabile
Trasformazioni hermitiane e unitarie in particolare sono trasformazioni normali.
Una trasformazione normale pu essere decomposta in una trasformazione hermitiana o autoaggiunta moltiplicato una trasformazione unitaria.

3.8

Trasformazioni Lineari nello Spazio Euclideo Reale

Per tradurre i risultati che abbiamo ottenuto nel caso Complesso al caso Reale dobbiamo usare la seguente tabella di conversione.
Cn
(x, y) p
= i i
kxk = (x, x)
A = ( a ji )
( Hermitiana)
A = A
(Unitaria)
UU = I
( Diagonalizzazione) A = A = UDU

Rn
(x, y) p
= i i
kxk = (x, x)
At = ( a ji )
At = A
(Simmetrica)
t
QQ = I
(Ortogonale)
A = At = QDQt ( Diagonalizzazione)

Capitolo 4
La Forma di Jordan
Definizione 54. Definiamo un matrice di polinomi
A() = A0 m + A1 m1 + ... + Am , con Ai = ( a jk )i matrice di ordine n
chiamiamo m il grado del polinomio con A0 6= 0
se le matrici sono di ordine n allora n anche lordine del polinomio
il polinomio si dice regolare se det( A0 ) | A0 | 6= 0
Dati due polinomi A() e B() con B() regolare possiamo definire due polinomi
Q() e R() chiamati rispettivamente quoziente destro e resto destro della divisione di
A() per B() secondo la seguente formula:
A() = Q() B() + R(), con deg( R()) < deg( B())
Teorema 55. (B EZOUT G ENERALIZZATO) Se F () una matrice di polinomi il resto destro
della divisione per (I A) F ( A).
Dim. data la matrice di polinomi F () = F0 m + F1 m1 + ... + Fm posso riscriverla
come:
F () = F0 m1 (I A) + ( F0 A + F1 )m1 + F2 m2 + ... + Fm
risommando e sottraendo otteniamo

( F0 m1 + ( F0 A + F1 )m1 )(I A) + ( F0 A2 + F1 A + F2 )m2 + ... + Fm


Finch alla fine non abbiamo

( F0 m1 + ( F0 A + F1 )m1 ...)(I A) + ( F0 Am + F1 Am1 + ... + Fm )


che era quello che si voleva dimostrare.
Corollario 56. Una matrice polinomiale divisibile per (I A) F ( A) = 0

4.1

Matrice e polinomio caratteristico

Sia A una matrice nxn si chiama allora (I A) matrice caratteristica e il polinomio


scalare 4() = det(I A) chiamato polinomio caratteristico.

a11 a12 ... a1n


a2 a2 ... a2

n
A = .1 .2 .
..
.
.
.
.
. .
.
n
n
a1 a2 . . . ann
34

CAPITOLO 4. LA FORMA DI JORDAN

35

Definizione 57. Sia B() = (bij ) la matrice dei cofattori di (I A) ovvero:


bik = (1)i+k det( M( A)ki ) minore eliminando la k riga e i colonna
Allora per la definizione di determiannte abbiamo che fissata una qualsiasi i:

4() = (ik A)bki () per ogni ifissata


k

Da questa definizione deriva che

(I A) B() = () I e
B()(I A) = () I
Theorem 58. (H AMILTON C AYLEY ) Chiamando () il polinomio caratteristico della matrice A, allora 4( A) = 0
Dalla relazione

B()(I A) = () I

deduciamo che() divisibile per (I A) e quindi per il Teorema di Bezout Generalizzato il resto 4( A) = 0.

4.1.1

Metodo efficace per il calcolo di B()

Definition 59. Dato il polinomio, 4() = n p1 n1 ... pn definiamo il polinomio


4() ()
(, ) =

ovvero in altri termini


(, ) = n1 + ( p1 )n2 + (2 p1 p2 )n3 + ...
A questo punto se calcoliamo il polinomio (I, A) otteniamo
(I, A)(I A) = 4()
Da cui dato la B()(I A) = () I otteniamo che
B() = (I, A) = In1 + B1 n2 + B2 n3 + ... + Bn1
dove

B1 =
B2 =
..
.

A p1 I
A2 p1 A p2 I
..
.

Bk = Ak p1 Ak1 ... pk I
oppure possiamo indicare la formula per ricorrenza:
(
B0 = I
Bk = ABk1 pk I

CAPITOLO 4. LA FORMA DI JORDAN

36

Che in particolare per Bn1 otteniamo una nuova dimostrazione del Teorema di
Hamilton Cayley. Abbiamo otteniamo la formula per la matrice inversa di A dato che
Bn = 0 = ABn1 pn I = ABn1 det( A) I
Da questo otteniamo infatti
1
Bn1 = A1
det( A)

4.2

Autovalori e Autovettori di A

Supponiamo che 0 sia un autovalore della matrice A e dunque che (0 )


B(0 )(0 I A) = (0 ) I = 0
Questo vuol dire che se la matrice B formata dai vettori:

B = ( b 1 .. b n )
Abbiamo allora che questi vettori sono gli autovettori della matrice A dato che

(0 I A)bi = 0 ovvero
Abi = 0 bi
Dunque ogni colonna non identicamente nulla della matrice B(0 ) un autovettore
della matrice A corrispondente allautovalore 0 .

4.3

Polinomio minimo

Definition 60. Chiamiamo () il polinomio minimo il polinomio monico del grado


minimo tale che ( A) = 0.
Teorema 61. ogni polinomio annichilatore f () ovvero tale che f ( A) = 0 divisibile per il
polinomio minimo ovvero f () = ()q()
La dimostrazione seque semplicemente dal fatto che se dividiamo f () per ()
abbiamo
f () = ()q() + r ()
che in particolare implica:
r ( A) = 0 dato che
0 = f ( A) = ( A)q( A) + r ( A) = r ( A)
Cosa che assurda perch dovrebbe essere deg(r ()) < deg(()) contraddicendo
lipotesi sul polinomio minimo di essere il polinomio annichilatore con grado minore
possibile.

CAPITOLO 4. LA FORMA DI JORDAN

37

Definizione 62. Chiamiamo D () il massimo comune divisore di tutti i minori di ordine n 1della matrice caratteristica I A ovvero il massimo comune divisore degli
elementi della matrice B(). Abbiamo allora che
B() = D ()C ()
dove C () una matrice di polinomi chiamata matrice aggiunta ridotta di I A.
Ne segue che

4() = (I A)C () D ()
e dunque D ()|4() e quindi possiamo definire:
() =

4()
D ()

Teorema 63. () = (I A)C () il polinomio minimo di A


Dim. Sostituendo questa definizione nella formula precedente otteniamo la seguente e fondamentale formula.
() I = (I A)C ()
Siccome (I A)|() per il teorema generalizzato di Bezout abbiamo che ( A) =
0. Inoltre il grado di () il minore possibile altrimenti il polinomio D () non sarebbe
il massimo divisore comune degli elementi di B().

4.3.1

Propriet della matrice C ()

Abbiamo la formula
C () = (I, A) con (I, A) =

()()

Inoltre dalla relazione


() I = (I A)C ()
possiamo ricavare che
det(() I ) = ()n = det(I A)det(C ())
Da cui

()n = 4()det(C ())

Deduciamo che il polinomio minimo divide il polinomio caratteristico. Abbiamo


inoltre:
( 0 ) I = 0 = ( 0 I A ) C ( 0 )
Da cui deduciamo che gli autovettori di A relativi allautovalore 0 sono formati
dalle colonne non nulle della matriceC (0 ) dato che per ogni colonna ci non nulla
abbiamo
0 = ( 0 I A ) c i
Nella pratica abbiamo

4() = ( 1 )n1 . . . ( s )ns con i 6= j


() = ( 1 )m1 . . . ( s )ms con mk nk

Capitolo 5
Decomposizioni e forme canoniche
5.1

Senso del discorso

Decomposizione in A = UH con U matrice unitaria (UU = I) e H matrice hermitiana o autoaggiunta H = H . Questa decomposizione fa il pari concettualmente con un numero complesso z = ei pu essere decomposto in un prodotto
fra una rotazione ei e un numero che stavolta autoconiugato ovvero reale .

5.2

Decomposizione A = UH

Decomposizione in A = UH con U matrice unitaria (UU = I) e H matrice hermitiana o autoaggiunta H = H . Questa decomposizione fa il pari concettualmente con
la decomposizione di un numero reale in un numero positivo e un numero di norma
unitaria, similmente un numero complesso z = ei pu essere decomposto in un prodotto fra una rotazione ei e un numero che stavolta autoconiugato ovvero reale . Lo
stesso principio si pu estendere alle matrici che possono essere decomposte nel prodotto fra una rotazione ovvero una matrice Unitaria U e una matrice autoaggiunta o
Hermitiana H
Teorema 64. Ogni matrice non singolare A pu essere decomposta nella forma
A = UH
dove H una matrice non singolare definita positiva e U una matrice unitaria.
Per dimostarre questo teorema si dimostra che se B una matrice definita positiva

sempre possibile trovare una H tale che H 2 = B. Chiamiamo in questo caso H = B


. Per fare questo basta posizionarsi nella base in cui B diagonale e fare la radice degli
autovalori. Dato questo lemma definiamo

H = AA
e poi definiamo U = AH 1 .
Abbiamo che
U U = H 1 A AH 1 = H 1 H 2 H 1 = I

38

CAPITOLO 5. DECOMPOSIZIONI E FORME CANONICHE

5.3

39

Decomposizione di Jordan

Teorema 65. Supponiamo di avere una trasformazione lineare arbitraria e un numero k di


autovettori linearmente indipendenti {e1 , f1 , .., h1 } corrispondenti agli autovalori {1 , .., k }
e di avere k < n. Allora possibile completare linsieme dei vettori precedenti peer ottenere una
base in cui la matrice assume la forma:

0 1
0 0 1

...
0 0

0 0 0 0

..
A=

k 1

0 k 1

0
.
.. 1

0 0
0 0 0 k
Intanto procediamo con alcune definizioni
Definizione 66. Autovettore generalizzato di ordine n un vettore x tale che( A I )n x =
0
poi abbiamo le seguenti
Definizione 67. Molteplicit geometrica di un autovalore il numero di blocchi di Jordan
corrispondenti a un autovalore i . La Molteplicit algebrica di un autovalore data dalla
somma dellordine di tuti i blocchi di Jordan relativi ad un autovalore i .
La molteplicit algebrica corrisponde allesponente nella fattorizzazione del polinomio caratteristico. Quando molteplicit algebrica e molteplicit geometrica non coincidono vuol dire che non possibile trovare sufficienti autovettori per diagonalizzare
la matrice.

5.3.1

Potenze di matrici nella forma di Jordan

La forma di Jordan di una matrice costituita da una matrice diagonale e una matrice
nilpotente J = D + N. In particolare ogni blocco di Jordan formato da un multiplo
della matrice identica e una matrice nilpotente Ji = I + N.

0 1 0 0 0
0 0 1 0 0

Ji I = 0 0 . . . . . . 0

0 0 0 0 1
0 0 0 0 0
Il che vuol dire che se lordine della matrice m allora

m
0 1 0 0 0
0 0 1 0 0

( Ji I )m = 0 0 . . . . . . 0 = 0

0 0 0 0 1
0 0 0 0 0

CAPITOLO 5. DECOMPOSIZIONI E FORME CANONICHE

40

Ora dato che una matrice a blocchi J ha potenze facilmente calcolabili dalle potenze
dei blocchi:

J1m
0

J2m

m
J =

...

0
m
Jk
Abbiamo anche che dato un polinomio p( x )

p( J1 )

p( J2 )

p( J ) =

0
..

.
p( Jk )

Questo vuol dire che se p() il polinomio caratteristico p( J ) = 0 abbiamo dunque


il Teorema seguente.
Teorema 68. (Hamilton-Cayley) Se p() = det( A I ) allora p( A) = 0.
Pi nel dettaglio possiamo trovare un polinomio minimo dato semplicemente dai
monomi con i singoli autovalori elevati allordine massimo dei vari blocchi di Jordan
corrispondenti a quellautovalore.
m() =

( i ) qi
i

A questo punto possiamo analizzare cosa succede quando calcoliamo lesponenziale della matrice:
e A = Ce J C 1

e J1

e J2

e =

..

.
e Jk

e per ogni blocco


e Ji = ei I + N = ei ( I + N + ... +

N q 1
)
( q 1) !

Da questo possiamo ricostruire lesponenziale matriciale a una forma finita.

5.4

Esercizio di Decomposizione in Forma di Jordan

2
0
A=
0
1

0
2
0
0

0
0
2
0

0
0

1
2

CAPITOLO 5. DECOMPOSIZIONI E FORME CANONICHE


In primo luogo calcoliamo il polinomio minimo di A

2
0
0
0
0
2
0
0
det(I A) = det
0
0
2
1
1
0
0
2

41

= ( 2)4

Lautovalore 2 dunque ha molteplicit algebrica 4, vediamo quali sono gli autovettori:


0 0 0 0
x
0
(
0 0 0 0 y 0

= da cui otteniamo z = 0
0 0 0 1 w 0
x=0
1 0 0 0
z
0
Gli autovettori sono dunque:

0
0
1
0

v1 =
0 e v2 = 1
0
0

La molteplicit geometrica dunque 2, mentre la molteplicit algebrica 4. Questo


vuol dire che la forma di Jordan della matrice A formata da due blocchi di ordine 2.

2 1 0 0
0 2 0 0

A=
0 0 2 1
0 0 0 2

Capitolo 6
Applicazioni fisiche
6.1

ODE radici complesse

Supponiamo di dover risolvere il seguente sistema die quazioni differenziali del pimo
ordine:
(
x = 3x 2y
y = +5x y
La rappresentazione matriciale del sistema lineare


x
y

0

3 2
+5 1



x
y

Per prima cosa dobbiamo trovare gli autovettori e per fare questo procediamo trovando gli autovalori come radici complesse del polinomio caratteristico. Il polinomio
caratteristico


3
2
det
= 2 + 4 + 13
+5
1
ha come radici

16 52
= 2 i3
2
Prendiamo un autovalore e troviamo lautovettore corrispondente inserendolo nel
sistema ( A I )a = 0


  
3 + 2 3i
2
a0
0
=
+5
1 + 2 3i
a1
0
=

Da cui deriviamo lequazione

(1 3i ) a0 = 2a1
che in particolare realizzata per
(

a0 =
a1 =

2
1 3i

A questo punto la soluzione del sistema di equazioni differenziali data da


 


x
2
t
x=
= C0 e =
e(2+3i)t =
y
1 3i
42

CAPITOLO 6. APPLICAZIONI FISICHE




2
1 3i


e

2t

(cos3t + isin3t) = e

2t

43


2cos3t
cos3t + 3sint

+i

2sin3t
sin3t 3cos3t

Un altro modo di procedere nel problema considerando


du
= Au(t)
dt
In questo caso se posso diagonalizzare A = QDQ1 posso cambiare le coordinate
e mettere u = Qv da cui posso ottenere
dv
= Dv(t)
dt
da cui posso ottenere la soluzione
Qv = e Dt Qv(0)
da cui

6.2

u = Q1 e Dt Qu(t) = e At u(t)

Equazione Differenziale 2 Ordine

Supponiamo di avere lequazione differenziale:


(
y = y
y(0) = y0 , y (0) = y1
Le soluzioni singole sono:
Soluzione 1:

Soluzione 2:

cos(t)
f 1 (t) = 1

cosh(kt)
sin(t)


f 2 (t) = 1

sinh(kt)
k

, < 0
, = 0
, > 0
, < 0
, = 0
, > 0

Da cui deriviamo la soluzione generale:


y(t) = y(0) f 1 (t) + y (0) f 2 (t)