Sei sulla pagina 1di 34

Matrici, sistemi lineari, operatori lineari e spazi vettoriali

Premesse

Def. 1. 1

Un insieme finito A aij : i 1,....n j 1,....m di elementi ordinati rispetto a due indici è detto
matrice finita.
a11 a12 ... a1m
a21 a22 ... a2 m
A
a31 a32 ... a3m
an1 an 2 ... anm

Def. 1. 2

Sia A aij una matrice n-m. Chiamiamo trasposta di A la matrice A ' a ' ji di tipo m-n così
definita:
a ' ji aij i, j
Quindi la trasposta A’ della matrice A si ottiene scambiadone le righe con le colonne.

Def. 1. 3
Una matrice A è detta quadrata di ordine n se n m
Inoltre
se A A ' la matrice è detta simmetrica
se A A ' la matrice è detta emisimmetrica
se ij
a 0 i j la matrice è detta diagonale
se aij 0 i j i j la matrice è detta triangolare alta (bassa)
gli elementi aii si dicono elementi della diagonale principale

Def. 1. 4
La somma di due matrici simili A e B è una matrice C i cui elementi devono soddisfare alla
seguente condizione:
cij aij bij i, j
Osservazione: A B ' A ' B '

Def. 1. 5
Due matrici A e B si dicono conformabili per il prodotto se il numero di colonne di A è pari al
numero di righe di B

Def. 1. 6

La matrice prodotto di due matrici conformabili An, p aik e Bp,m bkj è la matrice Cn,m cij
con:
p
cij aik bki
k 1

1
Osservazioni
A B ' A' B ' la trasposta di un prodotto e il prodotto delle trasposte
A B B A il prodotto di matrici non commuta

Def. 1. 7
Si definisce determinante di una matrice quadrata 2-2 la seguente quantità:
a11 a12
det A det a11 a22 a12 a21
a21 a22
Osservazioni:
det A B det A det B
det A det A in particolare
n
det A det A
det A B det A det B Teorema di Binet
det A ' detA
1 1
det A
det A
n
det An det A

Osservazione: determinanti di matrici particolari


Determinante di una matrice diagonale o triangolare (superiore o inferiore)
n
det A ai
i 1

Proprietà dei determinanti


1. se gli elementi di una linea di una matrice quadrata sono tutti nulli, il suo determinante è
nullo
2. se una linea di una matrice quadrata A viene spostata parallelamente di k posizioni, il
k
determinante della matrice così ottenuta è pari a 1 det A
3. se in una matrice quadrata A si scambiano fra loro due linee parallele, il determinante della
matrice così ottenuta è pari a det A
4. il determinante di una matrice quadrata che presenta due linee uguali è nullo
5. il determinante di una matrice quadrata che presenta due linee parallele proporzionali è nullo

Def. 1. 8
Sia A M n.m . Una sottomatrice di A è qualsiasi matrice ottenuta da A eliminandone alcune righe
e/o colonne

Def. 1. 9

Sia A aij una matrice quadrata di ordine n. Chiamiamo cofattore (o complemento algebrico) Aij
di un elemento aij la quantità:
i j
Aij 1 det M ij
dove M ij è la sottomatrice quadrata n 1 n 1 di A ottenuta eliminando la i-esime riga e
la j-esima colonna

2
Teo 1. 1
Sia A una matrice quadrata di ordine n. Allora:
n
det A aij Aij i fissato a piacere
j 1

Esempio
Calcolare sulla base del Teo 1.1 (teorema di Laplace) il determinante della matrice A
1 2 1
A 0 1 3
4 2 0
Scelto i = 1, calcoliamo i tre complementi algebrici
1 1 1 3
A11 1 det 6
2 0
1 2 0 3
A12 1 det 12
4 0
1 3 0 1
A13 1 det 4
4 2
da cui:
det A a11 det A11 a12 det A12 a13 det A13 14
Osservazione: il Teo 1.1, tenuta presente la definizione 1.7 permette di costruire un metodo
generale per la determinazione del determinante di una matrice quadrata.

Def. 1. 10
Si definisce matrice unitaria di ordine n una matrice avente tutti gli elementi della diagonale
principale pari a 1 e i restanti elementi pari a 0
1 0 ... 0
0 1 ... 0
n ij
... ... .... ...
0 0 ... 1

Def. 1. 11
Sia A una matrice quadrata. Se det A 0 allora A è detta matrice singolare. Se det A 0 allora A è
detta matrice non singolare

Def. 1. 12
Sia A una matrice quadrata di ordine n. Se esiste una matrice B tale che AB BA In , allora si dice
che B è la matrice inversa di A. In tal caso A si dice invertibile.
L’inversa di A si indica come A-1

3
Teo 1. 2
Una matrice quadrata di ordine n è invertibile se e solo se essa non è singolare ( det A 0 ). In tal
caso A 1 bij , se n >1, è unica e i suoi elementi hanno la seguente espressione:
A ji
bij
det A
Il generico elemento (i,j) di A-1 è uguale al cofattore di aij diviso per il determinate di A
Esempio
Determinare l’inversa di A
1 0 1
A 1 1 0
0 2 1

Calcoliamo il determinante di A tramite il teorema di Laplace


1 1 1 0 2 1 0 1
det A 1 1 det 1 1 det 1 2 3
2 1 2 1

Poiché det A 0 la matrice A è non singolare e quindi invertibile.


Calcoliamo ora i cofattori:
1 1 1 0 1 2 1 0
A11 1 det 1; A12 1 det 1; A13 2
2 1 0 1
A21 2; A22 1; A23 2
A31 1; A32 1; A33 1
La matrice inversa è dunque
A11 A21 A31 1 2 1 1 2 1
1 1 1 1
A A12 A22 A32 1 1 1 1 1 1
det A 3 3
A13 A23 A33 2 2 1 2 2 1

Alcune proprietà sulla matrice inversa


Se A è simmetrica allora A-1 è simmetrica
1 1 1
AB B A
1 1 1
se 0 A A
1
in generale A B A1 B1
se A è una matrice diagonale anche A-1 è una matrice diagonale
A aij ij A1 aij 1 ij

Rango di una matrice


n
Sia data la matrice A M n, m e consideriamo i vettori a1 , a2 ,.....an così definiti:
a11 a12 a1m
a21 a22 a2 m
a1 a2 ......... am
... ... ...
an1 an 2 anm

4
Possiamo allora pensare di ottenere formalmente la matrice A accostando consecutivamente i
vettori a1 , a2 ,...am e simbolicamente scriviamo:
A a1 , a2 ,....am
n
Quindi possiamo intendere A come una m-upla di vettori .

Def. 2. 1

Si dice rango di A il massimo numero di vettori linearmente indipendenti nell’insieme a1 , a2 ,...am

Teo 2. 1
Il rango di una matrice A è uguale al massimo ordine fra tutte le sottomatrici quadrate di A con
determinante diverso da zero.

Regola di Kronecker per il calcolo del rango di una matrice


Si consideri una matrice A
1. Se A allora rango A = 0
2. Se A allora esiste almeno un elemento aij 0 ed esiste il vettore (riga o colonna)
ai non nullo e ovviamente linearmente indipendente. Quindi, almeno rango A = 1
3. Cerchiamo se esiste un secondo vettore riga indipendente rispetto a ai . Estraiamo
quindi da A tutte le sottomatrici quadrate contenenti aij . Se almeno una di queste
matrici è non singolare allora almeno rango A = 2 (per il Teo 2.1) e sia A(2) una tale
matrice
4. Consideriamo ora tutte le sottomatrici di ordine 3 contenenti A(2) . Se almeno una di
queste è non singolare, ancora per il Teo 2.1 almeno rango A = 3
5. Procediamo ora considerando le sottomatrici di ogni ordine 4,5 …. contenenti
A(3) , A(4) .... Il massimo ordine di tali sottomatrici non singolari è il rango della
matrice A.
Esempio
Determinare il rango della matrice A.
1 0 1 2
A 0 1 1 1
1 0 1 2
Consideriamo l’elemento a11 1 0 . Il rango di A è almeno pari a 1
Consideriamo ora le sotto matrici di ordine 2 contenenti a11
Prima sottomatrice
1 0
A(2) det A(2) 1 0 almeno rango A = 2
0 1
E’ inutile proseguire nel calcolo del determinante delle altre
sottomatrici di ordine 2.
Consideriamo ora le sottomatrici di ordine 3 contenenti A(2)
Prima sottomatrice
1 0 1
(3)
A 0 1 1 det A(3) 2 0
1 0 1
Quindi almeno rango A = 3

5
Poiché non esistono sottomatrici di ordine 4, allora, in definitiva rango A = 3.

Teo 2. 2

Sia A M n, m allora rango A min n, m

Teo 2. 3

Sia A M n, m . Il rango di A non cambia se sono eseguite le seguenti operazioni dette “operazioni
elementari di riga e colonna”
a. Scambio tra di loro di due qualsiasi righe (colonne)
b. Moltiplicazione di ciascun elemento di una riga (colonna) per uno scalare
diverso da zero
c. Somma di una riga (colonna) con altre righe (colonne)

Teo 2. 4
Siano A e B conformabili. Allora:
rango A B min rango A;rango B

Alcune proprietà sui ranghi


rango A ' rango A
rango A ' A rango AA '
rango A B rango A rango B
rango A rango A

Def. 2. 2
Due matrici si dicono equivalenti se sono dello stesso ordine e hanno lo stesso rango

Def. 2. 3

Si dice forma canonica di una matrice A M n, m di rango r A k , la matrice di ordine n m ,


le cui prime k righe e prime k colonne costituiscono la matrice identità e avente tutti gli altri
elementi nulli

Def. 2. 4

Data una matrice A m, n si dice minore di ordine k, estratto da A , una matrice quadrata di ordine k
ottenuta eliminando in A m k righe e n k colonne
Osservazione: un minore di ordine k è una matrice quadrata k , k

Def. 2. 5
Si definiscono minori principali di A di ordine k i minori che si ottengono considerando
sottomatrici formate da k righe e dalle corrispondenti colonne.
Osservazione: se si sceglie ad esempio prima, seconda e quarta riga devo scegliere prima, seconda e
quarta colonna

6
Def. 2. 6
Si chiamano minori principali di Nord-Ovest (NO o NW) di A di ordine k i minori principali che si
ottengono considerando le prime k righe e quindi, di conseguenza, le prime k colonne.
Esempio
Consideriamo la matrice
1 2 3
A 2 4 5
3 5 6

I minori principali di ordine 1 sono ( prima riga, seconda riga, terza riga) 1, 4, 6
I minori principali di ordine 2 sono (1-2 riga/colonna; 1-3 riga/colonna; 2-3 riga/colonna)
1 2 1 3 4 5
2 4 3 6 5 6

Il minore principale di ordine 3 è costituito dalla matrice stessa

7
Sistemi lineari

Def. 3. 1
Un insieme di m equazioni in n incognite x1 , x2 ,...xn
a11 x1 a12 x2 ... a1n xn y1
a21 x1 a22 x2 ... a2 n xn y2
(1.1)
....................................... ... ...
am1 x1 am 2 x2 ... amn xn ym
si dice sistema lineare di m equazioni in n incognite

Def. 3. 2

Dato il sistema (1.1) la matrice A m, n aij si dice matrice dei coefficienti del sistema

Def. 3. 3
Dato il sistema (1.1) il vettore
y1
y2
y
...
ym
si dice vettore dei termini noti.

Def. 3. 4
Dato il sistema (1.1) la matrice ottenuta aggiungendo ad A il vettore dei termini noti si dice matrice
completa, e la si può denotare simbolicamente con A, y

Def. 3. 5

Una n-upla x10 , x20 ,..., xn0 di numeri reali si dice soluzione del sistema (1.1) se le m equazioni del
sistema sono simultaneamente soddisfatte dalla n-upla

Osservazione
Il sistema (1.1) si può riscrivere nella forma equivalente
A x y

Teo 3. 1 (teorema di Rouché-Capelli)


Un sistema lineare A x y di m equazioni in n incognite è risolubile se e solo se la matrice
completa ha lo stesso rango di A, cioè rango A, y rango A
Osservazione
Il teorema di Rouché-Capelli caratterizza la risolubilità dei sistemi lineari, ma non fornisce
condizioni immediate per l’unicità della soluzione.
Tuttavia nel caso particolare in cui il numero di equazioni sia uguale al numero delle incognite,
ovvero m n , dal teorema di Rouché-Capelli segue immediatamente un risultato, noto come
teorema di Cramer, che dà una condizione per l’unicità della soluzione e dal quale si deduce una
semplice regola pratica (la regola di Cramer ) per la determinazione esplicita della soluzione.

8
Teo 3. 2
Sia un sistema lineare A x y di n equazioni in n incognite. Se A è una matrice non singolare
det A 0 allora il sistema ammette una e una sola soluzione.
Osservazione
1
det A 0 A
A x y A 1A x A 1y x A 1
y

Teo 3. 3 (regola di Cramer)


Dato un sistema lineare A x y di n equazioni in n incognite (n >1) con det A 0 , la soluzione del
sistema x x1 , x2 ,...xn ' è data da:
det X ( i )
xi
det A
dove X (i ) è la matrice che si ottiene da A sostituendo alla i-esima colonna il vettore dei termini noti

Def. 3. 6
Un sistema lineare Ax b si dice possibile se ammette almeno una soluzione. In tal caso le
equazioni del sistema si dicono compatibili

Def. 3. 7
Se un sistema non ammette soluzioni si dice impossibile. In tal caso le equazioni del sistema si
dicono incompatibili.

9
Spazi vettoriali

Def. 4. 1
Una n-upla di numeri reali ordinata in colonna è detta vettore n-dimensionale.

Def. 4. 2
Si definisce vettore nullo il vettore avente tutte le componenti nulle

Def. 4. 3
Assegnato il vettore x il suo opposto, che chiameremo x è un vettore le cui componenti sono
opposte alle corrispondenti componenti del vettore x

Def. 4. 4

Denotiamo con n
l’insieme dei vettori a n componenti

Osservazione
n
In linguaggio matriciale un vettore x può essere pensato come una matrice ( n 1 ).
Molte definizioni e proprietà dei vettori possono pensarsi come particolarizzazioni della teoria delle
matrici.

Def. 4. 5
n
Siano x e y vettori in . Chiamiamo vettore somma di x e y il vettore z di seguito definito:
zi xi yi i 1,2,..., n

Proprietà della somma di vettori


n
x y
x y y x proprietà commutativa
x y z x y z proprietà associativa
x x esistenza dell’elemento neutro
x x esistenza dell’opposto

Def. 4. 6
n
Sia x e uno scalare. Il prodotto di x per è un vettore z tale che:
zi xi i 1,2,..., n

Proprietà del prodotto di un vettore per uno scalare


x x
x y x y proprietà distributiva rispetto alla somma di vettori
x x x proprietà distributiva rispetto alla somma di scalari
sia 1 l’unità reale, allora 1 x x

10
Def. 4. 7
L’insieme di n munito delle operazioni di somma e prodotto per uno scalare si dice spazio
vettoriale. Indicheremo il generico spazio vettoriale n con V

Osservazione
L’insieme delle matrici M n, m è uno spazio vettoriale

11
Sottospazi vettoriali e combinazioni lineari

Def. 5. 1
Sia X V . X si dice sottospazio lineare (sottospazio vettoriale o varietà lineare) di V se,
comunque presi x, y X e , valgono le seguenti condizioni:
x y X
x X

Def. 5. 2

Siano x1 , x2 ,..., xr V r vettori e siano 1 , 2 ,..., r r scalari. Definiamo combinazione


lineare degli r vettori con coefficienti 1 , 2 ,..., r il vettore
r
x 1 x1 2 x2 ... r xr x
i i
i 1

Def. 5. 3

Un insieme di vettori x1 , x2 ,..., xr V si dice costituto da vettori linearmente dipendenti se


esiste un insieme di scalari 1 , 2 ,..., r , non tutti nulli, tale che
r

i i x 0
i 1

Def. 5. 4
Un insieme di vettori si dice costituito da vettori linearmente indipendenti se la relazione
r
x
i i 0 è soddisfatta solo per 1 2 ... r 0
i 1

Teo 5. 1

Un insieme di vettori x1 , x2 ,..., xr V è costituito da vettori linearmente dipendenti se e solo se


sussiste almeno una delle due seguenti condizioni:
almeno uno di questi vettori è il vettore nullo
almeno uno di questi vettori è esprimibile come combinazione lineare degli altri.

Def. 5. 5

Sia X V , X x1 , x2 ,...xr un sottoinsieme di vettori di V . Chiamiamo sottospazio lineare


generato da X l’insieme X di tutte le combinazioni lineari di elementi di X

Esempio 1
3
Sia X il sottoinsieme di così definito:
1 0
X x1 0 ; x2 1
0 1
Osserviamo che x1 e x2 sono linearmente indipendenti

La più generica combinazione lineare degli elementi di X è:

12
x x1 x2 ,

Quindi

X x ; ,

Esempio 2
2
Sia X il sottoinsieme di così definito:
1 0
X x1 ; x2
0 1
Osserviamo che x1 e x2 sono linearmente indipendenti
La più generica combinazione lineare degli elementi di X è:
x x1 x2 ,

Notiamo così che


2
X

Def. 5. 6

Sia spazio vettoriale V . Un sottoinsieme B x1 , x2 ,..., xr di V si dice base di V se sono verificate


queste due condizioni:
B è un insieme di vettori linearmente indipendenti
B V cioè il sottospazio lineare generato da B coincide con l’intero spazio V
Esempio
Sia lo spazio 2 . Dimostrare che gli insiemi
1 1 1 0
Bx x1 ; x2 By y1 ; y2
0 1 1 1
sono entrambi basi di 2 .
Per la supposta base Bx si ha:
1 1
, x1 x2
0 1 0
da cui x1 x2 0 0 x1 e x2 sono linearmente indipendenti
La prima condizione è pertanto soddisfatta.
2
Per dimostrare che Bx è base di 2 dobbiamo anche verificare che Bx

Bx x con , . Quindi per l’arbitrarietà di e si ha Bx 2

Per la supposta base B y la dimostrazione è del tutto analoga.


Osservazione: dall’esercizio precedente si vede come, per un dato spazio vettoriale, possano esistere
più basi. E’ allora naturale domandarsi se differenti basi di un medesimo spazio vettoriale possano
avere un diverso numero di elementi. La risposta sta nel Teo 5.2

13
Teo 5. 2
Le basi un medesimo spazio vettoriale devono avere lo stesso numero di elementi. Più formalmente:
siano Bx x1 , x2 ,..., xr e By y1 , y2 ,..., ys due basi dello stesso spazio vettoriale V, allora r s

Def. 5. 7
Si dice dimensione di uno spazio vettoriale V il numero di elementi (cardinalità) costituenti una
sua base. Se n è il numero di vettori di una base di V scriveremo dimV n

Osservazione: abbiamo visto che, data una base B x1 , x2 ,..., xn di uno spazio vettoriale V , ogni
n
elemento x V si può esprimere come combinazione lineare dei vettori della base, ossia x x
i i
i 1

Questa rappresentazione è unica, ossia fissata la base, gli scalari 1 , 2 ,..., n sono univocamente
determinati per ogni vettore dello spazio.

Def. 5. 8

Sia B x1 , x2 ,..., xn una base di uno spazio vettoriale V e sia x V . Diciamo componente i-esima
del vettore x rispetto a xi (i-esimo vettore della base) il coefficiente i nella combinazione lineare
n
x x
i i
i 1

14
La “geometria” negli spazi vettoriali (finito dimensionali)

Denotiamo con Vn un generico spazio vettoriale di dimensione n. Ricordiamo che in tale spazio, un
generico vettore x è rappresentato da una n-upla di numeri reali, cioè:
x1
x2
x
....
xn
dove x1 , x2 ,..., xn sono le componenti del vettore riferite a una qualche base fissata.

Def. 6. 1
Siano x e y vettori di Vn . Definiamo prodotto scalare di x con y ( o anche prodotto interno) e lo
denotiamo con x y (o anche x y ) la quantità:
n
x y x1 y1 x2 y2 ... xn yn xi yi
i 1

Osservazione: è immediato riconoscere che x y x' y

Def. 6. 2
1/ 2
Sia x Vn . Definiamo norma di x , e la denotiamo con x , la quantità: x x y

Alcune proprietà della norma


x 0
x y x y disuguaglianza triangolare
x x
x 0 se e solo se x
x y x y disuguaglianza di Cauchy
2 2 2 2
x y x y 2 x y identità del parallelogrammo
2 2 2
se x y allora x y x y teorema di Pitagora
n 2 n
2
xi xi teorema di Pitagora generalizzato
i 1 i 1

Def. 6. 3
Siano x, y Vn . Definiamo distanza tra x e y la quantità:
1/ 2
d x, y x y x y x y

Def. 6. 4

Siano x, y Vn . Diciamo che x è ortogonale a y , e scriviamo x y , se x y 0

15
Def. 6. 5
Siano x, y Vn due vettori non nulli. L’angolo fra x e y è definito da:
x y
cos
x y

Def. 6. 6

Sia x Vn . Si dice che x è normalizzato se x 1

Def. 6. 7

x y
Siano x, y Vn due vettori non nulli. Si dice proiezione di x su y il vettore: 2
y
y
x y
Il numero 2
si dice componente di x lungo y
y

Def. 6. 8

Sia X x1 , x2 ,..., xn un sottoinsieme di uno spazio vettoriale V . Allora:


X si dice ortogonale se xi xj i, j
X si dice ortonormale se è ortogonale e xi 1 i

Osservazione: data una generica base B di uno spazio vettoriale, a prodotto interno, è sempre
possibile costruire, a partire da questa, una base ortonormale. (vedi metodo di ortogonalizzazione di
Gram-Schmidt)

Esempio 1
1 0
Sia in 2
l’insieme B u1 , u2 u1 u2
0 1
1. Dimostrare che B è una base ortonormale di 2
2. Trovare le componenti di un generico vettore lungo la base.
2 2
Affinché B sia una base di occorre dimostrare che u1 e u2 sono linearmente e che B .
0
u1 u2 0 0
0
Quindi u1 e u2 sono effettivamente linearmente indipendenti
2
Dimostriamo ora che B
x1
Preso un vettore qualunque x è facile verificare che può sempre essere
x2
ottenuto come combinazione lineare dei vettori costituenti la base:
x x1u1 x2u2
Dimostriamo ora l’ortogonalità
0
u1 u2 1 0 0
1
Le componenti della base sono ortogonali
Dimostriamo che le norme delle componenti delle basi sono unitarie

16
1/1 1/1
u1 u1 u1 1 u2 u2 u2 1
La base B è pertanto ortonormale.

Le componenti lungo u1 e u2 del vettore x valgono:


x u1 x u2
x u1 u2 x1u1 x2u2
u1 u2

17
Esempio 2
2 1
Verificare che l’insieme B x1 , x2 con x1 x2 è una base di 2

0 1
Sono i vettori x1 e x2 normalizzati e ortogonali?

Dimostriamo l’indipendenza di x1 e x2
Consideriamo una generica combinazione lineare di x1 e x2 e imponiamola uguale al vettore
nullo:
2 0
x1 x2 0 0
0
2
Dimostriamo ora che B
x1
Preso un vettore qualunque x è facile verificare che può sempre essere
x2
ottenuto come combinazione lineare dei vettori costituenti la base. La più generica
combinazione lineare degli elementi di B è:
2
x x1 x2 ,
2
Per la arbitrarietà di e si ha B
Controlliamo ora la normalizzazione
1/ 2
x1 x1 x1 4 2
1/ 2
x2 x2 x2 2
x1 e x2 sono entrambi non normalizzati

Verifichiamo l’ortogonalità
x1 x2 2 0
x1 e x2 non sono ortogonali

Osservazione
Dato uno spazio vettoriale V e in esso una base B x1 , x2 ,..., xn ortogonale, comunque considerato
un vettore x V , i coefficienti della combinazione lineare generante x coincidono con le
componenti di x lungo x1 , x2 ,..., xn . Ossia:
x x
1 1 2 x2 ... n xn
x x1 x x2 x xn
1 ; 2 ;......; n
x1 x2 xn

18
Il metodo di ortogonalizzazione di Gram-Schmidt

Il metodo di ortogonalizzazione di Gram-Schmidt consente di costruire (in uno spazio vettoriale a


prodotto interno), a partire da un insieme di vettori linearmente indipendenti, un insieme di vettori
ortonormali che genera la stessa varietà lineare dei vettori di partenza.
Formalmente possiamo illustrare tale risultato nel modo seguente:
Sia x1 , x2 ,..., xi ,... un insieme (al più numerabile) di vettori linearmente indipendenti di uno spazio
vettoriale X (a prodotto interno), allora esiste, in X , un insieme ortonormale u1 , u2 ,..., ui ,... (al più
numerabile) tale che la varietà lineare da esso generata coincide con quella generata da
x1 , x2 ,..., xi ,... .

Esaminiamo ora il processo di ortogonalizzazione di Gram-Schmidt tramite un esempio.


Sia X 2
, munito dell’usuale prodotto interno. Dati i vettori:
1 0
x1 x2
1 1
notato che questi sono linearmente indipendenti, ma non ortogonali, costruiamo da loro, utilizzando
il metodo di Gram-Schmidt, un sistema ortonormale.

x1 1/ 2 1 2 1 2 2
1. poniamo u1 x1 x1 x1 1, 1 1 1 2 u1
x1 1 2 1 2 2
2. costruiamo ora u2 . Poniamo:
h2
u2 con h2 x2 u1 x2 u1
h2
2 0 2 2
u1 x2 1, 1 1 da cui ricaviamo h2
2 1 2 2
0 2 2 2 1/ 2
h2
1 2 2 2 1/ 2

1/ 2 12 2
h2 h2 h2 1 2, 1 2
12 2
Infine si ha pertanto:
h2 12 2 2 2
u2
h2 12 2 2 2

3. verifichiamo, per completezza, che effettivamente u1 e u2 sono fra loro ortogonali.


2 2
u1 u2 2 2, 2 2 0
2 2

19
Matrici e Operatori Lineari
m
Consideriamo una qualsiasi matrice A M n, m . Comunque preso un vettore x , osserviamo
n
che il prodotto (righe per colonne) A x esiste e definisce un vettore y .
Simbolicamente scriviamo:
m n
A:
x y A x
E’ immediato verificare che:
m
1. x1 , x2 A x1 x2 Ax1 Ax2
m
2. x A x Ax
La circostanza che la matrice soddisfa le proprietà prima definite si riassume dicendo che la
matrice A è un operatore lineare.

Def. 7. 1
Siano X e Y due spazi vettoriali consideriamo un’applicazione su X a valori in Y A: X Y
A si dice operatore lineare se:
1. x1 , x2 X A x1 x2 Ax1 Ax2
2. x X A x Ax

Osservazione: l’aggettivo lineare ha una giustificazione nel fatto che gli unici operatori lineari
A: sull’insieme dei numeri reali sono rette

Esempio 1
Verificare che le rette passanti per l’origine del piano cartesiano rappresentano gli operatori lineari
A: ( x Ax mx m )
Verifichiamo la prima condizione
x1 , x2 X A x1 x2 Ax1 Ax2
A x1 x2 m x1 x2 mx1 mx2 Ax1 Ax2
Verifichiamo la seconda condizione
x X A x Ax
A x m x mx Ax

Esempio 2
Verificare che l’operatore A di seguito definito è lineare
x1
2 3
x1
A: x Ax x2
x2
0

Verifichiamola prima condizione


x X A x Ax
Siano
x1 x '1
x x'
x2 x '2

20
x1 x '1 x1 x '1
x x '1
A x x' A 1 x2 x '2 x2 x '2 Ax Ax '
x2 x '2
0 0 0
Verifichiamo la seconda condizione
x X A x Ax
x1 x1
x1
A x A x2 x2 Ax
x2
0 0

Abbiamo già osservato che una matrice A M n, m definisce un operatore lineare da m in n . E’


allora spontaneo domandarsi se, preso un generico operatore lineare da m in n , questo è
rappresentabile da una qualche matrice di tipo n, m . La riposta è positiva ed è fornita dal seguente
teorema.

Teo 7. 1

Sia M n, m l’insieme delle matrici di tipo n, m , £ m


, n
l’insieme degli operatori lineari da m

n m n
in . Per ogni operatore A £ , esiste una matrice A M n, m che lo rappresenta.

Osservazione: dato un operatore A i coefficienti della matrice associata all’operatore dipendono


dalle particolari basi di riferimento considerate negli spazi m e n . Tuttavia, fissate le basi, la
matrice A che rappresenta l’operatore è unica.

Teo 7. 2

Siano A : m n
un operatore lineare e B1 v1 , v2 ,..., vm e B2 u1 , u2 ,..., u n due basi ortonormali
m n
in e , rispettivamente.
La rappresentazione matriciale di A è data dalla matrice A aij M n, m con
aij ui Av j i 1,...n j 1,...m

Osservazione: se in particolare noi consideriamo un operatore A da n in sé, ogni matrice che lo


rappresenta è quadrata di ordine n e, se u1 , u2 ,..., un è il sistema ortonormale di riferimento in n ,
l’elemento generico della matrice vale aij ui Au j i, j 1...n

Esempio
Si consideri l’operatore
2 2
A:
x1 x2
x Ax
x2 x1
Dopo aver verificato che A è lineare se ne espliciti la rappresentazione matriciale rispetto alle
seguenti basi ortonormali
1 0 1 2 1 2
B1 u1 , u2 B2 u1 , u2
0 1 1 2 1 2
Verifichiamo che A è lineare

21
x1 x1 x1 x1 x2 x2 x2 x2
1. x x A Ax Ax
x2 x2 x2 x2 x1 x1 x1 x1
x1 x1 x2 x2
2. preso x A x A Ax
x2 x2 x1 x1

A è pertanto lineare.

Rappresentazione matriciale dell’operatore rispetto a B1


a11 u1 Au1 0
a12 u1 Au2 1 0 1
A
a21 u2 Au1 1 1 0
a22 u2 Au2 0

Rappresentazione matriciale dell’operatore rispetto a B2


E’ facile verificare che in questo caso
1 0
A
0 1

Def. 7. 2
Sia X uno spazio vettoriale con prodotto interno. Un operatore lineare A : X X si dice invertibile
se esiste un operatore lineare A 1 : X X tale che A 1 A AA 1 1 . In tal caso A 1 si dice operatore
inverso di A .

Def. 7. 3

Sia A M n, m . La matrice aggiunta di A , che indicheremo con A * , è così definita:


A* A ' La matrice aggiunta è la coniugata della trasposta
Osservazione: se ci limitiamo a considerare l’insieme delle matrici reali allora A* A '

Def. 7. 4
Sia A : X Y un operatore lineare su X a valori in Y . Si dice aggiunto di A l’operatore lineare
A*: Y X che soddisfa la relazione y Ax A* y x

Def. 7. 5
Sia A : X Y un operatore lineare su X a valori in Y . A si dice autoaggiunto se A* A
autoaggiunto
Ovvero: y Ax A* y x y Ax Ay x

Def. 7. 6
Sia A : X Y un operatore lineare su X a valori in Y .
Un operatore lineare si dice simmetrico se y Ax Ay x

Osservazione: un operatore lineare su uno spazio vettoriale a prodotto interno è autoaggiunto se e


solo se è simmetrico

22
Def. 7. 7
Un operatore lineare P : X X su uno spazio vettoriale a prodotto interno si dice proiettore se:
1. P2 P è idempotente
*
2. P P è autoaggiunto

Def. 7. 8
Un operatore lineare S : X X su uno spazio vettoriale a prodotto interno è detto ortogonale se
S *S 1
1
Osservazione: se S è invertibile e ortogonale segue che S * S

Teo 7. 3

Una matrice S M n è ortogonale se e solo se i suoi vettori colonna costituiscono un sistema


ortonormale completo in n
Osservazione: una matrice A è ortogonale se A 1 A'

Forme quadratiche
Una forma quadratica reale in n variabili x1 ,...xn è un polinomio omogeneo di secondo grado a
coefficienti reali
n
F: F x1 ,...xn a11 x12 ...xn2 2aij xi x j aij
1 i j n

Una forma quadratica può essere scritta in forma matriciale come segue:
F X X ' AX
Dove A è la matrice simmetrica con coefficienti
aii coeff xi2 , i 1,..., n aij a ji coeff xi x j 2, 1 i j n
a11 a12 ... a1n x1
a21 a22 ... a2 n x2 n n
X ' AX x1 x2 ... xn aij xi x j
... ... ... ... ... i 1 j 1

an1 an 2 ... ann xn


Osservazione: i termini xi x j con i j hanno coefficienti aij a ji . Una forma quadratica può essere
associata anche ad una matrice A non simmetrica. In questo caso invece della matrice A può essere
A A' aij a ji
utile considerare la matrice A i cui elementi sono aij . La matrice A , ovviamente
2 2
simmetrica, caratterizzerà la medesima forma quadratica. Pertanto ad ogni forma quadratica può
sempre essere associata una matrice simmetrica.

Def. 8. 1
Sia X uno spazio vettoriale con prodotto interno e sia A : X X un operatore lineare su X a valori
in X . Si dice forma quadratica associata all’operatore A l’applicazione così definita:
QA : X
x QA x x Ax
Inoltre:
1. se x X QA x 0 x 0 : QA x 0 QA e A si dicono semidefinite positive
2. se x X, x 0 QA 0 QA e A si dicono definite positive

23
3. se x X QA x 0 x 0 : QA x 0 QA e A si dicono semidefinite negative
4. se x X, x 0 QA 0 QA e A si dicono definite negative
5. se x 0 QA x 0 x 0 QA x 0 QA e A si dicono indefinite

Def. 8. 2
Con riferimento ai minori della matrice A associata, una forma quadratica viene definita come
segue:
1. è definita positiva se e solo se tutti i minori principali di NW sono positivi;
2. è definita negativa se e solo se tutti i minori principali di NW di A di ordine pari sono
positivi e tutti i minori principali di NW di A di ordine dispari sono negativi;
3. è semidefinita positiva se e solo se tutti i minori principali di A sono non negativi ed inoltre
det A 0
4. è semidefinita negativa se e solo se tutti i minori principali di NW di A di ordine pari non
negativi e tutti i minori principali di NW di A di ordine dispari sono non positivi ed inoltre
det A 0
5. è indefinita se e solo se non si verifica alcuna delle condizioni precedenti

Esempio
n
Sia A aij una matrice che rappresenta un certo operatore simmetrico A su .
n
Considerato il vettore x , x x1 .... xn ' , calcolando il prodotto righe per colonne Ax e poi il
prodotto interno, abbiamo:
n
a1 j x j
x1 j 1
n n n n
QA x x Ax .... .... x1 a1 j x j ... xn anj x j aij xi x j
n j 1 j 1 i 1 j 1
xn
anj x j
j 1

Osservazione: la rappresentazione esplicita di una forma quadratica QA x Ax dipende dalla


matrice considerata associata all’operatore A.
Per rappresentare in modo strutturalmente semplice la forma quadratica sarebbe auspicabile
disporre di una matrice diagonale associata all’operatore A
Se attuabile una tale rappresentazione è detta “riduzione canonica” della forma quadratica QA
associata all’operatore A .

Teo 8. 1

Sia A : n n
un operatore lineare simmetrico su n e A una sua rappresentazione matriciale.
Esiste una matrice ortogonale S M n tale che la matrice S * AS è ancora una
rappresentazione matriciale dell’operatore e inoltre è diagonale, ovvero i ij .

Osservazione: se consideriamo la forma quadratica QA associata a un operatore lineare simmetrico


A su n e la esprimiamo attraverso una matrice diagonale (che esiste per il Teo 8.1), avremo
n n n
2
QA x i ij ix xj x
i i
i 1 j 1 i 1

24
Quindi la riduzione in forma canonica di una forma quadratica QA associata ad un operatore lineare
simmetrico A su n si può ricavare esprimendo QA rispetto alla matrice diagonale che
rappresenta l’operatore.
Una volta stabilito con il Teo 8. 1 che data una rappresentazione matriciale di un operatore lineare
simmetrico su n è sempre possibile costruire una matrice diagonale che lo rappresenta, occorre
trovare la forma esplicita della matrice ossia dobbiamo trovare un modo per costruire tale
matrice.

Def. 8. 3
Sia A : X X e sia X uno spazio vettoriale con prodotto interno e a dimensione finita.
Si dice spettro (puntuale) di A l’insieme P A così definito
P A : Ax x per qualche x 0
Inoltre:
1. gli scalari P A si dicono autovalori di A

2. P A i vettori x X , x 0 tali che Ax x si dicono autovettori dell’operatore A


relativi all’autovalore
3. P A il sottospazio X generato dagli autovettori di A relativi all’autovalore si
dice autospazio relativo all’autovalore e la sua dimensione molteciplicità dell’autovalore

Osservazione: l’insieme degli autovalori i di A viene detto spettro di A . Se * è l’autovalore di


massimo modulo, allora * è chiamato raggio spettrale di A
Teo 8. 2
Sia A : X X un operatore lineare su X . Se è un autovalore di A e x un autovetture
corrispondente, allora ogni vettore del tipo x con 0 è autovetture di A relativo all’autovalore

Teo 8. 3
Sia A una matrice quadrata di ordine n . Uno scalare è autovalore di A se e solo se
det A 1 0

Teo 8. 4
Due qualsiasi rappresentazioni matriciali del medesimo operatore hanno gli stessi autovalori (gli
autovalori dell’operatore)

Teo 8. 5
Sia A : X X un operatore lineare e S : X X un operatore ortogonale su X . Allora
P A P S * AS

In altri termini: gli autovalori di A sono tutti e soli gli autovalori di S * AS

Teo 8. 6 (Teorema fondamentale dell’algebra)


Gli autovalori di una matrice di ordine n sono esattamente n ciascuno contato con la propria
molteciplicità. x è autovettore associato all’autovalore quando è soluzione del sistema omogeneo
A I x 0 . Tale sistema ammette infinite soluzioni.

25
Def. 8. 4
Due matrici quadrate A e B si dicono simili quando esiste una matrice P non singolare tale che
B P 1 AP
Osservazione: due matrici simili hanno la stessa equazione caratteristica e dunque gli stessi
autovalori.
Dim.
Dal teorema di Binet det( AB) det A det B , quindi
1
det P 1 AP det P 1
det A det P det P det A det P det A . Conseguentemente
B I P 1 AP I P 1 AP P 1
IP P 1
A I P A I cvd
Osservazione: due matrici simili hanno lo stesso rango, lo stesso determinante e la stessa traccia.

Esempio
Trovare gli autovalori e gli autovettori della seguente matrice
1 0
A
1 2

Ricerca autovalori
Consideriamo l’equazione scalare associata
det A 1 0
Esplicitamente
1 0 0 1 0
A 1
1 2 0 1 2
1 0
det A 1 det 1 2
1 2
L’equazione scalare è:
1 2 0
E gli autovalori sono 1; 2
Ricerca autovettori
Cominciamo a considerare l’autovalore 1 . Allora gli autovettori ad esso relativi sono le
soluzioni x non nulle del sistema A 1 x 0
x1
Esplicitamente posto x abbiamo:
x2
0 0 x1 0
da cui x2 x1
1 1 x2 0
Così, comunque preso 0 gli autovettori di A relativi a 1 sono della forma

Se, ad esempio, tra questi desideriamo considerare l’autovettore normalizzato, basta


porre x 0 . Si ha quindi:
1/ 2
1/ 2 2 2
1 x x x 2
2
Quindi

26
2 1
x sono gli autovettori normalizzati
2 1
Consideriamo ora l’autovalore 2 . Allora gli autovettori ad esso relativi sono le soluzioni
x non nulle del sistema A 1 x 0
x1
Esplicitamente posto x abbiamo
x2
1 0 x1 0
da cui x1 0.
1 0 x2 0
0
Così, comunque preso 0 gli autovettori di A relativi a 2 sono della forma x

0
Gli autovettori normalizzati sono evidentemente x
1

Siamo ora in grado di risolvere il problema della diagonalizzazione di una matrice quadrata
simmetrica. Prima però enunciamo alcune proprietà degli autovalori e degli autovettori che
riferiamo alle matrici.
Sia dunque A M n e P A 1 , 2 ,..., n il suo spettro
1. il prodotto degli autovalori di A è uguale al determinante di A
n
det A i
i 1

2. la somma degli autovalori di A è uguale alla traccia di A .


n
tr A i
i 1

3. se A è una matrice diagonale i suoi autovalori sono gli elementi della diagonale
principale
4. se A è simmetrica i suoi autovalori sono reali
5. se A è definita positiva allora i 0 i
6. se A è semidefinita positiva e di rango r n allora essa possiede r autovalori
distinti e n r autovalori nulli
7. siano A, B M n . Gli autovalori non nulli di AB sono uguali agli autovalori non
nulli di BA
8. autovettori relativi ad autovalori distinti sono linearmente indipendenti
9. se A è simmetrica, autovettori relativi ad autovalori distinti sono ortogonali
10. se la matrice A possiede autovalori A 0 allora la matrice ammette l’inversa
A 1 . Gli autovalori di A 1 sono i reciproci degli autovalori di A . Inoltre A e A 1
hanno gli stessi autovettori
11. la matrice A ' trasposta di A ha gli stessi autovalori di A (ma non gli stessi
autovettori)

Teo 8. 7

Sia A M n una matrice quadrata simmetrica di ordine n . La matrice diagonale M n che


rappresenta il medesimo operatore di A è quella che ha sulla diagonale principale gli autovalori
dell’operatore.

27
Osservazione: è utile notare che la matrice ortogonale S si può costruire prendendo come colonne
di S gli autovettori normalizzati di A

Def. 8. 5
Sia A una matrice quadrata di ordine n avente autovalori 1 , 2 ,..., n viene detta molteciplità
algebrica di i , e la indichiamo con m i , la molteciplicità di i come radice dell’equazione
caratteristica

Def. 8. 6
Sia A una matrice quadrata di ordine n avente autovalori 1 , 2 ,..., n viene detta molteciplità
geometrica di i , e la indichiamo con i , la dimensione del sottospazio vettoriale costituito

dalle soluzioni del sistema A 1 0 , ossia i n r A i1

Teo 8. 8
Sia A una matrice quadrata di ordine n ,. Condizione necessaria e sufficiente affinché A sia
diagonizzabile è che per ciascuno dei suoi autovalori, molteciplità algebrica e geometrica
coincidano.

Teo 8. 9
Sia A una matrice quadrata di ordine n con n autovettori linearmente indipendenti. La matrice A è
sicuramente diagonalizzabile.

Teo 8. 10
Sia A una matrice quadrata di ordine n con n autovalori distinti La matrice A è sicuramente
diagonalizzabile.

Teo 8. 11
Sia A una matrice simmetrica
1. A è definita positiva (negativa) solo se i suoi autovalori sono tutti positivi (negativi)
2. A è semidefinita positiva (negativa) solo se i suoi autovalori sono tutti non negativi (non
positivi)
3. A è indefinita se ha autovalori di segno opposto
4. A è sempre diagonizzabile e la matrice S che realizza tale diagonalizzazione è ortogonale

Def. 8. 7
Una matrice quadrata A di ordine n è detta decomponibile o riducibile o non connessa se è
possibile, scambiando tra loro alcune righe e le corrispondenti colonne, ottenere una matrice così
partizionata .
A11 A12 A11 0
oppure
0 A22 A21 A22
dove Aij sono matrici quadrate e 0 la matrice nulla
Osservazioni:
la matrice nulla è decomponibile
la matrice positiva è irriducibile

28
se A è decomponibile (indecomponibile) lo è anche A '
una matrice che non contiene zeri è indecomponibile
una matrice indecomponibile non può contenere una riga e/o una colonna nulla.

Teo 8. 12 (teorema forte di Perron-Frobenius)


Sia A una matrice quadrata non negativa e indecomponibile, allora:
A possiede un autovalore * (autovalore dominante) reale, positivo, maggiore o uguale al modulo
di ogni altro autovalore di A e radice semplice dell’equazione caratteristica det A I 0
Osservazione: * è l’unico autovalore cui è possibile associare un autovettore con componenti
dello stesso segno e non nulle.

Teo 8. 13 (teorema debole di Perron-Frobenius)


Sia A una matrice quadrata non negativa e indecomponibile, allora:
A possiede un autovalore * (autovalore dominante) reale, positivo, maggiore o uguale al modulo
di ogni altro autovalore di A soluzione dell’equazione caratteristica det A I 0
Osservazione: a * è sempre possibile associare un autovettore con componenti dello stesso segno
e non nulle.

Esercizi sulla diagonalizzazione


Assegnata la matrice
4 2
A trovare una matrice P tale che P 1 AP
2 1

Preliminarmente si osserva che A è simmetrica, quindi sicuramente diagonizzabile.


Si determinano gli autovalori di A
4 2 1 0
det A I 0 det 0 4 1 4 0
2 1 2 5
Si calcolano gli autovettori associati agli autovalori
4 1 x1 2 x2 0 4 x1 2 x2 0 1
x2 2 x1 t
2 x1 1 1 x2 0 2 x1 x2 0 2
4 2 x1 2 x2 0 x1 2 x2 0 2
x1 2 x2 t
2 x1 1 2 x2 0 2 x1 4 x2 0 1
La matrice P vale
1 2 1 1 2 1 1 2
P P1
2 1 det P 1 1 5 2 1
Osservazione: per trovare l’inversa di A (2x2) basta scambiare tra loro gli elementi sulla diagonale
principale, cambiare di segno gli altri elementi e dividere tutto per il determinate di A.

Verifichiamo che P 1 AP . Infatti:


1 1 2 4 2 1 2 1 0 0 0 0
5 2 1 2 1 2 1 5 0 5 0 1

29
ESERCIZI

Esercizio 1. Data la matrice

1 0 1
A 0 2 2
1 0 1

1. determinarne autovalori ed autovettori


2. stabilire se è diagonizzabile

Soluzione
1. Gli autovalori sono le soluzioni della seguente equazione (vedi Teo 8. 3)
det A 1 0
1 0 1
det 0 2 2 0 1 1 2 2 0
1 0 1
2 2
2 1 1 2 0 1 2; 2 0 con molteciplità algebrica 2 (vedi Def. 8. 5)

Ricerchiamo ora gli autovettori


Gli autovettori associati ad un autovalore sono vettori x che verificano il seguente sistema:
A 1 x 0
Consideriamo 1 2
1 0 1 2 0 0 x1 0 1 0 1 x1 x1 x3 0
0 2 2 0 2 0 x2 0 0 0 2 x2 2 x3 0
1 0 1 0 0 2 x3 0 1 0 3 x3 x1 3x3 0
x2 x3 0; x1 0
Un autovetture associato all’autovalore 1 2 deve essere del tipo
0
x 1
0
Consideriamo 2 0
1 0 1 0 0 0 x1 0 1 0 1 x1 x1 x3 0
0 2 2 0 0 0 x2 0 0 2 2 x2 2 x2 2 x3 0
1 0 1 0 0 0 x3 0 1 0 1 x3 x1 x3 0
x2 x3 x2 ; x1 x2
Un autovetture associato all’autovalore 2 0 deve essere del tipo
1
x 1
1
2. 2 ha molteciplicità algebrica 2 e molteciplicità geometrica 3 r ( A 01) 3 2 1 . Pertanto in
base al Teo 8. 8 la matrice A non è diagonizzabile.

30
Esercizio 2. Data la matrice

1 0 1
A 0 2 0
1 0 1

1. determinarne autovalori e autovettori


2. stabilire il segno della forma quadratica Q x x Ax
Soluzione
1. Gli autovalori sono le soluzioni della seguente equazione (vedi Teo 8. 3)
det A 1 0
1 0 1
2 2
det 0 2 0 0 1 2 2 2 0
1 0 1
1 0; 2 2 con molteciplità algebrica 2 (vedi Def. 8. 5)

Ricerchiamo ora gli autovettori


Gli autovettori associati ad un autovalore sono vettori x che verificano il seguente sistema:
A 1 x 0
Consideriamo 1 0
1 0 1 0 0 0 x1 0 1 0 1 x1 x1 x3 0
0 2 0 0 0 0 x2 0 0 2 0 x2 2 x2 0
1 0 1 0 0 0 x3 0 1 0 1 x3 x1 x3 0
x1 x3 x1; x2 0
Un autovetture associato all’autovalore 1 0 deve essere del tipo
1
x 0
1
Consideriamo 2 2
1 0 1 2 0 0 x1 0 1 0 1 x1 x1 x3 0
0 2 0 0 2 0 x2 0 0 0 0 x2 0 0
1 0 1 0 0 2 x3 0 1 0 1 x3 x1 x3 0
x1 , x2 x3 x1
Un autovetture associato all’autovalore 2 0 deve essere del tipo

x ,

2. La forma quadratica Q x x Ax è semidefinita positiva dato che gli autovalori di A sono non
negativi e almeno uno di essi è nullo. (Teo 8. 11 pag.28)

31
Esercizio 3. Data la matrice

1 0 1
A 1 2 0
0 0 1

1. determinarne autovalori e autovettori;


2. stabilire se A è diagonizzabile.

Soluzione
1. Gli autovalori sono le soluzioni della seguente equazione (vedi Teo 8. 3)
det A 1 0
1 0 1
2
det 1 2 0 0 1 2 0
0 0 1
1 2; 2 1 con molteciplità algebrica 2 (vedi Def. 8. 5)

Ricerchiamo ora gli autovettori


Gli autovettori associati ad un autovalore sono vettori x che verificano il seguente sistema:
A 1 x 0
Consideriamo 1 2
1 0 1 2 0 0 x1 0 1 0 1 x1 x1 x3 0
1 2 0 0 2 0 x2 0 1 0 0 x2 x1 0
0 0 1 0 0 2 x3 0 0 0 1 x3 x3 0
x2 x3 x1 0
Un autovetture associato all’autovalore 1 2 deve essere del tipo
0
x 1
0
Consideriamo 2 1
1 0 1 1 0 0 x1 0 0 0 1 x1 x3 0
1 2 0 0 1 0 x2 0 1 1 0 x2 x1 x2 0
0 0 1 0 0 1 x3 0 0 0 0 x3 0 0
x1 , x2 x2 x1 x3 0
Un autovetture associato all’autovalore 2 1 deve essere del tipo
1
x 1 ,
0
2. 2 ha molteciplicità algebrica 2 e molteciplicità geometrica 3 r ( A 11) 3 2 1 . Pertanto in base
al Teo 8. 8 la matrice A non è diagonizzabile.

32
Esercizio 4. Data la matrice

1 0
A
1 2

1. Trovare gli autovalori di A 1 2; 2 1


2 2 0
2. trovare gli autovettori normalizzati di A x1 ; x2
2 2 1
Esercizio 5.
Data la matrice
1 2
A
3 3

1. Determinare autovettori ed autovalori di A ;


2. determinare autovalori e autovettori di A’;
3. dire se Q x x ' A ' x è una forma quadratica e, in caso affermativo, individuarne il tipo
Soluzione
1. Determinazione degli autovalori di A
1 2 2
det A 1 det 0 4 3 0
3 3
si ottengono i seguenti autovalori
1 2 7; 2 2 7

Determinazione degli autovettori associati agli autovalori


1
Gli autovettori sono soluzione del sistema
1 7 x1 2 x2 0

3x1 1 7 x2 0

1 7
x 3
1
2
Gli autovettori sono soluzione del sistema
1 7 x1 2 x2 0

3x1 1 7 x2 0

1 7
x 3
1

2. Gli autovalori di A ' sono gli stessi di A (proprietà 11 pag.27)

Determinazione degli autovettori associati agli autovalori


1
Gli autovettori sono soluzione del sistema

33
1 7 x1 3x2 0

2 x1 1 7 x2 0

1 7
x 2
1
2

1 7 x1 3x2 0

2 x1 1 7 x2 0

1 7
x 2
1

1 3
3. A'
2 3
1 3 x1 x1 3x2
Q x x1 x2 x1 x2 x12 3x1 x2 2 x1 x2 3x22 x12 5x1 x2 3x22
2 3 x2 2 x1 3x2
è una forma quadratica in quanto è un polinomio omogeneo di secondo grado nelle variabili x1 , x2
La matrice dei coefficienti può essere resa simmetrica (vedi pag.23)
A A' 1 52
A
2 52 3
La forma quadratica è indefinita in quanto la matrice che la rappresenta ha autovalori di segno
opposto.

34

Potrebbero piacerti anche