Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
11 marzo 2020
Indice
1 Spazi vettoriali 4
1.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Combinazioni lineari – Dipendenza e indipendenza lineare . . . . . . . . . . . . 5
1.3 Basi e dimensione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Gli spazi Rn , basi e basi canoniche . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Coordinate di un vettore rispetto ad una base . . . . . . . . . . . . . . . . 9
1.4 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1 Sottospazi generati da vettori . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Sottospazi individuati da equazioni . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.3 Sottospazi, dimensione e basi . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Intersezione e somma di sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Matrici 16
2.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Matrici particolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Operazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1 L’insieme M(n, m) come spazio vettoriale . . . . . . . . . . . . . . . . . . 18
2.3.2 Trasposizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.3 Prodotto tra matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Invertibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5 Riduzione a scala, il MEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6 Rango, spazio riga e spazio colonna . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Appunti di Algebra Lineare — c b Marco Boella 2
4 Sistemi lineari 28
4.1 Introduzione e terminologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Le soluzioni di un sistema lineare – Sistemi equivalenti . . . . . . . . . . . . . . 29
4.3 Sistemi omogenei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.3.1 Sottospazi, generatori ed equazioni . . . . . . . . . . . . . . . . . . . . . . . 32
4.4 Sistemi completi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.5 Soluzione di un sistema completo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.6 L’algoritmo di Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5 Trasformazioni lineari 37
5.1 Definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2 Nucleo e immagine di una trasformazione lineare . . . . . . . . . . . . . . . . . 38
5.3 Il teorema di “nullità più rango” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.4 Il teorema di rappresentazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.5 Composizione di trasformazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . 42
5.6 La matrice cambiamento di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1 Spazi vettoriali
1.1 Introduzione
Definizione 1.1. L’insieme V è detto spazio vettoriale (sul campo K) se è chiuso rispetto
alle operazioni di somma e prodotto per uno scalare, ed inoltre esse verificano le seguenti
proprietà:
S3 esistenza dell’elemento neutro: esiste un solo elemento ω ∈ V tale che per ogni
v ∈ V si ha v + ω = v, lo indichiamo con 0 (il vettore nullo);
P2 proprietà distributiva del prodotto rispetto alla somma di vettori: per ogni α ∈ K e
per ogni v, w ∈ V si ha α(v + w) = αv + αw;
P3 proprietà distributiva del prodotto rispetto alla somma di scalari: per ogni α, β ∈ K e
per ogni v ∈ V si ha (α + β)v = αv + βv;
Osservazione 1.1.Se V è uno spazio vettoriale, dalle proprietà S-P discendono le seguenti
• proprietà di annullamento:
da αv = 0 segue α = 0 oppure v = 0;
1
Che sarà giustificato in seguito
Appunti di Algebra Lineare — c b Marco Boella 5
• proprietà di cancellazione:
1) da v + w = v + u segue w = u,
2) da αv = αw, α 6= 0 segue v = w,
3) da αv = βv, v 6= 0 segue α = β.
Esempio 1.2. 1) Gli insiemi dei vettori del piano e dello spazio, noti dalla Geometria analitica, sono
evidentemente spazi vettoriali (su R).
2) Per ogni n ∈ N, l’insieme Pn [x] dei polinomi di grado minore o uguale a n nell’indeterminata
x a coefficienti reali è uno spazio vettoriale (su R), una volta definiti nel modo usuale la somma di
due polinomi (il polinomio che ha per coefficienti la somma dei coefficienti corrispondenti) ed il
prodotto di un polinomio per un numero α ∈ R (è il polinomio di partenza, con tutti i coefficienti
ordinatamente moltiplicati per α).
3) L’insieme P[x] dei polinomi di grado qualsiasi nell’indeterminata x a coefficienti reali è anch’esso
uno spazio vettoriale (su R).
4) Per ogni n ∈ N, l’insieme dei polinomi di grado n nell’indeterminata x non è uno spazio vettoriale,
perché non è chiuso rispetto alla somma: se due polinomi di grado n hanno il coefficiente di x n
opposto, la loro somma è un polinomio di grado inferiore.
5) Sia I un intervallo chiuso contenuto in R, l’insieme C(I) delle funzioni continue su I è uno spazio
vettoriale (su R); le operazioni sulle funzioni sono definite nel modo consueto:
6) L’insieme delle funzioni R → R periodiche di periodo τ fissato è uno spazio vettoriale (su R). ♦
e, per α ∈ R,
αx = α(x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ).
♦
D’ora in avanti, se V è uno spazio vettoriale, chiameremo vettori i suoi elementi. Qualora
usassimo la stessa lettera per indicare diversi vettori, useremo un apice per indicarli (non
si può generare confusione: è impossibile “elevare a potenza” un vettore); ad esempio: tre
diversi vettori di V sono i vettori v1 , v2 , v3 . Inoltre, senza più ripeterlo, assumeremo che
K = R: se vi saranno eccezioni le segnaleremo.
Le operazioni di somma tra vettori e di prodotto per uno scalare, che caratterizzano uno
spazio vettoriale V, permettono di combinare fra loro gli elementi di V.
Appunti di Algebra Lineare — c b Marco Boella 6
X
k
α1 v1 + . . . + αk vk = αj vj .
j=1
α1 v1 + . . . + αk vk = 0 Ñ α1 = . . . = αk = 0.
α1 v1 + . . . + αk vk = 0.
Proprietà 1.2. Se il vettore nullo 0 fa parte dell’insieme {v1 , . . . , vk }, allora tali vettori
sono linearmente dipendenti.
Dimostrazione: Esercizio.
L’insieme delle possibili combinazioni lineari di alcuni vettori assegnati prende il nome di
span:
Definizione 1.6. Dati k vettori v1 , . . . , vk , elementi dello spazio vettoriale V, si chiama
span di v1 , . . . , vk l’insieme di tutte le loro combinazioni lineari, in simboli:
span{v1 , . . . , vk } = {v ∈ V|v = α1 v1 + . . . + αk vk };
Osserviamo che span{v1 , . . . , vk } è a sua volta uno spazio vettoriale, essendo (la verifica è
immediata) chiuso rispetto alla somma e al prodotto per uno scalare.
Appunti di Algebra Lineare — c b Marco Boella 7
Definizione 1.7. Sia V uno spazio vettoriale, un insieme di generatori di V che siano
linearmente indipendenti è detto base.
Esempio 1.4. Nell’ambito delle funzioni f : R → R, sia V = span {ex , e−x } lo spazio vettoriale
generato da ex e da e−x , ovviamente {ex , e−x } è una base, così come {Ch x, Sh x}, infatti
αex + βe−x = (α + β) Ch x + (α − β) Sh x.
Proprietà 1.3. Se B = {v1 , . . . , vr } è una base per V, allora ogni vettore w di V può essere
espresso in uno e un solo modo come combinazione lineare degli elementi di B.
Dimostrazione: Che esista almeno una combinazione lineare dei vi che produca
w, è diretta conseguenza del fatto che v1 , . . . , vr generano V.
Che tale combinazione sia unica, discende dal fatto che i vi sono indipendenti,
per assurdo: se ne esistessero due distinte
w = α1 v1 + α2 v2 + . . . + αr vr
w = β1 v1 + β2 v2 + . . . + βr vr ,
ossia una combinazione lineare dei vi , con coefficienti non tutti nulli, che dà il
vettore nullo, contro l’ipotesi che i vi siano indipendenti. n
Definizione 1.8. Sia {v1 , v2 , . . . , vn } un insieme di elementi di uno spazio vettoriale V, sia
r un intero positivo, con r ≤ n; diremo che {v1 , v2 , . . . , vr } ⊂ {v1 , v2 , . . . , vn } è un sottoin-
sieme massimale di elementi indipendenti se i vettori {v1 , v2 , . . . , vr } sono linearmente
indipendenti, e inoltre per ogni j con r < j ≤ n si ha che i vettori {v1 , v2 , . . . , vr , vj } sono
linearmente dipendenti.
Il seconda afferma che se uno spazio vettoriale ha una base composta da r elementi, allora
il massimo numero di vettori che possono essere presi linearmente indipendenti è r.
Teorema 1.2. Sia V uno spazio vettoriale, e sia B = {v1 , . . . , vr } una base di V. Siano
w1 , . . . , wn n elementi di V con n > r, allora i wi sono linearmente dipendenti.
Appunti di Algebra Lineare — c b Marco Boella 8
L’effetto del teorema precedente consiste nell’affermare che tutte le basi di uno spazio
vettoriale devono avere la stessa numerosità.
Teorema 1.3. Sia V uno spazio vettoriale, siano inoltre Bv = {v1 , . . . , vr } e Bw = {w1 , . . . , ws }
due basi per V. Allora r = s.
Definizione 1.9. Sia V uno spazio vettoriale, si dice che V ha dimensione r (in simboli:
dim V = r) se una (qualsiasi) base di V è costituita da r elementi.
Per definizione, dim{0} = 0.
Osservazione 1.5. Vi sono spazi vettoriali per i quali vale la seguente circostanza: co-
munque presi n vettori v1 , . . . , vn , è sempre possibile trovare un vettore v che non è
combinazione lineare dei vi ; questi spazi vettoriali si dicono avere dimensione infinita.
Esempio 1.6. Un esempio di spazio vettoriale avente dimensione infinita è P[x] (cfr. Esempio
1.2,3). ♦
D’ora in avanti, quando parleremo di spazi vettoriali, ci riferiremo in genere a spazi vettoriali
di dimensione finita.
Una conseguenza dei teoremi precedenti è il seguente: in uno spazio vettoriale di dimen-
sione n una qualsiasi n-pla di vettori può costituire una base.
Teorema 1.5. Sia V uno spazio vettoriale con dim V = n. Siano v1 , . . . , vr (con r < n)
vettori linearmente indipendenti. Allora è possibile scegliere in V dei vettori vr+1 , . . . , vn
tali che {v1 , . . . , vn } sia una base per V.
Appunti di Algebra Lineare — c b Marco Boella 9
Sia V uno spazio vettoriale, e sia B = {v1 , . . . , vr } una sua base; possiamo esprimere il
generico vettore w in termini dei vi :
w = α1 v1 + α2 v2 + . . . + αr vr
Ovviamente, le coordinate cambiano, non solo al cambiare della base, ma anche al cambiare
dell’ordine con cui i vettori vi compaiono in B.
Esempio 1.8. Ritorniamo all’Esempio 1.4: sia V = span {ex , e−x }, e consideriamo le tre basi
Una volta fissata la base B, le operazioni sui vettori si riconducono a operazioni sui coeffi-
cienti.
Esempio 1.9. Sia V = P2 [x] con B = {x 2 , x, 1}, v = 2x 2 + 3x + 1 e w = x 2 − 5, dunque:
2 1
v B = 3 w B = 0 ,
1 −5
In altre parole: la descrizione di quello che avviene all’interno di un generico spazio vetto-
riale V avente dimensione n è, a patto di fissare una base B, formalmente identica a quello
che accade dentro a Rn .
Sia V uno spazio vettoriale. Ricordiamo innanzitutto che V è un insieme, è lecito chiedersi
se un sottoinsieme di V ricalchi in sé la struttura di spazio vettoriale.
La Proprietà 1.4 fornisce un criterio (spesso utile) per stabilire che un dato sottoinsieme
W ⊂ V non è un sottospazio vettoriale: se 0 6∈ W, allora senz’altro W non è un sottospazio
vettoriale di V.
Abbiamo visto che, presi alcuni vettori v1 , . . . vk di uno spazio vettoriale V, il loro “span”
è a sua volta uno spazio vettoriale, in effetti possiamo dire di più: esso è un sottospazio
vettoriale di V.
Abbiamo visto che, una volta fissata una base, ogni spazio vettoriale di dimensione finita,
diciamo: n, è isomorfo a Rn . Dunque in questo paragrafo ci limiteremo a parlare di Rn .
Appunti di Algebra Lineare — c b Marco Boella 12
si vede dunque che ogni elemento w di W può essere scritto come combinazione lineare di due
vettori, ossia
1 0
W = span 0 , 1 ,
1 2
e pertanto W è un sottospazio di V. ♦
In generale, è possibile passare da una forma all’altra, ossia (come abbiamo appena fatto)
trovare dei generatori per un sottospazio definito tramite equazioni, oppure l’opposto: asse-
gnati i generatori, trovare l’equazione (o le equazioni) che individuano lo span. Torneremo
nella Sezione 4 su questo fatto.
Quanto abbiamo visto relativamente alle basi e alla dimensione di un generico spazio vetto-
riale V si adatta immediatamente anche ad un suo sottospazio W: un insieme {w1 , . . . , wh } di
generatori di W che siano linearmente indipendenti costituisce una base per W, e dunque
dim W = h.
Ovviamente, tra la dimensione di uno spazio vettoriale e quella di un suo sottospazio vi
sono dei legami. La prima proprietà che vediamo è diretta conseguenza del teorema 1.5.
Proprietà 1.6. Sia V uno spazio vettoriale e W un suo sottospazio, se dim W = dim V
allora W e V coincidono.
Teorema 1.6. Sia V uno spazio vettoriale con dim V = n. Sia W un sottospazio non
composto dal solo vettore nullo, allora W ha una base, e dim W ≤ n.
Alla luce di quanto visto, è lecito chiedersi se anche l’unione di sottospazi sia un sottospazio,
la risposta è in genere negativa, basta un esempio.
Esempio 1.13. In V = R2 prendiamo
α 2β
U= ,α ∈ R W= ,β ∈ R ,
2α β
Appunti di Algebra Lineare — c b Marco Boella 14
dunque U ∪W è l’insieme di tutti i “vettori del piano” con una delle due componenti uguale al doppio
dell’altra, ma non è chiuso rispetto alla somma:
1 2 1 2 3
, ∈ U ∪ W, + = 6∈ U ∪ W.
2 1 2 1 3
ma
Dimostrazione: Esercizio. . .
Definizione 1.14. Dato uno spazio vettoriale V e due sottospazi U e W, se per ogni
v ∈ U + W la decomposizione v = u + w è unica, si dice che U + W è somma diretta di
U e W, tale circostanza si indica con
U ⊕ W.
U, w1 ∈ W e u2 ∈ U, w2 ∈ W che diano v:
u1 + w1 = v = u2 + w2 ,
Teorema 1.8. Sia V uno spazio vettoriale (con dim V = n), e sia U un sottospazio di
V non costituito dal solo vettore nullo; allora esiste un sottospazio W tale che V = U⊕W.
{u1 , . . . , um , vm+1 , . . . , vn }
per V, ponendo ora W = span vm+1 , . . . , vn abbiamo la tesi. n
U W U∩W U + W.
Teorema 1.9 (Formula di Grassmann). Dato uno spazio vettoriale V di dimensione finita
e due sottospazi U e W, vale la seguente formula:
BU = {u1 , . . . , ur } e BW = {w1 , . . . , ws };
v = u + w = α1 u1 + . . . + αr ur + β1 w1 + . . . + βs ws ,
{u1 , . . . , ur , w1 , . . . , ws }
2
H. G. Grassmann, matematico e linguista tedesco; noto agli studenti del Liceo Classico per la legge di
Grassmann, sulla presenza di due aspirate in due sillabe consecutive di una parola greca.
Appunti di Algebra Lineare — c b Marco Boella 16
BU∩W = {v1 , . . . , vk },
per il Teorema 1.7 possiamo completare BU∩W e ottenere una base per U:
BU = {v1 , . . . , vk , uk+1 , . . . , ur }
BW = {v1 , . . . , vk , wk+1 , . . . , ws };
ed il teorema è dimostrato. n
2 Matrici
2.1 Introduzione
Casi particolari di matrici sono quelle formate da una sola riga (e da m colonne), oppure
quelle formate da una sola colonna (e da n righe); sovente ci si riferisce ad esse come a
“vettori riga” e “vettori colonna”. Per esempio, le matrici
1
0
A= 1 2 0 B= 3
−4
Matrici quadrate
Matrici a scala
• il primo elemento non nullo di ciascuna riga (il pivot) si trova più a destra del
pivot della riga precedente;
2.3 Operazioni
2.3.1 L’insieme M(n, m) come spazio vettoriale
Definizione 2.2. Date due matrici A, B ∈ M(n, m) (cioè due matrici aventi le medesime
dimensioni) è detta somma la matrice C ∈ M(n, m), ciascun elemento della quale è la
somma dei due corrispondenti elementi di A e B:
Osservazione 2.3. Poiché si ripercuotono sulla somma tra numeri reali, la somma di ma-
trici gode delle proprietà S1-S4 della somma tra elementi di uno spazio vettoriale: associa-
tività e commutatività; l’elemento neutro è costituito dalla matrice 0 ∈ M(n, m), composta
interamente da zeri; l’opposto della matrice A è costituito dalla matrice (−1)A = −A, i cui
elementi sono, ciascuno, l’opposto del corrispondente elemento di A.
Il prodotto di uno scalare e una matrice gode delle proprietà P1-P4 del prodotto tra uno
scalare ed un elemento di uno spazio vettoriale: associatività, distributività rispetto alla
somma di scalari e alla somma di matrici, normalizzazione rispetto a 1.
In definitiva:
Esercizio 2.1.
• Mostrare che ogni matrice quadrata M può essere scritta (in modo univoco) come
M = S + A, con S simmetrica e A antisimmetrica. In altre parole, con i simboli
dell’esercizio precedente, mostrare1 che
• Determinare una base per gli spazi vettoriali M(2, 2) e M(2, 3).
2.3.2 Trasposizione
Definizione 2.4. Sia A ∈ M(n, m), si dice trasposta della matrice A la matrice AT ∈
M(m, n), ottenuta scambiando le righe e colonne di A.
In simboli: se B = AT , allora bij = aji .
T 1 0
1 2 3 1 2 3
Esempio 2.4. Se A = , allora AT = = 2 2 . ♦
0 2 −1 0 2 −1
3 −1
• A è simmetrica se e solo se AT = A;
• (AT )T = A;
Per poter moltiplicare tra loro due matrici A e B, occorre che il numero di colonne del
primo fattore corrisponda al numero di righe del secondo fattore.
Definizione 2.6. Date due matrici conformabili A ∈ M(m, h) e B ∈ M(h, n), la matrice
C ∈ M(m, n) tale che
X
h
cij = aik bkj , i = 1, . . . , m; j = 1, . . . , n
k=1
C = AB.
Prendiamo ora in esame come il prodotto tra matrici agisce sulle righe e colonne dei
suoi fattori, osserviamo innanzitutto che il prodotto di un vettore riga A ∈ M(1, h) per un
vettore colonna B ∈ M(h, 1) (notare che entrambi hanno lo stesso numero di componenti!)
dà come risultato una matrice C = AB ∈ M(1, 1):
b1
.
c = a1 · · · ah .. = a1 b1 + . . . + ah bh .
bh
Se adesso prendiamo due matrici generiche (purché conformabili!), il loro prodotto non è
altro che la matrice i cui elementi sono i prodotti “singola riga” per “singola colonna”:
A(1)
A B(1) · · · A B(n)
(1) (1)
(1) (n)
··· B = .
.. . ..
. B .. . .. .
A(m) A(m) B(1) · · · A(m) B(n)
• associativa:
(AB)C = A(BC);
Dimostrazione: Esercizio.
(AB)T = BT AT .
Appunti di Algebra Lineare — c b Marco Boella 21
Dimostrazione: Esercizio.
Definizione 2.7. È detta matrice identità (a n righe) la matrice In ∈ M(n, n), i cui elementi
sulla diagonale sono tutti uguali a 1, e fuori dalla diagonale tutti nulli:
1 0 ··· 0
0 1 · · · 0
In = . . . .
. . ...
.. ..
0 0 ··· 1
In A = AIm = A.
Dimostrazione: Esercizio.
il loro prodotto AB è
3 −1 2
AB = ,
7 −3 4
mentre B e A non sono neppure conformabili. ♦
Si potrebbe essere indotti a pensare che in un caso come quello appena esposto la “mancata
commutatività” sia dovuta al fatto che B e A non erano conformabili, ma anche tra matrici
quadrate, conformabili per forza, non è garantita la commutatività:
1 2 1 −2 3 4 1 −2 1 2 −5 −6
= = .
3 4 1 3 7 6 1 3 3 4 10 14
mentre
2.4 Invertibilità
Immediatamente collegato con l’idea di prodotto, ci si può chiedere se, e in quale modo,
esista l’inversa di una matrice; innanzitutto, il concetto di inversa si applica esclusivamente
a matrici quadrate, non ha senso dunque parlare di inversa di una matrice non quadrata,
vedremo più sotto che, anche tra le matrici quadrate, possedere un’inversa non è garantito.
Appunti di Algebra Lineare — c b Marco Boella 22
Osservazione 2.7. Non è detto che una matrice quadrata sia invertibile.
1 −2
Esercizio 2.2. Verificare che la matrice
−3 6
non è invertibile.
B = BI = B(AC) = BAC,
C = IC = (BA)C = BAC,
Proprietà 2.6. Se A, B ∈ M(n, n) sono entrambe invertibili, allora anche il loro pro-
dotto AB è invertibile; inoltre l’inversa del prodotto è il prodotto delle inverse a fattori
scambiati, in simboli:
(AB)−1 = B−1 A−1 .
Teorema 2.1 (Metodo di Eliminazione di Gauss). Qualsiasi matrice può essere ridotta a
scala attraverso il MEG, (ossia con l’applicazione delle operazioni di Gauss) in un numero
finito di passi.
Osservazione 2.8. Qualora la riduzione a scala di una matrice sia effettuata con carta
e penna, oltre alle mosse di Gauss, è lecito anche moltiplicare tutti gli elementi di una
stessa riga per una costante. Chiamiamo questa operazione “mossa di comodo”, e qualora
occorra, la consideriamo come se si trattasse di una mossa di Gauss.
Esercizio 2.3. Ridurre a scala la seguente matrice:
1 2 −1 0 3 2
2 4 −2 2 8 5
.
3 6 −2 4 8 1
2 4 −1 2 3 −2
Osserviamo che la riduzione a scala non è univoca; si dimostra tuttavia il seguente risultato.
Teorema 2.2. Il numero e la posizione dei pivot di una matrice ridotta a scala sono
indipendenti dalla particolare riduzione ottenuta.
D’ora in avanti, indicheremo con A
e l’effetto del MEG su A, cioè una sua generica riduzione
a scala, in simboli:
MEG
A ÊÏ A. e
dim(Row A) = dim(Col A) = rk A.
rk A = rk AT .
Per procedere con matrici di ordine più elevato, introduciamo una apposita terminologia.
Definizione 3.2. Data una generica matrice A, è detto minore il determinante di una
qualsiasi sottomatrice quadrata di A.
Per passare alla definizione di determinante di una generica matrice quadrata, abbiamo
bisogno del seguente teorema, che ci consente (dimostrato per una matrice 3 × 3) di definire
il determinante di una matrice 3 × 3; una volta definito il determinante di una matrice 3 × 3
questo teorema acquisterà validità anche per le matrici 4 × 4, e coi consentirà di definire il
determinante di una matrice 4 × 4, e così via, in un’alternanza teorema-definizione. . .
Teorema 3.1 (di Laplace). Data A, matrice quadrata n × n, per ogni i, j compresi tra 1 e
n si ha
ai1 Ai1 + ai2 Ai2 + . . . + ain Ain = a1j A1j + a2j A2j + . . . + anj Anj .
Appunti di Algebra Lineare — c b Marco Boella 25
Proprietà 3.2. Scambiando tra loro due righe/colonne di A, det A cambia segno.
per la somma:
A(1) + A(01)
A P
(2) n
= j=1 (a1j + a10j )A1j
det ..
.
A(n)
0
A(1) A(1)
Pn Pn 0 A(2)
A(2)
= j=1 a1j A1j + j=1 a1j A1j = det . + det . .
.. ..
A(n) A(n)
Proprietà 3.5. Se a una riga/colonna si aggiunge una combinazione lineare delle altre
righe/colonne, il determinante non cambia.
Proprietà 3.7. Se una riga/colonna è combinazione lineare delle altre, allora det A = 0.
P
Dimostrazione: Supponiamo che A(1) = λi A(i) , allora
P
λi A(i) A(i)
A(2) X n A(2)
det A = det = λ .. = 0.
.. i det
.
. i=2
A(n) A(n)
Infine, merita di essere citato (senza dimostrazione) il seguente teorema, che lega determi-
nante e prodotto tra matrici.
Teorema 3.2 (di Binet). Se A e B sono entrambe matrici n × n, allora
Applichiamo il MEG a una matrice quadrata A, trasformandola nella sua “ridotta a scala” A:
e
MEG
A ÊÏ A.
e
Per le proprietà viste, ciascuna mossa di Gauss ha un effetto peculiare sul legame tra det A
e det Ã:
Per calcolare det A è allora sufficiente ridurla a scala, tenendo traccia di quante volte (siano
esse v) si sono scambiate le righe, e
det A 6= 0 ⇔ rk A = n.
Sulla base del legame tra determinante e rango di una matrice, possiamo allora enunciare
i due seguenti teoremi:
Teorema 3.5 (di Kronecker). Condizione necessaria e sufficiente affinché M abbia rango
r è che esista una sottomatrice quadrata A di ordine r con det A 6= 0, e che tutte le matrici
di ordine r + 1 ottenute orlando A abbiano determinante nullo.
Appunti di Algebra Lineare — c b Marco Boella 28
A invertibile ⇔ det A 6= 0.
4 Sistemi lineari
4.1 Introduzione e terminologia
ponendo
a11 a12 ... a1n b1
a21 x1
a22 ... a2n b2
A= . .. , x = ... , b= .
..
.. . ..
xn
.
am1 am2 . . . amn bm
Appunti di Algebra Lineare — c b Marco Boella 29
Ax = b.
ottenuta orlando la matrice dei coefficienti con il vettore dei termini noti:
a11 a12 . . . a1n b1
a21 a22 . . . a2n b2
A|b = . .
..
.
.. .
.. ..
.
am1 am2 . . . amn bm
Vi è una possibile “rilettura” del prodotto Ax, come combinazione lineare di colonne di A:
Osservazione 4.1. Siano A ∈ M(m, n) e x ∈ M(n, 1), allora il prodotto Ax può essere visto
come una combinazione lineare (con coefficienti le componenti xi ) delle colonne di A:
a11 a12 a1n
a21 a22 a2n
Ax = x1 . + x2 . + · · · + xn .
.. .. ..
am 1 am2 amn
cioè
Ax = x1 A(1) + x2 A(2) + . . . + xn A(n) .
Dalla osservazione precedente, vediamo quindi che a ciascuna colonna di A corrisponde
(nel medesimo ordine) una delle incognite di x.
Dal punto di vista del numero delle soluzioni, vi sono unicamente tre tipologie di sistemi
lineari:
Possiamo escludere che vi siano sistemi con un numero finito e diverso da uno di soluzioni
in virtù della seguente
Osservazione 4.2. Se il sistema Ax = b ammette le due soluzioni x1 e x2 , allora ne è
soluzione ogni vettore della forma
x∗ = λx1 + (1 − λ)x2 , λ ∈ R,
infatti
Ax∗ = A(λx1 + (1 − λ)x2 ) = λAx1 + (1 − λ)Ax2 = λb + (1 − λ)b = b.
Osserviamo inoltre che due sistemi possono (ovviamente!) avere le stesse soluzioni, questa
circostanza merita di essere messa in evidenza:
Definizione 4.1. Due sistemi lineari Ax = b e Cx = d si dicono equivalenti se tutte le
soluzioni del primo sono anche soluzioni del secondo, e viceversa.
Osserviamo che queste operazioni, sulle equazioni di un sistema, si traducono nelle cor-
rispondenti mosse di Gauss (inclusa la “mossa
di comodo”: moltiplicare per una costante
α 6= 0) effettuate sulla matrice completa A|b .
Dunque:
• se A è una matrice non quadrata, e le colonne sono più delle righe, allora il sistema
Ax = 0 ha in ogni caso infinite soluzioni,
• se A è una matrice non quadrata, e le righe sono più delle colonne, allora il sistema
Ax = 0 ha infinite soluzioni se e solo se il rango di A non è massimo.
Definizione 4.3. Si chiama nucleo della matrice A, e lo si indica con ker A, l’insieme
delle soluzioni del sistema omogeneo Ax = 0, in simboli:
ker A = x ∈ Rn Ax = 0 .
ossia la tesi. n
Il seguente teorema lega la dimensione del nucleo di A con il numero di incognite del
sistema omogeneo e con il rango di A.
Appunti di Algebra Lineare — c b Marco Boella 32
Ax = 0 e Ax
e =0
x = λ1 v1 + λ 2 v2 + . . . + λn−r vn−r ,
1 2
e i vettori vi sono per costruzione
linearmente
n−r
indipendenti.
Pertanto ker A = span v , v , . . . , v , inoltre i generatori sono indipendenti,
dunque dim ker A = n − r. n
Nella Sezione 1, abbiamo visto che era possibile descrivere un sottospazio vettoriale sia attra-
verso un insieme di generatori, sia attraverso equazioni lineari sulle componenti, era rima-
sto l’interrogativo su come “passare” da un modo all’altro; esaminiamolo ora. Supponiamo,
senza perdere di generalità, che V = Rn , e che W è un sottospazio:
w∈W ⇔ Aw = 0,
Esempio 4.3. Sia V = R4 , vogliamo determinare le equazioni che descrivono il seguente sottospa-
zio:
1 2 1
−2 −3 1
W = span , , ,
1 −2
1
−1 0 5
se chiamiamo x, y, z, t le coordinate del generico elemento di V, allora W sarà individuato da
equazioni del tipo
ax + by + cz + dt = 0,
se al posto di x, y, z, t usiamo le componenti dei tre generatori, otteniamo tre equazioni:
a
a − 2b + c − d = 0
1 − 2 1 − 1 b
2a − 3b + c = 0 ⇔ 2 −3 1 0 c = 0,
1 1 − 2 5
a + b − 2c + 5d = 0 d
l’ultima equazione non ha più importanza (peraltro, ciò significa che i tre generatori non sono
indipendenti, e dunque la dimensione di W è 2 e non 3, la seconda dà b = c − 2d, inserita nella
prima si ottiene a = c − 3d, in definitiva le soluzioni di questo sistema sono (c e d sono parametri
liberi)
a c − 3d 1 −3
b c − 2d
= c 1 + d −2
=
c c 1 0
d d 0 1
le due quaterne trovate corrispondono ciascuna a un’equazione: W è lo spazio individuato da queste
equazioni:
x
y 4
W= ∈ R : x + y + z = 0, −3z − 2y + t = 0 .
z
t
♦
Appunti di Algebra Lineare — c b Marco Boella 34
Osservazione 4.4. I Teoremi 4.3 e 4.5 non fanno altro che esprimere, nel linguaggio dei
sistemi lineari, il principio di sovrapposizione:
• la differenza tra due qualsiasi soluzioni di un sistema completo è soluzione del sistema
omogeneo associato.
L’esistenza e il numero di soluzioni di un generico sistema lineare dipendono dal rango della
matrice dei coefficienti e dal rango della matrice completa, secondo il seguente teorema:
Teorema 4.6 (di Rouché-Capelli). Siano A ∈ M(m, n), x ∈ M(n, 1), b ∈ M(m, 1). Allora
1) il sistema Ax = b ammette soluzione se e solo se rk A = rk A|b ;
2) in questo caso, posto r = rk A:
• se r = n il sistema ha una e una sola soluzione;
• se r < n il sistema ha infinite soluzioni, che dipendono da n − r parametri liberi.
poiché rk A = dim Col A, b ∈ Col A se e solo se rk A = rk A|b . q
2) — Sappiamo che due soluzioni di Ax = b differiscono per una soluzione di
Ax = 0.
Se r = n, dim ker A = 0, e dunque ker A = {0}, pertanto la soluzione è unica.
Se r < n, ad una soluzione x∗ di Ax = b posso sommare le soluzioni di Ax = 0,
che dipendono da n − r parametri liberi. n
A|b ; attribuendo un generico valore λi alle (eventuali) variabili libere e risolvendo con
sostituzione all’indietro rispetto alle variabili dipendenti si perviene ad un’espressione del
tipo
x = x∗ + λ1 v1 + λ2 v2 + . . . + λn−r vn−r ,
che (come ormai sappiamo) è la somma di una soluzione x∗ di Ax = b e delle (eventuali)
soluzioni x0 = λ1 v1 + λ2 v2 + . . . + λn−r vn−r del sistema omogeneo associato.
Se a questo punto applichiamo il MEG all’insù, allo scopo di eliminare gli elementi che
si trovano al di sopra dei pivot, arriveremo ad una nuova matrice “completa”, in cui gli
elementi sulla diagonale saranno uguali a 1, e al di fuori della diagonale saranno uguali a
0. A questo punto, al posto del vettore dei termini noti, vi sarà il vettore x, soluzione del
sistema
1 0 . . . 0 x1
0 1 . . . 0 x2
.. .
.. .. ..
. . . .
0 0 . . . 1 xn
In definitiva, sfruttiamo la catena di sistemi equivalenti
MEG MEG all’indietro
Ax = b ÊÏ e =b
Ax e ÊÏ I x = x.
• prima applicando
il MEG, poi applicando il MEG all’indietro, si arriva ad una matrice
della forma I|X ,
• la seconda parte di questa matrice, ossia X, è l’inversa di A.
5 Trasformazioni lineari
5.1 Definizioni preliminari
Definizione 5.1. Siano V e W due spazi vettoriali, la funzione F : V → W è detta
trasformazione lineare o applicazione lineare se verifica due proprietà:
• ∀v ∈ V e ∀α ∈ K, si ha F(αv) = αF(v).
4) Siano V = W = C∞ (R), la funzione F che associa ad ogni g(x) ∈ C∞ (R) la sua derivata pri-
ma g 0 (x), ossia: F(g) = g 0 è una trasformazione lineare, per la linearità dell’operazione di
derivazione.
Dimostrazione: Esercizio. . .
Osservazione 5.3. Questa proprietà fornisce un immediato test per escludere che la
funzione F sia lineare: se come nel precedente Esempio 5.2,3) F(0V ) 6= 0W , allora F non
può essere lineare.
D’ora in avanti, indicheremo con L la generica trasformazione lineare. Essendo essa, in
ogni caso, una funzione, è possibile discuterne infettività e suriettività.
Osserviamo che
Appunti di Algebra Lineare — c b Marco Boella 39
2) im L è un sottoinsieme di W: im L ⊆ W.
e quindi [w1 + w2 ] ∈ im L. q
3) — im L è chiuso rispetto al prodotto per uno scalare: infatti, se w ∈ im L,
∃v ∈ V tale che L(v) = w, dunque
e quindi αw ∈ im L. n
e quindi αv ∈ ker L. n
u1 , . . . , uh , v1 , . . . , vk
L(v∗ ) = α1 w1 + . . . + αk wk = L(α1 v1 + . . . + αk vk ),
v∗ − [α1 v1 + . . . + αk vk ] ∈ ker L,
v∗ = α1 v1 + . . . + αk vk + β1 u1 + . . . + βh uh ,
cioè: u1 , . . . , uh , v1 , . . . , vk generano V.
2) i vettori u1 , . . . , uh , v1 , . . . , vk sono linearmente indipendenti: supponiamo
innanzitutto che
α1 v1 + . . . + αk vk + β1 u1 + . . . + βh uh = 0V ,
L(α1 v1 + . . . + αk vk ) = 0W ,
α1 v1 + . . . + αk vk + β1 u1 + . . . + βh uh = 0V ,
Appunti di Algebra Lineare — c b Marco Boella 41
si riduce a
β1 u1 + . . . + βh uh = 0V ,
ma anche i vettori ui formano una base, dunque si ha anche βj = 0 per
ogni j.
Una conseguenza del teorema di nullità più rango riguarda l’iniettività e la suriettività della
trasformazione L:
Teorema 5.2 (di rappresentazione). Dati due spazi vettoriali V e W su K, con dim V = n
e dim W = m. Data la trasformazione lineare L : V → W, fissate le basi
BV = {v1 , . . . , vn } BW = {w1 , . . . , wm },
AL v∗ B = w∗ B .
V W
poniamo AL = aij con i = 1, . . . , m e j = 1, . . . , n.
P
Preso il generico v∗ ∈ V, avremo v∗ = αj vj , e dunque
X
n Xn X
n X
m
w∗ = L(v∗ ) = L αj vj = αj L(vj ) = αj aij wi
j=1 j=1 j=1 i=1
X
n X
m X
m X
n X
m
= aij αj wi = aij αj wi = βi wi ,
j=1 i=1 i=1 j=1 i=1
P
pertanto ∀i = 1, . . . , m abbiamo βi = aij αj ; posto
α1 β1
α= . β = . ,
.. ..
αn βm
si ha β = AL α, osservato che α = v B e β = w∗ B
∗
abbiamo la tesi. n
V W
Osserviamo che quanto abbiamo detto su nucleo e immagine in questo corollario de-
ve in realtà prescindere dalla scelta di BV e BW , ingrediente essenziale del teorema di
rappresentazione.
B = {b1 , . . . , bn } U = {u1 , . . . , un },
preso il generico v ∈ V, ci chiediamo che relazione sussista tra le sue componenti in termini
della base B e in termini della base U, ossia tra i vettori
v B e v U.
posto CB
U = cij con i, j = 1, . . . , n, avremo
v U = CB
U v B.
Definizione 5.7. CB
U è detta matrice cambiamento di base, dalla base B alla base U.
Si dimostra il seguente
−1
Teorema 5.5. La matrice CB B
U è invertibile, e CU = CU
B.
Definizione 6.1. Dato uno spazio vettoriale V su R, è detto prodotto scalare una regola
che permette di associare ad ogni coppia v, w ∈ V uno scalare, denotato con hv, wi
oppure con v w, in modo che siano soddisfatte le seguenti proprietà:
• commutatività — ∀v, w ∈ V
hv, wi = hw, vi ;
• positività — ∀v ∈ V
hv, vi ≥ 0 e hv, vi = 0 ⇔ v = 0.
Appunti di Algebra Lineare — c b Marco Boella 44
e
F F
hv, λwi = hλw, vi = λ hw, vi = λ hv, wi .
Definizione 6.2. Uno spazio vettoriale su R su cui è definito un prodotto scalare si dice
spazio euclideo.
Esempio 6.2.
• Sia V = Rn , posti
v1 w1
v = ... w = ... ,
vn wn
hv, wi = vT w = v1 w1 + v2 w2 + . . . + vn wn è un prodotto scalare.
• Sia ancora V = Rn , con v e w definiti come sopra; fissati n numeri γ1 , . . . , γn ∈ R, tutti positivi,
anche
hv, wi = γ1 v1 w1 + γ2 v2 w2 + . . . + γn vn wn
è un prodotto scalare.
• Sia V = P2 [x], presi due polinomi di (massimo) secondo grado v(x) e w(x) e presi tre numeri
reali distinti x1 , x2 , x3 , l’espressione
è un prodotto scalare.
• Sia V = C[a, b], l’espressione
Zb
hf, gi = f(x)g(x) dx
a
è un prodotto scalare.
Esercizio 6.1. Dimostrare che i prodotti scalari presentati nell’esempio precedente sono
realmente tali.
Appunti di Algebra Lineare — c b Marco Boella 45
Grazie alle proprietà del prodotto scalare, è possibile osservare che, se nello spazio euclideo
V è fissata una base B = {u1 , u2 , . . . , un }, il prodotto scalare
P trai due elementi P v e v di Vsi
traduce in un prodotto matriciale. Innanzitutto, posti v = αi u e w = βj uj , osserviamo
DX X E Xn X
che
n D E
i j i j
hv, wi = α i u , β j u = α β
i j u , u ,
i=1 j=1
l’ultima espressione può essere riletta sottoforma di prodotto “righe per colonne”, se co-
struiamo i vettori delle coordinate di v e di w in termini della base B:
α1 β1
α
2
β
2
v B= . w B = . ,
.. ..
αn βn
e creiamo la matrice (quadrata e simmetrica) A i cui elementi aij sono i prodotti scalari tra
gli elementi della base:
1 1
1 2
1 n
u 2, u 1
u2, u 2 · · ·
u2, u n
u ,u u ,u ··· u ,u
A=
.. .. . . ..
.
n . 1
n . 2 n
.
n
u ,u u ,u · · · hu , u i
X
n X
allora
n D E
T
αi βj ui , uj = v B A w B .
hv, wi =
i=1 j=1
L’esistenza, su uno spazio vettoriale, di un prodotto scalare porta con sé i concetti di norma,
distanza e angolo.
Definizione 6.3. Sia V uno spazio euclideo, è detta norma (o modulo) del vettore v ∈ V
la quantità q
kvk = hv, vi.
kv + wk ≤ kvk + kwk .
Dimostrazione:
ossia la test. q
3) Prendiamo il vettore v + tw, con t ∈ R, abbiamo
da cui q
|hv, wi| ≤ hv, vi hw, wi = kvk kwk ,
ossia la tesi. q
4) Si ha
da cui la tesi. n
Una volta definita la norma, possiamo farne uso per definire la distanza:
Definizione 6.4. Sia V uno spazio euclideo, la distanza tra elementi di V è
dist(v, w) = kv − wk .
Osservazione 6.3. Si possono definire norme e distanze che non provengono da un pro-
dotto scalare. Si può tuttavia dimostrare che, se la norma proviene da un prodotto scalare,
allora vale l’uguaglianza del parallelogramma:
Per ciò che riguarda gli angoli, ricordiamo quanto affermato dalla disuguaglianza di Cauchy-
Schwartz:
∀v, w ∈ V |hv, wi| ≤ kvk kwk .
Appunti di Algebra Lineare — c b Marco Boella 47
Osservazione 6.4. Con una costruzione analoga a quella ottenuta nell’ambito della geome-
tria analitica, si vede che: dati v e w, la proiezione ortogonale di v nella direzione individuata
da w è data da
hv, wi
vw = w.
hw, wi
B = {b1 , b2 , . . . , bn }
si dice ortogonale se D E
bi , bj = 0 ∀i 6= j.
B = {b1 , b2 , . . . , bn }
si dice ortonormale se
D E
bi , bj = 0 ∀i 6= j
i
e
b
= 1 ∀i.
la differenza
X
h
vk − ck,i wi
i=1
P P
può essere oP meno nulla: se vk − ck,i wi 6= 0, poniamo wh+1 = vk − ck,i wi , se
invece vk − ck,i wi = 0, allora vk è linearmente dipendente dai vj precedenti,
e lo scartiamo.
La procedura termina dopo aver preso vn , calcolato i coefficienti cn,i e (secondo
che vn fosse o meno linearmente indipendente dai precedenti, aggiunto l’ultimo
elemento all’insieme dei wi ; in ogni caso ora abbiamo m vettori w1 , . . . , wm .
Osserviamo che:
Corollario 6.1. Sia V uno spazio euclideo, data una generica base Bv = {v1 , . . . , vn } è
possibile ricavare una base ortogonale (ortonormale) Bw = {w1 , . . . , wn }.
Corollario 6.2. Sia V uno spazio euclideo, se {w1 , . . . , wh } è una base ortogonale (ortonor-
male) per il sottospazio W, esistono k vettori vh+1 , . . . , vh+k ∈ V tali che {w1 , . . . , wh , vh+1 , . . . , vh+k }
è una base ortogonale (ortonormale) per V.
Appunti di Algebra Lineare — c b Marco Boella 49
Dimostrazione: Esercizio. . .
1) ∀x ∈ Rn si ha kUxk = kxk,
2) ∀x, y ∈ Rn , si ha hUx, Uyi = hx, yi.
La matrice quadrata A può essere vista coma matrice rappresentativa di una trasformazione
lineare Rn → Rn , provvisto (per comodità) della base canonica. Sappiamo che l’effetto di
una trasformazione lineare su un vettore v, ossia v 7Ï Av, è in generale la combinazione di
una rotazione e di una omotetia.
Ci chiediamo: data la generica trasformazione A, esistono vettori che non vengono ruo-
tati da essa? In altre parole, ci chiediamo se, data A, esistano vettori v tali che Av sia
proporzionale a v, cioè in simboli
Av = λv.
Data la generica matrice A, ci chiediamo: come determinare gli autovettori e gli autovalori
di A? Cominciamo con l’osservare che l’uguaglianza Av = λv diventa immediatamente
Av − λv = 0, per poter raccogliere v tra i due addendi occorre notare che λv = λIv, e
dunque ottenere (A − λI)v = 0, dunque
Av = λv ⇔ (A − λI)v = 0.
Dunque, gli autovettori di A saranno le soluzioni nonbanali del sistema lineare omogeneo
(A − λI)v = 0, questa circostanza ci fornisce innanzitutto un metodo per determinare gli
autovalori di A.
Dimostrazione: Esercizio. . .
Una volta determinati gli autovalori di A, risolvendo i sistemi corrispondenti trovo gli
autovettori associati.
Si dimostra la seguente importante proprietà:
Proprietà 7.4. Autovettori associati ad autovalori distinti sono linearmente indipendenti.
Qualora vi siano autovalori complessi, vale la pena di osservare che, poiché si tratta di radici
di un polinomio a coefficienti reali, questi dovranno essere necessariamente complesse
coniugate; si può dimostrare che
Dimostrazione: Esercizio. . .
mg (λ ∗ ) = dim Vλ∗ .
Definizione 7.6. È detta molteplicità algebrica dell’autovalore λ l’ordine con cui λ è radice
del polinomio caratteristico, in simboli:
ma (λ ∗ ) = k se e solo se pA (λ ∗ ) = (λ − λ ∗ )k q(λ),
con q(λ ∗ ) 6= 0.
Appunti di Algebra Lineare — c b Marco Boella 53
1 ≤ mg (λ ∗ ) ≤ ma (λ ∗ ).
Pertanto, ogni autovalore che sia radice semplice del polinomio caratteristico, avendo ma =
1, è senz’altro regolare
A∼B ⇔ B ∼ A;
Dimostrazione: Esercizio. . .
pA (λ) = pB (λ).
Particolare interesse per noi rivestono le matrici simili ad una matrice diagonale.
Definizione 7.9. La matrice A è diagonalizzabile se è simile a una matrice diagonale D.
Osserviamo che, in virtù della Proprietà 7.7, se A ∼ D sulla diagonale di D compaiono gli
autovalori di A.
La teoria fornisce una condizione di facile impiego, per stabilire se una matrice sia dia-
gonalizzabile oppure no; inoltre la relativa dimostrazione fornisce anche una regola per
costruire la matrice di passaggio.
Teorema 7.2. La matrice A è diagonalizzabile se e solo se possiede tutti autovalori rego-
lari. In tal caso, detta P la matrice formata da n autovettori linearmente indipendenti,
si ha
P−1 AP = D.
Esempio 7.1. In due sole variabili, la più generica forma quadratica Q(x1 , x2 ) è
[x1 x2 ] a b x1
Q(x) = Q(x1 , x2 ) = ax12 + 2bx1 x2 + cx22 = .
b c x2
Siamo interessati al segno di Q; ovviamente Q(0) = 0, cosa si può dire del segno del
polinomio Q(x), quando x 6= 0?
• indefinita se esiste un vettore x∗ tale che Q(x∗ ) > 0 ed esiste un vettore x∗∗ tale che
Q(x∗∗ ) < 0.
Teorema 7.4. Il segno della forma quadratica Q(x) dipende dal segno degli autovalori
di Q:
• gli autovalori di A sono tutti negativi se ogni minore di Nord-Ovest Ak di ordine pari
(k = 2h) è positivo, ed ogni minore di Nord-Ovest Ak di ordine dispari (k = 2h + 1)
è negativo.