Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Strutture algebriche 2
Spazi Vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Costruire sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Altri sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
SD-equivalenza 23
Determinante 25
Criterio dei minori orlati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Coniugio e Similitudine 30
Calcolo di autovalori e autospazi per una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Diagonalizzabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Triangolabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Forme bilineari 36
Forma quadratica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Prodotti Scalari 40
Prodotti scalari definiti positivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Proprieta degli spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Definizione: Sia X un insieme, e sia una funzione tale che: : X X X. Allora si dice che e
unoperazione su X.
Definizione: X, si dice gruppo se X e un insieme e unoperazione su X che verifica 3 proprieta:
1. Esistenza dellelemento neutro: e X t. c. a e = e a = a;
2. Esistenza dellinverso: a X b X t.c. a b = b a = e;
3. Proprieta associativa: a, b, c X, (a b) c = a (b c).
Definizione: X, si dice gruppo commutativo (o abeliano) se e un gruppo e vale la proprieta com-
mutativa: a, b X , a b = b a.
Definizione:
Sia X un insieme, + (detta somma) e (detto prodotto) due operazioni su X. Allora
si dice che X, +, e un campo se valgono le seguenti proprieta:
Definizione: V, +, , K si dice spazio vettoriale se:
V e un insieme;
K e un campo;
+ e una somma in V (+: V V V);
: K V V (detto prodotto per scalare).
e valgono le seguenti proprieta:
(V, +) e un gruppo commutativo;
, K, v V, ()v = (v);
1 K t. c. v V 1 v = v;
, K, v V, ( + )v = v + v;
K, v, w V, (v + w) = v + w;
Spazi Vettoriali
Definiamo ora alcuni spazi vettoriali:
Notiamo innanzitutto che + e sono ben definiti (poiche si basano sulle proprieta del campo K), e che,
grazie a queste definizioni, otteniamo uno spazio vettoriale.
K[x] = {a0 + a1 x + . . . + an xn | ai K, i = 1, . . . , n}
e siano + e le due operazioni classiche sui polinomi (somma e prodotto tra polinomi). Si verifica che,
con le definizioni date, K[x] e un anello commutativo:
Elemento neutro per la somma: il polinomio i cui coefficienti sono tutti uguali a zero;
Inverso per la somma: polinomio con i coefficienti inversi;
Elemento neutro per il prodotto: e il polinomio 1 (tutti i coefficienti dei termini di grado
superiore a zero sono zero);
le altre proprieta valgono perche i coefficienti sono in un campo;
Se ora consideriamo (K[x], +, , K), con + definito come sopra e definito come:
: K K[x] K[x]
(a, p(x)) 7 a p(x)
3) Sia V spazio vettoriale su K e sia A un insieme qualsiasi. Sia F linsieme delle applicazioni (funzioni)
da A in V . (F, +, , K) e uno spazio vettoriale se definiamo + e come segue:
f, g F , f + g : A V e t. c.:
def
a A, (f + g)(a) = f (a) + g(a)
f F , K, f : A V e t. c.:
def
a A, (f )(a) = f (a)
Definiamo + e :
def
A, B M (p, q, K), [A + B]ij = [A]ij + [B]ij i, j
def
K, A M (p, q, K), [A]ij = [A]ij i, j
1. 0 e lelemento neutro;
2. esiste linverso: [A]ij + ([A]ij ) = 0;
3. vale la proprieta associativa:
[(A + B) + C]ij = [A + B]ij + [C]ij = [A]ij + [B]ij + [C]ij = [A]ij + [B + C]ij =
= [A + (B + C)]ij ;
4. si verifica analogamente la commutativa;
Proposizioni
Sia V uno spazio vettoriale:
1. lo 0 e unico in V:
se 01 , 02 V = 01 = 01 + 02 = 02 per gli assiomi;
2. x V ! x V
se (x)1 , (x)2 V inversi di x per somma = (x)1 = (x)1 + x + (x)2 = (x)2 ;
3. v V 0 v = 0
0 v = (0 + 0)v = 0 v + 0 v = 0 v = 0;
4. se x = 0 = o = 0 o x = 0
se = 0, ok.
se 6= 0 = 1 K t. c. 1 = 1 = x = 1 x = 1 0 = 0 = x = 0;
5. (1)x = x
x + (1)x = (1 1)x = 0 x = 0.
Sottospazi vettoriali
Definizione: V spazio vettoriale su K. W V si dice sottospazio vettoriale di V se:
0 W;
x, y W, x + y W ;
K, x W, x W .
dove + e in questo caso sono le restrizioni della somma e del prodotto su V a W .
Costruire sottospazi
Si puo fare prendendo alcuni vettori e il piu piccolo sottospazio che li contiene.
Sia V sp. vett. su K, v1 , . . . , vn V , c1 , . . . , cn K. Chiamiamo c1 v1 + . . . + cn vn combinazione lineare
di v1 , . . . , vn . Chiamiamo poi:
span(v1 , . . . , vn ) = {c1 v1 + . . . + cn vn | c1 , . . . , cn K}
Altri sottospazi
Sia V sp. vett. su K, U, W due sottospazi vettoriali di V. Allora U W e un sottospazio vettoriale di
V. Verifichiamolo:
contiene 0 (sia U che W lo contengono);
x, y U W, x + y U W , infatti x e y appartengono sia ad U che a W . Essendo questi
sottospazi, la somma de due vettori appartiene ancora ad entrambi, quindi alla loro intersezione;
lo stesso per il prodotto per scalare.
Vogliamo costruire il piu piccolo sottospazio contenente U e W . Notiamo innanzitutto che U W non
soddisfa la nostra ricerca, in quanto non e chiuso per somma. Chiamiamo:
U + W = {u + w | u U, w W }
La definizione che abbiamo dato e buona, poiche sia u che w appartengono a V , quindi ha senso sommarli.
U U + W : u U, u U + W , perche u = u + 0 (con 0 W );
W U + W , per lo stesso motivo (con 0 U );
0 U + W : infatti 0 = 0 + 0;
u1 , u2 U, w1 , w2 W = (u1 + w1 ) + (u2 + w2 ) = (u1 + u2 ) + (w1 + w2 )
ma (u1 + u2 ) U, (w1 + w2 ) W = (u1 + w1 ) + (u2 + w2 ) U + W ;
u U, w W, k K = k(u + w) = ku + kw
ku U, kw W = k(u + w) U + W ;
?
e il piu piccolo: se Z sottosp. vett. t. c. U Z, W Z = U + W Z:
u + w U + W, u U, w W = u + w Z (poiche e sottosp. vett.) = U + W Z
Definiamo la moltiplicazione tra due vettori (uno riga e uno colonna, entrambi con n elementi) e tra una
matrice A M (p, n, K) e un vettore B Kn :
b1 n
def X
(a1 . . . an ) ... = a1 b1 + . . . + an bn = ai bi
bn i=1
a11 ... a1n b1 a11 b1 + . . . + a1n bn
.. .. .. def ..
. . . = .
ap1 ... apn bn ap1 b1 + . . . + apn bn
Osservazione: il vettore risultato della seconda moltiplicazione e un vettore C Kp
?
Dimostrazione: X Kn , g(X) = LA (X):
Sapendo che A X = x1 A1 + . . . + xn An , X = x1 e1 + . . . + xn en e che g e lineare, allora:
LA (X) = AX = x1 A1 + . . . + xn An = x1 g(e1 ) + . . . + xn g(en ) = g(x1 e1 ) + . . . + g(xn en ) =
= g(x1 e1 + . . . + xn en ) = g(X).
Kerf = {x V | f (x) = 0}
Imf = {y W | x V t. c. f (x) = y}
Definizione: due sistemi lineari si dicono equivalenti fra loro se hanno le stesse soluzioni.
Dedichiamoci ora alla risoluzione dei sistemi lineari. Prima osserviamo che:
Osservazione: i sistemi a scalini sono semplici da risolvere. Essi sono nella forma:
a11 x1 + a12 x2 + a13 x3 + . . . + a1n xn = b1
a22 x2 + a23 x3 + . . . + a2n xn = b2
...
app xp + . . . + apn xn = bp
Chiamiamo aii 6= 0 pivot.
E importante che le incognite calino scendendo nel sistema: e possibile, in tale situazione, risolvere lul-
tima equazione ricavando xp = a1 pp (bp ap,p+1 xp+1 . . . apn xn ), sostituire la variabile ricavata nella
precedente equazione e iterare il processo fino ad arrivare alla prima equazione.
Ci preoccupiamo ora di trasformare una matrice in una a scalini. Per far questo possiamo usare le seguenti
operazioni elementari per riga (che altro non sono che le operazioni elementari sopra citate):
Algoritmo di Gauss
Cominciamo con un esempio:
1 2 4 x + 2y = 4
=
2 1 3 2x y = 3
Se la prima colonna e non nulla, guardo lelemento [A]11 . Se e 0, scambio due righe portando al primo
posto una riga il cui primo elemento e diverso da 0. A questo punto (nel nostro esempio) A2 A2 2A1 :
1 2 4
0 5 5
Faccio in modo che sotto al primo pivot non rimangano che 0, quindi itero il procedimento considerando
il secondo pivot (lelemento di posto [A]22 ) senza toccare piu la prima riga.
Enunciamo ora lalgoritmo di Gauss per ridurre una matrice A a scalini utilizzando le operazioni per riga:
1. sia j1 il minimo intero t. c. Aj1 6= 0 (prendo la prima colonna non nulla);
2. a meno di scambiare due righe posso supporre che [A]1j1 6= 0;
3. i > 1 sostituisco Ai Ai ([A]1
1j1 [A]ij1 ) A1 ;
4. itero il procedimento sulla sottomatrice ottenuta scartando la prima riga e le prime j1 colonne.
Esempio:
1 2 3 0 1 2 3 0 1 2 3 0
1 2 4 3 0 0 1 3 0 3 6 1
2 1 0 1 0 3 6 1 0 0 1 3
Teorema:
1. Tramite un numero finito di operazioni per riga ogni matrice puo essere trasformata in una a scalini.
Prodotto di Matrici
Siano f e g due applicazioni lineari tale che:
f g
Kn Kp Kq
p p n n
p !
X X X X X
[(gf )(X)]j1 = [B(AX)]j1 = [B]jh [AX]h1 = [B]jh [A]hi [X]i1 = [B]jh [A]hi [X]i1
h=1 h=1 i=1 i=1 h=1
Poiche si moltiplica la j-esima riga di B per la i-esima colonna di A, tale prodotto viene detto: prodotto
riga per colonna.
Osservazione: non sempre due matrici sono moltiplicabili: abbiamo visto che la prima deve avere un
numero di colonne pari al numero di righe della seconda.
(AB)C = A(BC)
(A)B = (AB)
(A + B)C = AC + BC
A(B + C) = AB + AC
2 1 1 2 1 3
=
0 3 3 1 9 3
Dimostriamo che non esiste linverso per tutti gli elementi dellanello (e dimostriamo quindi che e effet-
tivamente un anello e nonun corpo).
1 1
Consideriamo la matrice 6= 0 e facciamo vedere che non esiste nessuna matrice che, moltipli-
0 0
candola a destra, ci dia la matrice identita:
1 1 a b a+b c+d 1 0
= =
0 0 c d 0 0 0 1
Ne ricaviamo un assurdo, poiche abbiamo 0 = 1.
Esempi:
{e1 , . . . , en } sono una base di Kn
{1, x, . . . , xd } sono una base di Kd [x], ossia il sottospazio vettoriale di K[x] contenente i polinomi di grado
minore o uguale a d.
Proposizione: Se B = {v1 , . . . , vm } e una base di V , allora ogni v V si scrive in modo unico come:
v = a1 v1 + . . . + am vm . a1 , . . . , am si dicono coordinate di v rispetto alla base B e si scrive [v]B .
Dimostrazione:
Se v = a1 v1 + . . . + am vm = b1 v1 + . . . + bm vm = (a1 b1 )v1 + . . . + (am bm )vm = 0.
Essendo v1 , . . . , vm linearmente indipendenti: ai bi = 0 i = 1, . . . , m = ai = bi i = 1, . . . , m.
In uno spazio Kn le componenti di un vettore coincidono con le coordinate, se si una la base canonica
C = {e1 , . . . , en }.
Ma v1 , . . . , vn sono tutti linearmente indipendenti, quindi una loro combinazione lineare nulla si ot-
tiene
sono se i coefficienti sono tutti nulli, cioe se:
a11 1 + . . . + a1p p = 0
..
.
an1 1 + . . . + anp p = 0
Quindi (1 , . . . , p ) devono essere soluzioni del sistema lineare omogeneo (i cui termini noti sono tutti
nulli)
la cui matrice associata
e:
a11 . . . a1p
.. .. M (n, p)
. .
an1 . . . anp
Sappiamo che un sistema omogeneo ha sempre soluzione (almeno la soluzione nulla), ma ci interessa che
ne abbia almeno unaltra non nulla. Osserviamo che il numero di pivot e al piu n, ma n < p, quindi esiste
almeno unaltra soluzione (1 , . . . , p ) non nulla.
Definizione:
se V ammette una base B= {v1 , . . . , vn }, si dice che V ha dimensione n e si indica
dimV = n per convenzione si pone dim 0 = 0 .
Proposizione: sia V 6= 0 . Da ogni insieme finito di generatori e possibile estrarre una base di V (ogni
spazio vettoriale finitamente generato ammette una base).
Teorema: (di completamento a base) se dimV = n e {v1 , . . . , vk } sono vettori linearmente indipendenti,
(k n) = vk+1 , . . . , vn V t. c. {v1 , . . . , vk , vk+1 , . . . , vn } e una base di V .
Dimostrazione: se k = n e gia una base. Se k < n = v1 , . . . , vk = span(v1 , . . . , vk ) V . Quindi
vk+1 V span(v1 , . . . , vk ) t. c. v1 , . . . , vk , vk+1 sono linearmente indipendenti. Se k + 1 = n la base
e trovata, altrimenti si itera il procedimento cercando vk+2 V span(v1 , . . . , vk+1 ).
Formula di Grassman
Sia V uno spazio vettoriale, e siano U, W V sottospazi vettoriali. Allora:
quindi cm+1 wm+1 +. . .+cq wq appartiene sia a W (poiche combinazione di wm+1 , . . . , wq ), sia a U (poiche
combinazione lineare di v1 , . . . , vm , um+1 , . . . , up base di U ). Allora:
cm+1 wm+1 + . . . + cq wq U W = 1 , . . . , m t. c. cm+1 wm+1 + . . . + cq wq = 1 v1 + . . . + m vm
La combinazione lineare nulla di cui sopra diventa:
a1 v1 + . . . + am vm + bm+1 um+1 + . . . + bp up + 1 v1 + . . . + m vm = 0
Essa e una combinazione lineare nulla dei vettori della base di U , che sono linearmente indipendenti.
Sicuramente quindi bi = 0 i = m + 1, . . . , p. In tal modo abbiamo che:
a1 v1 + . . . + am vm + cm+1 wm+1 + . . . + cq wq = 0
Ma tali vettori formano una base di W = i coefficienti di una loro combinazione lineare nulla sono tutti
nulli. Dunque {v1 , . . . , vm , um+1 , . . . , up , wm+1 , . . . , wq } e una base di U + W .
Proposizione: sia V uno spazio vettoriale, U V sottospazio vettoriale. Sia {u1 , . . . , up } una base di
U , vp+1 , . . . , vn V t. c. {u1 , . . . , up , vp+1 , . . . , vn } e una base di V . Sia Z = span(vp+1 , . . . , vn )
= V = U Z.
Dimostrazione: facciamo innanzitutto vedere che U Z = {0}:
Se v U Z allora possiamo scrivere v come:
v = a1 u1 + . . . + ap up , dato che v U e
v = bp+1 vp+1 + . . . + bn vn , dato che v Z.
Allora, eguagliando le due espressioni:
a1 u1 + . . . + ap up bp+1 vp+1 . . . bn vn = 0.
Ma una combinazione lineare nulla dei vettori della base di V e possibile se e solo se i coefficienti sono
tutti nulli. Allora v = 0 e lunico vettore in U Z.
Mostriamo ora che U Z = V . Sappiamo che:
dim(U Z) = dimV , ma anche U Z V = U Z = V .
Conseguenze:
1. dimImf dimV ;
2. se dimV = dimW, f e iniettiva f e surgettiva
Dimostrazione: (=): f iniettiva = Kerf = {0} = dimW = dimV = dimImf = essendo
Imf W, dimImf = dimW = Imf = W .
(=): f surgettiva Imf = W = dimKerf = dimV dimImf = dimV dimW = 0 =
= Kerf = {0} = f e iniettiva;
Corollario: V, W K-spazi vettoriali, V, W sono isomorfi dimV = dimW .
Dimostrazione:
(=) : dimV = dimW = n = V = Kn = W.
(=) : f : V W isomorfismo di spazi vettoriali = Kerf = {0}, Imf = W = dimV =
dimKerf + dimImf = dimW .
Si dice che V e W appartengono alla stessa classe di equivalenza.
Classe di Equivalenza
Definizione: Sia E un insieme. Data R una relazione tra gli elementi dellinsieme, e possibile stabilire
se, presi due elementi di E, essi sono in relazione fra loro. In particolare R e una relazione di equivalenza
riflessiva: x E xRx;
Proprieta:
S
1. [x] = E (ossia le classi di equivalenza ricoprono E);
E/R = {[x] | x E}
Proposizione: siano V , W e Z tre spazi vettoriali, e siano f, g due applicazioni lineari tali che:
f g
V W Z:
1. dimIm(g f ) min dimImf, dimImg ;
Dimostrazione: :
v, w V, v = a1 v1 + . . . + an vn , w = b1 v1 + . . . + bn vn .
f (v +w) = f (a1 +b1 )v1 +. . .+(an +bn )vn = (a1 +b1 )w1 +. . .+(an +bn )wn = a1 w1 + . . . + an wn +
+ b1 w1 + . . . + bn wn = f (v) + f (w);
Unicita:
v V, v = a1 v1 + . . . + an vn .
Se f e unapplicazione lineare tale che f (vi ) = wi i = 1, . . . , n, allora:
f (v) = f (a1 v1 + . . . + an vn ) = a1 f (v1 ) + . . . + an f (vn ) = a1 w1 + . . . + an wn .
Quindi la definizione che abbiamo dato e lunica affiche f fosse lineare.
Definizione: sia f unapplicazione lineare. Si dice rango di f (e si indica rkf ) la dimensione di Imf .
Proposizione: sia A M (p, n) e sia S una sua ridotta a scala. Allora rkA = rkS.
Dimostrazione: dalla formula delle dimensioni:
rkA = dimImA = dimKn dimKerA = n dimKerA;
rkS = n dimKerS.
Ma KerA = KerS. Infatti essi sono gli insiemi delle soluzioni dei due sistemi lineari omogenei associati:
AX = 0 e SX = 0. Essendo essi due sistemi equivalenti (S e ottenuto da A tramite riduzione di Gauss)
hanno le stesse soluzioni, cioe KerA = KerS = rkA = rkS.
Sono generatori:
facciamo vedere che i 6= j1 , . . . , jr , S i e una combinazione lineare di S j1 , . . . , S jr , ossia che
a1 , . . . , ar K t. c. S i = a1 S j1 + . . . + ar S jr . Cercare a1 , . . . , ar significa cercare le soluzioni del
seguente sistema lineare:
a
1
S j1 . . . S jr .
.. = S i
ar
Sappiamo che la soluzione esiste se non compare un pivot nella colonna dei termini noti. Nel nostro caso
tutte le colonne in cui compaiono pivot sono S j1 , . . . , S jr , quindi esiste la soluzione, poiche abbiamo posto
i 6= j1 , . . . , jr .
Corollario: In particolare il numero di pivots non dipende dalla riduzione a scala (abbiamo dimostrato
che il rango e invariante rispetto alla riduzione di Gauss).
2. moltiplicare la riga i-esima per k: basta moltiplicare la i-esima riga della matrice identita per k e
otteniamo la matrice elementare (Bik );
dove si e indicata con I unopportuna matrice identita (ossia una serie di 1 sulla diagonale). k
compare nel posto [C]ij .
Sappiamo che le mosse di Gauss sono invertibili, quindi devono essere indotte da matrici invertibili. In-
fatti:
A2ij = I (scambiando due volte le righe i, j otteniamo nuovamente la matrice di partenza);
Bi k1 Bik = I (moltiplicando la riga i per k e k1 otteniamo la riga stessa);
Ci,j,k Ci,j,k = I (sommiamo e sottraiamo la stessa riga moltiplicata per k).
Osservazione: Per ottenere le mosse di Gauss sulle colonne, anziche sulle righe, basta utilizzare le stesse
matrici elementari moltiplicando a destra.
2. A e un isomorfismo;
3. rkA = n.
Dimostrazione:
(1) (2): A matrice invertibile B M (n) t. c. A B = B A = I (considerando A e B
come applicazioni lineari) B e linversa di A A e bigettiva A e un isomorfismo.
(2) (3): A isomorfismo n = dim(Kn ) = dim(ImA) + dim(KerA) = rkA + dim{0} = rkA.
Teorema: (di Rouche-Capelli
) AX =B e risolubile rkA = rk A|B .
Dimostrazione:
(idea) A|B S|T a scalini (sono
equivalenti ). Sappiamo che rkA = rkS,
rk A|B = rk S|T . Ma S|T e risolubile rk S|T = rkS.
Data A M (p, n) sappiamo che ImA = span(A1 , . . . , An ). Resta da determinare una base di ImA,
sapendo che dim(ImA) = rkA = rkS = r. A tal proposito consideriamo una qualunque riduzione di
Gauss che trasforma la matrice A in S (a scalini). Sappiamo che E1 , . . . , Em matrici elementari tali
che:
S = Em . . . E1 A
Detta M = Em . . . E1 , possiamo dare uninterpretazione dellalgoritmo di Gauss sotto forma di
applicazioni lineari:
A M
Kn Kp Kp
Sappiamo che M e una matrice invertibile (poiche prodotto di matrici invertibili), dunque e un isomorfi-
smo di spazi vettoriali. Ma un isomorfismo manda basi in basi, quindi M trasforma una base di ImS in
una di ImA.
Allora span(v1 , . . . , vm ) = ImA. Per trovare la base cercata si considerano le colonne che in una ridotta
a scala contengono i pivots. Abbiamo visto che tali colonne formano una base di ImA, quindi anche di
span(v1 , . . . , vm ).
Ossia
AX 1 = I 1, AX2 = I 2 . Possiamo
rappresentare
il sistema
(e risolverlo):
1 2 1 0 1 2 1 0 1 0 3 2 3 2
. Quindi X = e quello che
1 3 0 1 0 1 1 1 0 3 1 1 1 1
cercavamo.
Allora:
a11 a1 + . . . + a1n an a11 a1n a1
. . .. .. = A v
f (v) S = .. = .. ... . . B
ap1 a1 + . . . + apn an ap1 apn an
Osservazione: Da quanto sopra segue che il diagramma:
f
V W
A
Kn Kp
e commutativo.
che ad ogni applicazione associa la sua matrice associata nelle basi B e S, e un isomorfismo.
Dimostrazione: e lineare:
f, g Hom(V, W ), (f + g) = (f + g)(v1 ) S . . . (f + g)(vn ) S
Utilizzando la definizione di somma di funzioni (f + g)(v) = f (v) + g(v) e la linearita di [ ]S :
(f + g) = f (v1 ) S . . . f (vn ) S + g(v1 ) S . . . g(vn ) S = (f ) + (g)
Id : VB VS
v V [v]S = A [v]B
che segue da f (v) S = A [v]B , con f = Id.
Osservazione: B = mSB (Id) e la matrice inversa di A, poiche A B = I, cioe applicando le due matrici
in sequenza, le coordinate di ciascun vettore rimangono immutate.
?
1. e unoperazione in GL(n, K): A, B GL(n, K) = AB GL(n, K).
Sia (AB)1 = B 1 A1 . Verifichiamo che e una buona definizione: AB B 1 A1 = A A1 = I;
4. Proprieta associativa: vale per tutte le matrici, quindi anche per quelle invertibili.
A
VB WS
N M
A0
VB0 WS 0
Osservazione: M GL(p, K), N GL(n, K), poiche prodotto di matrici elementari invertibili.
Definizione: due matrici A, B M (p, n) sono dette SD-equivalenti se M GL(p, K), N GL(n, K) t. c.
B = M AN .
Osservazioni:
2. se A B = rkA = rkB:
rkB = rk(M AN ); N isomorfismo = rk(M AN ) = rk (M A)N ) = rk(M A), M isomorfismo =
= rk(M A) = rkA poiche rk(f g) min(rkf, rkg) . Il rango e un invariante per SD-equivalenza;
3. che A e B siano SD-equivalenti vuol dire che rappresentano la stessa applicazione in basi diverse;
Proposizione: siano V, W due spazi vettoriali tali che dimV = n, dimW = p. Si f : V W lineare
B Ir 0
tale che r = rkf . Allora esistono una base B di V e una base S di W tali che mS (f ) =
0 0
Dimostrazione: rkf = r = dim(Kerf ) = n r. Sia {vr+1 , . . . , vn } una base di Kerf .
La completiamo a base B = {v1 , . . . , vr , vr+1 , . . . , vn } di V .
Sappiamo che {f (v1 ), . . . , f (vr )} generano Imf , dato che f (vr+1 ) = . . . = f (vn ) = 0, sono r = sono
una base di Imf .
Li completiamo a base S = {f (v1 ), . . . , f (vr ), wr+1 , . . ., wp } di W
.
B Ir 0
La matrice associata ad f nelle basi B, S e: mS (f ) =
0 0
Ir 0
Corollario: sia A M (p, n), se rkA = r = A
0 0
Basta scegliere le basi come nella dimostrazione precedente.
Definizione: ogni sottomatrice quadrata e detta un minore. Si dice ordine del minore il numero delle
sue righe (e colonne).
Proposizione: sia A M (p, n), e sia B un minore di A di ordine q invertibile = le righe di A che
entrano a formare B sono linearmente indipendenti.
Dimostrazione: Supponiamo che B sia formato dalle prime q righe e q colonne di A. Proviamo che
A1 , . . . , Aq sono linearmente indipendenti:
1 A1 + . . . + q Aq = 0 = 1 B1 + . . . + q Bq = 0 1 = . . . = q = 0 (sono linearmente indi-
pendenti).
Proposizione: il rango di una matrice A M (p, q) e il massimo degli ordini dei suoi minori invertibili.
Dimostrazione: sia rkA = r, il massimo ordine dei suoi minori invertibili.
Sia B un minore di A di ordine invertibile = A contiene righe linearmente indipendenti =
= rkA , r.
Ma in A esistono r righe linearmente indipendenti, che supponiamo essere A1 , . . . , Ar .
Sia C = (A1 , . . . , Ar | A1 , . . . , Aq ) = rkC = r (pensato come rango per riga). Allora C contiene r
colonne linearmente indipendenti, supponiamo C j1 , . . . , C jr .
Sia M = (A1 , . . . , Ar | Aj1 , . . . , Ajr ) M (r), minore di A di ordine r, invertibile (contiene r colonne
linearmente indipendenti) = r.
Poiche valgono contemporaneamente r e r = = r.
Sia A M (n, K), sappiamo che rkA e il massimo numero di righe e colonne indipendenti.
Cerchiamo una funzione: det : M (n, K) K tale che detA = 0 le righe di A sono linearmente
dipendenti.
Esempio:
a11 a12
sia n = 2 : A = . Abbiamo 3 casi:
a21 a22
1. Se a11 e a21 sono entrambi nulli, le righe sono dipendenti.
2. Se a11 6= 0 = tramite operazioni per righe:
a11 a12
A
0 a22 a1
11 a21 a12
3. Se a11 = 0 ma a21 6= 0:
a21 a22
n=2: A=
0 a12
Le righe di A sono dipendenti a12 = 0, ossia se non e un pivot.
Ponendo, nel caso n = 2, detA = a11 a22 a12 a21 = detA = 0 Le righe sono linearmente
dipendenti.
Abbiamo trovato la funzione che cercavamo nel caso n = 2. Vediamo ora alcune sue proprieta:
1. det e lineare nelle righe. Supponiamo che la prima riga di A sia combinazione lineare di altre due:
B + C B C
B, C K2 t. c. A = . Verifichiamo che det A = det +
A2 A2 A2
Infatti:
se B = (b1 b2 ), C = (c
1 c2 ), A2 = (a1 a2 ):
b1 + c1 b2 + c2
det = a2 (b1 + c1 ) a1 (b2 + c2 ) = (a2 b1 a1 b2 ) + (a2 c1 a1 c2 ) =
a1 a2
b1 b2 c1 c2
= +
a1 a2 a1 a2
2. Se A ha due righe uguali = det A = 0;
3. det I = 1.
Passiamo ora al caso generico, e supponiamo che det A, definito prima, verifichi le 3 proprieta sopra
elencate. Abbiamo le seguenti conseguenze:
se A ha una riga nulla = det A = 0.
Dimostrazione: se Ai = 0, B Kn (riga) = Ai = 0 B. Allora, applicando la proprieta 1:
det(A1 , . . . , 0 B, . . . , An ) = 0 det(A1 , . . . , B, . . . , An ) = 0;
se A0 e ottenuta da A scambiando due righe = det A0 = det A.
Dimostrazione:
A = (A1 , . . . , Ai , . . . , Aj , . . . , An )
A0 = (A1 , . . . , Aj , . . . , Ai , . . . , An ).
Consideriamo la matrice A00 = (A1 , . . . , Ai + Aj , . . . , Ai + Aj , . . . , An ). Poiche ha due righe uguali:
det A00 = 0. Applicando le proprieta 1 e 2:
0
z }| {
00
0 = det A = det(A1 , . . . , Ai , . . . , Aj , . . . , An ) + det(A1 , . . . , Ai , . . . , Ai , . . . , An ) +
0
z }| {
+ det(A1 , . . . , Aj , . . . , Aj , . . . , An ) + det(A1 , . . . , Aj , . . . , Ai , . . . , An ) = det A + det A0
= det A0 = det A;
se B M (n, K) e ottenuta da A sommando ad una riga una combinazione lineare delle altre
= det B = det A.
Dimostrazione: B = (A1 + 2 A2 + . . . + n An , A2 , . . . , An ). Applicando la proprieta 1:
0
n
X z }| {
det B = det A + i det(Ai , A2 , . . . , An ) = det A
i=2
a1 0
..
se A e diagonale A = . = det A = a1 . . . an .
0 an
Dimostrazione: Per le proprieta 2 e 3:
a1 0 1 0
. .. ..
det = a1 . . . an det . = a1 . . . an
0 an 0 1
Esistenza:
def
n = 1 = det a = a;
n = 2 = det A = a11 a22 a21 a12 ;
n = Sia A M (n), ai1 = [A]i1 , Ai1 la sottomatrice ottenua da A scartando la prima colonna e la
i-aesima riga (detta complemento algebrico). Allora si chiama sviluppo di Laplace:
n
X
det A = (1)i+1 ai1 det Ai1
n n1
i=1
i=1 i=1
Osservazione: facendo lo sviluppo di Laplace lungo qualsiasi colonna della matrice si ottiene una fun-
zione che verifica le proprieta 1, 2 e 3. Poiche abbiamo dimostrato lunicita del determinante concludiamo
che tutte queste funzioni sono uguali.
Passiamo ora al caso generico con det A 6= 0. Con opportune matrici elementari:
Em . . . E1 A = I = tA tE1 . . . tEm = I = A = (tEm )1 . . . (tE1 )1
det tA = det(tEm 1
) . . . det(tE11 ) = (det tEm )1 . . . (det tE1 )1 (det A)1 det A =
1
= (det Em )1 . . . (det E1 )1 (det A)1 det A = det(Em . . . E1 A) det A = det A.
| {z }
I
e uguale a det A.
Dimostrazione:
det(tA)i1
n
X z }| {
t
f (a) = (1)i+1 [tA]i1 det (A1i ) = det tA = det A
i=1
Proposizione: (regola di Cramer ) Sia AX = B un sistema tale che A M (n, K), B Kn , e supponiamo
det A 6= 0. Se y1 , . . . , yn e soluzione del sistema = yi = det B(i)
det A , dove
B(i) = (A1 , . . . , Ai1 , B, Ai+1, . . . , , An ).
y1
Dimostrazione: se Y = ... , sappiamo che AY = B = y1 A1 + . . . +yn An = B. Allora:
yn
n
X n
X
det B(i) = det(A1 , . . . , Ai1 , yi Ai , Ai+1 , . . . , , An ) = yi det(A1 , . . . , Ai , . . . , , An ) = yi det A
i=1 i=1
e la matrice inversa di A.
Dimostrazione: verifichiamo che AB = I:
n
X n
X det Aki
[AB]hk = [A]hi [B]ik = (1)i+k [A]hi
i=1 i=1
det A
Nei casi in cui k 6= h: [A]hi = [A0 ]ki e Aki = A0 ki (viene cancellata proprio la k-esima riga, lunica
che abbiamo modificato; non ci si accorge della differenza). Dunque, in questo caso:
n
X det A0 ki det A0
[AB]hk = (1)i+k [A0 ]ki = =0
i=1
det A det A
Esempio:
1 2 3 1
1 2
A= 0 9 5 1 B=
0 9
2 1 0
Sono minori orlati diB:
1 2 3 1 2 1
C 0 = 0 9 5 C 00 = 0 9 1
2 1 2 0
Osservazione: come per SD-equivalenza, possiamo vedere la similitudine fra matrici in due modi diver-
si: date A, B M (n), con A B, possiamo vederle come endomorfismi coniugati oppure come matrici
associate alla stessa applicazione in basi diverse. Per capire questa seconda interpretazione consideriamo
il diagramma:
B
VS VS
M M 1
A
VB VB
Sia nello spazio di partenza che in quello di arrivo, per entrambe le applicazioni,
utilizziamo la stes-
sa base. Le matrici di cambio di base mB S (Id), m S
B (Id) GL(n, K) sono una linversa dellaltra.
Pertanto A e B sono matrici simili.
Lemma: A M (n, K), M GL(n) = det B = det A (il determinante e invariante per similitudine).
Dimostrazione: det B = det(M 1 AM ) = det M 1 det A det M = (det M )1 det M det A = det A.
def
Definizione: sia f End(V ), B base di V , definiamo det f = det mB (f )
Osserviamo che si tratta di una buona definizione, indipendente dalla scelta della base.
Infatti,
se B e B 0
sono due basi allora, per quanto detto sopra, mB (f ) mB0 (f ), quindi det mB (f ) = det mB0 (f ) =
= det f .
Tuttavia {rk, det} non e un sistema completo di invarianti. Consideriamo infatti le matrici:
1 0 1 1
I= , A=
0 1 0 1
A 6 I, benche abbiano stesso rango e determinante, infatti la classe di equivalenza di I e:
[I] = M 1 IM | M GL(N ) = {I}
dunque e composta dalla sola matrice identita. Cerchiamo altri invarianti.
Proprieta:
1. f span(v) span(v).
Se 6= 0 vale
luguaglianza (la retta viene mandata in se stessa), mentre se = 0 :
f span(v) = {0} span(v).
Proposizione: f, g End(V ), f g:
Dimostrazione: h GL(V ) t. c. g =.
1. per
ipotesi
v V, v 6= 0 t. c. f (v)
= v.
g h1 (v) = (h1 f h) h1 (v) = h1 f (v) = h1 (v).
1
2. Abbiamo visto che v V (,
f ) = h (v) V (, g), ossia h1 V (, f ) V (, g).
1
Allo
stessomodo h V (, g) V (, f ) (poiche
f = h g h ). Allora:
h V (, g) V (, f ) h V (, g) = h V (, g) = V (, f ). Poiche h e un isomorfismo e
preserva le dimensioni: dimV (, f ) = dimV (, g).
Dimostrazione:
1. autovalore per f v V, v 6= 0 t. c. f (v) = v f (v) B = v B A[v]B = [v]B
X Kn , X 6= 0 X = [v]B t. c. AX = X autovalore per A;
2. da quanto sopra: V (, f ) B = V (, A).
Definizione: sia A M (n, K). Si dice polinomio caratteristico di A: pA (t) = det(A tI).
Richiamo: p(t) K[x], K t. c. p() = 0 = p(t) = (t )h q(t) per il teorema del resto, con
h > 0, q() 6= 0. h e detta molteplicita algebrica di .
1. rango;
2. determinante;
3. autovalori;
5. polinomio caratteristico.
Osservazione: possiamo cancellare gli autovalori: se pA (t) = pB (t) = A e B hanno gli stessi autovalori
(gli autovalori sono le radici del polinomio caratteristico).
Osservazione: il determinante
non e necessario: det A = det(A 0 I)= pA (0), cioe il termine noto del
polinomio caratteristico. pA (t) = (1)n tn + (1)n1 trA + . . . + det A
Mostriamo che gli invarianti trovati non sono sufficienti a descrivere completamente la relazione dequi-
valenza. Prima osserviamo:
Hanno stesso polinomio caratteristico e uguale dimensione degli autospazi ma non sono simili:
A2 6 B 2 = A 6 B :
0 0 1
0 0
A2 = 0 B =
2
0
0
La lista non e un sistema completo di invarianti. Per tal motivo restringiamo la classe delle matrici
considerate.
Diagonalizzabilita
Osservazione: se e autovalore per f = n e autovalore per f n .
Definizione: f End(V ) si dice diagonalizzabile se esiste B base di V tale che mB (f ) e diagonale (se
esiste una base di autovettori).
Definizione: A M (n, K) si dice diagonalizzabile se A e simile a una matrice diagonale.
Lemma:
sia
f End(V ), e siano 1 , . . . , k autovalori distinti e v1 , . . . , vk i relativi autovettori
vi V (i ) = v1 , . . . , vk sono linearmente indipendenti.
Dimostrazione: Per induzione su k:
k = 1: v1 6= 0 per definizione di autovettore = v1 e linearmente indipendente.
k 1 = k:
Verifichiamo che sono linearmente indipendenti:
c1 v1 + . . . + ck vk = 0 (1)
Moltiplichiamo (1) per k :
c1 k v1 + . . . +ck k vk = 0
Applichiamo f a (1):
c1 1 v1 + . . . +ck k vk = 0
Sottraiamo le due equazioni:
c1 (1 k )v1 + . . . +ck1 (k1 k )vk1 = 0.
Poiche v1 , . . . , vk1 sono linearmente indipendenti (per ipotesi induttiva) e i k 6= 0 i = 1, . . . , k 1
(per ipotesi che siano tutti autovalori distinti):
c1 (1 k ) = 0
c1 = 0
.. = ..
. .
ck1 (k1 k ) = 0 ck1 = 0
Dimostrazione:
(=): per ipotesi esiste una base B di autovettori tale che:
Il polinomio caratteristico e:
pf (t) = (1 t)d1 . . . (k t)dk = h(i ) = di = h(1 )+ . . . +h(k ) = n;
Conseguenza: f e diagonalizzabile V = V (1 , f ) . . . V (k , f ).
Triangolabilita
Definizione: sia V uno spazio vettoriale tale che dimV = n. Si chiama bandiera per V una lista di
sottospazi V1 , . . . , Vn di V tale che:
1. V1 V2 . . . Vn ;
2. dimVi = i, i = 1, . . . , n.
Definizione: B si dice base a bandiera per f se la bandiera indotta da B e una bandiera per f .
Definizione: f End(V ) e detta triangolabile se esiste una base B di V tale che mB (f ) e triangolare.
Teorema: (di triangolabilita) siano f End(V ), con n = dimV, 1 , . . . , m K tutti i suoi autovalori.
Allora f e triangolabile h(1 )+ . . . +h(m ) = n (tutti i suoi autovalori sono nel campo).
Dimostrazione:
(=): presa B base di V a bandiera per f , consideriamo mB (f ); la matrice associata e triangolare quindi
tutti gli autovalori si trovano sulla diagonale. Allora il polinomio caratteristico e scomponibile in fattori
di primo grado:
Osservazione: se K = C tutti gli endomorfismi sono triangolabili (ma non necessariamente diagonaliz-
zabili).
Definizione: sia V uno spazio vettoriale tale che dimV = n. : V V K e detta applicazione
bilineare se:
1. x, y, z V (x + y, z) = (x, z) + (y, z), (x, y + z) = (x, y) + (x, z);
2. x, y V, K, (x, y) = (x, y) = (x, y).
Definizione: sia V uno spazio vettoriale. Chiameremo Bil(V ) linsieme delle applicazioni bilineari
f : V V K.
Definizione: sia V uno spazio vettoriale, Bil(V ), B = {v1 , . . . , vn } una base di V . La matrice
associata allapplicazione bilineare e nella forma:
def
mB () ij = (vi , vj )
t
Proposizione: se A = mB () = v, w V, (v, w) = [v]B A[w]B .
Dimostrazione:
b1
Xn Xn Xn Xn
(v, w) = a i vi , bj vj = ai bj (vi , vj ) = a1 , . . . , an A
..
| {z } .
i=1 j=1 i=1 j=1 bn
[A]ij
Osservazione: B base di V :
antisimmetrica mB () e simmetrica.
e antisimmetrica mB () e antisimmetrica.
m volte
z }| {
Definizione: sia K un campo, e sia m N il piu piccolo numero
tale che 1+ . . . +1 = m 1 = 0
naturale
(1 K). Diremo che m e la caratteristica del campo K char(K) = m . Se m N, m 1 6= 0 =
char(K) = 0.
Forma quadratica
Definizione: unapplicazione q : V K si dice forma quadratica se Bil(V ) t. c. v V,
q(v) = (v, v).
Consideriamo lapplicazione:
: Bil(V ) Q(V )
7 q(v) = (v, v)
non e iniettiva, infatti se e antisimmetrica: v V, q(v) = (v, v) = (v, v) = q(v) = q(v) =
0, v V = q 0.
Proposizione: sia q una forma quadratica. ! Bil(V ) prodotto scalare che induce q.
Dimostrazione: q forma quadratica = b Bil(V ) t. c. v V, q(v) = b(v, v). v, w V , sia:
b(u, v) + b(v, u)
(u, v) =
2
Allora e bilineare simmetrica, quindi e un prodotto scalare. Inoltre induce q, poiche v V :
b(v, v) + b(v, v)
(v, v) = = b(v, v) = q(v)
2
Dimostriamo ora lunicita di facendo vedere che, data q, v, w V , il valore di (u, v) e univocamente
determinato. Se e un prodotto scalare che induce q:
q(u + v) q(u) q(v) = (u + v, u + v) (u, u) (v, v) = 2(u, v)
Allora data q abbiamo la seguente formula di polarizzazione:
t
sia Bil(V ), B una base di V e A = mB (). Sappiamo che u, v V, (u, v) = [u]B A [v]B .
Sia ora S unaltra base di V e sia A0 = mS (). Se M e la matrice di cambio di base dalla base B alla
base S, u, v V :
t t t
(u, v) = [u]S A0 [v]S = [u]B tM A0 M [v]B = [u]B A [v]B .
t 0
Allora A = M A M .
Definizione: , Bil(V
) si dicono
forme isometriche se h GL(V ) (detta isometria) tale che
v, w V, (v, w) = h(v), h(w)
Definizione: sia V uno spazio vettoriale e sia S V un suo sottospazio. Chiameremo ortogonale di S:
S = {v V | (v, x) = 0 x S}
3. per la definizione di ortogonale: (S ) = {v V | (v, x) = 0 x S }; poiche s S,
x S , (s, x) = 0 = S (S ) .
Definizione: sia V uno spazio vettoriale, chiameremo radicale di V :
Rad(V ) = V = {x V | (v, x) = 0 v V }
Proposizione: siano V uno spazio vettoriale tale che dimV = n, un prodotto scalare. Allora
dimV = n rk.
Dimostrazione: sia B una base di V , e sia A = mB (). Dalla definizione: v V , w V, (v, w) = 0.
Siano X = [v]B , Y = [w]B . Allora (v, w) = tXAY = 0, Y Kn = tXA = 0 = tAX = 0 =
X KerA = dimKerA = n rkA = n rk.
Proposizione: siano V uno spazio vettoriale tale che n = dimV , W V un sottospazio vettorial di V ,
un prodotto scalare. Allora
1. dimW n dimW ;
2. non degenere = dimW = n dimW ;
3. | non degenere = V = W W .
W
W = {v V | (v, w) = 0, w W } = {v V | (v, wi ) = 0, i = 1, . . . , m}
t
Poiche [wi ]S A [v]S = 0i = 1, . . . , n sia [v]S = X :
(1, 0, 0, . . . , 0)AX = 0
(i = 1)
..
.
(0, . . . , , 1, 0, . . . , 0)AX = 0 (i = m)
Definizione: sia Bil(V ) un prodotto scalare. v V si dice isotropo se (v, v) = 0 (e radice della
forma quadratica indotta da ).
Proposizione:
1. v V, (v, v) = 0 (ogni vettore di V e isotropo) = 0;
(v, w) (v, w)
2. v V non isotropo = w V, w v e ortogonale a v e detto coefficiente di Fourier ;
(v, v) (v, v)
3. v e non isotropo = V = span(v) span(v) .
Dimostrazione:
1. (v, v) = 0 v V = u, v V, (u, v) = 12 q(u + v) q(u) q(v) =
= 12 (u + v, u + v) (u, u) (v, v) = 0;
(v, w) (v, w)
2. w v, v = (w, v) (v, v) = 0;
(v, v) (v, v)
Osservazione:
B e una
base
ortogonale mB () e diagonale.
basta ricordare che mB () ij = (vi , vj ) .
2. Algoritmo di Lagrange:
Sia B = {v1 , . . . , vn } una base di V , A = mB (). Supponiamo che sia non degenere (non
e restrittivo, visto che nel caso di 0 ogni base e ortogonale). Mostriamo 3 operazioni che
permettono di ortogonalizzare la base B:
Sono una base di V . Dimostriamolo ricordando che sono indipendenti se le loro coordinate
rispetto alla base B lo sono. Per questo scriviamo i vettori in matrice (ogni colonna sono le
coordinate del vettore rispetto alla base):
1 c1 . . . cn
0 1 0
.. .. . . ..
. . . .
0 0 0 1
(vi , v1 )
dove ci = (v1 , v1 )
Come si vede, la matrice e triangolare superiore e invertibile, quindi i vettori v10 , . . . , vn0 sono
una base di V .
Inoltre, per il procedimento con cui sono stati ottenuti v20 , . . . , vn0 sono ortogonali a v10 .
Si itera il procedimento se v20 e non isotropo.
Trasformazioni ausiliarie: avvengono nel caso in cui [A]11 = 0 (v1 e isotropo):
(a) se i t. c. [A]ii 6= 0 (vi e non isotropo) = si permuta la base in modo che vi occupi il
primo posto;
(b) se i = 1, . . . , n [A]ii = 0 = poiche A 6= 0 (dato che 6 0) i, j t. c. [A]ij 6= 0.
Mostriamo che vi + vj non e isotropo:
Osservazione: se {v1 , . . . , vn } e una base di V ortogonale per (prodotto scalare non degenere), sap-
piamo che:
v V, v = 1 v1 + . . . + n vn
Consideriamo il prodotto scalare di v con un vettore vi della base:
Xn n
X
(v, vi ) = j vj , vi = j (vj , vi ) = i (vi , vi )
j=1 j=1
Allora:
(v, vi )
i =
(vi , vi )
Teorema: (di Sylvester complesso) sia V uno spazio vettoriale su campo C (osu un campo algebrica-
Ir 0
mente chiuso) tale che dimV = n. Allora esiste B base di V tale che: mB () = con r = rk.
0 0
Dimostrazione: sappiamo che S = {v1 , . . . , vn } base ortogonale di V in cui la matrice associata e dia-
gonale. A meno di riordinare la base possiamo supporre che (vi , vi ) 6= 0 se i = 1, . . . , r e (vi , vi ) = 0
se i = r + 1, . . . , n.
Sia:
vi
vi0 = p i = 1, . . . , r
(vi , vi )
e ben definito: infatti essendo su C possiamo sempre fare la radice quadrata di un numero.
Allora B = {v10 , . . . , vr0 , vr+1 , . . . , vn } e la base cercata.
E si chiamano:
p = i+ : indice di positivita di ;
r p = i : indice di negativita di ;
n r = i0 : indice di nullita di ;
Dimostrazione: sappiamo che esiste una base S = {v1 , . . . , vn } di V ortogonale per tale che mS ()
e diagonale. Costruiamo ora la base B tale che mB () e del tipo voluto: i = 1, . . . , r
vi
(vi , vi ) > 0 = vi0 = p
(vi , vi )
vi
(vi , vi ) < 0 = vi0 = p
(vi , vi )
Allora la base B = {v10 , . . . , vr0 , vr+1 , . . . , vn } e del tipo cercato.
Dimostriamo ora che p non dipende dalla scelta della base. Sia p la massima dimensione di un sottospazio
vettoriale W di V tale che | sia definito positivo. Evidentemente p non dipende dalla scelta della
W
base; per tale motivo proviamo che p = p . Presa B = {v1 , . . . , vn } una base ortogonale in cui la matrice
e nella forma cercata:
sia W = span(v1 , . . . , vp ) = | e definito positivo e dimW = p = p p ;
W
sia ora Z un sottospazio vettoriale di V tale che dimZ = p e | e definito positivo. Sia
Z
W = span(vp+1 , . . . , vn ). Mostriamo che W Z = {0}:
supponiamo per assurdo che v W Z, v 6= 0 = v = p+1 vp+1 + . . . +n vn . Allora:
Xn n
X n
X r
X
(v, v) = i vi , j vj = i2 (vi , vi ) = i2 (vi , vi ) < 0
i=p+1 j=p+1 i=p+1 i=p+1
n t
Definizione:
sia A M (n, R) simmetrica.
A e definita positiva X R , X 6= 0, XAX > 0
t
ossia (X, Y ) = XAY e definito positivo .
Teorema: (di Gram-Schmidt) sia (V, ) uno spazio euclideo tale che dimV = n. Se B = {v1 , . . . , vn }
una base qualsiasi di V = B 0 = {v10 , . . . , vn0 } base ortonormale di V tale che i = 1, . . . , n
span(v10 , . . . , vi0 ) = span(v1 , . . . , vi ) (conserva la bandiera indotta da B).
Dimostrazione: diamo la dimostrazione utilizzando il processo di ortonormalizzazione di Gram-Schmidt:
Si tratta in realta di un caso particolare dellalgoritmo di Lagrange per un prodotto scalare non de-
genere. In questo caso, poiche non ci sono vettori isotropi, e possibile rendere un vettore ortogonale a
tutti i vettori a lui precenti (senza utilizzare trasformazioni ausiliarie), secondo la formula:
i1
X (vi , vj0 ) 0
vi0 = vi v
j=1
(vj0 , vj0 ) j
Mostriamo ora che la base B 0 , ottenuta come sopra, preserva la bandiera indotta da B. Per la costruzione
che abbiamo fatto, i = 1, . . . , n span(v10 , . . . , vi0 ) span(v1 , . . . , vi ), infatti v10 , . . . , vi0 sono una com-
binazione lineare di v1 , . . . , vi (quindi appartengono allo stesso spazio); non solo, ma i due spazi hanno
la stessa dimensione. Infatti v10 , . . . , vi0 sono linearmente indipendenti (basta metterli in matrice, come
abbiamo fatto per lalgoritmo di Lagrange, per accorgersene). Quindi la bandiera indotta dalla base
ortonormale B0 e la stessa di quella indotta da B.
Osservazioni:
A e ortogonale = A e invertibile: (det A)2 = 1 = det A = 1;
A e ortogonale le righe e le colonne di A formano una base ortonormale di Rn :
t 1
A
.. 1
t
AA = . A . . . An = I
t n
A
0 se i 6= j
Quindi (Ai , Aj ) = tAi Aj = , quindi {A1 , . . . , An } e una base ortonormale di Rn ;
1 se i = j
detto O(n) = {A M (n, R) | tAA = I}, O(n), e un gruppo detto gruppo ortogonale ( e il
prodotto fra matrici):
t
1. O(n) e chiuso per : A, B O(n), AB O(n); infatti (AB)AB = tB tAAB = tBB = I;
2. esistenza dellinverso: A O(n), tA = A1 . Inoltre A O(n), tA O(n): infatti AtA = I;
3. esistenza dellelemento neutro: I O(n), infatti tI I = tI = I. A O(n), AI = IA = A;
4. proprieta associativa: vale perche vale per tutte le matrici.
O(n) GL(n, R).
Proposizione: sia (V, ) uno spazio euclideo tale che dimV = n, B = {e1 , . . . , en } una base ortonormale
0
di V per , B 0 = {v1 , . . . , vn } unaltra base di V . Detta M la matrice di cambio di base M = mB B (Id) ,
allora: B 0 ortonormale M O(n).
0
Dimostrazione: M = mB i
B (Id) = M = Id(vi ) B = [vi ]B .
Il prodotto scalare di due vettori di B 0 rispetto a B e:
t t t
(vi , vj ) = [vi ]B I [vj ]B = [vi ]B [vj ]B = (M i ) M j = (tM )i M j = [tM M ]ij
Allora:
0 se i 6= j
(vi , vj ) = tM M = I.
1 se i = j
Teorema: siano A M (n, R) avente tutti gli autovalori reali, il prodotto scalare ordinario di Rn
(definito positivo), C la base canonica di Rn tale che A = mC (A). Allora P O(n) t. c. P 1 AP =
= tP AP e di forma triangolare.
Dimostrazione: A : Rn Rn ha tutti gli autovalori reali = A e triangolabile = B base di Rn
a bandiera per A.
Applicando il teorema di Gram-Schmidt: S base di Rn ortonormale per che induce la stessa bandiera
di B = S e una base a bandiera per A, cioe mS (A) e triangolare.
Se P = mCS (Id) e la matrice di cambio di base dalla base C alla base S, allora, poiche entrambe sono
ortonormali: P 1 AP e triangolare e P O(n).
A e simile e congruente a una matrice triangolare.
Osservazione: siano (V, ) uno spazio euclideo, B una base di V ortonormale per , A = mB (f ).
Allora: f e simmetrica A e simmetrica.
Dimostrazione:
tse f e simmetrica, v, w V :
f (v), w = [v]B tAI [w]B
q t
v, f (w) = [v]B IA [w]B
Allora:
t t
f simmetrica v, w V, [v]B tA [w]B = [v]B A [w]B A = tA.
Lemma: sia A M (n, R) simmetrica. Allora tutti gli autovalori di A sono reali.
Dimostrazione: A : Rn Rn . Poiche ogni vettore reale e anche complesso, pensiamo A : Cn Cn .
Sia un autovalore di A. In generale C; dimostriamo che R. Per far questo, ricordando la
definizione di autovalore:
C autovalore di A X Cn , X 6= 0 t. c. AX = X.
Coniugando tutto:
AX = X = AX = X (poiche A e una matrice reale: A = A)
Consideriamo allora:
t
XAX = tXX
q
t t t t
X AX = (AX)X = (X)X = tXX
Allora ( ) tXX = 0. Ma tXX 6= 0, poiche se:
X = (x1 , . . . , xn ) = tXX = x1 x1 + . . . +xn xn = |x1 |2 + . . . +|xn |2
Poiche X 6= 0 almeno una delle sue componenti e diversa da 0. Allora tXX 6= 0 e, poiche R e un campo
e non ci sono divisori di zero: = 0 = = = R. Allora tutti gli autovalori di A sono reali.
Teorema spettrale: sia (V, ) uno spazio euclideo, f End(V ) simmettrica. Allora esiste una base
ortonormale di V di autovettori per f .
Dimostrazione: diamo due diverse dimostrazioni:
n = 1: tutti i vettori sono autovettori, per ottenere una base ortonormale si divide il vettore
di base per la sua norma.
n 1 = n: sia S una base ortonormale di V , e sia A = mS (f ).
A e simmetrica = autovalore reale di A = v1 V, v1 6= 0, autovettore per f relativo
a (non e restrittivo supporre kv1 k = 1).
Siamo in uno spazio euclideo, non ci sono vettori isotropi (eccetto 0), e non degenere. Allora:
V = span(v1 ) span(v1 ) .
W = span(v1 ) e un sottospazio vettoriale di V di dimensione n 1, | e definito positivo
W
= span(v1 ) con la restrizione del prodotto scalare e uno spazio euclideo.
Proviamo che f | e un endomorfismo, cioe che f span(v1 ) span(v1 ) :
W
?
w span(v1 ) = f (w) span(v1 ) (facciamo vedere che f (w) v1 ):
f (w), v1 = w, f (v1 ) = (w, v1 ) = 0 = f End span(v1 )
Poiche e verificata lipotesi induttiva per span(v1 ) : {v2 , . . . , vn } base ortonormale di
span(v1 ) di autovettori per f | = B = {v1 , . . . , vn } e, per la scelta fatta, ortonormale
W
per V e di autovettori per f .
Teorema: (di ortogonalizzazione simultanea) sia (V, ) uno spazio euclideo, sia un prodotto scalare
su V . Allora esiste una base B di V ortonormale per e ortogonale per .
Dimostrazione: siano S una base ortonormale di V per , A = mS () = A e simmetrica.
Sia g End(V ) tale che mS (g) = A = g e simmetrica = (teorema spettrale) B base di V ortonor-
male per e di autovettori per g mB (g) = D diagonale
.
Se M e la matrice di cambio di base tra S e B M = mSB (Id) = M 1 AM = D
Ma S e B sono ortonormali = M O(n) = M 1 = tM , cioe: mB () = tM AM = D = B e
ortogonale per .
Definizione: sia (V, ) uno spazio euclideo, f End(V ) si dice applicazione ortogonale o isometria
f O(V, ) se:
x, y V, f (x), f (y) = (x, y)
.
Osservazione: f End(V ) e ortogonale = f e un isomorfismo.
Dimostrazione:
f End(V ) = f e lineare;
f e iniettiva: se x Kerf, x 6= 0, 0 = f (x), f (x) = (x, x) = kxk2 . Assurdo: lunico vettore
con norma nulla e 0;
1. f e ortogonale;
2. f preserva la norma;
3. se B = {v1 , . . . , vn } e una base ortonormale di V = f (v1 ), . . . , f (vn ) e una base ortonormale
di V .
Dimostrazione:
2
1 = 2: v V, f (v) = f (v), f (v) = (v, v) = kvk2 .
1 = 3: la trasformazione
in base e ovvia, visto che f e un isomorfismo. Poiche f preserva la
norma: f (vi ) = 1 i = 1, . . . , n. Inoltre, poiche f preserva il prodotto scalare:
f (vi ), f (vj ) = (vi , vj ) = 0 = f (vi ) f (vj ).
3 = 1 siano x = a1 v1 + . . . + an vn e y = b1 v1 + . . . + bn vn .
n n n
X X X
f (x), f (y) = ai bj (vi , vj ) = ai bi = (x, y)
i=1 j=1 i=1
Osservazione: sia (V, ) uno spazio euclideo tale che n = dimV . O(n) rappresenta O(V, ) in Rn
munito del prodotto scalare standard.
Prodotti Hermitiani
Definizione: sia V un C-spazio vettoriale, e sia h : V V C. h e un prodotto Hermitiano se:
grazie alla proprieta 4 e possibile replicare quanto fatto per i prodotti scalari. Infatti v V, h(v, v) =
h(v, v) ed e quindi un numero reale.
t
Osservazione: sia B una base di V , h un prodotto hermitiano e sia H = mB (h). H = H [H]ij = [H]ji
t
Osservazione: sia h un prodotto hermitiano, H = mB (h). Allora v, w V, h(v, w) = [v]B H [w]B .
t
Definizione: U M (n, C) e detta unitaria (analogo della matrice ortogonale) se U U = I.
Chiamiamo spazi hermitiani lanalogo degli spazi euclidei. E da notare come, date le definizioni precedenti,
valgano tutti i risultati ottenuti nel caso di questi ultimi.