Sei sulla pagina 1di 21

Complementi al testo di Geometria di Apostol

Giulio Codogni
28 ottobre 2021

Queste note sono dei complementi per il libro di testo Apostol, Calcolo, Volume Secondo,
Geometria. Trattano alcuni argomenti discussi durante il corso di Geometria per Ingegneria
Edile ed Edile-Architettura dell’anno accademico 2020-21. Ringrazio Roberto Fringuelli per
l’attenta rilettura del manoscritto e gli studenti per la loro partecipazione al corso.

1 Sottospazi Vettoriali
Dai risultati della Sezione 3.8, ed in particolare dalla possibilità di completare insiemi linear-
mente indipendenti a una base (punto a del Teorema 3.7), segue questo utile corollario la cui
dimostrazione lasciamo per esercizio.

Corollary 1. Sia V uno spazio vettoriale e W un suo sottospazio. Allora vale che

dim W ≤ dim V

Se inoltre la dimensione di V è finita abbiamo che

dim W = dim V ⇔ W =V

2 Algoritmo di Gram-Schmidt
Questa sezione è un complemento alla sezione 3.14 dell’Apostol. Non abbiamo (per il momento)
discusso questo algoritmo in classe, ricordate però che implica l’esistenza di basi ortornormali (e
vi dà una ricetta per trovarle).
Sia V uno spazio euclideo, S = {x1 , . . . , xk } un insieme di vettori linearmente indipendenti e
W = L(S). In particolare, S è una base di W e dim W = k.
L’algorimo di Gram-Schmidt permette di ottenere una base ortogonale T = {y1 , . . . , yk } di
W a partire da S. Questa nuova base è definita in maniera induttiva. Si pone

y1 = x1 .

Successivamente, dato un intero j in {2, . . . , k}, si assume che yi sia stato già costruito per ogni
i < j e si pone
j−1
X (xj , yi )
yj = xj − yi .
i=1
(yi , yi )
E’ istruttivo scrivere esplicitamente la formula per j = 2 e verificare che y1 e’ ortogonale a
y2 .

1
La dimostrazione del Teorema 3.13 dal libro di testo dimostra anche che l’insieme T così
ottenuto è una base ortonormale di W . Osserviamo che cambiando la base di partenza S, si
modifica anche la base finale T .
Piccolo consiglio pratico: ad ogni passaggio, se lo si reputa opportuno, si può rimpiazzare yj
con un suo multiplo non nullo (ovvero con un vettore parallelo). In alcuni casi questa operazione
può semplificare i calcoli. La base che si otterrà con questo algoritmo leggermente modificato
sarà ancora ortogonale.
Ottenuta una base ortogonale T = {y1 , . . . , yk }, si può ottenere una base ortonormale
normalizzando i vettori yi , ovvero rimpiazzando yi con ||y1i || yi .

L’importante corollario teorico dell’algoritmo di Gram-Schmidt è che ogni spazio euclideo di


dimensione finita ha almeno una base ortornormale. In altri termini, l’esistenza stessa di questo
algoritmo, a prescindere dal fatto che lo si applichi, garantisce l’esistenza di almeno una base
ortonormale.

Si può applicare l’alogoritmo di Gram-Schmidt anche a un insieme S = {x1 , . . . , xk } linear-


mente dipendente, che quindi non costituisce una base di W . Quando si arriva a un vettore
xj tale che l’insieme {x1 , . . . , xj } è linearmente dipendente, otteremo yj = 0. In questo caso
rimuoviamo il vettore xj da S e ripartiamo da xj+1 . Alla fine otterremo comunque una base
ortogonale di W , pero’ la sua cardinalità sarà più piccola di quella di S.

3 Funzioni tra insiemi


In questa sezione rivediamo alcune nozioni di base sulle funzioni tra insiemi. E’ alternativa alla
Sezione 4.6 del libro di testo.
Sia
f: A→B
una funzione tra due insiemi. L’insieme A di sice dominio di f , B codominio di f .
L’immagine di f , denotata a volte con f (A) o im(f), è il seguente sottoinsieme di B

f (A) = {b ∈ B tali che esiste a ∈ A con f (a) = b}

La controimmagine, o preimmmagine, di un elemento b di B è denotata con f −1 (b), ed è il


seguente sottoinsieme di A

f −1 (b) = {a ∈ A tali che f (a) = b}

Osserviamo che la controimmagine può essere sia vuota che costituita da molti elementi.
In particolare, la controimmagine non definisce una funzione. Come spiegheremo a breve, la
controimmagine definisce una funzione da B ad A solo quando f −1 (b) è costituito da esattamente
un elemento per ogni b in B.
Diciamo che
Iniettiva La funzione f è initettiva se per ogni coppia di elementi a1 e a2 in A con a1 6= a2 ,
vale f (a1 ) 6= f (a2 ).
Suriettiva La funzione f è suriettiva se per ogni elemento b in B esiste almeno un elemento a
in A tale che f (a) = b.
Biunivoca La funzione f è biunivoca se è sia iniettiva che suriettiva.

2
Esercizio Descrivete esempi di funzioni iniettive ma non suriettive, suriettive ma non iniet-
tive, biunivoche.
Definiamo inoltre la funzione inversa di f come una funzione

f −1 : B → A

tale che f ◦ f −1 = 1B e f −1 ◦ f = 1A , dove ◦ denota la composizione, 1A la funzione identità su


A e 1B la funzione identità su B. Non è detto che una funzione inversa esista; una funzione si
dice i nvertibile se esiste un’inversa.
Teorema 2. La funzione inversa esiste se e solo se f è biunivoca. Se f è biunivoca, la funzione
inversa è unica e coincide con la preimmagine (in particolare, in questo caso la preimmagine
definisce una funziona da B ad A).
Dimostrazione. Quando f è biunivoca, la controimmagine di ogni elemento di B consiste di
esattamente un elemento di A, quindi possiamo definire una funzione f −1 : B → A che assegna
ad ogni elemento di B la sua controimmagine. Lasciamo al lettore dimostrare che questa funzione
è l’unica funzione che soddisfa le proprietà dell’inversa. Gli lasciamo inoltre dimostrare che se f
non è biunivoca, allora non esiste un’inversa (o, se preferisce, il lettore può dimostrare che se f
ha un’inversa, allora è biunivoca).

Esercizio Dimostrare inoltre che se f è iniettiva ma non suriettiva, esiste più di una funzione
g : B → A tale che g ◦ f = 1A , ma non esiste nessuna funzione g tale che f ◦ g = 1B (tali g
si chiamano inverse sinistre). Similmente, se f è suriettiva ma non iniettiva, esiste più di una
funzione g : B → A tale che f ◦ g = 1B , ma non esiste nessuna funzione g tale che g ◦ f = 1A
(tali g si chiamano inverse destre).

3.1 Differenza di notazioni con il libro di testo


Il libro di testo, contrariamente a quanto si fa di solito e quanto faremo noi, usa il termine
codominio per l’immagine. Quello che noi chiamiamo codominio, viene chiamato "l’insieme in
cui prende i valori la funzione", ovvero si dice che una funzione f : A → B è una funzione a valori
in B. Inoltre il libro definisce la funzione inversa come una funzione dall’immagine al dominio,
invece che dal codominio al dominio come facciamo noi

4 Applicazioni lineari
4.1 Applicazioni ortogonali
Definizione 1 (Applicazioni ortogonali). Un’applicazione lineare T tra due spazi euclideo V e
W si dice ortogonale se per ogni coppia di vettori v e w in V si ha che

(v, w) = (T (v), T (w))

Teorema 3. Un’applicazione T è ortogonale se e solo se entrambe le condizioni seguenti sono


vere
1. per ogni vettore v in V , la lunghezza di v è uguale a quella di T (v)
2. per ogni coppia di vettori non nulli v e w di V , l’angolo tra v e w è uguale a quello tra
T (v) e T (w).

3
Dimostrazione. Dimostriamo solo che se T è ortogonale allora le due proprietà sopra descritte
sono vere.
La lunghezza di v è (v, v), quella di T (v) è (T (v), T (v), siccome (v, v) = (T (v), T (v)),
p p

otteniamo la prima proprietà.


L’angolo tra v e w si tratta in un modo simile, lo lasciamo al lettore per esercizio.

Teorema 4. Sia T : V → W un’applicazione ortogonale, allora il suo nucleo è banale, ovvero


Ker(T ) = {0}.
Dimostrazione. Dobbiamo dimostrare che se T (v) = 0 per un qualche vettore v di V , allora
v = 0. Siccome (T (v), T (v)) = (v, v), abbiamo che (v, v) = 0, quindi v = 0 per le proprietà del
prodotto scalare.

4.2 Proiezioni ortogonali


Riprendiamo la Sezione 3.15 e l’Esempio 6 della sezione 4.1. Dato uno spazio euclideo V e un
sottospazio vettoriale W di V , nelle sezioni citate trovate la definizione una proiezione

ρ: V → W

Sottolineiamo che la definizione della proiezione utilizza il prodotto scalare, se lasciamo fissi
V e W ma cambiamo il prodotto scalare, anche la proiezione cambia. In assenza di un prodotto
scalare, non possiamo neanche definire la proiezione. Lascimao al lettore il compito di dimostrare
la proposizione seguente.
Proposition 5. La proiezione ρ è un’applicazione lineare suriettiva. Il nucleo di ρ è il comple-
mento ortogonale W ⊥ di W in V .
Se V ha dimensione finita, segue dal Teorema 4.3 "nullità più rango" del libro di testo che

dim V = dim W + dim W ⊥ (1)

Concludiamo con il seguente teorema


Teorema 6. Sia V uno spazio euclideo di dimensione finita e W un suo sottospazio, allora
⊥
W⊥ =W
⊥
Dimostrazione. L’inclusione W ⊂ W ⊥ segue dalla definizione di complemento ortogonale.
L’inclusione inversa potrebbe essere falsa se V ha dimensione infinita. Quando V ha dimensione
⊥
finita, l’equazione (1) applicata prima alla coppia W e W ⊥ e poi alla coppia W ⊥ e W ⊥ ci
dice che  ⊥ 
dim W ⊥ = dim W ,

successivamente possiamo applicare il Corollario 1.

4.3 Applicazioni lineari iniettive e invertibili


I risultati seguenti sono delle varianti di quelli dimostrati nella Sezione 4.7 del libro di testo.
Teorema 7. Sia T : V → W un’applicazione lineare. Allora le seguenti affermazioni sono
equivalenti.

4
• T è iniettiva;
• Ker(T ) = {0}
• Per ogni sottoinsieme finito S = {v1 , . . . , vk } di V , S è linearmente indipendente se e solo
se lo è {T (v1 ), . . . , T (vk )}
Teorema 8. Sia T : V → W un’applicazione lineare. Se T è invertibile, allora la sua inversa
T −1 è lineare.
Abbiamo infine i seguenti criteri che possono essere usati per escludere che un’applicazione
lineare sia iniettiva, suriettiva o biunivoca.
Teorema 9. Sia T : V → W un’applicazione lineare.
• Se T è iniettiva, allora dim V ≤ dim W
• Se T è suriettiva, allora dim V ≥ dim W
• Se T è biunivoca, allora dim V = dim W
Ad esempio, il teorema precedente può essere utilizzato per escludere che un’applicazione
lineare T : R7 → R3 sia iniettiva, o che un’applicazione lineare T : R6 → R15 sia suriettiva.
Esercizio Dare esempi di applicazioni lineari non iniettive ma tali che dim V ≤ dim W , non
suriettive ma tali che dim V ≥ dim W , non biunivoche ma tali che dim V = dim W .
Dato uno spazio vettoriale V , osserviamo che in End(V ) esistono molte applicazioni che non
sono nulle ma non sono neanche invertibili. Questo è in contrasto con quanto succede per i numeri,
dove ogni numero non nullo è invertibile. Con stesso spirito, osserviamo che se cerchiamo dentro
End(V ) le soluzioni dell’equazione x2 = 0, ovvero se cerchiamo il sottosinsieme degli elementi x
di End(V ) tali che x2 = 0, troviamo infinite soluzioni, invece che solo x = 0.

5 Algoritmo di Gauss-Jordan per la scelta di una base


Sia V uno spazio vettoriale e S un sottoinsieme finito. Abbiamo visto come trovare un sottoinsie-
me T di S tale che T sia linearmente indipendente e L(T ) = L(S). In questa sezione vediamo un
algoritmo alternativo per trovare un insieme T , diverso da S, ma sempre tale che L(T ) = L(S)
e T è linearmente indipendente; in particolare, T è una base di L(S). Spiegheremo l’algoritmo
per V = Rn , prima di far ciò richiamiamo tre lemmi generali.
Lemma 10. Sia V uno spazio vettoriale e S un sottoinsieme finito. Supponiamo S contenga il
vettore nullo, e sia T l’insieme ottenuto rimuovendo da S il vettore nullo. Allora L(S) = L(T ).
Lemma 11. Sia V uno spazio vettoriale, S un sottoinsieme finito, v e w due elementi distinti
si S e λ un numero reale. Sia T l’insieme ottenuto da S sostituendo w con w + λv. Allora
L(S) = L(T ).
Sia il Lemma 10 che il Lemma 11 si dimostrano provando che S ⊂ L(T ) e T ⊂ L(S),
e successivamente applicando l’Esercizio 22 Sezione 3.10 dell’Apostol. Lasciamo al lettore il
compito di completare i dettagli.
Lemma 12. Sia V uno spazio Euclideo, S = {v1 , . . . , vk } un sottoinsieme finito e {w1 , . . . , wk }
un insieme di vettori linearmente indipendenti. Assumiamo che per ogni i ∈ {1, . . . , k} valga
(vi , wi ) 6= 0, e che per ogni i e j in {1, . . . , k} con j > i valga (vj , wi ) = 0. Allora S è un insieme
linearmente indipendente.

5
Dimostrazione. Scriviamo 0 come combinazione lineare dei vi

λ1 v1 + · · · + λk vk = 0 . (2)

Dimostriamo per induzione su i che λi = 0. Facciamo il prodotto scalare di entrambi i lati


dell’uguaglianza con w1 . Otteniamo λ1 = 0. Adesso assumiamo l’ipotesi induttiva λ1 = · · · =
λi−1 = 0. Facendo il prodotto scalare di entrambi i membri dell’equazione (2) con wi , otteniamo
λi = 0, quindi S è linearmente indipendente.
Adesso spieghiamo l’algoritmo, lo faremo prima in generale e poi in alcuni esempi. Sia V = Rn
equipaggiato con il prodotto scalare standard. Sia S = {v1 , . . . , vk } ⊂ V . Siano vi,j le coordinate
di vi , ovvero i vi,j sono numeri e vi = (vi,1 , vi,2 , . . . , vi,n ). Iniziamo l’algoritmo.
Se v1 è il vettore nullo lo rimuoviamo (per il Lemma 10 non cambiamo lo spazio generato da
S). Se v1 non è nullo, sia j1 un indice tale che la coordinata v1,j1 è non nulla. Per ogni i ≥ 2,
sostituiamo vi con
vi,j1
vi − v1 (3)
v1,j1
Per il Lemma 11, non abbiamo modificato lo spazio generato da S. Osserviamo che adesso la
coordinata j1 -esima di tutti i vettori tranne il primo è nulla.
Procediamo nello stesso modo per ogni vettore vt . Se vt è nullo lo rimuoviamo. Se non è
nullo, scegliamo un indice jt tale che la coordinate jt di vt non è nulla. Per ogni indice i tale che
i > t, rimpiazziamo vi con
vi,jt
vi − vt (4)
vt,jt
(L’equazione (3) è l’equazione (4) con t = 1)
L’insieme finale T così ottenuto è tale che L(S) = L(T ) per i Lemmi 10 e Lemma 11.
Dimostriamo che T è linearmente indipendente. Prendiamo il sottoinsieme {ej1 , . . . , ejk } della
base standard. Osserviamo che (vt , eji ) è la ji -esima coordinata di vt , quindi, vista la costruzione
che abbiamo fatto, si ha (vt , eji ) = 0 se i > t e non è zero se i = t. Usiamo {ej1 , . . . , ejk }come
{w1 , . . . , wk }, e otteniamo l’indipendenza lineare dal Lemma 12.
Concludiamo questa sezione con alcuni esempi.
Sia n = 2, k = 2, v1 = (1, 1), v2 = (1, −1) e S = {v1 , v2 }. Iniziamo l’algoritmo. v1 è non nullo,
lo teniamo e rimpiazziamo v2 con v2 + v1 , ovvero con (0, 1). L’insieme finale T è {(1, 1), (0, 1)}.
Deduciamo che l’insieme di partenza S generava uno spazio di dimensione due, e quindi, avendo
S due elementi, era già linearmente indipendente.
Adesso scegliamo sempre n = k = 2, e prendiamo v1 = (1, 1), v2 = (2, 2) e S = {v1 , v2 }. v1
non è nullo, perciò lo teniamo e rimpiazziamo v2 con v2 − 2v1 . Il nuovo vettore v2 è nullo, perciò
lo leviamo. L’insieme finale T è {(1, 1)}. Deduciamo che l’insieme di partenza S generave uno
spazio di dimensione uno, ed era un insieme di vettori dipendenti.
Scegliamo ancora n = 2 ma k = 3. Prendiamo v1 = (1, 1), v2 = (2, 1), v3 = (1, −1) e
S = {v1 , v2 , v3 }. Il primo vettore è non nullo, sostituiamo v2 con v2 − 2v1 , ovvero (0, 1) e v3
con v3 − v1 , ovvero (0, −1). Il secondo vettore è non nullo, sostituiamo v3 con v3 + v2 , ovvero
(0, 0). Il terzo vettore è nullo e lo scartiamo. L’insieme finale è {(1, 1), (0, 1)}. Concludiamo che
T è una base di L(S); L(S) ha dimensione 2; siccome la cardinalità di S è maggiore di 2, S è
linearmente dipendente.

6
6 Sistemi lineari e eliminazione di Gauss in termini di com-
plementi ortogonali
Consideriamo un’equazione lineare a1 x1 + · · · + an xn = 0. Sia a il vettore dei coefficienti
(a1 , . . . , an ) e x il vettore delle incognite (x1 , . . . , xn ). L’equazione precedente si può scrive-
re come (a, x) = 0, dove ( , ) è il prodotto scalare standard in Rn . Le sue soluzioni sono il
complemento ortogonale S di L(a) in Rn .
Dato un sistema lineare omogeneo Ax = 0 in n incognite, sia W il sottosapzio vettoriale
generato dalle righe di A. Le soluzioni del sistema costituiscono esattamente il complemento
ortogonale di W in Rn . Dato un qualunque insieme {a01 , . . . , a0k } di vettori che genera W (in
simboli: L({a01 , . . . , a0k }) = W ), sia A0 la matrice che ha per righe i vettori a0i , il sistema A0 x = 0
è equivalente a Ax = 0, ovvero i due sistemi hanno le stesse soluzioni. Osserviamo che k può
essere qualunquue numero maggiore o uguale della dimensione di W .
L’eliminazione di Gauss-Jordan per i sistemi lineari descritta nella Sezione 4.18 del libro di
testo è equivalente ad applicare l’algoritmo descritto nella Sezione 5 alle righe di A per trovare
una base di W .

7 Rango di una matrice


Il rango di una matrice è la dimensione dell’immagine dell’applicazione lineare associata alla
matrice.
Teorema 13. Il rango di una matrice è uguale al numero massimo di colonne linearmente
indipendenti.
Dimostrazione. Le colonne di una matrice sono l’immagine della base standard attraverso l’ap-
plicazione lineare associata alla matrice, perciò il numero massimo di colonne linearmente indi-
pendenti è la dimensione dell’immagine.
Teorema 14. Il rango di una matrice è uguale al numero massimo di righe linearmente indi-
pendenti.
Dimostrazione. Nelle notazioni della Sezione 6, il numero massimo di righe linearmente indipen-
denti è la dimensione di W . La dimensione di W è n − dim S. Ma S è il nucleo dell’applicazione
lineare associata, quindi dim W è la dimensione dell’immagine.
Data una matrice A, sia µ il minimo tra il numero delle righe e quello delle colonne. Per i
due teoremi appena dimostrati, il rango di A è al più µ. La matrice A si dice di rango massimo
se il suo rango è esattamente µ.
Data una matrice A, un minore di A è una matrice quadrata B ottenuta rimuovendo alcune
righe ed alcune colonne di A.
Teorema 15. Il rango di una matrice A è r se e solo se esiste almeno un minore di dimen-
sione r con determinate diverso da zero e tutti i minori di dimensione più grande di r hanno il
determinante uguale a zero.
Dimostrazione. Sia r il rango di A, ed s il numero intero tale che esiste almeno un minore di
dimensione s con determinate diverso da zero e tutti i minori di dimensione più grande di s
hanno il determinante uguale a zero. Dobbiamo dimostrare che r = s.
Dimostriamo prima che r ≥ s. Sia B un minore di dimensione s con determinante diverso
da zero. Siano Ai1 , . . . , Ais le colonne di A che intersecano B. Vogliamo dimostrare che sono

7
linearmente indipendenti, quindi r ≥ s. Assumiamo per assurdo che siano dipendenti. Sia
λ1 Ai1 + · · · λs Ais = 0 una combinazione lineare con almeno uno dei λi diversi da zero. Questi
stessi scalari danno anche una relazione lineare tra le colonne di B, quindi le colonne di B sono
linearmente dipendenti e il determinante di B è uguale a zero, una contraddizione.
Adesso dimostriamo che r ≤ s. Dobbiamo trovare un minore B di dimensione r con de-
terimante diverso da zero. Siano Ai1 , . . . , Air r colonne linearmente indipendenti. Possiamo
sostituire la matrice A con una matrice A0 formata solo dalle colonne Ai1 , . . . , Air , e cercare
un minore dentro A0 . La matrice A0 è di rango massimale, quindi possiede r righe linearmente
indipendenti. Rimuoviamo tutte le altre righe, ottendo così un minore B. Questo minore ha le
righe linearmente indipendenti, quindi il suo determinante è diverso da zero.
Il Teorema 15 può essere comodamente usato per dare una stiama dal basso del rango di una
matricce: è sufficiente trovare un minore di dimensione k con determinate diverso da zero per
concludere che il rango è almeno k.

8 Sviluppo di Laplace del determinante


Questa sezione è un riassunto, senza dimostrazioni, delle sezioni 13 e 14 dell’Apostol. Lo sviluppo
di Laplace, nel libro di testo, è chiamato sviluppo per cofattori.
Sia A una matrice quadrata di dimensione n. Dati due interi i e j compresi tra 1 e n, il
minore Ai,j è quello ottenuto rimuovendo da A la i-esima riga e la j-esima colonna.Sia k un
intero compreso tra 1 ed n.
Lo sviluppo di Laplace del determinante di A rispetto alla k-esima riga è
n
X
detn (A) = (−1)t+j detn−1 (At,j )
j=1

Lo sviluppo di Laplace del determinante di A rispetto alla k-esima colonna è


n
X
detn (A) = (−1)i+t detn−1 (Ai,k )
i=1

Queste formule, quando n ≥ 2, danno 2n modi diversi per calcolare il determinante. Il


risultato è sempre lo stesso per l’unicità della funzione determinante.
Lo sviluppo per righe è dimostrato nella sezione 5.12 del libro di testo. Lo sviluppo per
colonne, quando k = 1, è dimostrato nella sezione 5.13. Nel penultimo paragrafo della sezione
5.13, Apostol spiega perché la dimostrazione appena data funzioni per tutti i valori di k
Lo sviluppo di Laplace può essere usato per dimostrare che il determinante esiste nel modo
seguente. Si definisce una funzione
fn : Mn,n → R
per induzione su n. Per n = 1, f1 è l’identità. Si dimostra facilmente che f1 soddisfa gli assiomi
della funzione determinante.
Si definisce fn in termini di fn−1 utilizzando uno qualunque degli sviluppi descritti sopra,
sostituendo detn con fn e detn−1 con fn−1 . Si dimostra quindi per induzione su n che fn
soddisfa gli assiomi del determinante, perciò ha diritto ad essere ribattezzata detn . (Quest’ultima
dimostrazione è un pochino più laboriosa, la trovate nella sezione 5.13 per la funzione costruita
usando lo sviluppo rispetto alla prima colonna, in questa sede non la discutiamo.)

8
9 Teorema di Rouché-Capelli
Spieghiamo un criterio per studiare il numero di soluzioni di un sistema lineare non omegeneo
Ax = b.
Per prima cosa, calcolando il rango di A, possiamo capire la dimensione del nucleo dell’appli-
cazione lineare associata ad A e quindi, qualora il sistema avesse soluzioni, il numero di soluzioni
(Teorema 4.18 del libro di testo).
Ora dobbiamo capire se il sistema Ax = b ammette soluzioni (fatto assolutamente non scon-
tato, a meno che b = 0). Questo equivale a capire se il vettore b si trova nell’immagine dell’ap-
plicazione lineare associata ad A. Osserviamo da subito che se l’applicazione è suriettiva allora
il sistema avrà sicuramente almeno una soluzione, se non è suriettiva invece bisogna studiare la
questione. Sia B la matrice ottenuta aggiungendo ad A il vettore b come ulteriore colonna. Se
b si trova nell’immagine dell’applicazione lineare associata ad A, allora il rango di B è uguale al
rango di A, questo perchè b si può esprimere come combnazione lineare delle colonne di A. Se
invece il sistema non ammette soluzioni, il rango di B è strettamente maggiore del rango di A,
perchè b non si può esprimere come combinazione lineare delle colonne di A (oppure, se preferite,
lo spazio vettoriale generato dalle colonne di B è strettamente più grande di quello generato
dalle colonne di A). Perciò, calcolando il rango di B e confrontandolo con quello di A possiamo
dedurre se il sistema ammette o non ammette soluzioni.
Questo criterio si chiama Teorema di Rouché-Capelli

10 Matrici simili e determinante di un’applicazione lineare


Questa sezione è un complemento alla sezione 6.9 del libro di testo.
Due matrici quadrate A e B di dimensione n si dicono simili se esiste un matrice quadrata
C di dimensione n e invertibile tale che

B = CAC −1

La matrice C che realizza la similitudine non è necessariamente unica.


Due matrici simili hanno lo stesso determinante, perché

det(CAC −1 ) = det(C)det(A)det(C −1 ) = det(A)

Nell’ultima uguaglianza abbiamo usato la proprietà det(C)−1 = det(C −1 ).


Sia T : V → V un’applicazione lineare, siano B1 = {v1 , . . . , vn } e B2 = {w1 , . . . , wn } due basi
di V . Scriviamo
Xn
wi = cj,i vj
j=1

dove i numeri cj,i sono univocamente determinanti e sono le coordinate di wi rispetto alla base
B1 .
Siano A e B le matrici che rappresentano T nelle basi B1 e B2 . Allora A e B sono simili
e una matrice C che realizza la similitudine è quella che ha per coefficienti i cj,i (Teorema 6.6
pagina 210 del libro di testo). In particolare, se V = Rn e T = LA , possiamo prendere come C
la matrice che ha per colonne le coordinate dei vettori wi .
Definiamo il determinante det(T ) di un’applicazione lineare T : V → V come il determinante
di una matrice che rappresenta T in una qualche base. Osserviamo che il determinante così
definito non dipende dalla base scelta, perchè se cambiamo base otteniamo una matrice simile.

9
Teorema 16. Un’applicazione lineare T : V → V è invertibile se e solo se il suo determinante è
diverso da zero.
Dimostrazione. Assumiamo che det(T ) sia diverso da zero. Sia A una matrice che rappresenta
T in una qualche base. La matrice A ha determinante diverso da zero, quindi è invertibile. Sia
S l’applicazione lineare associata a A−1 . Allora sia T ◦ S che S ◦ T sono l’applicazione identica,
perché entrambe sono associate alla matrice identità, quindi S è l’inversa di T e T è invertibile.
Assumiamo ora che T sia invertibile. Sia A una matrice che rappresenta T in una qualche
base. La matrice che rappresenta T −1 è l’inversa di A, quindi A è una matrice invertibile.
Concludiamo che il determinante di A, e quindi quello d T , è diverso da zero.
Date due matrici simili A e B, con A = CBC −1 , abbiamo che
An = CB n C −1 .
La dimostrazione è elementare e la lasciamo come esercizio al lettore. Questa formula a volte
può essere molto utile: in alcuni casi il calcolo di An può essere oneroso, mentre quello di B n
molto semplice, ad esempio quando B è diagonale.

11 Autovalori e autovettori
Questa sezione è un complemento al Capitolo 6 del libro di testo.
Il concetto fondamentale di autospazio E(λ) è definito nell’Esempio 2 a pagina 196. La
molteplicità geometrica di λ è la dimensione dell’autospazio E(λ). La denotiamo con mλ .
Data un’applicazione lineare T : V → V definiamo lo spettro di T come il sottoinsieme di
R formato da tutti i λ tali che dim E(λ) > 0, ovvero tutti i λ tali che T ha un autovettore di
autovalore λ. Denotiamo lo spettro con σ(T ).
Il risultato seguente è simile a quelli della Sezione 6.3 ed è una conseguenza del Teorema 6.2.
Teorema 17. Sia T : V → V un’applicazione lineare. Assumiamo che la dimensione di V sia
finita. Allora lo spettro σ(T ) ha al più dim V elementi. Inoltre
X
dim E(λ) ≤ dim V
λ∈σ(T )

Dimostrazione. Dimostriamo che σ(T ) ha un numero finito di elementi. Per ogni λ in σ(T ), sia
vλ un autovettore di autovalere λ. L’insieme S costituito da tutti i vλ ha la stessa cadinalità
di σ(T ). Per il Teorema 6.2 del libro di testo, l’insieme S è un insieme di vettori linearmente
indipendenti, quindi la cadrdinalità di S deve essere minore della dimensione di V .
Dimostriamo ora la diseguaglianza. Per ogni λ in σ(T ), sia mλ la sua molteplicità geometrica
(λ) (λ)
e S (λ) = {v1 , . . . , vmλ } una base
P di E(λ). Sia S l’unione degli Sλ al variare di λ in σ(T ). La
cardinalità di S è esattamente λ∈σ(T ) dim E(λ). Se dimostriamo che S è un insieme di vettori
linearmente indipendenti, otteniamo la disuguaglianza cercata.
Scrivmao una combinazione lineare di elementi di S uguale a zero

(λ) (λ)
X X
ci vi =0
λ∈σ(T ) i=1

(λ) Pmλ λ (λ)


Dobbiamo dimostrare che ci = 0 per ogni i e ogni λ. Sia w(λ) = i=1 ci vi . La precedente
equazione diventa quindi X
w(λ) = 0
λ∈σ(T )

10
Per il Teorema 6.2 del libro di testo, ogni w(λ) deve essere uguale a 0. Siccome, fissato λ i vettori
(λ)
di S (λ) sono linearmente indipendenti, otteniamo che ci = 0 per ogni i e ogni λ.
Il polinomio caratteristico pT (λ) di un’applicazione lineare T : V → V è il determinante
dell’applicazione T − λ Id.
Fissiamo una base di V , e per ogni applicazione lineare S : V → V denotiamo con m(S)
la matrice che la rappresenta nella base fissata. Per calcolare il polinomio caratteristico di T ,
dobbiamo calcolare m(T − λ Id). Abbiamo m(T − λ Id) = m(T ) − λm(Id). Inoltre m(Id) è la
matrice identità, ovvero la matrice con tutti 1 sulla diagonale e 0 altrove, indipendentemente
dalla base scelta. Nel caso particolare in cui V = Rn e T = LA per una qualche matrice A,nella
base standard m(T ) = A. Il polinomio caratteristico è un polinomio di grado dim V .
Siccome E(λ) è il nucleo di T − λ Id, lo spettro di T è l’insieme delle soluzioni del polinomio
caratteristico di T (si vieda il Teorema 4.5 del libro di testo, nell’enunciato sostituite F con R).
Dato un polinomio p(λ) di grado n e una sua soluzione λ0 , ovvero un numero λ0 tale che
p(λ0 ), definiamo la molteplicità algebrica µλ0 come il più grande intero positivo tale che
p(λ) = (λ − λ0 )µλ0 q(λ)
per un qualche polinomio q(λ). Osserviamo che il grado di q(λ) deve necessariamente essere
n − µλ0 . Se, ad esempio, prendiamo p(λ) = (λ − 14)(λ − 2)3 , allora le soluzioni di p(λ) sono 14
e 2, le loro molteplicità algebriche µ14 = 1 e µ2 = 3.
La molteplcità algebrica di un autovalore è la sua molteplicità algebrica in quanto soluzione
del polinomio caratteristico.
Teorema 18. Sia T : V → V un’applicazione lineare e λ0 un suo autovalore. La molteplicità
algebrica di λ0 è maggiore o uguale alla sua molteplicità geometrica; in simboli: µλ0 ≥ mλ0 .
Dimostrazione. Sia v1 . . . , vmλ0 una base di E(λ0 ). Completiamola a una base di V . Sia A la
matrice che rappresenta T in questa base. Gli elementi delle prime mλ0 colonne di A sono tutti
zero, tranne gli elementi sulla diagonale che sono λ0 . Sulle colonne successive non sappiamo
niente.
Calcolando il determinante di A − λ Id con lo sviluppo di Laplace prima rispetto alla prima
colonna, poi la seconda, e così via, otteniamo
pT (λ) = (λ − λ0 )mλ0 q(λ).
Dove q(λ) è un polinomio di cui non sappiamo nulla. Concludiamo che µλ0 ≥ mλ0 .

Sulla molteplicità algebrica degli autovalori potete anche consultare le dispense del prof.
Marini, pagine 77-78 e 98.
Sia A una matrice diagonalizzabile (quindi esiste una base {v1 , . . . , vn } di Rn composta di
autovettori di LA . Sia C la matrice che ha per colonne i vettori vi . Allora, per quanto detto
nella sezione 10, la matrice CAC −1 è diagonale. In questo caso si dice che C diagonalizza A. Si
veda anche il teorema 6.10 pagina 211 del libro di testo.
Il teorema seguente è una variante del Teorema 6.9 del libro di tessto.
Teorema 19. Siano A e B due matrici quadrate di dimensione n. Se A e B sono simili, allora le
applicazioni lineari LA ed LB hanno lo stesso spettro e gli autovalori hanno le stesse molteplicità
geometriche.
Sia C una matrice che realizza la similitudine. Dato un autovalore λ, siano EA (λ) e EB (λ)
gli autospazi di λ per LA ed LB , allora
LC (EA (λ)) = EB (λ)

11
Dimostrazione. Sia v ∈ Rn un autovettore di autovalore λ per LA , allora il calcolo seguente
dimostra che LC (v) è un autovettore di autovalore λ per LB

LB (LC (v)) = BCv = CAC −1 Cv = CAv = Cλv = λCv .

Lasciamo al lettore l’esercizio di capire perché questo fatto implica tutti gli enunciati del
teorema.

12 Traccia di una matrice


Questo argomento non l’abbiamo veramente trattato, scrivo qui solo un rapido accenno. Per
maggiori dettagli si veda la Sezione 6.7 del libro di testo.
La traccia è un numero che si può associare alle matrici quadrate. La traccia di una matrice
A di taglia n si denota con Tr(A) ed è la somma degli elementi sulla diagonale principale (ovvero
quella che va da a1,1 a an,n ).
Matrici simili hanno la stessa traccia, quindi si può definire la traccia di un’applicazione
lineare tra spazi vettoriali di dimensione finita così come si fa con il determinante.
Se n è la dimensione della matrice A, la traccia di A è (−1)n per il coefficiente di λn−1
nel polinomio caratteristico di A. (La differenza di segno rispetto al libro di testo è legata alla
definizione del polinomio caratteristico, che può essere det(A − λ Id) o det(λ Id −A).)
Se A è diagonalizzabile, ovvero X
mλ = n ,
λ∈σ(A)

la traccia di A è la somma degli autovalori contati con la loro molteplicità geometrica, ovvero
X
Tr(A) = λmλ .
λ∈σ(A)

In alcuni casi, questa formula può tornare utile per calcolare gli autovalori e la loro molteplicità
geoemtrica.

13 Applicazioni lineari e spazi euclidei


Questa sezione sostituisce dalla Sezione 7.1 alla Sezione 7.10 del libro di testo. Potete comunque
affrontare buona parte degli esercizi presenti nel libro. (Il libro parla spesso di applicazioni her-
mitiane, anti-hermitiane e unitarie. Queste corrispondono alle nostre applicazioni simmetriche,
anti-simmetriche e ortogonali. L’Apostol usa questa terminologia perché affronta anche il caso
di spazi vettoriali complessi, mentre noi ci limitiamo a quelli reali.)
Sia V uno spazio euclideo di dimensione finita n, ovvero V è uno spazio vettoriale di dimen-
sione n dotato di un prodotto scalare.
Studieremo le applicazioni lineari ortogonali, simmetriche e anti-simmetriche. Queste sono tre
nozioni di compatibilità con il prodotto scalare che si possono richiedere alle applicazioni lineari.
Tutte e tre hanno implicazioni importanti per gli autovalori e autovettori, la più importante è il
Teorema Spettrale 27.
Definizione 2 (Applicazioni ortogonali). Un’applicazione lineare T in End(V ) si dice ortogonale
se per ogni coppia di vettori v e w in V si ha che

(v, w) = (T (v), T (w))

12
Denotiamo con O(V ) il sottoinsieme di End(V ) formato dalle applicazioni ortogonali.
Teorema 20. Un’applicazione T è ortogonale se e solo se entrambe le condizioni seguenti sono
vere
1. per ogni vettore v in V , la lunghezza di v è uguale a quella di T (v)

2. per ogni coppia di vettori non nulli v e w di V , l’angolo tra v e w è uguale a quello tra
T (v) e T (w).
Dimostrazione. Dimostriamo solo che se T è ortogonale allora le due proprietà sopra descritte
sono vere.
La lunghezza di v è (v, v), quella di T (v) è (T (v), T (v), siccome (v, v) = (T (v), T (v)),
p p

otteniamo la prima proprietà.


L’angolo tra v e w si tratta in un modo simile, lo lasciamo al lettore per esercizio.
Teorema 21. Sia T un’applicazione lineare ortogonale. Allora le seguenti proprietà sono vere :
1. Lo spettro σ(T ) è un contenuto in {1, −1};

2. L’applicazione T è invertibile;
3. Sia S un’altra applicazione lineare ortogonale, allora la composizione ST è ortogonale.
Dimostrazione. Sia v un autovettore di T di autovalore λ. Allora

(v, v) = (T (v), T (v)) = (λv, λv) = λ2 (v, v)

Lasciamo al lettore l’esercizio di giustificare le tre uguaglianze appena enunciate. Siccome v è


diverso dal vettore nullo, allora (v, v) è diverso da zero e perciò lo possiamo semplificare ottenendo
λ2 = 1. Questo dimostra il primo punto del teorema.
Per dimostrare che T è invertibile, è sufficiente dimostrare che il suo nucleo consiste solo del
vettore nullo (perché è sufficiente?). Sia v un elemento del nucleo di T , allora

(v, v) = (T (v), T (v)) = (0, 0) = 0

Quindi (v, v) = 0 e per le proprietà del prodotto scalare otteniamo v = 0.


Dimostriamo ora l’ultimo punto. Dobbiamo far vedere che ST rispetta il prodotto scalare.
Abbiamo
((ST )(v), (ST )(w)) = (S(T (v)), S(T (w)) = (T (v), T (w)) = (v, w)
Lasciamo di nuovo al lettore il compito di giustificare le 3 uguaglianze appena enunciate.

Se V è il piano con il prodotto scalare usuale, rotazioni e simmetrie assiali sono trasformazioni
ortogonali, le omotetie invece non lo sono.
Osserviamo che la somma di due applicazioni ortogonali o la moltiplicazione di una applica-
zione ortogonale per uno scalare non è in generale ortogonale (sapete fare degli esempi?).
Definizione 3 (Applicazione aggiunta). Data un’applicazione lineare T in End(V ), definiamo
l’applicazione lineare aggiunta T ∨ come l’applicazione lineare tale che

(T (v), w) = (v, T ∨ (w))

per ogni coppia di vettori v e w in V .

13
Teorema 22. L’applicazione lineare aggiunta esiste ed è unica. In una base ortonormale di V ,
la matrice associata a T ∨ è la trasposta della matrice associata a T .
Dimostrazione. (Nota: la dimostrazione di questo teorema non fa parte del programma svolto,
ma l’enunciato del teorema si!)
Dimostriamo prima l’unicità. Fissiamo T e siano T1∨ e T2∨ due applicazioni duali di T ,
dobbiamo dimostrare che T1∨ = T2∨ , ovvero che per ogni v in V si ha T1∨ (v) = T2∨ (v). Per ogni
w in V , abbiamo che

(w, T1∨ (v) − T2∨ (v)) = (T (w) − T (w), v) = (0, v) = 0

Quindi T1∨ (v) − T2∨ (v) ha prodotto scalare nullo con tutti i vettori di V , perciò, per le proprietà
del prodotto scalare, T1∨ (v) − T2∨ (v) = 0.
Dimostriamo adesso l’esistenza dell’applicazione aggiunta.
Per l’algoritmo di Gram-Schmidt (Sezione 2), esistono delle basi ortonormali di V , fissiamone
una e chiamiamola {e1 , . . . , en }.
Per ogni v in V , poniamo
n
X
T ∨ (v) = (T (ei ), v)ei
i=1

In qusto modo abbiamo definito una funzione T ∨ : V → V . Lasciamo al lettore l’esercizio


di dimostrare che T ∨ è un’applicazione lineare. Dimostriamo che, per ogni v e w in V , si
ha (T (v), w) = (v, T ∨ (w)). Scriviamo v = v1 e1 + · · · vn en , dove i vi sono le coordinate di
v rispetto alla base ortonormale fissata. Allo stesso modo, scriviamo w = w1 e1 + . . . , wn en .
Similmente
Pn scriviamo T (ej ) = t1,j e1 + · · · tn,j en . Allora sia (T (v), w) che (v, T ∨ (w)) sono uguali
a i,j=1 tj,i vi wj .
Per terminare, descriviamo la matrice associata a T ∨ , rispetto alla base ortonormale Pn data. I
coefficienti di T sono gli scalari ti,j descritti poco sopra. Siccome T ∨ (ej ) = i=1 (T (ei ), ej )ei ,
i coefficienti della j-esima colonna di T ∨ sono (T (ei ), ej ) = tj,i . Siccome gli indici i e j della
matrice sono invertiti, allora la matrice associata a T ∨ è proprio la trasposta di quella associata
a T.

Ricordiamo che le applicazioni ortogonali sono invertibili per il Teorema 21, il prossimo
risultato rigurda proprio l’inversa di un’applicazione ortogonale.
Teorema 23. Un’applicazione lineare T è ortogonale se e solo se è invertibile e T −1 = T ∨ .
Dimostrazione. Assumiamo prima che T sia ortogonale. Per il Teorema 21, T è invertibile,
dobbiamo dimostrare che T −1 = T ∨ . Per ogni v e w in V si ha che

(v, w) = (v, (T ∨ T )(w))

Questo ci dice che T ∨ T è l’applicazione aggiunta dell’identità. Ma anche l’identità è l’applicazione


aggiunta dell’identità (verificatelo per esercizio!), e siccome, grazie al Teorema 22, l’applicazione
aggiunta è unica, otteniamo che T ∨ T = Id. Similmente si dimostra che T T ∨ = Id, perciò T ∨ è
l’inversa di T .
Assumiamo ora che T sia invertibile e T ∨ = T −1 . Per ogni v e w in V , abbiamo che

(T (v), T (w)) = (v, T ∨ T (w)) = (v, T −1 T, w) = (v, w) ,

perciò T è ortogonale.

14
La dualità definisce una funzione

End(V ) → End(V )

T 7→ T ∨
Di seguito studiamo la compatibilità di questa funzione con le operazioni in End(V ).
Teorema 24. Date due applicazioni S e T in End(V ) e uno scalare λ in R, abbiamo che:

1. (S + T )∨ = S ∨ + T ∨ ;
2. (λT )∨ = λ(T ∨ );
3. (ST )∨ = T ∨ S ∨ .
Dimostrazione. Iniziamo con il primo punto. Dobbiamo dimostrare che per ogni coppia di vettori
v e w in V si ha che
((S + T )(v), w) = (v, (S ∨ + T ∨ )(w))
l’enunciato segue dal fatto, dimostrato nel Teorema 22, che l’applicazione aggiunta (S + T )∨ è
l’unica applicazione con la proprietà appena descritta. Svolgiamo il calcolo:

((S+T )(v), w) = (S(v)+T (v), w) = (S(v), w)+(T (v), w) = (v, T ∨ (w))+(v, T ∨ (w)) = (v, (S ∨ +T ∨ )(w))

Lasciamo al lettore l’esercizio di giustificare le uguaglianze appena enunciate.


Per gli altri punti la strategia è la stessa, cambia solo il calcolo finale. Presentiamo i due
calcoli di seguito.

((λT )(v), w) = (λ(T (v), w) = λ(T (v), w) = λ(v, T ∨ (w)) = (v, λ(T ∨ (w))) = (v, (λ(T ∨ ))(w))

((ST )(v), w) = (S(T (v), w) = (T (v), S ∨ (w)) = (v, T ∨ (S ∨ (w))) = (v, (T ∨ S ∨ )(w))

In altri termini, il Teorema 24 ci dice che la dualità rispetta la somma e il prodotto per uno
scalare, ma scambia l’ordine della composizione.
Introduciamo ora altri due tipi di applicazioni lineari.
Definizione 4 (Applicazioni simmetriche e anti-simmetriche). Un’applicazione lineare si dice
simmetrica se (T (v), w) = (v, T (w)) per ogni coppia di vettori v e w in V . Denotiamo con S(V )
il sottoinsieme di End(V ) composto dalle applicazioni simmetriche.
Un’applicazione lineare si dice anti-simmetrica se (T (v), w) = −(v, T (w)) per ogni coppia di
vettori v e w in V . Denotiamo con A(V ) il sottoinsieme di End(V ) composto dalle applicazioni
ant-simmetriche.
Teorema 25. I sottoinsiemi S(V ) e A(V ) sono sottospazi vettoriali di End(V ).
Dimostrazione. Si dimostra usando i primi due punti del Teorema 24, lasciamo al lettore il
compito di scrivere esplicitamente i dettagli. Ricordiamo al lettore che un sottospazio vettoriale è
un sottoinsieme contente il vettore nullo e chiuso rispetto alle due operazioni degli spazi vettoriali.

15
Riassumendo, i sottoinsiemi delle applicazioni simmetriche e anti-simmetriche sono chiusi
rispetto alla somma e alla moltiplicazione per uno scalare, quindi formano dei sottospazi vettorial,
ma non sono chiusi per la composizione (sapete fare un esempio di applicazioni S e T simmetriche
tali che ST non è simmetrica? Oppure S e T anti-simmetriche tali che ST non è anti-simmetriche?
Per costruire esempi di applicazioni simmetriche o anti-simmetriche potete usare le matrici, come
descritto nell’ultima parte di questa sezione); al contrario, le applicazioni ortogonali non sono
chiuse per la somma e la moltiplicazione per uno scalare, quindi non formano un sottospazio
vettoriale, ma in compenso sono chiuse per la composizione.
Teorema 26. Gli autovalori di un’applicazione lineare anti-simmetrica T sono tutti nulli.
Dimostrazione. Sia v un autovettore di T di autovalore λ. Allora

(T (v), v) = λ(v, v) ,

ma anche
(T (v), v) = (v, −T (v)) = −(v, T (v)) = −λ(v, v) .
Siccome (v, v) 6= 0, otteniamo che λ = −λ, perciò λ = 0.

Teorema 27 (Teorema Spettrale). Tutte le applicazioni lineari simmetriche sono diagonalizza-


bili.
La dimostrazione di questo teorema passa per l’introduzione dei numeri complessi e l’utilizzo
del teorema fondamentale dell’algebra. Non la discutiamo in questa sede. Maggiori dettagli sono
nella Sezione 7.6 del libro di testo.
Teorema 28. Gli autospazi di un’applicazione simmetrica sono ortogonali tra di loro. In par-
ticolare, data un’applicazione simmetrica T , esiste una base ortonormale di V composta da
autovettori di T .
Dimostrazione. Dimostriamo innanzitutto che due autovettori v e w relativi a due autovalori
distinti λ e γ sono ortogonali, ovver (v, w) = 0. Abbiamo:

(T (v), w) = λ(v, w) ,

ma anche
(T (v), w) = (v, T (w)) = γ(v, w) .
Siccome λ e γ sono due numeri diversi, l’unica possibilità è che (v, w) = 0.
L’argomento appena descritto vale per tutti gli autovettori, quindi ci dice che se λ e γ sono
autovalori distinti, allora E(λ) è ortogonale a E(γ).
Costruiamo adesso una base ortonormale di V composta da autovettori di T . Sia σ(T ) =
{λ1 , . . . , λk } e siano mi leP
rispettive molteplicità geometriche. Per il teorema spettrale 27, T
è diagonalizzabile, quindi mi = n. Per ogni λi ∈ σ(T ), sia vji , con j = 1, . . . , mi , una base
ortonormale di E(λi ) (esiste per l’algoritmo di Gram-Schmidt applicato a una base qualunque
di E(λi )). Adesso consideriamo l’insiem formato da tutti i vji per ongi i e j. Questi vettori sono
tutti ortogonali tra di loro (se due di loro hanno lo stesso autovalore, lo sono per costruzione,
se hanno autovalori diversi lo sono per la prima parte del teorema). Essendo ortogonali, sono
linearmente indipendenti. Essendo esattamente n, sono una base.
Traduciamo infine le nozioni appena viste in termini di matrici.

16
Definizione 5 (Matrici simmetriche e anti-simmetriche). Sia A una matrice quadrata di
dimensione n; diciamo che
1. A è ortogonale se A−1 =t A;
2. A è simmetrica se A =t A;
3. T è anti-simmetrica se A = −t A
Teorema 29. Sia T : V → V un’applicazione lineare. Fissiamo una base ortonormale di V . Sia
A la matrice associata a T in questa base. Allora:
1. T è ortogonale se e solo se A è ortogonale;
2. T è simmetrica se e solo se A è simmetrica;
3. T è anti-simmetrica se e solo se A è anti-simmetrica.
Dimostrazione. Segue immediatamente dal Teorema 22 e dal Teorema 23.
Il Teorema 29 ci fornisce anche un modo per capire se un’applicazione è ortogonale / simme-
trica / anti-simmetrica: è sufficiente verificare la proprietà analoga per la matrice associata a T
rispetto a una base ortonormale. In particolare, per verificare se T è ortogonale, basta prendere
la matrice A associata a T in una base ortonormale e controllare che A per la sua trasposta faccia
la matrice identità. Provate con le rotazioni e le simmetrie assiali nel piano!
Concludiamo con la traduzione del Teorema Spettrale 27 e del Teorema 28 in termini di
matrici.
Teorema 30 (Teorema Spettrale per le matrici). Sia A una matrice simmetrica, allora esiste
una matrice ortogonale C tale che CAC −1 è diagonale.

14 Simmetrie e classificazioni
14.1 Gruppi di trasformazioni
Fissiamo uno spazio euclideo di dimensione finita V . Ricordiamo che O(V ) è in particoalre un
insieme di funzioni da V in V . Introduciamo ora altri insiemi di funzioni definite da V a V . Il
primo è GL(V ), il sottoinsieme di End(V ) composto dalle applicazioni lineari invertibili.
Per ogni vettore v in V , la traslazione per v è la funzione tv : V → V definita dalla formula
tv (x) = x + v. Denotiamo con T (V ) l’insieme delle traslazioni. Osserviamo che le traslazioni non
sono applicazioni lineari.
Definiao le isometrie di V come le funzioni da V ottenuto componendo in maniera arbitraria
traslazioni e applicazioni ortoganali. Denotiamo con Isom(V ) l’insieme delle isometrie.
Definiao le affinità di V come le funzioni da V ottenuto componendo in maniera arbitraria
traslazioni e elementi di GL(V ). Denotiamo con Aff(V ) l’insieme delle isometrie.
Abbiamo le seguenti inclusioni

O(V ) ⊂ GL(V ) ⊂ Aff(V )

O(V ) ⊂ Isom(V ) ⊂ Aff(V )


Per il resto di questa sezione, il simbolo G denoterà uno qualunque dei cinque insiemi
O(V ), GL(V ).T (V ), Isom(V ) e Aff(V ). Questi cinque insiemi, per motiviti che non chiariremo
in queste note, si chiamano anche gruppi di trasformazioni di V .

17
Teorema 31. Per ogni coppia di elementi g e h in G, anche la composizione gh è in G.
Definiamo ora la distanza d(v, w) tra due vettori v e w di V con la formula seguente
d(v, w) = ||v − w||
In parole povere, la distanza è la lunghezza del vettore che congiunge il punto finale di v con
quello di w. Il teorema seguente ci dice che il gruppo di isometrie di V non cambia la distanza
(e giustifica quindi il nome isometria)
Teorema 32. Per ogni coppia di vettori v e w in V e per ogni elemento g di Isom(V ), si ha
d(v, w) = d(g(v), g(w))
Dimostrazione. Assumiamo prima che g sia una traslazione. In questo caso v − w = g(v) − g(w),
quindi d(v, w) = d(g(v), g(w)). Assumiamo ora che g sia un’applicazione ortogonale. Allora
d(g(v), g(w)) = ||g(v) − g(w))|| = ||g(v − w)|| = ||v − w|| = d(v, w)
Le isometrie sono composizioni di traslazioni e applicazioni ortogonali, quindi il risultato segue
dai due casi appena studiati.

14.2 Simmetrie e classificazione


Sia P un sottoinsieme di V . Data una funzione g : V → V , denotiamo con g(P ) l’immagine di
P attraverso g.
Scelto G come sopra, lo stabilizzatore di P , anche detto gruppo di simmetrie di P , è il
sottoinsieme StabG (P ) di G che consiste di tutti gli elementi g tali che g(P ) = P .
Teorema 33. Dati due elementi g e h in StabG (P ), anche la composizione gh si trova in G.
Dati V , P e G, ci si può chiedere di descrivere StabG (P ). Se G non è specificato, intendiamo
G = Aff(V ). Il Teorema 33 ci dice come produrre nuove simmetrie a partire da quelle note.
Due sottoinsiemi P1 e P2 di V si dicono equivalenti per l’azione di G se esiste un elemnto g
tale che g(P1 ) = P2 . Chiedersi di classifcare alcuni tipi di sottoinsiemi di V a meno dell’azione
di G, signifia essere in grado di dire quando due sottoinsiemi sono equivalenti. Vedremo a breve
degli esempi.
Per dimostrare che due sottoinsiemi P1 e P2 sono equivalenti, spesso l’unica possibilità è
trovare esplicitamente un elemento g di G tale che g(P1 ) = P2 .
Per dimostrare che due sottoinsiemi P1 e P2 non sono equivalenti, spesso si usano degli inva-
rianti. Un invariante χ è un modo ti attribuire una qualità o una quantità χ(P ) ad ogni sottoinsie-
me P , con la proprietà che per ogni sottoinsieme P e ogni elemento g di G vale χ(g(P )) = χ(P ).
Perciò, se χ(P1 ) 6= χ(P2 ), allora sicuramente P1 non è equivalente a P2 . Facciamo ora un esempio
di invariante, poi ne vedremo altri.
Dato un sottoinsieme P di V , definiamo il diametro di P come
diam(P ) = sup {d(v, w)}
v,w∈P

Per il teorema 31, il diametro è un invariante per l’azione di Isom(V ), quindi se due sottoinsiemi
hanno diametri diversi allora non sono equivlaente per l’azione di Isom(V ) (però, se hanno lo
stesso diametro, non è comunque detto siano equivalenti). Ossserviamo inoltre che il diametro
non è inviariante per le azioni di GL(V ) e Aff(V ) (sapete fare degli esempi di V , P e g ∈ GL(V )
tali che dim(P ) 6= diam(g(P ))?)

18
14.3 Esempi
Studieremo i concetti appena descritti principalmente nel caso V = R2 , equipaggiato con il
prodotto scalare standard. Abbiamo tre tipi di esempi

14.3.1 Poligoni
(Le linee tratteggiate sono gli assi cartesiani.) Il gruppo di simmetrie di questo quadrato

è formato dalle rotazione di 90, 180, 270 e 360 gradi e dalle simmetrie assiali rispetto agli assi
coordinati e le due diagoni. Queste simmetrie si trovano tutte in O(V ).
Ricordiamo che, dato un numero intero n ≥ 3, un n-agono è un poligono con n lati1 ; un
n-agono regolare è un n-agono con tutti i lati e gli angoli uguali. Un n-agono regolare ha 2n
simmetrie: n rotazioni di angolo 360 gradi diviso k, dove k varia in {1, . . . , n} e n simmetrie
assiali. Le simmetrie assiali sono rispetto alle diagonali se n è pari, rispetto alle mediane dei
lati se n è dispari. Un n-agono non regolare, ha meno di 2n simmetrie, il numero di simmetrie
dipende dalla forma del poligono.
I due rettangoli qui sotto

Non sono equivalenti per l’azione di Isom(V ) perchè hanno diametro diverso (quanto vale
il loro diametro?). Sono però equivalenti per l’azione di Aff(V ), infatti la trasformazione che
raddoppia le lunghezze lungo l’asse y e le dimezza lungo l’asse x porta un poligono nell’altro
(quale è la matrice associata a questa trasformazione nella base standard?).

14.3.2 Esempi dall’arte e dall’archietettura


Potete studiare le simmetrie di manufatti come le quinconce o i pavimenti dei Cosmati. Vi
proporrò altri esempi, ma vi invito anche a cercare autonomamente esempi interessanti.
1 per n piccoli, gli n-agoni si chiamano triangolo (n = 3), quadrilatero (n = 4), pentagono (n = 5), esagono
(n = 6), eptagono (n = 7) e così via.

19
14.3.3 Coniche
Una conica è un sottoinsieme di R2 definito dall’annullarsi
√ di un polinomio f (x, y) di secondo
grado in due variabili, come ad esempio x2 − 3y 2 + 2xy − 37x + 13 y + π. La classificazione delle
coniche è completamente descritta nelle dispense della professoressa Geatti, dove trovate anche
diversi esercizi. Alternativamente potete guardare la Sezione 7.14 del libro di testo, per degli
approfondimenti le Sezioni da 2.18 a 2.25 del libro di testo.
Il Teorema Spettrale 27, specialmente nella sua forma dedicata alle matrici (Teorema 30),
gioca un ruolo fondamentale nella classificazione delle coniche.
Facciamo un rapido riassunto della classificazione delle coniche. Sia C una conica definita
da un’equazione f (x, y) = 0. Sia T : R2 → R2 un’affinità. La prima osservazione è che T (C) è
ancora una conica ed è definita dall’equazione f (T −1 (x, y)) = 0. Ad esempio, se T (x) = x + y e
T (y) = y, allora la conica T (C) è definita dall’equazione f (x − y, y).
Data una conica qualunque C, cerchiamo delle trasformazioni che rendano l’equazione di C
semplice. Alla fine si dimostra che C è uguale a meno di isometrie ad una delle coniche della
Tabella 6 della dispensa sulle coniche, e, a meno di affinità, a una delle coniche descritte nelle
pagine 29 e 30 delle dispense di geometria proiettiva.
Due coniche C e C 0 sono uguali a meno di isometrie se e soltanto se sono entrambi uguali ad
una delle coniche della Tabella 6, sono uguali a meno di affinità se e solo se sono entrambi uguali
ad una delle coniche della pagine 29 e 30.
Il prossimo passaggio è il più delicato ed utilizza il Teorema Spettrale, è spiegato anche nelle
dispense sulle coniche e nella Sezione 7.12 del libro di testo. Sia Q(x, y) la parte di grado 2 di
f (x, y). Sia S la matrice simmetrica associata a Q, ovvero
   
x
Q(x, y) = S , (x, y)
y
Per il Teorema Spettrale 30, esiste una matrice ortogonale T tale che
 
−1 λ1 0
T ST =
0 λ2
La parte quadrata dell’equazione di T (C) è senza il termine misto xy, infatti
       
−1 −1 x −1 t −1 −1 x
Q(T (x, y)) = ST , T (x, y) = T ST , (x, y)
y y
dove nell’ultima uguaglianza abbiamo utilizzato il Teorema 22, che ci permette di far saltare una
matrice dall’altra parte del prodotto scalare prendendone la trasposta. Siccome T è ortogonale,
anche T −1 è ortogonale, e per il Teorema 23 prendere la trasposta equivale a prendere l’inversa,
quindi t T −1 = (T −1 )−1 , e inoltre (T −1 )−1 = T . Siccome T ST −1 è diagonale per il Teorema
Spettrale, concludiamo che
Q(T −1 (x, y)) = λ1 x2 + λ2 y 2
Rimandiamo alle dispense per il trattamento della parte di grado più basso.
Ricordiamo che una quadrica si dice degenere se il determinante di S è uguale a zero; os-
serviamo che il determinante di S è uguale al prodotto λ1 λ2 , quindi S è degenere se e sola se
almeno uno dei due autovalori è nullo.

15 Sinonimi
Di seguito trovate una lista di sinonimi per alcuni espressioni usate da Apostol. Entrambe le
scelte lessicali sono corrette.

20
Apostol Sinonimi
spazio lineare spazio vettoriale
Vn Rn
L(S) Span(S) oppure < S >
componenti coordinate
nucleo kernel
N(T) Ker(T)
nullità di T dim Ker(T )
rango di T rg(T), oppure dim T (V )
L(V, W ) Hom(V,W)
L(V, V ) End(V)
matrice non singolare matrice invertibile
matrice singolare matrice non invertibile
sistema senza soluzioni sistema incompatibile
sviluppo per cofattori sviluppo di Laplace
matrici simili matrici coniugate

21

Potrebbero piacerti anche