Giulio Codogni
28 ottobre 2021
Queste note sono dei complementi per il libro di testo Apostol, Calcolo, Volume Secondo,
Geometria. Trattano alcuni argomenti discussi durante il corso di Geometria per Ingegneria
Edile ed Edile-Architettura dell’anno accademico 2020-21. Ringrazio Roberto Fringuelli per
l’attenta rilettura del manoscritto e gli studenti per la loro partecipazione al corso.
1 Sottospazi Vettoriali
Dai risultati della Sezione 3.8, ed in particolare dalla possibilità di completare insiemi linear-
mente indipendenti a una base (punto a del Teorema 3.7), segue questo utile corollario la cui
dimostrazione lasciamo per esercizio.
Corollary 1. Sia V uno spazio vettoriale e W un suo sottospazio. Allora vale che
dim W ≤ dim V
dim W = dim V ⇔ W =V
2 Algoritmo di Gram-Schmidt
Questa sezione è un complemento alla sezione 3.14 dell’Apostol. Non abbiamo (per il momento)
discusso questo algoritmo in classe, ricordate però che implica l’esistenza di basi ortornormali (e
vi dà una ricetta per trovarle).
Sia V uno spazio euclideo, S = {x1 , . . . , xk } un insieme di vettori linearmente indipendenti e
W = L(S). In particolare, S è una base di W e dim W = k.
L’algorimo di Gram-Schmidt permette di ottenere una base ortogonale T = {y1 , . . . , yk } di
W a partire da S. Questa nuova base è definita in maniera induttiva. Si pone
y1 = x1 .
Successivamente, dato un intero j in {2, . . . , k}, si assume che yi sia stato già costruito per ogni
i < j e si pone
j−1
X (xj , yi )
yj = xj − yi .
i=1
(yi , yi )
E’ istruttivo scrivere esplicitamente la formula per j = 2 e verificare che y1 e’ ortogonale a
y2 .
1
La dimostrazione del Teorema 3.13 dal libro di testo dimostra anche che l’insieme T così
ottenuto è una base ortonormale di W . Osserviamo che cambiando la base di partenza S, si
modifica anche la base finale T .
Piccolo consiglio pratico: ad ogni passaggio, se lo si reputa opportuno, si può rimpiazzare yj
con un suo multiplo non nullo (ovvero con un vettore parallelo). In alcuni casi questa operazione
può semplificare i calcoli. La base che si otterrà con questo algoritmo leggermente modificato
sarà ancora ortogonale.
Ottenuta una base ortogonale T = {y1 , . . . , yk }, si può ottenere una base ortonormale
normalizzando i vettori yi , ovvero rimpiazzando yi con ||y1i || yi .
Osserviamo che la controimmagine può essere sia vuota che costituita da molti elementi.
In particolare, la controimmagine non definisce una funzione. Come spiegheremo a breve, la
controimmagine definisce una funzione da B ad A solo quando f −1 (b) è costituito da esattamente
un elemento per ogni b in B.
Diciamo che
Iniettiva La funzione f è initettiva se per ogni coppia di elementi a1 e a2 in A con a1 6= a2 ,
vale f (a1 ) 6= f (a2 ).
Suriettiva La funzione f è suriettiva se per ogni elemento b in B esiste almeno un elemento a
in A tale che f (a) = b.
Biunivoca La funzione f è biunivoca se è sia iniettiva che suriettiva.
2
Esercizio Descrivete esempi di funzioni iniettive ma non suriettive, suriettive ma non iniet-
tive, biunivoche.
Definiamo inoltre la funzione inversa di f come una funzione
f −1 : B → A
Esercizio Dimostrare inoltre che se f è iniettiva ma non suriettiva, esiste più di una funzione
g : B → A tale che g ◦ f = 1A , ma non esiste nessuna funzione g tale che f ◦ g = 1B (tali g
si chiamano inverse sinistre). Similmente, se f è suriettiva ma non iniettiva, esiste più di una
funzione g : B → A tale che f ◦ g = 1B , ma non esiste nessuna funzione g tale che g ◦ f = 1A
(tali g si chiamano inverse destre).
4 Applicazioni lineari
4.1 Applicazioni ortogonali
Definizione 1 (Applicazioni ortogonali). Un’applicazione lineare T tra due spazi euclideo V e
W si dice ortogonale se per ogni coppia di vettori v e w in V si ha che
3
Dimostrazione. Dimostriamo solo che se T è ortogonale allora le due proprietà sopra descritte
sono vere.
La lunghezza di v è (v, v), quella di T (v) è (T (v), T (v), siccome (v, v) = (T (v), T (v)),
p p
ρ: V → W
Sottolineiamo che la definizione della proiezione utilizza il prodotto scalare, se lasciamo fissi
V e W ma cambiamo il prodotto scalare, anche la proiezione cambia. In assenza di un prodotto
scalare, non possiamo neanche definire la proiezione. Lascimao al lettore il compito di dimostrare
la proposizione seguente.
Proposition 5. La proiezione ρ è un’applicazione lineare suriettiva. Il nucleo di ρ è il comple-
mento ortogonale W ⊥ di W in V .
Se V ha dimensione finita, segue dal Teorema 4.3 "nullità più rango" del libro di testo che
4
• T è iniettiva;
• Ker(T ) = {0}
• Per ogni sottoinsieme finito S = {v1 , . . . , vk } di V , S è linearmente indipendente se e solo
se lo è {T (v1 ), . . . , T (vk )}
Teorema 8. Sia T : V → W un’applicazione lineare. Se T è invertibile, allora la sua inversa
T −1 è lineare.
Abbiamo infine i seguenti criteri che possono essere usati per escludere che un’applicazione
lineare sia iniettiva, suriettiva o biunivoca.
Teorema 9. Sia T : V → W un’applicazione lineare.
• Se T è iniettiva, allora dim V ≤ dim W
• Se T è suriettiva, allora dim V ≥ dim W
• Se T è biunivoca, allora dim V = dim W
Ad esempio, il teorema precedente può essere utilizzato per escludere che un’applicazione
lineare T : R7 → R3 sia iniettiva, o che un’applicazione lineare T : R6 → R15 sia suriettiva.
Esercizio Dare esempi di applicazioni lineari non iniettive ma tali che dim V ≤ dim W , non
suriettive ma tali che dim V ≥ dim W , non biunivoche ma tali che dim V = dim W .
Dato uno spazio vettoriale V , osserviamo che in End(V ) esistono molte applicazioni che non
sono nulle ma non sono neanche invertibili. Questo è in contrasto con quanto succede per i numeri,
dove ogni numero non nullo è invertibile. Con stesso spirito, osserviamo che se cerchiamo dentro
End(V ) le soluzioni dell’equazione x2 = 0, ovvero se cerchiamo il sottosinsieme degli elementi x
di End(V ) tali che x2 = 0, troviamo infinite soluzioni, invece che solo x = 0.
5
Dimostrazione. Scriviamo 0 come combinazione lineare dei vi
λ1 v1 + · · · + λk vk = 0 . (2)
6
6 Sistemi lineari e eliminazione di Gauss in termini di com-
plementi ortogonali
Consideriamo un’equazione lineare a1 x1 + · · · + an xn = 0. Sia a il vettore dei coefficienti
(a1 , . . . , an ) e x il vettore delle incognite (x1 , . . . , xn ). L’equazione precedente si può scrive-
re come (a, x) = 0, dove ( , ) è il prodotto scalare standard in Rn . Le sue soluzioni sono il
complemento ortogonale S di L(a) in Rn .
Dato un sistema lineare omogeneo Ax = 0 in n incognite, sia W il sottosapzio vettoriale
generato dalle righe di A. Le soluzioni del sistema costituiscono esattamente il complemento
ortogonale di W in Rn . Dato un qualunque insieme {a01 , . . . , a0k } di vettori che genera W (in
simboli: L({a01 , . . . , a0k }) = W ), sia A0 la matrice che ha per righe i vettori a0i , il sistema A0 x = 0
è equivalente a Ax = 0, ovvero i due sistemi hanno le stesse soluzioni. Osserviamo che k può
essere qualunquue numero maggiore o uguale della dimensione di W .
L’eliminazione di Gauss-Jordan per i sistemi lineari descritta nella Sezione 4.18 del libro di
testo è equivalente ad applicare l’algoritmo descritto nella Sezione 5 alle righe di A per trovare
una base di W .
7
linearmente indipendenti, quindi r ≥ s. Assumiamo per assurdo che siano dipendenti. Sia
λ1 Ai1 + · · · λs Ais = 0 una combinazione lineare con almeno uno dei λi diversi da zero. Questi
stessi scalari danno anche una relazione lineare tra le colonne di B, quindi le colonne di B sono
linearmente dipendenti e il determinante di B è uguale a zero, una contraddizione.
Adesso dimostriamo che r ≤ s. Dobbiamo trovare un minore B di dimensione r con de-
terimante diverso da zero. Siano Ai1 , . . . , Air r colonne linearmente indipendenti. Possiamo
sostituire la matrice A con una matrice A0 formata solo dalle colonne Ai1 , . . . , Air , e cercare
un minore dentro A0 . La matrice A0 è di rango massimale, quindi possiede r righe linearmente
indipendenti. Rimuoviamo tutte le altre righe, ottendo così un minore B. Questo minore ha le
righe linearmente indipendenti, quindi il suo determinante è diverso da zero.
Il Teorema 15 può essere comodamente usato per dare una stiama dal basso del rango di una
matricce: è sufficiente trovare un minore di dimensione k con determinate diverso da zero per
concludere che il rango è almeno k.
8
9 Teorema di Rouché-Capelli
Spieghiamo un criterio per studiare il numero di soluzioni di un sistema lineare non omegeneo
Ax = b.
Per prima cosa, calcolando il rango di A, possiamo capire la dimensione del nucleo dell’appli-
cazione lineare associata ad A e quindi, qualora il sistema avesse soluzioni, il numero di soluzioni
(Teorema 4.18 del libro di testo).
Ora dobbiamo capire se il sistema Ax = b ammette soluzioni (fatto assolutamente non scon-
tato, a meno che b = 0). Questo equivale a capire se il vettore b si trova nell’immagine dell’ap-
plicazione lineare associata ad A. Osserviamo da subito che se l’applicazione è suriettiva allora
il sistema avrà sicuramente almeno una soluzione, se non è suriettiva invece bisogna studiare la
questione. Sia B la matrice ottenuta aggiungendo ad A il vettore b come ulteriore colonna. Se
b si trova nell’immagine dell’applicazione lineare associata ad A, allora il rango di B è uguale al
rango di A, questo perchè b si può esprimere come combnazione lineare delle colonne di A. Se
invece il sistema non ammette soluzioni, il rango di B è strettamente maggiore del rango di A,
perchè b non si può esprimere come combinazione lineare delle colonne di A (oppure, se preferite,
lo spazio vettoriale generato dalle colonne di B è strettamente più grande di quello generato
dalle colonne di A). Perciò, calcolando il rango di B e confrontandolo con quello di A possiamo
dedurre se il sistema ammette o non ammette soluzioni.
Questo criterio si chiama Teorema di Rouché-Capelli
B = CAC −1
dove i numeri cj,i sono univocamente determinanti e sono le coordinate di wi rispetto alla base
B1 .
Siano A e B le matrici che rappresentano T nelle basi B1 e B2 . Allora A e B sono simili
e una matrice C che realizza la similitudine è quella che ha per coefficienti i cj,i (Teorema 6.6
pagina 210 del libro di testo). In particolare, se V = Rn e T = LA , possiamo prendere come C
la matrice che ha per colonne le coordinate dei vettori wi .
Definiamo il determinante det(T ) di un’applicazione lineare T : V → V come il determinante
di una matrice che rappresenta T in una qualche base. Osserviamo che il determinante così
definito non dipende dalla base scelta, perchè se cambiamo base otteniamo una matrice simile.
9
Teorema 16. Un’applicazione lineare T : V → V è invertibile se e solo se il suo determinante è
diverso da zero.
Dimostrazione. Assumiamo che det(T ) sia diverso da zero. Sia A una matrice che rappresenta
T in una qualche base. La matrice A ha determinante diverso da zero, quindi è invertibile. Sia
S l’applicazione lineare associata a A−1 . Allora sia T ◦ S che S ◦ T sono l’applicazione identica,
perché entrambe sono associate alla matrice identità, quindi S è l’inversa di T e T è invertibile.
Assumiamo ora che T sia invertibile. Sia A una matrice che rappresenta T in una qualche
base. La matrice che rappresenta T −1 è l’inversa di A, quindi A è una matrice invertibile.
Concludiamo che il determinante di A, e quindi quello d T , è diverso da zero.
Date due matrici simili A e B, con A = CBC −1 , abbiamo che
An = CB n C −1 .
La dimostrazione è elementare e la lasciamo come esercizio al lettore. Questa formula a volte
può essere molto utile: in alcuni casi il calcolo di An può essere oneroso, mentre quello di B n
molto semplice, ad esempio quando B è diagonale.
11 Autovalori e autovettori
Questa sezione è un complemento al Capitolo 6 del libro di testo.
Il concetto fondamentale di autospazio E(λ) è definito nell’Esempio 2 a pagina 196. La
molteplicità geometrica di λ è la dimensione dell’autospazio E(λ). La denotiamo con mλ .
Data un’applicazione lineare T : V → V definiamo lo spettro di T come il sottoinsieme di
R formato da tutti i λ tali che dim E(λ) > 0, ovvero tutti i λ tali che T ha un autovettore di
autovalore λ. Denotiamo lo spettro con σ(T ).
Il risultato seguente è simile a quelli della Sezione 6.3 ed è una conseguenza del Teorema 6.2.
Teorema 17. Sia T : V → V un’applicazione lineare. Assumiamo che la dimensione di V sia
finita. Allora lo spettro σ(T ) ha al più dim V elementi. Inoltre
X
dim E(λ) ≤ dim V
λ∈σ(T )
Dimostrazione. Dimostriamo che σ(T ) ha un numero finito di elementi. Per ogni λ in σ(T ), sia
vλ un autovettore di autovalere λ. L’insieme S costituito da tutti i vλ ha la stessa cadinalità
di σ(T ). Per il Teorema 6.2 del libro di testo, l’insieme S è un insieme di vettori linearmente
indipendenti, quindi la cadrdinalità di S deve essere minore della dimensione di V .
Dimostriamo ora la diseguaglianza. Per ogni λ in σ(T ), sia mλ la sua molteplicità geometrica
(λ) (λ)
e S (λ) = {v1 , . . . , vmλ } una base
P di E(λ). Sia S l’unione degli Sλ al variare di λ in σ(T ). La
cardinalità di S è esattamente λ∈σ(T ) dim E(λ). Se dimostriamo che S è un insieme di vettori
linearmente indipendenti, otteniamo la disuguaglianza cercata.
Scrivmao una combinazione lineare di elementi di S uguale a zero
mλ
(λ) (λ)
X X
ci vi =0
λ∈σ(T ) i=1
10
Per il Teorema 6.2 del libro di testo, ogni w(λ) deve essere uguale a 0. Siccome, fissato λ i vettori
(λ)
di S (λ) sono linearmente indipendenti, otteniamo che ci = 0 per ogni i e ogni λ.
Il polinomio caratteristico pT (λ) di un’applicazione lineare T : V → V è il determinante
dell’applicazione T − λ Id.
Fissiamo una base di V , e per ogni applicazione lineare S : V → V denotiamo con m(S)
la matrice che la rappresenta nella base fissata. Per calcolare il polinomio caratteristico di T ,
dobbiamo calcolare m(T − λ Id). Abbiamo m(T − λ Id) = m(T ) − λm(Id). Inoltre m(Id) è la
matrice identità, ovvero la matrice con tutti 1 sulla diagonale e 0 altrove, indipendentemente
dalla base scelta. Nel caso particolare in cui V = Rn e T = LA per una qualche matrice A,nella
base standard m(T ) = A. Il polinomio caratteristico è un polinomio di grado dim V .
Siccome E(λ) è il nucleo di T − λ Id, lo spettro di T è l’insieme delle soluzioni del polinomio
caratteristico di T (si vieda il Teorema 4.5 del libro di testo, nell’enunciato sostituite F con R).
Dato un polinomio p(λ) di grado n e una sua soluzione λ0 , ovvero un numero λ0 tale che
p(λ0 ), definiamo la molteplicità algebrica µλ0 come il più grande intero positivo tale che
p(λ) = (λ − λ0 )µλ0 q(λ)
per un qualche polinomio q(λ). Osserviamo che il grado di q(λ) deve necessariamente essere
n − µλ0 . Se, ad esempio, prendiamo p(λ) = (λ − 14)(λ − 2)3 , allora le soluzioni di p(λ) sono 14
e 2, le loro molteplicità algebriche µ14 = 1 e µ2 = 3.
La molteplcità algebrica di un autovalore è la sua molteplicità algebrica in quanto soluzione
del polinomio caratteristico.
Teorema 18. Sia T : V → V un’applicazione lineare e λ0 un suo autovalore. La molteplicità
algebrica di λ0 è maggiore o uguale alla sua molteplicità geometrica; in simboli: µλ0 ≥ mλ0 .
Dimostrazione. Sia v1 . . . , vmλ0 una base di E(λ0 ). Completiamola a una base di V . Sia A la
matrice che rappresenta T in questa base. Gli elementi delle prime mλ0 colonne di A sono tutti
zero, tranne gli elementi sulla diagonale che sono λ0 . Sulle colonne successive non sappiamo
niente.
Calcolando il determinante di A − λ Id con lo sviluppo di Laplace prima rispetto alla prima
colonna, poi la seconda, e così via, otteniamo
pT (λ) = (λ − λ0 )mλ0 q(λ).
Dove q(λ) è un polinomio di cui non sappiamo nulla. Concludiamo che µλ0 ≥ mλ0 .
Sulla molteplicità algebrica degli autovalori potete anche consultare le dispense del prof.
Marini, pagine 77-78 e 98.
Sia A una matrice diagonalizzabile (quindi esiste una base {v1 , . . . , vn } di Rn composta di
autovettori di LA . Sia C la matrice che ha per colonne i vettori vi . Allora, per quanto detto
nella sezione 10, la matrice CAC −1 è diagonale. In questo caso si dice che C diagonalizza A. Si
veda anche il teorema 6.10 pagina 211 del libro di testo.
Il teorema seguente è una variante del Teorema 6.9 del libro di tessto.
Teorema 19. Siano A e B due matrici quadrate di dimensione n. Se A e B sono simili, allora le
applicazioni lineari LA ed LB hanno lo stesso spettro e gli autovalori hanno le stesse molteplicità
geometriche.
Sia C una matrice che realizza la similitudine. Dato un autovalore λ, siano EA (λ) e EB (λ)
gli autospazi di λ per LA ed LB , allora
LC (EA (λ)) = EB (λ)
11
Dimostrazione. Sia v ∈ Rn un autovettore di autovalore λ per LA , allora il calcolo seguente
dimostra che LC (v) è un autovettore di autovalore λ per LB
Lasciamo al lettore l’esercizio di capire perché questo fatto implica tutti gli enunciati del
teorema.
la traccia di A è la somma degli autovalori contati con la loro molteplicità geometrica, ovvero
X
Tr(A) = λmλ .
λ∈σ(A)
In alcuni casi, questa formula può tornare utile per calcolare gli autovalori e la loro molteplicità
geoemtrica.
12
Denotiamo con O(V ) il sottoinsieme di End(V ) formato dalle applicazioni ortogonali.
Teorema 20. Un’applicazione T è ortogonale se e solo se entrambe le condizioni seguenti sono
vere
1. per ogni vettore v in V , la lunghezza di v è uguale a quella di T (v)
2. per ogni coppia di vettori non nulli v e w di V , l’angolo tra v e w è uguale a quello tra
T (v) e T (w).
Dimostrazione. Dimostriamo solo che se T è ortogonale allora le due proprietà sopra descritte
sono vere.
La lunghezza di v è (v, v), quella di T (v) è (T (v), T (v), siccome (v, v) = (T (v), T (v)),
p p
2. L’applicazione T è invertibile;
3. Sia S un’altra applicazione lineare ortogonale, allora la composizione ST è ortogonale.
Dimostrazione. Sia v un autovettore di T di autovalore λ. Allora
Se V è il piano con il prodotto scalare usuale, rotazioni e simmetrie assiali sono trasformazioni
ortogonali, le omotetie invece non lo sono.
Osserviamo che la somma di due applicazioni ortogonali o la moltiplicazione di una applica-
zione ortogonale per uno scalare non è in generale ortogonale (sapete fare degli esempi?).
Definizione 3 (Applicazione aggiunta). Data un’applicazione lineare T in End(V ), definiamo
l’applicazione lineare aggiunta T ∨ come l’applicazione lineare tale che
13
Teorema 22. L’applicazione lineare aggiunta esiste ed è unica. In una base ortonormale di V ,
la matrice associata a T ∨ è la trasposta della matrice associata a T .
Dimostrazione. (Nota: la dimostrazione di questo teorema non fa parte del programma svolto,
ma l’enunciato del teorema si!)
Dimostriamo prima l’unicità. Fissiamo T e siano T1∨ e T2∨ due applicazioni duali di T ,
dobbiamo dimostrare che T1∨ = T2∨ , ovvero che per ogni v in V si ha T1∨ (v) = T2∨ (v). Per ogni
w in V , abbiamo che
Quindi T1∨ (v) − T2∨ (v) ha prodotto scalare nullo con tutti i vettori di V , perciò, per le proprietà
del prodotto scalare, T1∨ (v) − T2∨ (v) = 0.
Dimostriamo adesso l’esistenza dell’applicazione aggiunta.
Per l’algoritmo di Gram-Schmidt (Sezione 2), esistono delle basi ortonormali di V , fissiamone
una e chiamiamola {e1 , . . . , en }.
Per ogni v in V , poniamo
n
X
T ∨ (v) = (T (ei ), v)ei
i=1
Ricordiamo che le applicazioni ortogonali sono invertibili per il Teorema 21, il prossimo
risultato rigurda proprio l’inversa di un’applicazione ortogonale.
Teorema 23. Un’applicazione lineare T è ortogonale se e solo se è invertibile e T −1 = T ∨ .
Dimostrazione. Assumiamo prima che T sia ortogonale. Per il Teorema 21, T è invertibile,
dobbiamo dimostrare che T −1 = T ∨ . Per ogni v e w in V si ha che
perciò T è ortogonale.
14
La dualità definisce una funzione
End(V ) → End(V )
T 7→ T ∨
Di seguito studiamo la compatibilità di questa funzione con le operazioni in End(V ).
Teorema 24. Date due applicazioni S e T in End(V ) e uno scalare λ in R, abbiamo che:
1. (S + T )∨ = S ∨ + T ∨ ;
2. (λT )∨ = λ(T ∨ );
3. (ST )∨ = T ∨ S ∨ .
Dimostrazione. Iniziamo con il primo punto. Dobbiamo dimostrare che per ogni coppia di vettori
v e w in V si ha che
((S + T )(v), w) = (v, (S ∨ + T ∨ )(w))
l’enunciato segue dal fatto, dimostrato nel Teorema 22, che l’applicazione aggiunta (S + T )∨ è
l’unica applicazione con la proprietà appena descritta. Svolgiamo il calcolo:
((S+T )(v), w) = (S(v)+T (v), w) = (S(v), w)+(T (v), w) = (v, T ∨ (w))+(v, T ∨ (w)) = (v, (S ∨ +T ∨ )(w))
((λT )(v), w) = (λ(T (v), w) = λ(T (v), w) = λ(v, T ∨ (w)) = (v, λ(T ∨ (w))) = (v, (λ(T ∨ ))(w))
((ST )(v), w) = (S(T (v), w) = (T (v), S ∨ (w)) = (v, T ∨ (S ∨ (w))) = (v, (T ∨ S ∨ )(w))
In altri termini, il Teorema 24 ci dice che la dualità rispetta la somma e il prodotto per uno
scalare, ma scambia l’ordine della composizione.
Introduciamo ora altri due tipi di applicazioni lineari.
Definizione 4 (Applicazioni simmetriche e anti-simmetriche). Un’applicazione lineare si dice
simmetrica se (T (v), w) = (v, T (w)) per ogni coppia di vettori v e w in V . Denotiamo con S(V )
il sottoinsieme di End(V ) composto dalle applicazioni simmetriche.
Un’applicazione lineare si dice anti-simmetrica se (T (v), w) = −(v, T (w)) per ogni coppia di
vettori v e w in V . Denotiamo con A(V ) il sottoinsieme di End(V ) composto dalle applicazioni
ant-simmetriche.
Teorema 25. I sottoinsiemi S(V ) e A(V ) sono sottospazi vettoriali di End(V ).
Dimostrazione. Si dimostra usando i primi due punti del Teorema 24, lasciamo al lettore il
compito di scrivere esplicitamente i dettagli. Ricordiamo al lettore che un sottospazio vettoriale è
un sottoinsieme contente il vettore nullo e chiuso rispetto alle due operazioni degli spazi vettoriali.
15
Riassumendo, i sottoinsiemi delle applicazioni simmetriche e anti-simmetriche sono chiusi
rispetto alla somma e alla moltiplicazione per uno scalare, quindi formano dei sottospazi vettorial,
ma non sono chiusi per la composizione (sapete fare un esempio di applicazioni S e T simmetriche
tali che ST non è simmetrica? Oppure S e T anti-simmetriche tali che ST non è anti-simmetriche?
Per costruire esempi di applicazioni simmetriche o anti-simmetriche potete usare le matrici, come
descritto nell’ultima parte di questa sezione); al contrario, le applicazioni ortogonali non sono
chiuse per la somma e la moltiplicazione per uno scalare, quindi non formano un sottospazio
vettoriale, ma in compenso sono chiuse per la composizione.
Teorema 26. Gli autovalori di un’applicazione lineare anti-simmetrica T sono tutti nulli.
Dimostrazione. Sia v un autovettore di T di autovalore λ. Allora
(T (v), v) = λ(v, v) ,
ma anche
(T (v), v) = (v, −T (v)) = −(v, T (v)) = −λ(v, v) .
Siccome (v, v) 6= 0, otteniamo che λ = −λ, perciò λ = 0.
(T (v), w) = λ(v, w) ,
ma anche
(T (v), w) = (v, T (w)) = γ(v, w) .
Siccome λ e γ sono due numeri diversi, l’unica possibilità è che (v, w) = 0.
L’argomento appena descritto vale per tutti gli autovettori, quindi ci dice che se λ e γ sono
autovalori distinti, allora E(λ) è ortogonale a E(γ).
Costruiamo adesso una base ortonormale di V composta da autovettori di T . Sia σ(T ) =
{λ1 , . . . , λk } e siano mi leP
rispettive molteplicità geometriche. Per il teorema spettrale 27, T
è diagonalizzabile, quindi mi = n. Per ogni λi ∈ σ(T ), sia vji , con j = 1, . . . , mi , una base
ortonormale di E(λi ) (esiste per l’algoritmo di Gram-Schmidt applicato a una base qualunque
di E(λi )). Adesso consideriamo l’insiem formato da tutti i vji per ongi i e j. Questi vettori sono
tutti ortogonali tra di loro (se due di loro hanno lo stesso autovalore, lo sono per costruzione,
se hanno autovalori diversi lo sono per la prima parte del teorema). Essendo ortogonali, sono
linearmente indipendenti. Essendo esattamente n, sono una base.
Traduciamo infine le nozioni appena viste in termini di matrici.
16
Definizione 5 (Matrici simmetriche e anti-simmetriche). Sia A una matrice quadrata di
dimensione n; diciamo che
1. A è ortogonale se A−1 =t A;
2. A è simmetrica se A =t A;
3. T è anti-simmetrica se A = −t A
Teorema 29. Sia T : V → V un’applicazione lineare. Fissiamo una base ortonormale di V . Sia
A la matrice associata a T in questa base. Allora:
1. T è ortogonale se e solo se A è ortogonale;
2. T è simmetrica se e solo se A è simmetrica;
3. T è anti-simmetrica se e solo se A è anti-simmetrica.
Dimostrazione. Segue immediatamente dal Teorema 22 e dal Teorema 23.
Il Teorema 29 ci fornisce anche un modo per capire se un’applicazione è ortogonale / simme-
trica / anti-simmetrica: è sufficiente verificare la proprietà analoga per la matrice associata a T
rispetto a una base ortonormale. In particolare, per verificare se T è ortogonale, basta prendere
la matrice A associata a T in una base ortonormale e controllare che A per la sua trasposta faccia
la matrice identità. Provate con le rotazioni e le simmetrie assiali nel piano!
Concludiamo con la traduzione del Teorema Spettrale 27 e del Teorema 28 in termini di
matrici.
Teorema 30 (Teorema Spettrale per le matrici). Sia A una matrice simmetrica, allora esiste
una matrice ortogonale C tale che CAC −1 è diagonale.
14 Simmetrie e classificazioni
14.1 Gruppi di trasformazioni
Fissiamo uno spazio euclideo di dimensione finita V . Ricordiamo che O(V ) è in particoalre un
insieme di funzioni da V in V . Introduciamo ora altri insiemi di funzioni definite da V a V . Il
primo è GL(V ), il sottoinsieme di End(V ) composto dalle applicazioni lineari invertibili.
Per ogni vettore v in V , la traslazione per v è la funzione tv : V → V definita dalla formula
tv (x) = x + v. Denotiamo con T (V ) l’insieme delle traslazioni. Osserviamo che le traslazioni non
sono applicazioni lineari.
Definiao le isometrie di V come le funzioni da V ottenuto componendo in maniera arbitraria
traslazioni e applicazioni ortoganali. Denotiamo con Isom(V ) l’insieme delle isometrie.
Definiao le affinità di V come le funzioni da V ottenuto componendo in maniera arbitraria
traslazioni e elementi di GL(V ). Denotiamo con Aff(V ) l’insieme delle isometrie.
Abbiamo le seguenti inclusioni
17
Teorema 31. Per ogni coppia di elementi g e h in G, anche la composizione gh è in G.
Definiamo ora la distanza d(v, w) tra due vettori v e w di V con la formula seguente
d(v, w) = ||v − w||
In parole povere, la distanza è la lunghezza del vettore che congiunge il punto finale di v con
quello di w. Il teorema seguente ci dice che il gruppo di isometrie di V non cambia la distanza
(e giustifica quindi il nome isometria)
Teorema 32. Per ogni coppia di vettori v e w in V e per ogni elemento g di Isom(V ), si ha
d(v, w) = d(g(v), g(w))
Dimostrazione. Assumiamo prima che g sia una traslazione. In questo caso v − w = g(v) − g(w),
quindi d(v, w) = d(g(v), g(w)). Assumiamo ora che g sia un’applicazione ortogonale. Allora
d(g(v), g(w)) = ||g(v) − g(w))|| = ||g(v − w)|| = ||v − w|| = d(v, w)
Le isometrie sono composizioni di traslazioni e applicazioni ortogonali, quindi il risultato segue
dai due casi appena studiati.
Per il teorema 31, il diametro è un invariante per l’azione di Isom(V ), quindi se due sottoinsiemi
hanno diametri diversi allora non sono equivlaente per l’azione di Isom(V ) (però, se hanno lo
stesso diametro, non è comunque detto siano equivalenti). Ossserviamo inoltre che il diametro
non è inviariante per le azioni di GL(V ) e Aff(V ) (sapete fare degli esempi di V , P e g ∈ GL(V )
tali che dim(P ) 6= diam(g(P ))?)
18
14.3 Esempi
Studieremo i concetti appena descritti principalmente nel caso V = R2 , equipaggiato con il
prodotto scalare standard. Abbiamo tre tipi di esempi
14.3.1 Poligoni
(Le linee tratteggiate sono gli assi cartesiani.) Il gruppo di simmetrie di questo quadrato
è formato dalle rotazione di 90, 180, 270 e 360 gradi e dalle simmetrie assiali rispetto agli assi
coordinati e le due diagoni. Queste simmetrie si trovano tutte in O(V ).
Ricordiamo che, dato un numero intero n ≥ 3, un n-agono è un poligono con n lati1 ; un
n-agono regolare è un n-agono con tutti i lati e gli angoli uguali. Un n-agono regolare ha 2n
simmetrie: n rotazioni di angolo 360 gradi diviso k, dove k varia in {1, . . . , n} e n simmetrie
assiali. Le simmetrie assiali sono rispetto alle diagonali se n è pari, rispetto alle mediane dei
lati se n è dispari. Un n-agono non regolare, ha meno di 2n simmetrie, il numero di simmetrie
dipende dalla forma del poligono.
I due rettangoli qui sotto
Non sono equivalenti per l’azione di Isom(V ) perchè hanno diametro diverso (quanto vale
il loro diametro?). Sono però equivalenti per l’azione di Aff(V ), infatti la trasformazione che
raddoppia le lunghezze lungo l’asse y e le dimezza lungo l’asse x porta un poligono nell’altro
(quale è la matrice associata a questa trasformazione nella base standard?).
19
14.3.3 Coniche
Una conica è un sottoinsieme di R2 definito dall’annullarsi
√ di un polinomio f (x, y) di secondo
grado in due variabili, come ad esempio x2 − 3y 2 + 2xy − 37x + 13 y + π. La classificazione delle
coniche è completamente descritta nelle dispense della professoressa Geatti, dove trovate anche
diversi esercizi. Alternativamente potete guardare la Sezione 7.14 del libro di testo, per degli
approfondimenti le Sezioni da 2.18 a 2.25 del libro di testo.
Il Teorema Spettrale 27, specialmente nella sua forma dedicata alle matrici (Teorema 30),
gioca un ruolo fondamentale nella classificazione delle coniche.
Facciamo un rapido riassunto della classificazione delle coniche. Sia C una conica definita
da un’equazione f (x, y) = 0. Sia T : R2 → R2 un’affinità. La prima osservazione è che T (C) è
ancora una conica ed è definita dall’equazione f (T −1 (x, y)) = 0. Ad esempio, se T (x) = x + y e
T (y) = y, allora la conica T (C) è definita dall’equazione f (x − y, y).
Data una conica qualunque C, cerchiamo delle trasformazioni che rendano l’equazione di C
semplice. Alla fine si dimostra che C è uguale a meno di isometrie ad una delle coniche della
Tabella 6 della dispensa sulle coniche, e, a meno di affinità, a una delle coniche descritte nelle
pagine 29 e 30 delle dispense di geometria proiettiva.
Due coniche C e C 0 sono uguali a meno di isometrie se e soltanto se sono entrambi uguali ad
una delle coniche della Tabella 6, sono uguali a meno di affinità se e solo se sono entrambi uguali
ad una delle coniche della pagine 29 e 30.
Il prossimo passaggio è il più delicato ed utilizza il Teorema Spettrale, è spiegato anche nelle
dispense sulle coniche e nella Sezione 7.12 del libro di testo. Sia Q(x, y) la parte di grado 2 di
f (x, y). Sia S la matrice simmetrica associata a Q, ovvero
x
Q(x, y) = S , (x, y)
y
Per il Teorema Spettrale 30, esiste una matrice ortogonale T tale che
−1 λ1 0
T ST =
0 λ2
La parte quadrata dell’equazione di T (C) è senza il termine misto xy, infatti
−1 −1 x −1 t −1 −1 x
Q(T (x, y)) = ST , T (x, y) = T ST , (x, y)
y y
dove nell’ultima uguaglianza abbiamo utilizzato il Teorema 22, che ci permette di far saltare una
matrice dall’altra parte del prodotto scalare prendendone la trasposta. Siccome T è ortogonale,
anche T −1 è ortogonale, e per il Teorema 23 prendere la trasposta equivale a prendere l’inversa,
quindi t T −1 = (T −1 )−1 , e inoltre (T −1 )−1 = T . Siccome T ST −1 è diagonale per il Teorema
Spettrale, concludiamo che
Q(T −1 (x, y)) = λ1 x2 + λ2 y 2
Rimandiamo alle dispense per il trattamento della parte di grado più basso.
Ricordiamo che una quadrica si dice degenere se il determinante di S è uguale a zero; os-
serviamo che il determinante di S è uguale al prodotto λ1 λ2 , quindi S è degenere se e sola se
almeno uno dei due autovalori è nullo.
15 Sinonimi
Di seguito trovate una lista di sinonimi per alcuni espressioni usate da Apostol. Entrambe le
scelte lessicali sono corrette.
20
Apostol Sinonimi
spazio lineare spazio vettoriale
Vn Rn
L(S) Span(S) oppure < S >
componenti coordinate
nucleo kernel
N(T) Ker(T)
nullità di T dim Ker(T )
rango di T rg(T), oppure dim T (V )
L(V, W ) Hom(V,W)
L(V, V ) End(V)
matrice non singolare matrice invertibile
matrice singolare matrice non invertibile
sistema senza soluzioni sistema incompatibile
sviluppo per cofattori sviluppo di Laplace
matrici simili matrici coniugate
21