Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Soluzioni
Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi,
studiare con cura i paragrafi 3.5, 3.6, 3.7, 4.1 e 4.2 del libro.
È consigliato svolgere tutti gli esercizi del libro. Riportiamo qui il testo
per chi non ha ancora il libro. Sul libro ci sono (a volte) suggerimenti sulllo
svolgimento.
Soluzione.
Gli aperti di f (X) (con la topologia indotta da Y ) sono tutti e soli gli insiemi
della forma B ∩ f (X), con B aperto in Y . Poiché f : X → f (X) è continua e
biunivoca, è un omeomorfismo se e solo se è aperta.
Dunque
e cioè f è un’immersione.
La funzione dell’esercizio 3.47 non è un’immersione in quanto X e la sua
immagine Y non sono omeomorfi.
Esercizio 3.46. Due sottoinsiemi A e B di uno spazio topologico X si
dicono separati se non sono aderenti, e cioè se
A∩B =A∩B =∅
Dimostrare che:
1. Se F , G ⊆ X sono entrambi aperti o entrambi chiusi, allora A = F − G e
B = G − F sono separati.
2. Se A, B ⊆ X sono separati, allora A e B sono entrambi aperti e chiusi in
A ∪ B.
Soluzione.
1. A ∩ B = ∅ =⇒ A ⊆ (X − B) =⇒ A ∩ (X − B) = A
2. B ⊆ B =⇒ B ∩ (X − B) = ∅.
Dunque
(A ∪ B) ∩ (X − B) = A
e poiché (X − B) è aperto in X, si ha A aperto in A ∪ B. Poiché B è il
complementare di A in A ∪ B, si ha che B è chiuso in A ∪ B.
Scambiando i ruoli di A e B si ha che B è aperto e A è chiuso in A ∪ B e
dunque la tesi.
Esercizio 3.51 Siano X, Y spazi topologici, A ⊆ X, B ⊆ Y sottoinsiemi.
Dimostrare che
A×B =A×B
In particolare, il prodotto di due chiusi è chiuso nel prodotto.
Soluzione.
x ∈ A ⇐⇒ ∀i ∈ I Ui ∩ A 6= ∅
(cioè basta controllare quello che capita per un sistema fondamentale di intorni
e non per tutti gli intorni).
2. Siano X, Y spazi topologici, x ∈ X, y ∈ Y e siano U = {Ui }i∈I un sistema
fondamentale di intorni di x e V = {Vj }j∈J un sistema fondamentale di intorni
di y. Poniamo Wij = Ui × Vj ⊆ X × Y . Allora:
W = {Wij }(i,j)∈I×J
(x, y) ∈ Ui × Vj ⊆ Ax × Ay ⊆ A ⊆ W
(x, y) ∈ A × B ⇐⇒ x ∈ A e y ∈ B
⇐⇒ ∀i ∈ I Ui ∩ A 6= ∅ e ∀j ∈ J Vj ∩ B 6= ∅
⇐⇒ ∀(i, j) ∈ I × J (Ui × Vj ) ∩ (A × B) 6= ∅
⇐⇒ (x, y) ∈ A × B
Esercizio 3.52. Sia (X, d) uno spazio metrico. Dimostrare che la funzione
distanza
d:X ×X →R
è continua rispetto alla topologia prodotto.
Soluzione.
e anche
e quindi la tesi.
Esercizio 3.59. Dimostrare che uno spazio topologico X è di Hausdorff se
e solo se per ogni suo punto x vale
\
{x} = U
U ∈I(x)
Soluzione.
T
Supponiamo che per ogni x ∈ X si abbia {x} = U ∈I(x) U . Se x, y ∈ X con
T
x 6= y allora y ∈ / {x} = U ∈I(x) U e quindi esiste un intorno U di x tale che
y∈ / U . Questo vuol dire che esiste un intorno V di y tale che U ∩ V = ∅ e questa
è la definizione di spazio di Hausdorff.
Viceversa, supponiamo che lo spazio X sia di Hausdorff e fissiamo x ∈ X.
Per ogni punto y 6= x esistono un intorno U di x e un intorno
T V di y tali che
/ U e quindi per ogni y 6= x si ha y ∈
U ∩ V = ∅. Allora y ∈ / U ∈I(x) U . Abbiamo
dunque la tesi.
Esercizio 3.60. Sia f : X → Y continua e Y di Hausdorff. Provare che il
grafico
Γ = {(x, y) ∈ X × Y | y = f (x)}
è chiuso nel prodotto.
Soluzione.
∆ = {(x, y) ∈ Y × Y | x = y}
e la funzione
h:X ×Y →Y ×Y
data da h(x, y) = (f (x), y). La funzione h è continua, come si dimostra immedia-
tamente usando la proprietà universale del prodotto (vedi anche Esercizio 3.49
sul libro di Manetti) e basta osservare che
Γ = h−1 (∆)
Soluzione.
f (S n \ W ) = I \ {t}
Soluzione.
Dunque g(D) contiene una componente connessa ma, essendo connesso, deve es-
sere g(D) = C e quindi f (C) = D, cioè l’immagine di una componente connessa
è una componente connessa.
Sia C(X) l’insieme delle componenti connesse di X e analogamente per Y .
La funzione f induce una funzione f¯ : C(X) → C(Y ), che associa ad ogni
componente connessa C di X la componente connessa f (C) di Y .
Poiché f è biunivoca, è chiaro che due componenti connesse distinte di X
hanno immagini componenti connesse distinte di Y e cioè la funzione f¯ è iniet-
tiva. Si ha
g ◦ f = ḡ ◦ f¯
e g ◦ f = idX = idC(X) , f ◦ g = idY = idC(Y ) e dunque le funzioni f¯ e ḡ sono
inverse l’una dell’altra. Questo significa che sono biunivoche e cioè C(X) e C(Y )
hanno la stessa cardinalità.
Versione 15 set. 2020
Giambattista Marini
Algebra Lineare
e
Geometria Euclidea
ii
Modulo da 12 crediti
Questo testo è rivolto a studenti iscritti a corsi di laurea in materie scientifiche, vengono
trattati gli argomenti che normalmente si svolgono nel corso di geometria.
Indice
Introduzione 1
§1 Insiemistica di base 2
§2 Funzioni 5
§3 Due tecniche di dimostrazione 7
§4 Soluzione degli esercizi 8
I. Algebra Lineare 9
§1 Matrici 169
§2 Sistemi Lineari 173
§3 Spazi Vettoriali 177
§4 Applicazioni Lineari 184
§5 Diagonalizzazione 189
§6 Geometria Euclidea 195
§7 Soluzione degli esercizi 200
INTRODUZIONE
Gli spazi vettoriali, e questo testo è un libro sugli spazi vettoriali, sono oggetti astratti.
Eppure, a dispetto dell’apologia dell’astrazione di cui sopra, evitiamo astrazioni gratuite e
cerchiamo di accompagnare i concetti discussi con molti esempi concreti.
Gli esercizi che si incontrano nel testo sono parte integrante della teoria, possono essere
funzionali a scopi diversi, come quello di fissare le nozioni viste o quello di acquisire quella
sensibilità utile, se non indispensabile, per poter andare avanti. In ogni caso, non devono
essere saltati ma svolti immediatamente dallo studente. Nella quasi totalità dei casi si tratta
di esercizi che sono applicazioni dirette delle definizioni o dei teoremi visti, lo studente che
non riuscisse a risolverli è invitato a rileggere il paragrafo che sta studiando, solo come ultima
spiaggia può andare a vedere le soluzioni!
Infine, quando introduciamo un nuovo termine (quasi sempre all’interno di una defini-
zione) lo indichiamo in corsivo, ad esempio scriveremo “la traccia di una matrice è la somma
degli elementi sulla diagonale”.
2
In questo breve capitolo raccogliamo alcune nozioni di base che chiunque faccia uso della
matematica deve conoscere, nonché introduciamo alcuni simboli del linguaggio matematico
di uso comune.
∃ , ∃! , ∀ , | , := ,
(esiste) (esiste un unico) (per ogni) (tale che) (uguale, per definizione)
=⇒ , ⇐= , ⇐⇒ ,
(implica) (è implicato da) (se e solo se)
(“tale che” viene anche indicato coi due punti). I simboli “esiste” e “per ogni” vengono
chiamati quantificatori. Quanto agli insiemi numerici, gli insiemi dei numeri naturali, interi,
razionali, reali, complessi si denotano rispettivamente coi simboli N, Z, Q , R, C :
N , Z , Q , R , C ,
(naturali) (interi) (razionali) (reali) (complessi)
(la costruzione di questi insiemi non la discutiamo, affinché la notazione sia chiara almeno
in termini naı̈ves, ricordiamo che i naturali sono gli interi non negativi, i razionali sono le
frazioni aventi numeratore e denominatore intero, i reali sono i numeri che scritti in forma
decimale possono anche avere infinite cifre dopo la virgola, i numeri complessi li introduciamo
1 È possibile dimostrare che se non contiene se stesso allora deve contenere se stesso e, viceversa, che se
contiene se stesso allora non può contenere se stesso!
3
a ∈ A A ∋ a B ⊆ A A ⊇ B
(a appartiene ad A) (A contiene l’elemento a) (B è incluso in A) (A contiene B)
(usiamo lettere minuscole per indicare elementi, maiuscole per indicare insiemi). Un simbolo,
se barrato, assume il significato opposto: “6∈” significa “non appartiene”, “6=” significa
“diverso”, “∄” significa “non esiste”, eccetera. Dati due insiemi A e B si definiscono la
loro intersezione A∩B e la loro unione A∪B rispettivamente come l’insieme degli elementi
comuni ad entrambi e l’insieme degli elementi in uno dei due insiemi in questione, in simboli:
A∩B := {x|x ∈ A e x ∈ B}
A∪B := { x | x ∈ A oppure x ∈ B }
ArB := { x | x ∈ A e x 6∈ B } .
Nota. In matematica, “uno” significa sempre “almeno uno”, cosı̀ come “esiste un” signi-
fica sempre “esiste almeno un”, cioè uno o più (ovviamente a meno che l’unicità non venga
dichiarata esplicitamente). Ad esempio, con frasi del tipo “quel sistema ammette una solu-
zione” oppure “esiste un elemento che soddisfa la tale proprietà” non si esclude che di
soluzioni del sistema ce ne possano essere più d’una o che di tali elementi ce ne possano
essere più d’uno.
Definizione 1.1. Sia A un insieme. L’insieme delle parti di A, denotato con P(A), è
l’insieme di tutti i sottoinsiemi di A. In simboli
P(A) := {B|B ⊆ A}
Solitamente, una relazione d’equivalenza viene denotata col simbolo ∼ . Inoltre, per
indicare che la coppia (a, b) vi appartiene si usa scrivere a ∼ b . Si preferisce usare questa
notazione perché in termini forse meno formali ma sicuramente più intelligibili una relazione
d’equivalenza su A di fatto è una regola (riflessiva simmetrica e transitiva) che consenta di
dire quali elementi di A siano “in relazione”. Nella nuova notazione le richieste citate sono
[a] := {b ∈ A|a∼b}
Esercizio 1.7. Provare che dare una partizione è come dare relazione d’equivalenza. Più
precisamente, provare quanto segue:
i) data una partizione, mettendo in relazione a con b se e solo se c’è un insieme della
partizione al quale appartengono entrambi si ottiene una relazione d’equivalenza;
ii) data una relazione d’equivalenza, considerando l’insieme delle classi d’equivalenza si
ottiene una partizione;
iii) le costruzioni i) e ii) sono l’una l’inversa dell’altra.
5
§2. Funzioni.
Esempio. La funzione
f : R −−−−→ R
x 7→ sen(x)
denota la funzione sen(x) incontrata nei corsi di analisi: la funzione che al numero reale x
associa il numero reale sen(x). In questo caso, dominio e codominio sono l’insieme dei
numeri reali. L’immagine di questa funzione è l’insieme dei “possibili valori sen(x)”, cioè
l’intervallo [−1, 1]. L’immagine di una funzione non va confusa con il codominio.
Si osservi che f è iniettiva se e solo se ogni sua fibra è l’insieme vuoto oppure è costituita
da un solo elemento, f è suriettiva se e solo se ogni sua fibra è non-vuota. Se f è biunivoca,
tutte le fibre sono costituite da un solo elemento, ovvero
per ogni b ∈ B esiste un unico elemento a ∈ A tale che f (a) = b .
In questo caso si dà la definizione che segue.
nel primo caso abbiamo un elemento di A, nel secondo abbiamo un sottoinsieme di A (che
ha senso anche se f non è biunivoca e può essere vuoto come avere più di un elemento).
6
Esempio. Quando y = f (x) è una funzione reale di variabile reale (di quelle che si
incontrano nel corso di analisi), il prodotto cartesiano R × R viene rappresentato come in
figura, dove l’asse (x) denota il dominio R e l’asse (y) denota il codominio (sempre R). Da
notare che la fibra di un elemento y0 si ottiene intersecando il grafico della funzione con la
retta (orizzontale) y = y0 .
asse (y)
y = f(x) •
retta y = y0
y0
asse (x)
a x b c
Concludiamo con un cenno sulla dimostrazione per assurdo e la dimostrazione per in-
duzione. Avvertiamo lo studente che ci limitiamo a poche, e soprattutto superficiali, parole.
Una trattazione seria è oggetto di studio della logica matematica.
Dimostrazione. Assumendo per assurdo che i numeri primi siano in numero finito, ovvero
che i numeri primi siano
p1 , . . . , pk ,
possiamo considerare il numero n = p1 · . . . · pk + 1 (il prodotto dei nostri primi più uno).
Per come è definito n, la divisione n : pi dà resto 1 per ogni valore dell’indice i . Di
conseguenza n non è divisibile per nessun primo (n.b.: i pi sono tutti i primi).
Questo è assurdo perché
(♣) ogni numero è divisibile per almeno un primo!
Nota. Quanto all’affermazione (♣), ci sono due possibilità: un numero m è primo oppure
non è primo. Se m è primo, è divisibile per un primo (se stesso), se non è primo allora si
decompone come prodotto di primi ed è divisibile per ognuno di essi. Chi non fosse soddis-
fatto da questa spiegazione (perché usa un’affermazione che va giustificata, l’affermazione
“ogni numero si decompone come prodotto di primi”), può dimostrare (♣) direttamente (a
tal fine suggeriamo di ragionare di nuovo per assurdo, assumendo non vuoto l’insieme dei
numeri non divisibili per alcun primo, si prenda il più piccolo di tali numeri...).
La giustificazione di quanto affermato sta nel fatto che P1 è vera, quindi P2 è vera, quindi
P3 è vera, quindi P4 è vera, e cosı̀ via. Più formalmente possiamo ragionare per assurdo:
se esiste un indice j per il quale Pj è falsa, allora posto j0 = min{ j | Pj è falsa } si ha
la contraddizione “ Pj0 −1 è vera e Pj0 (la successiva) è falsa”.
In inciso, esistono versioni più sofisticate di induzione (che in questo testo non utilizze-
remo mai) dove gli indici dai quali dipendono le affermazioni che si vogliono dimostrare
appartengono a insiemi molto più complicati di quello considerato sopra.
8
1.2. 2n . Infatti, nello scegliere un sottoinsieme di A, abbiamo due possibile scelte per
ogni elemento di A, quindi, in totale, 2n possibili scelte.
1.4. n · m . Infatti, abbiamo n elementi in A e, per ogni elemento a ∈ A, abbiamo m
possibili coppie del tipo (a, b).
1.7. i) la riflessività segue dal fatto che, per definizione, una partizione è un ricoprimento; la
simmetria è ovvia; la transitività a ∼ b e b ∼ c ⇒ a ∼ c segue dal fatto che esiste un unico
insieme della partizione cui b appartiene, e pertanto questo deve essere lo stesso insieme
cui appartengono a e c. ii) ogni elemento appartiene alla propria classe di equivalenza,
in particolare si ottiene un ricoprimento; se [a] ∩ [c] 6= ∅ , preso b ∈ [a] ∩ [c] si ottiene
[a] = [b] = [c] (quindi, per assurdo, due classi distinte [a] 6= [c] non possono avere
intersezione non vuota, ovvero sono disgiunte). iii) è palesemente tautologica.
9
ALGEBRA LINEARE
Cominciamo con alcuni esempi. Una definizione formale di sistema lineare la daremo alla
fine del paragrafo, per ora lo studente può tranquillamente pensare al concetto di “equazione,
ovvero sistema di equazioni” visto al liceo.
L’esempio più elementare di sistema lineare è il sistema di una equazione in una incognita
a·x = b, a, b ∈ R .
In questo caso la discussione delle soluzioni è molto semplice: ci sono tre possibilità
i) se a 6= 0 esiste una unica soluzione: x = ab ;
ii) se a = b = 0 ogni valore di x è una soluzione del sistema;
iii) se a = 0 e b 6= 0 il sistema non ha soluzioni.
Esempio. Discutiamo le soluzioni del sistema lineare di una equazione in due incognite
Anche in questo caso l’esistenza di soluzioni dipende dai valori dei coefficienti a, b, c .
Assumendo a 6= 0 (lasciamo allo studente il problema di discutere gli altri casi possibili),
dividendo per a si ottiene
x = c − by /a .
Pertanto, se a 6= 0 l’insieme delle soluzioni del sistema lineare (1.1) è
(1.2) x, y x = (c − by)/a .
La notazione usata è quella introdotta nel Capitolo 0, la ricordiamo per comodità: “{ ... }”
significa “l’insieme ...” e la barra verticale “|” significa “tale che”. In definitiva, la (1.2) si
legge dicendo “l’insieme degli x, y tali che x = (c − by)/a”. Si osservi che y può assumere
qualsiasi valore. Per questo motivo, diciamo che y è un parametro libero (relativamente alla
descrizione data dello spazio delle soluzioni del sistema (1.1)).
Si potrebbe obiettare che potremmo aver moltiplicato per zero (se a = 0). Vero, comunque
l’uguaglianza scritta resta valida. Un calcolo simile mostra che
Risponderemo a queste domande nei prossimi paragrafi. Ora, come promesso, definiamo
in modo formale i concetti di “sistema lineare” e di “soluzione di un sistema lineare”.
Nota. Ci preme sottolineare che un sistema lineare (s.l.) non è un insieme di uguaglianze
bensı̀ un oggetto formale: anche “ {0x = 2 ” è un s.l..
Definizione 1.9. Una soluzione del sistema è una n−pla di numeri x′1 , ..., x′n che,
sostituiti in (⋆) al posto delle incognite, soddisfano tutte le equazioni.
Definizione 1.10. Se i coefficienti b1 , ..., bm (detti anche termini noti) sono tutti nulli
diciamo che il sistema è omogeneo.
Definizione 1.12. Un sistema lineare si dice compatibile se ammette soluzioni (una o più),
se non ammette soluzioni si dice incompatibile.
Definizione 1.13. Due sistemi lineari, nelle stesse incognite, si dicono equivalenti se hanno
le stesse soluzioni.
Per quel che ci riguarda è solo una questione di linguaggio: dire che due sistemi lineari
sono equivalenti e dire che appartengono alla stessa classe di equivalenza è dire la stessa
cosa. Di fatto la Definizione 1.14 ci serve solo per dare un nome all’insieme di tutti i sistemi
lineari equivalenti ad un sistema lineare dato (si veda, ad esempio, l’osservazione 1.18).
sono equivalenti. Ma non è necessario risolverli per rendersi conto che sono equivalenti: le
equazioni di S2 le abbiamo ricavate da quelle di S1 (ricopiando le prime due equazioni
e sommando, alla terza equazione, la prima equazione più il doppio della seconda), quindi
se x′ , y ′ , z ′ è una soluzione di S1 , soddisfa anche S2 ; viceversa, le soluzioni di S2 sono
soluzioni anche di S1 perché è possibile ricavare le equazioni di S1 da quelle di S2 (basta
12
ricopiare le prime due equazioni e sottrarre, alla terza equazione, la prima equazione più il
doppio della seconda).
Definizione 1.17. Una combinazione lineare delle equazioni f1 (...) = λ1 , ..., fk (...) = λk
è un’equazione del tipo σ1 f1 (...) + ... + σk fk (...) = σ1 λ1 + ... + σk λk . I numeri σ1 , ..., σk
si chiamano coefficienti della combinazione lineare.
Torniamo al sistema (⋆) della Definizione 1.8. Le informazioni che lo identificano sono
racchiuse nei numeri ai,j e bi , numeri che raccoglieremo in delle tabelle ponendo
a1,1 ... a1,n a1,1 ... a1,n b1
. . . . . . .
A := ai,j := . . . , Ae := .
. . . .
. . . . . . .
am,1 ... am,n am,1 ... am,n bm
Tabelle di questo tipo si chiamano matrici (cfr. Definizione 1.21).
Esercizio 1.20. Indicare quali dei seguenti sistemi di equazioni sono sistemi lineari e, di
quelli lineari, indicarne le matrici incompleta e completa:
(
x+y =1
a) il sistema, nelle incognite x, y, di equazioni ;
x−y =3
(
ax + 2y = 3
b) il sistema, nelle incognite x, y, z, di equazioni ;
x − sent · y = 3
(
x·y = z
c) il sistema di equazioni .
x|t|+1 = z · y
13
Useremo le matrici in maniera sistematica, e non solo come oggetti associati ai sistemi
lineari. È bene iniziare a familiarizzare fin d’ora con alcune notazioni di uso frequente
concernenti le matrici.
Definizione 1.22. Se A ∈ Mn, n diciamo che è una matrice “quadrata”. In questo caso
la sequenza degli elementi a1, 1 , a2, 2 , ..., an, n si chiama diagonale principale:
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · ·
· · · · · ·
A = ai,j = .
· · · · · ·
· · · · · ·
an,1 an,2 · · · an,n
Definizione 1.23. Sia A ∈ Mn, n una matrice quadrata. Se risulta ai, j = 0 per ogni
i > j diciamo che A è una matrice triangolare superiore (la definizione ci dice che una
matrice triangolare superiore è una matrice dove gli elementi che si trovano sotto la diagonale
principale sono tutti nulli).
Definizione 1.24. Sia A ∈ Mn, n una matrice quadrata. Se risulta ai, j = 0 per ogni
i 6= j diciamo che A è una matrice diagonale.
Esempi.
3 2 9 5 8 7 0 0 0 0 1 0 0 0 0
0 4 1 2 7 0 2 0 0 0 0 1 0 0 0
0 0 4 3 9 0 0 4 0 0 0 0 1 0 0
0 0 0 6 1 0 0 0 6 0 0 0 0 1 0
0 0 0 0 5 0 0 0 0 8 0 0 0 0 1
matrice
(matrice diagonale) (matrice identica I5 )
triangolare superiore
Definizione 2.1. Sia A una matrice. Le operazioni che seguono si definiscono operazioni
elementari:
i) la moltiplicazione di una riga per una costante non nulla;
ii) l’operazione di sommare ad una riga una combinazione lineare delle altre;
iii) lo scambio di due righe tra loro.
Diremo inoltre che due matrici A e B sono E.G.-equivalenti, ovvero diremo che l’una si
ottiene dall’altra tramite l’E.G., e scriveremo
A ∼ B,
se è possibile passare da A a B utilizzando le operazioni elementari di cui sopra.
Inciso 2.2. La definizione di combinazione lineare di righe di una matrice è analoga a quella
di combinazione lineare di equazioni di un sistema: la combinazione Pr lineare Pdi coefficienti
r
σ1 , ..., σr delle righe (c1,1 ... c1,n ) , ..., (cr,1 ... cr,n ) è la riga ( t=1 σt ct,1 ... t=1 σt ct,n ) .
Lemma 2.3. Sia A e una matrice, sia Be la matrice ottenuta eseguendo operazioni ele-
e e e B
mentari su A . Si ha che i sistemi lineari le cui matrici complete sono le matrici A e
sono equivalenti. In sintesi:
e ∼ B
A e =⇒ “i rispettivi sistemi associati sono equivalenti”.
Dimostrazione. Scrivere una matrice non è altro che un modo compatto di scrivere le
informazioni che individuano un sistema lineare e le operazioni descritte nella Definizione 2.1
non sono altro che la traduzione in termini di questa nuova notazione delle operazioni (dette
anch’esse elementari) indicate nella Osservazione 1.18.
Come corollario del Lemma 2.3, possiamo risolvere un sistema lineare applicando il
metodo che segue: scriviamo la matrice completa associata al sistema lineare, la “sem-
plifichiamo” utilizzando le “mosse” previste in nella Deifnizione 2.1, risolviamo il sistema
lineare la cui matrice completa associata è quella ottenuta mediante la “semplificazione”
effettuata. Più avanti vedremo i dettagli di questa procedura, intanto illustriamo qualche
esempio concreto.
dove i passaggi effettuati sono: 1) alla seconda riga abbiamo sottratto il quadruplo della
prima ed alla terza abbiamo sottratto il triplo della prima, 2) alla terza riga abbiamo
sottratto i quattro terzi della seconda, 3) alla seconda riga abbiamo sommato il triplo
della terza, 4) alla prima riga abbiamo sommato la seconda e sottratto il triplo della terza,
5) abbiamo diviso la seconda riga per −3 ed abbiamo moltiplicato la terza riga per tre. Il
sistema associato all’ultima matrice che abbiamo scritto è il sistema
1x + 0y + 0z = 2
x = 2
0 x + 1 y + 0 z = −1 ovvero y = −1
0x + 0y + 1z = 3 z = 3
In virtù del Lemma 2.3 quest’ultimo sistema è equivalente a quello da cui siamo partiti,
pertanto il sistema considerato è compatibile ed ammette un’unica soluzione, questa è la
terna x = 2 , y = −1 , z = 3 .
Le cose non vanno sempre cosı̀ bene, se non altro perché potremmo partire da un sistema
che ammette infinite soluzioni o che non ne ammette affatto.
x + 3y − 7z = 2.
e non c’è modo di “semplificarla”. In compenso le soluzioni di questo sistema sono evidenti:
possiamo considerare y e z come parametri liberi e porre x = −3y + 7z + 2 . Vogliamo
sottolineare che le soluzioni di questo sistema sono infinite, e sono tutte e sole le terne x, y, z
ottenute scegliendo arbitrariamente due valori per y e z e ponendo x = −3y + 7z + 2 .
Definizione 2.4 Una matrice a scala superiore è una matrice A = (ai,j ) ∈ Mm,n (R)
in cui ν(i) , che per definizione è l’indice massimo ν tale che ai,1 = ... = ai,ν = 0 , è
una funzione strettamente crescente dell’indice di riga i , con l’ovvia eccezione che se una
riga è tutta nulla ci limiteremo a richiedere che le successive siano anch’esse nulle (...non
potrebbero avere più di n zeri, poverine hanno solo n elementi!). Di una matrice a scala,
il primo elemento non nullo di una riga non nulla viene chiamato pivot.
Esercizio 2.5. Provare che in una matrice A a scala superiore gli elementi che si trovano
sotto ai, i sono tutti nulli, per ogni i. In particolare, una matrice quadrata a scala superiore
è necessariamente triangolare superiore (cfr. Definizione 1.23).
Esercizio 2.6. Indicare quali matrici tra quelle che seguono sono a scala superiore.
1 3
4 3 1 1 2 3 1 1 0 0 0
0 −1
A = 0 2 2 , B = 0 0 2 1 , C = 0 0 2 0 , D =
0 5
0 0 0 0 0 −1 1 0 0 0 0
0 0
0 2 3 1 −1 3 3 1 2 1
0 0 2 1 0 0 9 4 0 0 0
E= , F = , G= , H = 0 0
0 0 1 5 0 0 0 4 0 0 0
0 0
0 0 0 1 0 0 0 0
Esercizio 2.7. Dimostrare che una matrice è a scala se e solo se soddisfa quanto segue:
se a sinistra di un elemento ci sono solo zeri
(♣)
allora anche sotto di esso ci sono solo zeri
(L’elemento a1, 1 , trovandosi nella prima colonna, non ha nulla alla sua sinistra, ovvero
soddisfa automaticamente l’ipotesi di “avere solo zeri alla sua sinistra”. Pertanto in una
matrice soddisfacente la proprietà (♣), gli elementi a1, 2 , ..., a1, n sono tutti nulli).
Osservazione 2.8. I sistemi lineari la cui matrice completa associata è a scala supe-
riore, che chiameremo sistemi a scala, si risolvono rapidamente per sostituzione partendo
dall’ultima equazione e “tornando indietro”. Infatti, per questo tipo di sistemi lineari, accade
che la prima incognita di ogni equazione non compare nelle equazioni successive e dunque
può essere ricavata come funzione delle incognite che la seguono. Vediamo un esempio:
w = − 5s + 10 ;
17
si sostituisce quanto ottenuto nella penultima equazione e si isola la variabile z (la prima
variabile che compare in tale equazione), ottenendo cosı̀
z = − 7s + 13 / 3
(in questo passaggio non sono apparsi altri parametri liberi oltre s, che abbiamo già consi-
derato); si sostituisce quanto ottenuto nella prima equazione e si isola la variabile x (che,
come sempre, è la prima variabile dell’equazione che stiamo considerando), quindi si scrive
x = − y − s + 5 /2
tenendo le eventuali altre2 variabili, in questo caso solamente la y , come parametri liberi.
In definitiva, lo spazio delle soluzioni del sistema (2.9) è l’insieme
x = − y − s + 5 /2
(2.9′ ) x, y, z, w, s z = − 7s + 13 / 3 ,
w = − 5s + 10
dove, lo ripeto, y ed s sono parametri liberi, ovvero sono variabili che possono assumere
qualsiasi valore.
L’esempio esposto non ha nulla di particolare, ogni sistema lineare la cui matrice completa
associata è a scala superiore si risolve nello stesso modo. L’unica cosa che potrebbe accadere
è ritrovarsi qualcosa del tipo “ 0 = 3 ” come ultima equazione e, di conseguenza, di fronte
ad un sistema lineare palesemente incompatibile.
Il primo coefficiente non nullo di ogni equazione viene chiamato pivot. Si osservi che i
parametri liberi sono le variabili che non corrispondono ad un pivot. Nell’esempio consi-
derato i pivot sono 2, 3, 1 (coefficienti di x, z, w , rispettivamente della prima, seconda e
terza equazione) ed i parametri liberi sono le restanti variabili: y ed s .
Inciso 2.10. Spesso è opportuno usare i simboli t1 , t2 , ... per indicare, ed evidenziare, i
parametri liberi. In questo modo le soluzioni del sistema dell’esempio vengono scritte nella
forma
x = − t1 − t2 + 5 / 2
y = t
1
′
(2.10 )
x, y, z, w, s z = − 7t2 + 13 / 3 ,
w = − 5t2 + 10
s = t
2
detta anche rappresentazione parametrica dell’insieme delle soluzioni del sistema dato.
Visto che sappiamo risolvere i sistemi a scala resta da imparare a ridurre un qualsiasi
sistema ad un sistema a scala, ed in virtù dell’osservazione 2.8, resta da illustrare l’algoritmo
che trasforma una qualsiasi matrice in una matrice a scala. Questo algoritmo viene descritto
nella prossima dimostrazione e si chiama algoritmo di riduzione a scala (ovvero di Gauss).
Proposizione 2.11. Sia A = ai,j ∈ Mm,n (R) una qualsiasi matrice rettangolare.
L’E.G. per righe consente sempre di trasformarla in una matrice a scala superiore.
Dimostrazione. Sia k l’intero più grande tale che la sottomatrice B costituita dalle prime
k colonne di A è a scala. Il valore k può anche essere zero (per l’esattezza, k 6= 0 se e
solo se a2,1 = ... = am,1 = 0 ). Se B non ha righe identicamente nulle, A è a scala ed
2 Oltre quelle già considerate.
18
A meno di cambiare l’ordine delle righe di indice r, ..., m possiamo assumere ar,k+1 6= 0 ,
ai,k+1
quindi per ogni i > r sottraiamo alla i−esima riga il prodotto della r−esima riga per ar,k+1 .
In questo modo sotto ar,k+1 otteniamo tutti zeri, quindi la sottomatrice delle prime k + 1
colonne della “nuova” A (stiamo modificando la nostra matrice) è a scala.
Iterando questo procedimento arriveremo ad avere k = n ed avremo quindi concluso la
riduzione a scala di A .
0 2 0 5 8 1 0 2 0 5 8 1
0 0 2 2 0 4 0 0 2 2 0 4
C := ∼(3) D := .
0 0 0 3 9 6 0 0 0 3 9 6
0 0 0 7 0 −4 0 0 0 0 −21 −18
In quest’esempio, consideriamo la prima colonna. Poiché questa, come matrice 4 × 1 , è a
scala, andiamo avanti e consideriamo la sottomatrice 4 × 2 delle prime due colonne che è
anch’essa a scala. Quindi guardiamo la sottomatrice delle prime tre colonne. Questa non è
a scala e purtroppo a2,3 = 0 , ma scambiando la seconda riga con la terza riga, passo 1,
possiamo fare in modo che l’elemento della seconda riga e terza colonna diventi diverso da
zero (in questo modo arriviamo alla matrice B ). La sottomatrice delle prime tre colonne
di B non è ancora a scala perché sotto b2,3 non ci sono tutti zeri. Sottraendo alla quarta
riga i tre mezzi della seconda, passo 2, otteniamo la matrice C , che è una matrice le cui
prime tre colonne sono a scala. Andiamo avanti: consideriamo la sottomatrice delle prime
quattro colonne di C . Questa non è a scala ma lo diventa se sottraiamo alla quarta riga
i sette terzi della terza riga, passo 3. In questo modo otteniamo la matrice a scala D ed
abbiamo concluso.
Esercizio 2.12. Risolvere i sistemi lineari le cui matrici complete associate sono quelle
dell’esercizio 2.6. Naturalmente, indicare esplicitamente quante e quali sono le incognite,
discutere la compatibilità ed indicare i parametri liberi (si controlli la correttezza dei risultati
ottenuti, a tal fine si veda il paragrafo §17, “Soluzione degli esercizi”).
19
specificando quali incognite sono parametri liberi ed indicando lo spazio delle soluzioni nella
forma
x1 = c1,1 t1 + ... + c1,ℓ tℓ
′
(2.13 ) x1 , x2 , ... ...
xn = cn,1 t1 + ... + cn,ℓ tℓ ...
§3. Matrici.
Esempio.
4 3 1 0 1 2 3 11 5 5 4 11
0 2 2 0 + 3 7 2 19 = 3 9 4 19 .
2 −5 0 1 3 0 −1 57 5 −5 −1 58
Definizione 3.2. Siano A = (ai,j ) ∈ Mm,n (R) e C = (ci,j ) ∈ Mn,k (R) due matrici (si
osservi che il numero delle colonne di A è uguale al numero delle righe di C ). Si definisce
il prodotto righe per colonne
A · C ∈ Mm,k (R)
ponendo
n
X
(3.2′ ) A·C i,j
:= ai,h · ch,j
h=1
dove A·C i,j
denota l’elemento di posto i, j della matrice A · C .
Si osservi che secondo questa formula, l’elemento di posto “ i, j ” della matrice prodotto
è il “prodotto” della i−esima riga di A per la j −esima colonna di C . Ad esempio,
⋆ ⋆ α ⋆
⋆ ⋆ ⋆ ⋆ ⋆ ⋆ ⋆
· ⋆ ⋆ β ⋆ = .
a b c ⋆ ⋆ aα + bβ + cγ ⋆
⋆ ⋆ γ ⋆
Esempio 3.3.
1 2 0 3
4 0 1 0 7 7 8 −1 11
· 2 1 = .
2 −5 0 2 −31 −10 1
3 0 −1 −1
21
(dovete ottenere rispettivamente matrici 2×2 , 2×3 , 3×2 , 3×3 , 3×3 , 1×1) .
otteniamo proprio (
x1 = 7z1 + 8z2 − z3 + 11z4
x2 = 2z1 − 31z2 − 10z3 + z4
Si noti che le matrici associate a queste relazioni sono quelle del prodotto nell’esempio 3.3.
Osservazione 3.5. Quanto visto nell’esempio vale in generale: il prodotto (righe per
colonne) tra matrici “codifica” l’operazione di sostituzione. Infatti, date A e C come nella
Definizione 3.2, se x1 , ..., xm , y1 , ..., yn e z1 , ..., zk soddisfano le relazioni
Xn Xk
xi = ai,1 y1 + ... + ai,n yn = ai,h yh e yh = ch,1 z1 + ... + ch,k zk = ch,j zj ,
h=1 j=1
(dove i = 1, ..., m e h = 1, ..., n ), allora risulta
n n k k n
!
X X X X X
xi = ai,h yh = ai,h ch,j zj = ai,h ch,j zj
h=1 h=1 j=1 j=1 h=1
(n.b.: tra le parentesi c’è l’elemento di posto i, j del prodotto A · C , cfr. Definizione 3.2).
dove naturalmente si richiede che le dimensioni delle matrici in questione siano compatibili
con le operazioni scritte: A, B, C ∈ Mm,n (R) , D, D′ ∈ Mn,k (R) ed E ∈ Mk,h (R)
Peraltro, se le dimensioni delle matrici in questione non sono “giuste”, non ha neanche senso
invertire l’ordine dei fattori (il numero delle colonne della matrice a sinistra deve essere
uguale al numero delle righe di quella a destra).
22
L’osservazione che segue deve assolutamente essere compresa a fondo in quanto basilare
per la teoria che svilupperemo.
Osservazione 3.8. Un modo compatto per denotare il sistema lineare (⋆) introdotto
nella Definizione 1.8 consiste nello scrivere
A · ~x = ~b ,
x1 b1
. .
dove, per definizione, ~x = .. , ~b = .. , A è la matrice incompleta associata al
xn bm
sistema lineare dato ed il prodotto “·” è il prodotto righe per colonne della Definizione 3.2.
Infatti, usando la Definizione 3.2 di prodotto righe per colonne si ottiene proprio
a1,1 x1 +... + a1,n xn
a1,1 . . . a1,n
. . . . . x1 ...
..
A · ~x = . . . . . · . =
... ∈ Mm,1 (R) .
. . . . . xn ...
am,1 . . . am,n
am,1 x1 +... + am,n xn
Esempio. (
x
2x − y + 5z = 2 2 −1 5 2
Il sistema lineare si scrive y = .
x + 3z = −1 1 0 3 −1
z
Esercizio. Scrivere i sistemi lineari incontrati nel paragrafo § 2 nella forma A · ~x = ~b.
Inciso 3.10. Vediamo un’applicazione alla teoria dei sistemi lineari dell’uso delle matrici.
Sia ~x1 una soluzione del sistema lineare
(⋆) A · ~x = ~b
e sia ~x0 una soluzione del sistema omogeneo associato A · ~x = ~0 (dove ~0 denota il vettore
dei termini noti quando questi sono tutti nulli). Allora risulta
In altri termini, se a una soluzione del sistema (⋆) sommo una soluzione del sistema omogeneo
associato, trovo di nuovo una soluzione del sistema (⋆). Inoltre, fissata a priori una qualsiasi
soluzione del sistema (⋆), ogni altra soluzione di (⋆) è somma della soluzione fissata e di una
soluzione del sistema omogeneo associato. Infatti, se ~x2 è un’altra soluzione di (⋆), si ha
A · (~x2 − ~x1 ) = ~b −~b = ~0 , quindi ~x2 si scrive come ~x2 = ~x1 + (~x2 − ~x1 ) , essendo il vettore
tra parentesi una soluzione del sistema omogeneo associato. Questo risultato è noto come
teorema di struttura dell’insieme delle soluzioni di un sistema lineare.
23
Teorema (di struttura) 3.11. Sia ~x1 una soluzione del sistema lineare
(⋆) A · ~x = ~b
e sia S0 l’insieme delle soluzioni del sistema omogeneo associato A·~x = ~0 . Allora l’insieme
S di tutte le soluzioni del sistema (⋆) è l’insieme
S = S0 + ~x1 := ~x ~x = ~x1 + ~s , ~s ∈ S0
~x = A · ~y , ~y = C · ~z .
~x = (A · C) · ~z ,
k n
!
X X
che è esattamente la forma compatta della relazione xi = ai,h ch,j zj ottenuta
j=1 h=1
nell’osservazione 3.5.
Le operazioni consentite dall’E.G. (cfr. Definizione 2.1) possono essere espresse come
prodotti con matrici opportune. L’esercizio che segue serve ad introdurre questo tipo di
risultato.
E1 · M , E2 · M , E3 · M .
24
Osservazione 3.15. Chi ha svolto l’esercizio precedente avrà notato che la moltiplicazione
a sinistra per E1 equivale a moltiplicare una riga di M per il coefficiente λ (nel caso
specifico, la quarta riga), la moltiplicazione a sinistra per E2 equivale a sommare una riga
di M con una combinazione lineare delle altre (nel caso specifico, alla quarta riga viene
sommata la combinazione lineare di coefficienti α, β, γ, δ delle righe I, II, III e V), la
moltiplicazione a sinistra per E3 equivale a scambiare due righe di M (nel caso specifico,
la terza riga con la quarta).
Definizione 3.16 Sia E una matrice quadrata n × n . Diremo che E è una matrice
elementare se è di uno dei seguenti tipi (ricordiamo che In denota la matrice identica,
cfr. Definizione 1.25):
i) la matrice che si ottiene sostituendo un “1” di In con un coefficiente λ 6= 0 ;
ii) la matrice che si ottiene sostituendo gli zeri di una riga di In con dei numeri
arbitrari;
iii) la matrice che si ottiene scambiando due righe di In .
Osservazione 3.17. Generalizzando quanto già visto con l’osservazione 3.15, fissata una
matrice M , la moltiplicazione a sinistra per una matrice elementare equivale ad effettuare
una delle operazioni consentite dall’Eliminazione di Gauss (cfr. Definizione 2.1).
Definizione 3.18. Sia A = (ai, j ) ∈ Mm, n (R) una matrice. La matrice che si ottiene
“scambiando le righe con le colonne”, ovvero la matrice in Mn, m (R) il cui elemento di posto
“riga i, colonna j” è l’elemento aj, i , si chiama trasposta di A e si indica con tA :
t
t
A i, j
= aj, i , A ∈ Mn, m (R) .
Per quel che riguarda il prodotto si deve fare attenzione all’ordine dei fattori (che deve essere
scambiato), infatti risulta
t
t
(3.19) A·D = D · tA , ∀ A ∈ Mm, n (R) , D ∈ Mn, k (R) .
Questo perché l’elemento di posto i, j della matrice t(A · D), essendo l’elemento di posto
j, i della matrice A · D , si ottiene moltiplicando la riga di posto j di A per la colonna di
posto i di D , esattamente come l’elemento di posto i, j della matrice t D · tA.
25
Due matrici in Mn,n (R) (stesso numero di righe e colonne) possono essere sia sommate
che moltiplicate tra loro, inoltre il risultato che si ottiene è sempre una matrice in Mn,n (R).
In effetti Mn,n (R) , con le due operazioni di somma e prodotto, è un esempio di anello
unitario (un anello è un oggetto algebrico che noi non studieremo). Non entreremo troppo
in questioni algebriche, però alcune considerazioni le vogliamo fare.
A · In = In · A = A, ∀ A ∈ Mn, n (R)
(questo comportamento di In rispetto al prodotto tra matrici è uno dei motivi per i quali
si chiama matrice identica).
(4.4) A · ~x = ~b
(4.5) ~x = A−1 · ~b .
la (4.5) per A si torna alla (4.4), abbiamo l’esistenza della soluzione del sistema dato. Vista
l’importanza, vogliamo ripetere il risultato appena dimostrato:
Proposizione 4.6. Se A ∈ Mn,n (R) è una matrice invertibile allora il sistema lineare
A · ~x = ~b
~x = A−1 · ~b .
A · ~x = ~b
Nel § 7 vedremo che questo risultato segue in modo naturale dalla teoria che per allora
avremo sviluppato. Ma, si sa, le dimostrazioni non servono (solo) a dimostrare i teoremi!
...ma anche a comprendere meglio gli strumenti coi quali si sta lavorando. La dimostrazione
che segue vi servirà ad affinare la sensibilità sull’E.G. e sulla natura del prodotto di matrici.
Dimostrazione. Poiché il sistema ammette un’unica soluzione, l’E.G. sul sistema non deve
produrre né parametri liberi né incompatibilità. Questo accade se e solo se la riduzione a
scala di A produce un pivot su ogni elemento della diagonale, in particolare, indipendente-
mente da ~b . Infatti, da un lato se
A ∼ T
è una riduzione a scala di A, le stesse identiche operazioni effettuate sulla matrice completa
Ae = A | ~b (ad A viene agiunta la colonna ~b ) producono qualcosa del tipo
e = A | ~b
A ∼ Te = T | d~
(una matrice n × n+1 le cui prime n colonne sono esattamente le colonne di T ). D’altro
canto, la matrice a scala T ha elementi sulla diagonale non nulli (tutti) se e solo se Te è
del tipo desiderato, ovvero il sistema ad essa associato ammette un’unica soluzione.
Di conseguenza, se il sistema lineare dato A·~x = ~b ammette un’unica soluzione, ciò accade
per ogni sistema lineare A · ~x = ~c (i.e. con ~c arbitrario). A questo punto non solo siamo
in grado di dimostrare l’invertibilità di A, ma siamo persino in grado di costruire l’inversa.
Infatti, indicando con ~ei la i−esima colonna di In (che sarà quindi il vettore che ha tutti
zeri eccetto un 1 nell’elemento di posto i), risulta che l’inversa di A è la matrice B la cui
i−esima colonna è la soluzione del sistema lineare A · ~x = ~ei . Quanto appena affermato
segue da com’è fatto il prodotto righe per colonne: la i−esima colonna del prodotto A · B
si ottiene facendo scontrare A con la i−esima colonna di B , ma questa colonna, per come
è stata costruita B , è la soluzione del sistema lineare A · ~x = ~ei . Questo dimostra che la
i−esima colonna di A · B è ~ei , quindi che A · B = In . Detto in termini visivamente più
intellegibili, si deve avere
| |
A · B = A · ... ~bi ... = ... ~ei ... = In .
| |
27
Nella dimostrazione della Proposizione 4.8, cosı̀ come nell’esercizio 4.9, utilizziamo i sis-
temi lineari per costruire l’inversa di una matrice. In realtà il lavoro al quale siamo interessati
va esattamente nella direzione opposta: usare l’inversa di una matrice per risolvere, grazie
alla Proposizione 4.6, i sistemi lineari. I prossimi tre paragrafi sono dedicati, tra le altre
cose, a questo scopo.
Esercizio 4.10. Trovare l’errore nel ragionamento che segue. Consideriamo una matrice
A ∈ Mm, n (R) (m righe, n colonne) e consideriamo il sistema lineare A·~x = ~b . Assumiamo
per ipotesi che esista una matrice B ∈ Mn, m (R) (questa volta, n righe, m colonne) tale
che B · A = In (osserviamo che il prodotto B · A ha senso ed è una matrice di n righe e
colonne). Procedendo come nel passaggio dalla (4.4) alla (4.5), abbiamo che
A · ~x = ~b =⇒ B · A · ~x = B · ~b =⇒ In · ~x = B · ~b =⇒ ~x = B · ~b
Ne segue che abbiamo risolto il sistema lineare dato e che ~x = B · ~b ne è una soluzione,
che pertanto risulta anche essere unica.
Il fatto che il risultato ottenuto sopra sia falso lo possiamo dimostrare con un esempio:
se consideriamo il sistema lineare
2 2 1
−1 1 · x 1 1 −1
= 1 e la matrice B =
y 4 8 −5
0 3 1
(e, mantenendo le stesse notazioni del ragionamento di cui sopra, indichiamo con A la
matrice incompleta del sistema e con ~b il vettore dei termini abbiamo B · A = I2
noti),
~ 1
(verificatelo, cioè svolgete il prodotto B · A) nonché B · b =
7
...peccato che questo vettore (cioè la coppia x = 1, y = 7 ) non sia una soluzione del sistema
lineare dato (fate la verifica)!
Che dire! ...chi non trova l’errore deve tornare alle Definizioni 1.8 e 1.9 e non può andare
avanti fino a che non lo trova. È importante!
Comunque, a chi sta resistendo alla tentazione di andare a vedere il capitolo dedicato alla
soluzione degli esercizi proposti (dove viene spiegato l’arcano) proponiamo un altro esercizio:
Esercizio 4.11. Il ragionamento dell’esercizio 4.10 non è tutto da buttare, dire cosa
dimostra.
§5. Determinante.
Notazione 5.1. Sia A ∈ Mn,n (R) una matrice. Indichiamo con Ci,j ∈ Mn−1,n−1 la
matrice che si ottiene prendendo A e cancellando la i−esima riga e la j −esima colonna. Ad
esempio, C1, 2 è la sottomatrice in neretto:
3 5 1
7 4
se A = 7 2 4 , si ha C1,2 =
8 9
8 6 9
(cancelliamo prima riga e seconda colonna).
Definizione 5.2 (Sviluppo di Laplace del Determinante). Come abbiamo già menzionato,
se A = (a) è una matrice di ordine 1 si pone det A := a . Sia quindi n ≥ 2 e consideriamo
A = (ai,j ) ∈ Mn,n (R) . Si definisce
n
X
(5.2′ ) detA := (−1)1+j a1,j · det C1,j ,
j=1
Esempio. Si ha
2 5 3
2 7 3 7 3 2
det 3 2 7 := 2 · det − 5 · det + 3 · det
4 6 1 6 1 4
1 4 6
= 2 · (12 − 28) − 5 · (18 − 7) + 3 · (12 − 2) = −57 .
Vedremo comunque che il calcolo del determinante di una matrice è una operazione molto
più semplice di quanto si possa immaginare ...e temere! Questo perché la funzione determi-
nante soddisfa una serie di proprietà che ne rendono possibile il calcolo tramite l’eliminazione
di Gauss. Proprietà che ora introduco.
Proposizione 5.4. Il determinante di una matrice coincide col suo sviluppo di Laplace
rispetto ad una riga arbitraria, come pure rispetto ad una qualsiasi colonna: sia k un indice
che fissiamo, si ha n
X
detA = (−1)k+j ak,j · detCk,j (sviluppo rispetto alla riga k)
j=1
(5.4′ ) n
X
= (−1)i+k ai,k · det Ci,k (sviluppo rispetto alla colonna k)
i=1
dove come al solito Ci,j è la matrice che si ottiene prendendo A e sopprimendo la i−esima
riga e la j −esima colonna.
Definizione 5.5. Il prodotto (−1)i+j · det Ci,j si chiama complemento algebrico di ai,j .
Osservazione 5.6. Alla luce di questa definizione, la Proposizione 5.4 ci dice che il
determinante di una matrice è uguale alla somma degli elementi di una qualsiasi riga o
colonna moltiplicati per i propri complementi algebrici.
Ora osserviamo che se B è la matrice ottenuta da una matrice A scambiando due righe
adiacenti, la i−esima riga con la (i+1)−esima riga, la matrice che si ottiene da A cancellando
la i−esima riga coincide con la matrice che si ottiene da B cancellando la (i+1)−esima riga.
Quindi, per effetto del coefficiente (−1)i+j che appare nella Definizione 5.5, i complementi
algebrici degli elementi della i−esima riga di A coincidono con i complementi algebrici degli
elementi della (i + 1)−esima riga di B cambiati di segno. Ne segue che lo sviluppo di
Laplace di A rispetto alla i−esima riga coincide con lo sviluppo di Laplace di B rispetto alla
(i+1)−esima riga cambiato di segno. Quanto affermato può sembrare complicato, in realta
non lo è affatto, l’esempio che segue aiuta a comprenderlo: posto
1 2 3 1 2 3
A = 4 5 6 e B = 7 8 9 ,
7 8 9 4 5 6
quando si cancellano le righe in neretto, quello che resta della matrice A coincide con quello
che resta della matrice B, ma mentre “i segni” (cfr. Definizione 5.5) dei complementi
algebrici degli elementi della riga in neretto di A sono dei (−1)2+j , abbiamo che “i segni”
dei complementi algebrici degli elementi della riga in neretto di B sono dei (−1)3+j .
Lemma 5.7. Il determinante è una funzione antisimmetrica delle righe di una matrice: se
scambiamo tra loro due righe qualsiasi il determinante cambia segno.
Dimostrazione. Lo scambio di due righe arbitrarie si può effettuare con un certo numero di
scambi di righe adiacenti e questo numero è necessariamente dispari (questo è un dettaglio di
teoria delle permutazioni che dimostriamo negli approfondimenti, § 16). Pertanto il Lemma
segue da quanto osservato precedentemente.
Esempio. Scambiando prima e terza riga tra loro il determinante cambia segno:
2 5 3 1 4 6
det 3 2 7 = −det 3 2 7 .
1 4 6 2 5 3
Si osservi che lo scambio tra prima e terza riga si può effettuare scambiando la prima con
la seconda, poi la seconda con la terza e poi di nuovo la prima con la seconda:
“1 2 3” “2 1 3” “2 3 1” “3 2 1”
(questi scambi sono tre, come previsto dalla teoria delle permutazioni sono in numero dis-
pari).
Lemma 5.8. Il determinante è una funzione multilineare delle righe della matrice: sia k
un indice di riga, λ un numero reale e siano A , A′ , A′′ e B quattro matrici tali che
ai,j = a′i,j = a′′i,j = bi,j , ∀ i 6= k , ∀ j ;
ak,j + a′k,j = a′′k,j , ∀ j;
bk,j = λak,j , ∀ j.
(cioè coincidono ovunque tranne che per il fatto che la k −esima riga di A′′ è la somma
della k −esima riga di A con quella di A′ , mentre la k −esima riga di B è il prodotto della
k −esima riga di A per λ). Allora
detA + det A′ = det A′′ ;
detB = λ · detA .
Questo enunciato sembra poco digeribile per via dell’uso degli indici. In realtà il lemma è
molto semplice, ci sta dicendo che se fissiamo tutti gli elementi di una matrice eccetto quelli
di una data riga, la funzione determinante, come funzione di quella riga, è lineare. ...ma è
meglio dirlo con due esempi:
Esempio.
2λ 5λ 2 5
det = λ · det ;
−7 3 −7 3
2+3 5+1 2 5 3 1
det = det + det .
4 7 4 7 4 7
Esempio.
2 4 6 2 4 6
det 1 5 9 = λ · det 1 5 9 ;
3λ 2λ 7λ 3 2 7
6 3 8 6 3 8 6 3 8
det 1 9 5 = det 1 9 5 + det 1 9 5 .
5+1 2+3 4+7 5 2 4 1 3 7
Si noti che, in particolare, il determinante della matrice ottenuta moltiplicando una riga
di A per il coefficiente λ (la matrice B del lemma precedente) è uguale a λ · detA.
Osservazione 5.9. Sia A una matrice di ordine n e sia λA la matrice che si ottiene
moltiplicando tutti gli elementi di A per la costante λ. Poiché moltiplicare tutta la matrice
per λ è come moltiplicare ognuna delle sue n righe per λ, abbiamo
det λA = λn · detA .
Dimostrazione (del Lemma 5.8). Poiché le matrici coincidono fuori della k −esima riga,
calcolando il determinante utilizzando lo sviluppo di Laplace proprio rispetto alla k −esima
riga (formula 5.5), si ottiene
n
X n
X
det A + det A′ = (−1)k+j ak,j · det Ck,j + (−1)k+j a′k,j · det Ck,j
j=1 j=1
n
X
= (−1)k+j ak,j + a′k,j · detCk,j
j=1
= det A′′ .
32
Analogamente, n
X
detB = (−1)k+j bk,j · detCk,j
j=1
n
X
= (−1)k+j λ · ak,j · det Ck,j
j=1
= λ · det A′′ .
Osserviamo che, come corollario, i Lemmi 5.7 e 5.8 continuano a valere qualora si sosti-
tuisca (ovunque) la parola “riga” alla parola “colonna”.
Ricapitoliamo alcune proprietà utili per il calcolo del determinante di una matrice:
Dimostrazione. Le proprietà (a) e (c) le abbiamo già dimostrate (Lemmi 5.7 e 5.8). La (d)
segue dal fatto che si può calcolare il determinante effettuando lo sviluppo di Laplace rispetto
a una riga (ovvero colonna) qualsiasi, in particolare rispetto a quella nulla. Anche la (e)
segue dalla natura dello sviluppo di Laplace (si scriva lo sviluppo rispetto all’ultima riga).
La (b) segue dai Lemmi 5.7 e 5.8: se si somma ad una riga un multiplo di un’altra (se poi si
vuole sommare una combinazione lineare delle altre righe basta iterare questo passaggio), il
corrispondente determinante viene sommato a un multiplo del determinante di una matrice
che ha due righe uguali e che, per questo motivo, è nullo (qui sotto, chiariamo quello che
abbiamo appena detto con un esempio).
Esempio.
3+9λ 2+4λ 5+8λ 3 2 5 9λ 4λ 8λ
det 1 6 7 = det 1 6 7 + det 1 6 7
9 4 8 9 4 8 9 4 8
3 2 5 9 4 8 3 2 5
= det 1 6 7 + λdet 1 6 7 = det 1 6 7
9 4 8 9 4 8 9 4 8
(la prima matrice si ottiene dall’ultima matrice sommando alla prima riga λ volte la terza
riga. Il conto ci mostra che queste due matrici hanno lo steso determinante).
33
Per le proprietà a), b) e c) della Proposizione 5.11 che ci dicono cosa accade al determi-
nante di una matrice quando si effettuano i passi dell’E.G., abbiamo quanto segue:
L’annullarsi del determinante è una proprietà invariante rispetto ai passi dell’E.G.
(nel senso che se Ae si ottiene da A tramite l’E.G., l’una ha determinante nullo se e solo
se l’altra ha determinante nullo). Ai fini di quanto affermato ci si ricordi del fatto che
l’E.G. consente di moltiplicare le righe di una matrice solo per costanti non nulle (cfr.
Definizione 2.1).
34
Dimostrazione. Come appena osservato, l’annullarsi del determinante è una proprietà inva-
riante rispetto ai passi dell’E.G., anche l’avere una riga che è combinazione lineare delle altre
è una proprietà invariante rispetto ai passi dell’E.G.. D’altro canto, per le matrici a scala,
queste due proprietà sono equivalenti (in quanto entrambe equivalenti all’avere l’ultima riga
nulla). In definitiva, se Ae è una riduzione a scala di A possiamo affermare quanto segue
detA = 0 ⇐⇒
e = 0
detA ⇐⇒ e è c.l. delle altre
una riga di A
⇐⇒ una riga di A è c.l. delle altre
Ciò conclude la dimostrazione.
Nel paragrafo § 16 dedicato agli approfondimenti vedremo due dimostrazioni del Teorema
di Binet (rimandiamo la dimostrazione non perché sia difficile ma perché a questo punto
della teoria ci interessano soprattutto le conseguenze di questo Teorema). Vedremo anche
che questo Teorema può essere dedotto come conseguenza di una interpretazione geometrica
del determinante della quale daremo qualche cenno nel paragrafo § 16 (cfr. Inciso 16.16) e
sulla quale torneremo anche nel Capitolo II (§§1 e 4).
Nel prossimo paragrafo ci occupiamo del calcolo dell’inversa di una matrice (se questa
è invertibile). Concludiamo osservando che come conseguenza del teorema di Binet, una
matrice il cui determinante è nullo non può essere invertibile. Infatti, se, per assurdo, lo
fosse, allora si avrebbe
1 = detIn = det A · A−1 = detA · detA−1 = 0.
In inciso, vedremo che le matrici a determinante nullo sono le uniche matrici non invertibili.
Esercizio 5.16. Calcolare il determinante (in funzione del parametro k) delle matrici
che seguono ed indicare per quali valori di k non sono invertibili.
k 3k −k k −1 5 2−k 3k−7 −k+71
k k+1
; −1 2 1 ; 3k 2 6 ; 0 k 2 −11 23−k 3 .
2−k 3k−5
5 6 1 −k 1 1 0 0 k−8
35
Come già osservato alla fine del paragrafo precedente, dal teorema di Binet segue che se
A è una matrice invertibile, allora
det A 6= 0.
Viceversa, se det A 6= 0 , allora A è invertibile ed esiste una formula che ne calcola l’inversa.
Tale formula è contenuta nel teorema che segue:
det Cj,i
A−1 i,j
= (−1)i+j · ,
det A
dove come al solito Cj,i è la matrice ottenuta da A sopprimendo la j -esima riga e la i-esima
colonna.
Osservazione. La formula del Teorema 6.1 ci dice che A−1 è la trasposta della matrice
dei complementi algebrici (cfr. Definizione 5.5) divisi per il determinante di A .
Avendo già provato che se A è invertibile allora det A 6= 0 , per concludere la di-
mostrazione del Teorema è sufficiente calcolare il prodotto di A per la matrice indicata
nel Teorema e verificare che il risultato è la matrice identica. Tale calcolo lo svolgiamo nel
paragrafo §16.
−1 12 4
Esempio. Determiniamo l’inversa della matrice A = 3 1 0 .
−4 5 2
Poiché det A = 2 , la matrice A è invertibile. La matrice dei complementi algebrici è la
matrice
1 0 3 0 3 1
det − det det
5 2 −4 2 −4 5
2 −6 19
12 4 −1 4 −1 12 −4 14 −43 .
− det det − det =
5 2 −4 2 −4 5
−4 12 −37
12 4 −1 4 −1 12
det − det det
1 0 3 0 3 1
1 −3 19/2
Dividendo per det A si ottiene la matrice −2 7 −43/2 . Infine, trasponendo
−2 6 −37/2
quest’ultima matrice si ottiene
1 −2 −2
A−1 = −3 7 6 .
19/2 −43/2 −37/2
36
La formula del Teorema 6.1 non è molto pratica, per calcolare l’inversa di una matrice
di ordine tre abbiamo dovuto fare molte operazioni. Tra poco vedremo che utilizzando
l’algoritmo di Gauss è possibile calcolare l’inversa di una matrice abbastanza rapidamente.
−1 12 4 1 −2 −2 1 0 0
Esercizio. Verificare che 3 1 0 · −3 7 6 = 0 1 0 .
−4 5 2 19/2 −43/2 −37/2 0 0 1
Esercizio 6.2. Calcolare l’inversa delle matrici che seguono utilizzando la formula del
Teorema 6.1.
2 7 5
−3 1 −8 , 7 2 7 0 0 5 2 5
, , , ,
−3 5 0 5 7 0 3 0
−1 1 −3
2 1 3 1
2 0 2 2 2 0 3 −3 3
7 1 8 , 7 8 1 , 4 −4 5 , 6 2 6 2
,
5 0 −3 −1
4 8 9 1 6 7 3 −2 7
4 3 1 0
Si verifichi inoltre la correttezza dei risultati ottenuti. Ricordiamo che per verificare che due
matrici sono l’una l’inversa dell’altra è sufficiente moltiplicarle tra loro, come risultato si
deve ottenere la matrice identica (Definizione 4.2 e Proposizione 4.3).
dove: 1) alla seconda riga abbiamo sottratto il triplo della prima riga ed alla terza riga
abbiamo sommato il quadruplo della prima riga; 2) alla terza riga abbiamo sommato la
seconda; 3) alla seconda riga abbiamo sottratto il triplo della terza; 4) alla prima riga
abbiamo sottratto il doppio della seconda
ed il quintuplo della terza. L’inversa della matrice
8 −1 1
data è la matrice −6 −2 −3 .
1 1 1
Esercizio. Verificare l’uguaglianza
1 2 5 8 −1 1 1 0 0
3 7 18 · −6 −2 −3 = 0 1 0 .
−4 −9 −22 1 1 1 0 0 1
Inciso 6.4. Il motivo per cui questo metodo funziona è presto detto. Scelto un vettore
numerico ~b , alla matrice a blocchi (A|I ) , dove I denota la matrice identica, associamo
il sistema lineare A · ~x = I · ~b . Ai passi che trasformano la matrice (A|I ) nella matrice
(I |B ) corrisponde il fatto di trasformare il sistema lineare A · ~x = I ·~b nel sistema lineare
I · ~x = B ·~b . Poiché i passi dell’eliminazione di Gauss non cambiano la classe di equivalenza
di un sistema lineare, i due sistemi lineari A · ~x = I · ~b e I · ~x = B · ~b , cioè
A · ~x = ~b e ~x = B · ~b ,
sono equivalenti. Poiché questa equivalenza vale per ogni scelta di ~b , la matrice B deve
necessariamente essere l’inversa di A. Questa affermazione oltre ad essere molto ragionevole
si dimostra come segue: dall’equivalenza dei due sistemi lineari si deduce, sostituendo la
seconda equazione nella prima, A · B · ~b = ~b , sempre per ogni scelta di ~b ; ne segue che
deve essere A · B = In , cioè che B è l’inversa di A. Infatti, quanto appena affermato
segue dal Lemma 6.5.
Dimostrazione. Indicando con ~ei la i−esima colonna di In , si deve avere C · ~ei = ~ei ,
d’altro canto il prodotto C · ~ei non è altro che la i−esima colonna di C .
Nel paragrafo § 12 daremo una interessante chiave di lettura di questo Lemma in termini
dell’applicazione lineare associata ad una matrice.
38
Osservazione 7.1 Sia A ∈ Mn,n (R) una matrice quadrata a scala. Per Proposizione 5.11,
proprietà e), il determinante detA è il prodotto degli elementi sulla diagonale. Inoltre, se
ak0 ,k0 = 0 per un qualche indice k0 , si ha anche ak,k = 0 per ogni k > k0 (altrimenti
A non sarebbe a scala). Pertanto le condizioni
Lemma 7.2. Sia A ∈ Mn,n (R) una matrice quadrata a scala. Il sistema lineare
~
A~x = b ha una unica soluzione se e solo se detA 6= 0 .
Dimostrazione. Poiché A è a scala, abbiamo a che fare con un sistema lineare a scala del
tipo
a1,1 x1 + ... ... = b1
a2,2 x2 + ... = b2
.
...
an,n xn = bn
Se detA 6= 0 , per l’osservazione 7.1 gli elementi a1,1, ..., an,n sulla diagonale principale sono
non nulli. Ne segue che tale sistema si risolve (partendo dall’ultima equazione e tornando
indietro) senza produrre parametri liberi né incompatibilità.
Viceversa, nel caso risulti det A = 0 , e quindi an,n = 0 (sempre per l’osservazione 7.1),
ci sono due possibilità: il sistema è incompatibile oppure è compatibile. Nell’ipotesi che
si verifichi questo secondo caso, l’ultima equazione deve essere l’equazione 0 = 0 (se fosse
bn 6= 0 il nostro sistema sarebbe incompatibile) ed il sistema in questione è in realtà un
sistema, compatibile per ipotesi, di al più n − 1 equazioni in n incognite; il metodo visto
nel paragrafo § 2 di “soluzione all’indietro” di un tale sistema a scala produce almeno un
parametro libero e quindi infinite soluzioni (in effetti già xn è un parametro libero).
In definitiva, abbiamo provato che nel caso risulti det A = 0 , il sistema è incompatibile
oppure ammette infinite soluzioni.
Teorema 7.3. Sia A ∈ Mn,n (R) una matrice quadrata (non richiediamo che sia a
scala). Il sistema lineare A~x = ~b ha una unica soluzione se e solo se det A 6= 0 .
In particolare, questo Teorema ci dice che la proprietà di avere una unica soluzione non
dipende da ~b, cioè basta conoscere la matrice incompleta A per poter dire quale delle due
seguenti eventualità si verifica:
i) il sistema ammette una unica soluzione;
ii) il sistema è incompatibile oppure ammette infinite soluzioni.
Caso 1: det A 6= 0 . L’esistenza e l’unicità della soluzione del sistema lineare A~x = ~b
segue anche3 dal Teorema 6.1: nel paragrafo § 5 abbiamo osservato che l’esistenza dell’inversa
di A garantisce l’esistenza e l’unicità della soluzione del sistema lineare: si ha ~x = A−1~b .
Si osservi che come conseguenza si ottiene una seconda dimostrazione del fatto che la
matrice incompleta di un sistema quadrato che ammette un’unica soluzione è una matrice
invertibile (cfr. Proposizione 4.8):
∃ ! soluzione di A · ~x = ~b =⇒ det A 6= 0 =⇒ A è invertibile.
Osservazione 7.5. Nel caso n = 2 , ad esempio nel caso del sistema (1.3)
a b x λ
= ,
c d y µ
questo Teorema si riduce alla formula (1.6):
λ b a λ
det det
µ d c µ
x = , y = .
a b a b
det det
c d c d
Del teorema di Cramer ne espongo due dimostrazioni (sono entrambe molto brevi, ma,
almeno la seconda, concettualmente delicata).
Dimostrazione #1. Poiché ~x = A−1 · ~b , abbiamo che xi è il prodotto della “i-esima riga
di A−1 ” per ~b :
X X det Cj,i
xi = (A−1 )i,j · bj = (−1)i+j · · bj ,
j j
det A
dove la seconda uguaglianza segue dalla formula del Teorema 6.1 (come al solito, Cj,i è
la matrice ottenuta da A sopprimendo la j -esima riga e la i-esima colonna). L’espressione
trovata è esattamente il quoziente tra lo sviluppo di Laplace del determinante della matrice
A~b/col i rispetto alla i-esima colonna (quella dove appare il vettore dei termini noti ~b) e
det A .
Dimostrazione #2. Denotiamo con I~x/col i la matrice che si ottiene sostituendo la i-esima
colonna della matrice identica I con il vettore delle incognite ~x . Risulta
Infatti, svolgendo il prodotto righe per colonne A · I~x/col i , quando la riga α di A si scontra
con la colonna β di I~x/col i , se β 6= i si ottiene aα, β , mentre se la riga α di A si scontra
proprio con la i-esima di I~x/col i (cioè col vettore ~x) si ottiene bα (che è l’elemento di posto
α del vettore ~b). A questo punto possiamo scrivere la seguente catena di uguaglianze:
det A~b/col i = det A · I~x/col i = (det A) · (det I~x/col i ) = (det A) · xi ,
(1) (2) (3)
dove la (1) si ottiene prendendo il determinante dell’equazione (7.6), la (2) segue dal teorema
di Binet, infine la (3) segue dal fatto che det I~x/col i = xi .
Dividendo per det A i termini alle due estremità della nostra catena di uguaglianze si ottiene
l’uguaglianza di Cramer, ciò conclude la dimostrazione.
utilizzando
i) il metodo di Gauss;
ii) il calcolo dell’inversa della matrice incompleta A nonché la formula (4.5);
iii) il teorema di Cramer.
Se il risultato che vi viene non è sempre lo stesso ... rifate i conti!!!
41
Accade spesso che “oggetti” molto diversi tra loro hanno una certa “struttura matema-
tica” comune, in questo caso ci si inventa un nome per quella struttura e la si studia. Tra i
vantaggi di questo modo di lavorare: in colpo solo si studiano più oggetti, si impara a capire
cosa dipende da cosa il che consente una visione più profonda.
In questo paragrafo la struttura matematica che studiamo è quella di spazio vettoriale reale
astratto. La definizione la daremo dopo aver illustrato alcuni esempi, comunque vogliamo
anticipare che uno spazio vettoriale reale astratto non è altro che un insieme, i cui elementi
verranno chiamati “vettori”, sul quale è definita una somma tra vettori e sul quale è definito
un prodotto per gli scalari (operazione che ad un numero reale ed a un vettore associa un
altro vettore). Naturalmente, per definizione, queste operazioni dovranno godere di alcune
proprietà (cfr. Definizione 8.8). Vogliamo procedere dal concreto all’astratto, per cui ora
non ci soffermiamo su tali proprietà e passiamo subito agli esempi. Lo diciamo una volta
per tutte: negli esempi che seguono λ denoterà sempre un numero reale.
Esempio 8.1. Spazio Rn delle n-ple di numeri reali. In questo caso i vettori sono
elementi del tipo (x1 , ..., xn ) , la somma è definita ponendo (x1 , ..., xn ) + (y1 , ..., yn ) :=
(x1 + y1 , ..., xn + yn ) , ed il prodotto per gli scalari è definito ponendo λ · (x1 , ..., xn ) :=
(λx1 , ..., λxn ) . Questo esempio è fondamentale perché nello studio degli spazi vettoriali di
dimensione finita ci si riconduce sempre ad esso. Più avanti vedremo come e perché.
Nell’indicare un elemento di Rn abbiamo utilizzato una notazione “per righe” (x1 , ..., xn ).
In realtà la notazione giusta consiste nello scrivere le n-ple di numeri reali come “vettori
colonna”:
x1
..
è opportuno scrivere . invece di (x1 , ..., xn ) .
xn
Si osservi che questa notazione diventa obbligata se si vuole che il prodotto righe per colonne
A · ~v , dove A ∈ Mm,n (R) e ~v ∈ Rn , abbia senso.
Esempio 8.2. Spazio delle soluzioni di un sistema lineare omogeneo. In questo caso gli
elementi del nostro insieme, cioè i vettori, sono le soluzioni del sistema lineare omogeneo
x1 0
~ .
. ~ ..
A · ~x = 0 , dove A ∈ Mm,n (R) , ~x = . e dove 0 := . . Per la proprietà
xn 0
distributiva del prodotto tra matrici, se (s1 , ..., sn ) e (t1 , ..., tn ) sono soluzioni del sistema
dato, anche la “somma” (s1 + t1 , ..., sn + tn ) nonché il “prodotto” (λ · s1 , ..., λ · sn ) ne sono
soluzioni. Queste “naturali” operazioni di somma tra vettori e prodotto per uno scalare sono,
per definizione, le operazioni che definiscono la struttura di spazio vettoriale dell’insieme
considerato. Il lettore sagace avrà intuito che questo spazio è un sottospazio di Rn (cfr.
esempio 8.1).
Esempio 8.3. Spazio delle funzioni continue definite su un intervallo I . Nel corso di
analisi avete visto, o state per vedere, che la somma di due funzioni continue è ancora una
funzione continua e che anche il prodotto λ · f (x) ha senso ed è una funzione continua,
dove λ ∈ R ed f (x) è una funzione continua. Di nuovo, queste operazioni definiscono la
struttura di spazio vettoriale dell’insieme considerato.
Esempio 8.4. Spazio delle successioni. Chiaramente, se {an }n∈N e {bn }n∈N sono
successioni, anche {an + bn }n∈N e {λan }n∈N sono successioni... .
Nell’esempio che segue utilizzo la struttura di spazio vettoriale per risolvere un problema.
È opportuno che lo studente legga ora questo esempio, accettando le considerazioni che
inevitabilmente non hanno ancora una giustificazione formale, e che lo analizzi in maniera
più critica dopo aver studiato gli spazi vettoriali in astratto.
Soluzione. Per risolvere questo problema consideriamo lo spazio delle successioni, dette
successioni di Fibonacci, {a0 , a1 , a2 , ... } che soddisfano la legge
(8.6.2) an+2 = an+1 + an , ∀n ≥ 0.
Non è difficile verificare che questo è uno spazio vettoriale, in particolare la somma di
successioni che soddisfano (8.6.2) è ancora una successione che soddisfa (8.6.2) nonché il
prodotto per uno scalare di una tale successione soddisfa anch’esso (8.6.2) . L’insieme,
o meglio lo spazio vettoriale, di tali soluzioni lo chiameremo V . Chiaramente (8.6.1) è
un vettore di V . Premesso ciò, dimentichiamoci di (8.6.1) e concentriamoci sullo spazio
vettoriale, o meglio, sulla legge (8.6.2) che ne definisce gli elementi. Qualche vettore di
V siamo in grado di trovarlo: tentiamo con una successione del tipo {an := xn } , con x
numero reale. La proprietà (8.6.2) si traduce nella richiesta xn+2 = xn+1 + xn , ∀ n ≥ 0 ,
cioè nella richiesta (portiamo al primo membro xn+1 + xn quindi raccogliamo xn a fattore
comune) (x2 − x + 1) · xn = 0 , ∀ n ≥ 0 . A√questo punto, risolvendo l’equazione di secondo
grado x2 − x + 1 = 0 troviamo x = (1 ± 5)/2 e quindi troviamo che le due successioni
√ n √ n
1+ 5 1− 5
i) bn := , ii) cn :=
2 2
sono vettori di V , cioè soddisfano (8.6.2). A questo punto non abbiamo certo risolto il
problema da cui siamo partiti. Lo ripeto, abbiamo semplicemente trovato due vettori di V .
D’altronde sappiamo che questi vettori li possiamo moltiplicare per degli scalari e sommare
tra loro. In termini più espliciti, sappiamo che ogni successione del tipo
λ · {bn } + µ · {cn } = {λ · bn + µ · cn }
√ n √ n
(8.6.3) 1+ 5 1− 5
= λ· + µ· , λ, µ ∈ R
2 2
è un vettore di V . Ora che abbiamo a disposizione molti vettori di V siamo in grado
di risolvere il problema dal quale siamo partiti: la successione (8.6.1) del nostro problema
comincia√con a0 = a1 = 1√ , mentre la successione (8.6.3) comincia con a0 = λ + µ , a1 =
λ · (1 + 5)/2 + µ · (1 − 5)/2 . Imponendo l’uguaglianza,√ovvero risolvendo√il sistema
lineare di due equazioni in due incognite λ + µ = 1 , λ · (1 + 5)/2 + µ · (1 − √ 5)/2 = 1
(sistema che√ lo studente è invitato a risolvere per esercizio), si trova λ = (5 + 5)/10 e
µ = (5 − 5)/10 . Poiché la successione di Fibonacci (8.6.1) è univocamente individuata
dai valori iniziali a0 = a1 = 1 e dalla legge (8.6.2), abbiamo risolto il nostro problema: la
successione (8.6.1) deve necessariamente essere la successione
( √ √ n √ √ n )
5+ 5 1+ 5 5− 5 1− 5
{an } = · + · .
10 2 10 2
43
Lo studente scettico, ma anche quello che non lo è, verifichi ad esempio che per n = 6
questa espressione vale 13 , che è il termine a6 della (8.6.1), e che per n = 8 questa
espressione vale 34 , che è il termine a8 della (8.6.1). ...sono rari i casi in cui calcolare
qualche potenza di un binomio ha fatto male a qualcuno!
L’esempio che abbiamo appena discusso è importante perché l’equazione (8.6.2) è l’analogo
discreto di un tipo di equazioni che descrivono dei fenomeni fisici: le equazioni differenziali
lineari. Naturalmente non abbiamo intenzione di studiare in questa sede tale tipo di equa-
zioni, il che è oggetto di studio di un corso di analisi del secondo anno. Vogliamo comunque
dire due parole a riguardo.
Definizione 8.8. Uno spazio vettoriale reale V è un insieme sul quale è definita una
operazione di somma ed una operazione di moltiplicazione per gli scalari
V × V −→ V R × V −→ V
~ 7→ ~v + w
(~v , w) ~ (λ , ~v ) 7→ λ · ~v
che soddisfano le proprietà che seguono
~u + (~v + w)
~ = (~u + ~v ) + w ~ , ∀ ~u, ~v , w
~ ∈ V (associatività della somma);
~u + ~v = ~v + ~u , ∀ ~u, ~v ∈ V (commutatività della somma);
~
∃ 0 ∈ V ed inoltre ∀~v ∈ V ∃ − ~v ∈ V tali che
~0 + ~v = ~v , ~v + (−~v ) = ~0, 0~v = ~0, 1~v = ~v , (−1)~v = −~v
(in particolare, esistenza dell’elemento neutro e degli opposti);
(λ + µ)~v = λ~v + µ~v , λ(~v + w) ~ = λ~v + λw, ~ ∈ V , λ, µ ∈ R
~ λ(µ~v ) = (λµ)~v , ∀~v , w
(proprietà distributive).
Osserviamo che sono tutte proprietà molto naturali e che nei casi degli esempi discussi
sono tutte praticamente ovvie. Nello scrivere queste proprietà non ci siamo preoccupati di
“evitare le ripetizioni”, ad esempio la proprietà 0~v = ~0 può essere dedotta dalle altre:
(⋆) 0~v = (1 − 1)~v = 1~v + (−1)~v = ~v + (−~v ) = ~0 .
4 In realtà, tutto quello che diciamo in questo capitolo e nei prossimi due capitoli, oltre a valere per spazi
vettoriali reali, vale anche per spazi vettoriali definiti sul campo dei numeri complessi nonché vale per spazi
vettoriali definiti su un campo astratto arbitrario.
44
Esercizio. Indicare, per ognuna delle uguaglianze in (⋆), quale proprietà è stata utilizzata
tra quelle elencate nella Definizione 8.8. Inoltre, provare che i) ~v + ~v = 2~v ; ii) se λ 6= 0,
~v 6= ~0 ⇔ λ~v 6= ~0 ; iii) il vettore nullo è unico; iv) l’opposto di un vettore è unico;
Osservazione 8.10. Si osservi che un tale W ha anch’esso una naturale struttura di spazio
vettoriale: alla luce della (8.9′ ), le due operazioni di somma e moltiplicazione per gli scalari
definite su V inducono altrettante operazioni su W (i vettori di W sono anche vettori di
V ), queste, per definizione, sono le due operazioni su W . Tali operazioni soddisfano tutte
le proprietà richieste dalla Definizione 8.8 perché le soddisfano come operazioni su V (qui
usiamo l’ipotesi che V è uno spazio vettoriale).
Alla luce di quanto abbiamo appena osservato, un modo equivalente di definire la nozione
di sottospazio vettoriale è quello di dire che W è un sottospazio di V se
i) W e V sono entrambi spazi vettoriali;
ii) W ⊆ V (l’inclusione è una proprietà insiemistica);
iii) w1 +W w2 = w1 +V w2 , ∀ w1 , w2 ∈ W
(dove +W e +V denotano rispettivamente la somma su W e la somma su V ).
Lo spazio dell’esempio 8.2, è un sottospazio vettoriale dello spazio dell’esempio 8.1, quelli
degli esempi 8.5 e 8.6 sono sottospazi di quello dell’esempio 8.4, quelli degli esempi 8.3 e
8.7 sono sottospazi dello spazio vettoriale di tutte le funzioni (reali di variabile reale).
Per comprendere meglio la proprietà iii) vediamo un esempio dove non è verificata.
W = x ∈ Rx > 0 , · x = xλ
x + y = x · y , λstrana
strana
(è possibile verificare che l’insieme W con le due operazioni indicate, soddisfa tutte le
proprietà della Definizione 8.8). Nonostante W sia un sottoinsieme di V , non è un suo
sottospazio vettoriale: le operazioni sono cambiate!
Non ci si preoccupi troppo dell’esempio dello spazio W con le due operazioni “strane”,
in un senso piu profondo che ora non voglio spiegare questo esempio non ha nulla di diverso
dagli altri esempi visti! Basti dire che un po’ come in un gioco da settimana enigmistica di
esempi strambi se ne possono costruire molti, è sufficiente prendere un qualsiasi esempio di
spazio vettoriale e cambiare i nomi dei vettori cosı̀ da rendere le operazioni non più naturali.
45
Definizione 8.11. Sia V uno spazio vettoriale e siano ~v1 , ..., ~vk vettori in V . Una
combinazione lineare dei vettori considerati è una espressione del tipo
Definizione 8.12. Sia V uno spazio vettoriale e siano ~v1 , ..., ~vk vettori in V . Diciamo
che i vettori considerati sono linearmente dipendenti se e solo se esistono α1 , ..., αk ∈ R
non tutti nulli tali che
In inciso, è meglio riferirsi “all’insieme” invece che “ai vettori”, in questo modo si evitano
possibili ambiguità linguistiche. Ad esempio, dire “~u e ~v sono dipendenti” può dar luogo
a errori interpretativi. Infatti, se ~v = ~u 6= ~0, si ha che ~u è indipendente, e anche che ~v è
indipendente, pur non essendo ~u e ~v indipendenti!
Osservazione 8.13. Poiché nella (8.12) possiamo isolare un qualsiasi vettore che vi appare
con coefficiente non nullo, possiamo affermare quanto segue:
Un insieme B di vettori è un insieme indipendente di vettori se e solo se
nessun vettore ~v ∈ B è combinazione lineare degli altri vettori di B .
Definizione 8.14. Sia V uno spazio vettoriale e sia S un suo sottoinsieme. Si definisce
SpanS l’insieme di tutte le combinazioni lineari di vettori di S :
α1 , ..., αk ∈ R
Span S := α1~v1 + ... + αk ~vk
~v , ..., ~v ∈ S
1 k
Dimostrazione. Si deve verificare che SpanS soddisfa le proprietà della Definizione 8.9. La
somma di combinazioni lineari è una combinazione lineare ed il prodotto di una combinazione
lineare per una costante è una combinazione lineare, infatti
(α1~v1 + ... + αk ~vk ) + (β1~v1 + ... + βk~vk ) = (α1 +β1 )~v1 + ... + (αk +βk )~vk ,
λ · α1~v1 + ... + αk~vk = (λα1 )~v1 + ... + (λαk )~vk .
altri termini, ogni sottospazio vettoriale di V contenente S contiene anche SpanS . Questa
osservazione, insieme alla Proposizione 8.15, ci dice che Span S è il più piccolo sottospazio
vettoriale di V contenente S (cioè SpanS è un sottospazio vettoriale contenente S nonché
contenuto in ogni altro sottospazio vettoriale contenente S ).
Studieremo esclusivamente gli spazi vettoriali finitamente generati. D’ora in poi, con la
locuzione “spazio vettoriale” intenderò sempre “spazio vettoriale finitamente generato”.
Definizione 8.17. Sia V uno spazio vettoriale e sia S un suo sottoinsieme. Diciamo che
S è una base di V se è un insieme indipendente che genera V .
Osservazione 8.18. Sia B = {~b1 , ..., ~bn } una base di uno spazio vettoriale V . Poiché
per ipotesi B genera V , per ogni ~v ∈ V esistono dei coefficienti α1 , ..., αn tali che
poiché B è un insieme indipendente, tali coefficienti sono unici: se α1~b1 + ... + αn~bn =
~v = α′1~b1 + ... + α′n~bn , allora (α1 − α′1 )~b1 + ... + (αn − α′n )~bn = ~0 e quindi, essendo B
un insieme indipendente, si deve avere αi = α′i , ∀ i = 1, ..., n .
2
Soluzione.
I di B sono indipendenti e generano R . Infatti,
vettori il sistema lineare
1 2 x x
α1 + α2 = ammette un’unica soluzione per ogni .
3 1 y y
Lecoordinate
α1 ~v rispetto alla base B si trovano risolvendo il sistema lineare
, α2 di
1 2 9
α1 + α2 = . Risulta α1 = −1, α2 = 5 .
3 1 2
Osservazione 8.20. Sia V uno spazio vettoriale. Nel momento in cui fissiamo una base
di V abbiamo a disposizione delle coordinate: associando ad ogni vettore ~v ∈ V la n−pla
delle sue coordinate (α1 , ..., αn ) otteniamo una identificazione di V con Rn . In altri
termini, la funzione
coordinate : V −−−−→ Rn
~v 7→ “ coordinate di ~v ”
è biunivoca (ad ogni vettore di V corrisponde un unico elemento di Rn e viceversa). Torne-
remo su questa funzione nel §12 (vedremo che è una applicazione lineare, cfr. Oss. 12.26).
Lo studio della dipendenza lineare ed il problema della determinazione di una base di uno
spazio vettoriale si basano su un risultato preliminare fondamentale.
qualora sia combinazione lineare degli altri vettori di S , quindi ci consente di trovare una
base di SpanS . Vediamo come:
Terminati i vettori di S , avremo trovato la base cercata. Infatti, come già osservato i
vettori scelti sono indipendenti, d’altro canto generano anch’essi SpanS per Lemma 8.21,
affermazione iii).
Proposizione 8.23. Sia V uno spazio vettoriale e sia S ⊂ V un sottoinsieme finito che
genera V . Esiste una base B di V contenuta in S , per trovarla è sufficiente applicare
l’algoritmo dell’estrazione di una base.
3 5 8 1
2 4 6 2
Esempio. Consideriamo i vettori ~b1 = , ~b2 = , ~b3 = , ~b4 = e
2 1 3 3
n 4 o 3 7 4
~ ~ ~ ~
determiniamo una base di V := Span b1 , b2 , b3 , b4 ⊆ R : 4
prendiamo ~b1 , quindi consideriamo ~b2 e lo teniamo perché non è un multiplo di ~b1 ,
consideriamo ~b3 e lo eliminiamo perché è combinazione lineare di ~b1 e ~b2 , consideriamo
~b4 e lo teniamo perché non è combinazione lineare degli altri vettori scelti. In definitiva
abbiamo che l’insieme B ′ := {~b1 , ~b2 , ~b4 } è una base di Span S .
Osservazione 8.24. Ogni spazio vettoriale ammette moltissime basi, può accadere che
abbiamo bisogno di trovare una base contenente certi particolari vettori fissati a priori.
Una base di tale tipo si chiama “completamento ad una base di un insieme indipendente
di vettori”, per trovarla possiamo utilizzare l’algoritmo dell’estrazione di una base 8.22:
dati dei vettori indipendenti ~v1 , ..., ~vk di uno spazio vettoriale V , possiamo considerare
(in questo ordine) i vettori ~v1 , ..., ~vk , w ~ m , dove {w
~ 1 , ..., w ~ m } è un insieme di
~ 1 , ..., w
vettori che genera V (l’esistenza di quest’insieme di vettori è garantita dall’ipotesi che V
è finitamente generato, cfr. Definizione 8.16). Applicando l’algoritmo dell’estrazione di una
base troviamo una base di V contenente i vettori ~v1 , ..., ~vk (questo perché sono i primi che
scegliamo e sono indipendenti). In particolare, il ragionamento esposto dimostra il teorema
del “completamento ad una base di un insieme indipendente di vettori”:
Teorema 8.25 (del completamento). Sia V uno spazio vettoriale finitamente generato
e siano ~v1 , ..., ~vk dei vettori indipendenti di V . Allora esiste una base di V contenente i
vettori dati.
1 2
−1 ~ 3
Esercizio 8.26. Trovare una base di R4 contenente i vettori ~b1 = e b2 = .
2 −4
−1 2
Suggerimento: utilizzare i vettori della base canonica per completare l’insieme {b1 , b2 } , ~ ~
cioè si applichi l’algoritmo 8.22 all’insieme dei vettori {~b1 , ~b2 , ~e1 , ~e2 , ~e3 , ~e4 } .
49
4
Esercizio. Si determini una base di R3 contenente il vettore ~v = −3 .
0
Proposizione 8.27. Sia V uno spazio vettoriale finitamente generato e sia B una base
di V . Allora B è costituita da un numero n finito di vettori, il numero n dipende solo
dallo spazio V : se B ′ è un’altra base di V allora anche B ′ ha n elementi. Inoltre, ogni
insieme S di vettori che ha più di n elementi è linearmente dipendente nonché ogni insieme
indipendente costituito da n vettori è una base.
L’idea della dimostrazione consiste nel sostituire uno alla volta i vettori di B con quelli
di B ′ mantenendo la proprietà di avere una base di V .
Definizione 8.28. Sia V uno spazio vettoriale finitamente generato e sia B una base. Si
definisce la dimensione di V ponendo
Sottolineiamo che la definizione ha senso (è ben posta) perché, in virtù della Proposizione 8.27,
tale numero non dipende dalla particolare base B che abbiamo a disposizione.
Esercizio
n 8.32. o Determinate le coordinate del vettore ~v ∈ R3 rispetto alla base
B = ~b1 , ~b2 , ~b3 quando:
0 1 −3 −4
a) ~b1 = −2 , ~b2 = 2 , ~b3 = −2 , ~v = −2 ;
1 1 2 7
3 3 −3 3
b) ~b1 = −2 , ~b2 = 5 , ~b3 = 7 , ~v = −2 ;
1 −1 5 1
4 0 0 0
c) ~b1 = 0 , ~b2 = 5 , ~b3 = 7 , ~v = −1 .
0 −7 −10 1
Esempio 8.35. Lo spazio dei polinomi di grado minore o uguale a d è uno spazio vettoriale
di dimensione d + 1 (quindi finita), l’insieme
BV = {1, x, x2 , ..., xd }
costituisce una base di V .
I polinomi possono essere sommati tra loro e possono essere moltiplicati per una costante,
nonché tutte le proprietà della Definizione 8.8 sono soddisfatte. Questo spazio vettoriale non
è finitamente generato, lo è il sottospazio dei polinomi di grado limitato dall’intero d (che
l’insieme dei polinomi aventi tale limitazione sul grado sia un sottospazio dello spazio di tutti
i polinomi è evidente: la somma di polinomi di grado limitato da d è anch’essa un polinomio
di grado limitato da d, stessa cosa per il prodotto di un tale polinomio per una costante).
In effetti l’insieme BV è una base di V per ragioni banali: i polinomi in V sono espressioni
del tipo p(x) = a0 + a1 x + ... + ad xd , dove a0 , a1 , ..., ad ∈ R, ovvero combinazioni lineari
dei polinomi 1, x, x2 , ..., xd . L’unicità della scrittura garantisce l’indipendenza dell’insieme
BV (in merito alla dimostrazione dell’indipendenza di BV vale la pena essere più precisi
ed osservare che dipende dal modo in cui si introducono i polinomi: se si introducono i
polinomi come espressioni formali non c’è assolutamente nulla da dimostrare, mentre se si
introducono i polinomi come funzioni reali di variabile reale del tipo a0 + a1 x + ... + ad xd
tale indipendenza si riduce al fatto che la funzione p(x) è la funzione nulla se e solo se gli
ai sono tutti nulli).
Esercizio 8.36. Verificare che l’insieme W dei polinomi p(x) di grado minore o uguale
a 3 che si annullano in x = 2 , cioè soddisfacenti la condizione p(2) = 0 , costituisce uno
spazio vettoriale, determinarne la dimensione ed una base.
Osservazione. Se l’esercizio ci avesse chiesto di scrivere una base dello spazio U dei
polinomi p(x) di grado minore o uguale a 6 soddisfacenti le condizioni p(2) = p(5) =
p(11) = 0 , per trovarne una base utilizzando il primo metodo avremmo dovuto risolvere
un complicato sistema di 3 equazioni in 7 incognite (essendo 7 la dimensione dello spazio
di tutti i polinomi di grado minore o uguale a 6), mentre, utilizzando il secondo metodo
avremmo potuto affermare immediatamente che
BU := (x−2)(x−5)(x−11), (x−2)2 (x−5)(x−11), (x−2)3 (x−5)(x−11), (x−2)4 (x−5)(x−11)
è una base di U (senza bisogno di fare calcoli!). Infatti, i polinomi indicati sono indipendenti
per ragioni di grado (come nell’esercizio). D’altro canto ognuna delle tre condizioni p(2) = 0,
p(5) = 0, p(11) = 0 fa scendere almeno di uno la dimensione, quindi si avrà dim U ≤ 4 e
l’insieme indipendente BU genererà U per ragioni di dimensione.
Una precisazione in merito all’affermazione “ognuna delle tre condizioni p(2) = 0, p(5) = 0,
52
Esempio 8.37. Fissati due interi m ed n, lo spazio Mm, n (R) delle matrici m × n è uno
spazio vettoriale di dimensione mn (quindi finita), l’insieme B delle matrici ∆i, j nulle
ovunque tranne che nell’elemento di posto i, j dove hanno un 1 costituisce una base di
Mm, n (R). Per intenderci, ad esempio, l’insieme
1 0 0 0 0 0 0 1 0 0 0 0
BM3, 2 (R) = 0 0 , 1 0 , 0 0 , 0 0 , 0 1 , 0 0
0 0 0 0 1 0 0 0 0 0 0 1
costituisce una base di M3, 2 (R) .
Infatti, le matrici in Mm, n (R) (con m ed n interi fissati) possono essere sommate tra loro e
possono essere moltiplicate per una costante, nonché tutte le proprietà della Definizione 8.8
sono soddisfatte. Il fatto che l’insieme B costituisca una base di Mm, n (R) è anch’esso
immediato (ogni matrice 3 × 2 la possiamo scrivere, in modo unico, come c.l. delle sei
matrici indicate ed è evidente che ciò si generalizza al caso m × n con m ed n arbitrari).
Si noti che, nella sostanza, lo spazio vettoriale delle matrici Mm, n (R) non è molto diverso
dallo spazio vettoriale Rn m , i due spazi differisco solo per come sono disposti gli elementi
(sono entrambi tabelle di numeri), ad esempio
a
n o n o
a b 4 b
M2, 2 (R) = a, b, c, d ∈ R , R = a, b, c, d ∈ R
c d c
d
(ciononostante sono oggetti distinti, non vanno confusi).
Esercizio 8.38.
a) Provare che l’insieme delle matrici simmetriche n × n è un sottospazio di Mn, n (R).
b) Determinare la dimensione ed una base dello spazio delle matrici simmetriche 2 × 2 .
dove, data una matrice A quadrata, Ak denota il prodotto A · ... · A (k-volte), mentre
traccia A denota la somma degli elementi sulla diagonale.
53
Osservazione 9.3. Data una matrice A, se una riga è combinazione lineare di certe altre
righe, a maggior ragione continuerà ad esserlo se in A cancelliamo alcune colonne.
Vedremo che valgono dei risultati più forti: se una riga di una matrice è combinazione
lineare delle altre, ai fini del calcolo del rango può essere eliminata; da un insieme di righe
indipendenti è possibile estrarre un minore invertibile; il rango di una matrice è uguale al
numero massimo di righe indipendenti. Cfr. Teorema 9.6 e Corollario 9.8.
Tornando all’esempio 9.2, poiché la terza riga di A è uguale alla somma delle prime due,
non è possibile trovare 3 righe indipendenti e pertanto il rango di A non può essere maggiore
o uguale a 3. D’altro canto, avendo già visto che rg A ≥ 2 , si ha rg A = 2 .
Dimostrazione. Direi che basta guardare com’è fatta una matrice a scala (si veda l’esempio
sotto)! ...entriamo nel dettaglio.
Di sicuro il rango di S non può superare il numero di righe non nulle (uguale al numero
dei pivot). Quindi r ≤ p (e ρr ≤ p). D’altro canto la matrice che si ottiene cancellando
le righe nulle e le colonne che non corrispondono ad alcun pivot è una matrice quadrata, di
ordine uguale al numero delle righe non nulle di A, triangolare superiore, con gli elementi
sulla diagonale che sono non nulli, e quindi invertibile. Questo dimostra la disuguaglianza
opposta e, visto il Lemma 9.4, che le righe, come pure le colonne, corrispondenti ai pivot
sono indipendenti. Quindi r = p = ρr , p ≤ ρc . Infine, le colonne non corrispondenti ai
pivot possono essere scritte come c.l. di quelle corrispondenti ai pivot e pertanto si ha anche
ρc ≤ p (per esercizio, convincersene).
54
Le colonne seconda, terza, quinta e sesta sono quelle dei pivot. Cancellando la quinta riga,
la prima, la quarta, la settima e l’ottava colonna si ottiene il minore invertibile di ordine
massimo
1 2 4 5
0 8 10 11
.
0 0 −1 −2
0 0 0 −5
Pertanto, si ha rg A = 4 .
D’altro canto, posto k = ρc (A) uguale al numero massimo di colonne indipendenti e indi-
cata con C la matrice ottenuta considerando un insieme massimale di k colonne indipen-
denti di A, dal fatto che il sistema lineare C · ~x = ~0 non ha soluzioni non banali (non
ci stanchiamo di ripetere che il prodotto C · ~x non è altro che la combinazione lineare di
coefficienti x1 , ..., xk delle colonne di C ) e dalla teoria svolta studiando i sistemi lineari,
segue che il sistema ha k equazioni indipendenti, ovvero C ha almeno k righe indipen-
denti, e che il determinante della matrice costituita da tali k righe di C è non nullo. In
particolare, rg (A) ≥ k . Stessa cosa per il numero massimo di righe indipendenti ρr (A):
basta scambiare i ruoli di righe e colonne (ovvero considerare la trasposta di A).
Osservazione 9.7. I passi dell’E.G. non mutano né il numero massimo di righe indipen-
denti, né il numero massimo di colonne indipendenti, né tantomeno il rango. Infatti, come
già sototlineato più volte, i passi dell’E.G. non mutano le relazioni tra le colonne di una ma-
trice, a maggior ragione non mutano il numero massimo di colonne indipendenti (che certe
colonne siano indipendenti equivale a dire che tra esse non ci sono relazioni non banali).
Pertanto, dal Teorema 9.6 segue che anche il rango di una matrice è invariante rispetto alle
operazioni dell’E.G., come pure il numero massimo di righe indipendenti. Quindi, un modo
per calcolare il rango di una matrice è quello di effettuare la riduzione a scala e poi contare
il numero dei pivot (equivalentemente, delle righe non nulle).
Dimostrazione. Nella dimostrazione del Teorema 9.6 abbiamo visto che se ci sono k colonne
indipendenti, allora da queste si può estrarre un minore invertibile di ordine k. Da questo
risultato, letto per la trasposta di A, segue la i).
La ii) segue dall’osservazione 9.7 . Infatti, se una riga ρ è combinazione lineare delle altre,
con un passo dell’E.G. può essere sostituita con la riga nulla e pertanto eliminata.
1 3
4 3 1 1 2 3 1 1 0 0 4
1 1 2 , 4 4 5 3 , 3 0 0 0
2 0 ,
3 9
−1 3 1 2 0 −1 1 −1 2 0 0
2 6
0 2 3 9 −1 3 3 1 2 1
0 0 2 2 3 4 9 4 0 0 0 0
, , , 0
0 0 1 1 1 2 0 4 0 0 0
4 2
0 0 0 0 0 −1 1 7
0 7 1 2 4 9
0 0 1 2 4 9
0 0 1 1 3 9 1 −3 4 0 0 0 2 4 9
, , .
1 0 1 1 3 9 −2 6 −8 0 0 0 0 4 9
0 0 0 0 0 9
0 0 0 0 0 0
0 k k k k k
0 0 k k k k
0 0 k k−6 3k 2k + 12 k −4 12 0 0 0 k k k
, , ,
0 0 −1 k + 4 −3 2k + 8 −9 k −3k 0 0 0 0 k k
0 0 0 0 0 k
0 0 0 0 0 0
k2 + k
0 0 0 0
0 2 1−k k k
0 0 0 1−k 0
, 0 , 0 , k k .
0 0 5 0
0 4 2 k k
0 1−k 0 0 3 2
k +k
Sebbene la riduzione a scala rappresenti il modo più rapido per calcolare il rango di una
matrice è bene conoscere un importante risultato noto come “Teorema degli Orlati”. Per
affermare che il rango di una matrice è maggiore o uguale di un certo intero k è sufficiente
trovare un minore invertibile di ordine k . D’altro canto per limitare dall’alto il rango di una
matrice, ad esempio per provare che questo è minore o uguale di k , dovremmo verificare
che tutti i minori di ordine maggiore o uguale di k+1 non siano invertibili. Il teorema che
segue ci dice, rendendo meno pesante tale verifica, che è sufficiente guardare solo “alcuni”
minori della nostra matrice: quelli ottenuti “orlando” un minore invertibile.
Teorema 9.11 (degli orlati). Sia A ∈ Mm, n (R) una matrice e sia B un minore
invertibile di ordine k . Se i minori di ordine k+1 contenenti B non sono invertibili allora
rg (A) = k
Si noti che l’argomento esposto non solo dimostra l’esistenza di un minore invertibile di
ordine k+1 contenente B ma esibisce anche un algoritmo per individuarlo.
Come dimostra l’esercizio che segue, punto a), il passaggio “restrizione ad A′ ” è fonda-
mentale.
Esercizio 9.12.
a) Scrivere una matrice A ∈ M3, 3 (R) avente due righe indipendenti, due colonne indipen-
denti, il cui minore M individuato da quelle due righe e colonne non è invertibile.
b) Dimostrare che se A è una matrice soddisfacente le condizioni in a), allora risulta
(necessariamente) rangoA = 3, rangoM = 1 .
Definizione 10.1. Sia V uno spazio vettoriale e siano U e W due suoi sottospazi. Si
definiscono la loro somma e la loro intersezione ponendo
U + W := ~v = ~u + w ~ ~u ∈ U , w
~ ∈ W
U ∩ W := ~v ~v ∈ U , ~v ∈ W
Esercizio 10.3. Sia V uno spazio vettoriale e U , W due suoi sottospazi. Provare che
U +W = Span{U ∪W } , dove “∪” denota l’unione di insiemi. Osservare che, in particolare,
da questa proprietà ritroviamo che U + W è un sottospazio vettoriale di V .
Dimostrazione. Consideriamo una base {~b1 , ..., ~br } di U ∩ W e completiamola ad una base
{~b1 , ..., ~br , ~u1 , ..., ~us } di U nonché ad una base {~b1 , ..., ~br , w ~ t } di W . Il teorema
~ 1 , ..., w
~ ~
segue dal fatto che {b1 , ..., br , ~u1 , ..., ~us , w ~ t } è una base di U + W : è chiaro che
~ 1 , ..., w
questi vettori generano U + W , d’altro canto sono anche indipendenti per l’esercizio che
segue. Pertanto,
dim (U + W ) = r + s + t = (r + s) + (r + t) − r = dim U + dim W − dim U ∩ W .
Esercizio 10.5. Completare la dimostrazione del teorema precedente provando che non
può esistere una relazione di dipendenza lineare
α1~b1 + ... + αr~br + αr+1 ~u1 + ... + αr+s ~us + αr+s+1 w ~ t = ~0 .
~ 1 + ... + αr+s+t w
h
X k
X
xi ~ui = yi w
~i .
i=1 i=1
3 2 4 1
Esempio. Siano U = Span 5 , 1 e W = Span 3 , 2 due
−7 −1 8 1
3
sottospazi di R . Risolvendo il sistema lineare
3 2 4 1
(⋆) x1 5 + x2 1 = y1 3 + y2 2 ,
−7 −1 8 1
ovvero
x1 = t
3 x1 + 2 x2 = 4 y1 + y2
x2 = −2t
5 x1 + x2 = 3 y1 + 2 y2 , si trova
y1 = −t
−7 x1 − x2 = 8 y1 + y2
y2 = 3t
(dove t è un parametro libero, vedi paragrafo §3). Ne segue che
3 2 −1
U ∩W = ~v = t · 5 − 2 t · 1 t ∈ R = Span 3 .
−7 −1 −5
Si osservi che avremmo potuto anche utilizzare le espressioni a destra dell’uguaglianza (⋆):
4 1 −1
U ∩W = ~v = −t · 3 + 3 t · 2 t ∈ R = Span 3 .
8 1 −5
−5 1 −3 1 −1
−4 0 −2 0 −2
c) ~u1 = , ~u2 = , w
~1 = , w
~2 = , w
~3 = .
11 0 5 1 7
8 0 3 2 7
Inoltre, verificate che le dimensioni degli spazi trovati soddisfano la formula di Grassmann
(se non la soddisfano c’è un errore in quello che avete fatto).
...attenzione all’esercizio (c)!
dim W = rg B .
Dimostrazione.
La dimensione di W è il numero massimo di vettori indipendenti dell’insieme
~b1 , ..., ~bk . Per il Teorema 9.6 questo numero è uguale al rango r di B . Inoltre, es-
sendo le colonne di posto i1 , ..., ir indipendenti, i corrispondenti vettori devono costituire
una base di W (si veda la parte finale della Proposizione 8.27).
n o
Esempio. Consideriamo il sottospazio V := Span ~b1 , ~b2 , ~b3 , ~b4 di R3 , dove
3 −1 7 2
~b1 = 2 , ~b2 = −3 , ~b3 = 7 , ~b4 = −1 . La matrice associata ai vettori
5 3 7 1
3 −1 7 2 3 −1 2
~b1 , ~b2 , ~b3 , ~b4 è la matrice B = 2 −3 7 −1 . Poiché 2 −3 −1 è un minore
5 3 7 1 5 3 1
invertibile di ordine tre (rg B = 3), l’insieme di vettori ~b1 , ~b2 , ~b4 è una base di V .
Esercizio 10.14. Determinare dimensioni e basi degli spazi vettoriali degli esercizi 8.33 e
8.34 utilizzando il Teorema 10.13.
n o
Consideriamo lo spazio Rn ed un suo sottospazio W = Span ~b1 , ..., ~br . Possiamo
rienunciare la definizione di “Span” dicendo che lo spazio W è l’insieme delle n−ple
(x1 , ..., xn ) che soddisfano le equazioni
x1
= b1,1 t1 + ... + b1,r tr
(10.15) ...
xn = bn,1 t1 + ... + bn,r tr
è un sottospazio di Rn .
61
Definizione 10.18. Le equazioni del sistema lineare omogeneo (10.17) si chiamano equa-
zioni cartesiane dello spazio U .
dopo aver verificato che {~b1 , ~b2 } è una base di W , si scrive il sistema di equazioni
x1 = 8 t1 + 3 t2
x2 = 6 t1 + 2 t2
(⋆) ,
x3 = 9 t1 + 11 t2
x4 = 4 t1 + 5 t2
quindi dalle ultime due equazioni si determina t1 = 5x3 − 11x4 , t2 = −4x3 + 9x4 .
Sostituendo infine le espressioni trovate nelle prime due equazioni del sistema (⋆), si trovano
le equazioni cartesiane di W :
(
x1 = 8(5x3 − 11x4 ) + 3 (−4x3 + 9x4 )
,
x2 = 6 (5x3 − 11x4 ) + 2 (−4x3 + 9x4 )
ovvero le equazioni (
x1 − 28x3 + 61x4 = 0
.
x2 − 22x3 + 48x4 = 0
Esercizio 10.20. Dimostrare che nel sistema di equazioni (10.15) è sempre possibile
isolare i parametri.
Suggerimento: alla luce della Definizione 10.16, qual è il rango della matrice incompleta
associata al sistema lineare (10.15), inteso come sistema lineare nelle incognite t1 , ..., tr ?
...quindi dedurre che è possibile trovare r equazioni indipendenti. Infine provare che da
queste è sicuramente possibile isolare t1 , ..., tr .
Esercizio 10.21. Provare che i due sistemi dell’osservazione precedente sono equivalenti,
quindi dedurre che definiscono la stessa retta. Risolvere i due sistemi, quindi trovare delle
equazioni parametriche della retta che definiscono.
2 4
2 −3
2 4
W = Span 3 , 2 ; H = Span , ;
3 2
−5 1
1 1
2 4 1
2 4 4
K = Span , ,
.
3 1 1
−7 −9 −6
n o
Abbiamo visto che la dimensione dello spazio W = Span ~b1 , ..., ~br è uguale al rango
della matrice B associata ai vettori ~b1 , ..., ~br (Teorema 10.13). Anche quando uno spazio è
definito da equazioni cartesiane sappiamo calcolarne la dimensione. Se U ⊆ Rn è definito
da s equazioni cartesiane, ci si aspetta che la sua dimensione sia dim U = n − s ; questo
perché ogni equazione “dovrebbe far scendere di uno la sua dimensione”. Poiché potremmo
avere delle equazioni ripetute più volte o che comunque non aggiungono nulla al sistema
perché possono essere dedotte dalle altre, a priori possiamo solamente affermare che risulta
dim U ≥ n − s . Vale il teorema che segue.
Dimostrazione. Assodato che la dimensione di U è uguale al numero dei parametri liberi che
compaiono in una risoluzione del sistema, il teorema segue da quello che sappiamo sui sistemi
lineari e dal fatto che il rango di Λ è uguale al numero massimo di equazioni indipendenti
(Teorema 9.6).
Esercizio. Verificare che le dimensioni degli spazi degli esercizi 10.22, 10.23 e 10.24 sono
quelle previste dal Teorema 10.25.
Esercizio 10.27. Siano U e W due sottospazi di R19 . Supponiamo che U sia definito
da 4 equazioni cartesiane e che dim W = 10 . Provare le disuguaglianze che seguono:
6 ≤ dim (U ∩ W ) ≤ 10 , 15 ≤ dim (U + W ) ≤ 19 .
Esercizio 10.28. Siano U e W due sottospazi di R15 . Supponiamo che U sia definito
da k equazioni cartesiane indipendenti, che dim(U ∩ W ) = 6 e dim (U + W ) = 11 .
Determinare i possibili valori di k e le possibili dimensioni di W in funzione di k .
5 Nel senso che, ad esempio, se 2, 3, 5 è una soluzione del sistema lineare in questione allora il doppia della
prima colonna più tre volte la seconda più cinque volte la terza dà il vettore nullo.
64
Abbiamo visto che i sottospazi vettoriali di Rn sono le soluzioni dei sistemi lineari omo-
genei. Ci domandiamo, cosa accade se consideriamo sistemi lineari non omogenei? Qual è
la “struttura” dell’insieme delle soluzioni di un sistema lineare arbitrario? Una risposta alla
prima domanda l’abbiamo data nel paragrafo § 2 studiando i sistemi lineari: l’insieme delle
soluzioni di un sistema lineare (arbitrario) è un insieme del tipo
(11.1) S = ~x ∈ Rn ~x = t1~v1 + ... + tk ~vk + ~c
Definizione 11.2. Un insieme come quello descritto dalla (11.1) si chiama sottospazio
affine di Rn e le equazioni ivi indicate (se i parametri non sono sovrabbondanti, ovvero se
i vettori ~v1 , ..., ~vk sono indipendenti) si chiamano equazioni parametriche.
Come si può intuire dalla terminologia usata esistono degli oggetti matematici che si
chiamano spazi affini, oggetti che volendo mantenere la trattazione a un livello elementare
non tratteremo (non abbiamo una reale necessità di introdurli, li introduciamo solo alla fine
paragrafo §16, approfondimenti, e solo per ragioni di completezza). Naturalmente,
i) i sottospazi affini di Rn appena introdotti risultano essere spazi affini;
ii) ai fini dello studio dei sottospazi affini di Rn è sufficiente conoscere la Definizione 11.2.
Dunque, torniamo a quello che stavamo facendo.
Avvertenza 11.6. L’oggetto V + ~c è un insieme, quel “+” che vi compare non è una
normale somma tra due elementi bensı̀ parte integrante di una notazione:
V + ~c è l’insieme {~v + ~c ∈ Rn | ~v ∈ V } e va trattato esattamente come tale.
Giusto per ribadire il concetto, ad esempio, sarebbe folle scrivere “ V + ~c = V + ~c ′ implica
~c = ~c ′ ” (semplificando V !). Tuttavia, quanto segue ha senso (ed è corretto):
V + ~c = V + ~c ′ ⇐⇒ V = V + ~c ′ − ~c ⇐⇒ ~c ′ − ~c ∈ V
Analizziamo nel dettaglio (♠) e (♣). Nella prima riga abbiamo due insiemi, agendo su di
essi con la stessa operazione, l’operazione di sommare −~c ad ogni elemento, otteniamo i
due insiemi a sinistra nella seconda riga, grazie all’invertibilità dell’operazione in questione
otteniamo (♠). L’equivalenza (♣) segue dal fatto che V è uno spazio vettoriale, infatti,
se vale l’uguaglianza a sinistra, scrivendo ~v +~c ′ −~c ∈ V per ~v = ~0 si ottiene ~c ′ −~c ∈ V ;
viceversa se ~c ′ − ~c ∈ V l’uguaglianza al centro è immediata).
65
Gli oggetti introdotti con la Notazione 11.5 sono i sottospazi affini di Rn . Infatti, tor-
nando alla (11.1) ed indicando con V l’insieme dei vettori del tipo t1~v1 + ... + tk ~vk (insieme
che è un sottospazio vettoriale di Rn , come sappiamo è lo spazio generato dai vettori
~v1 , ..., ~vk ), la (11.1) può essere riscritta nella forma
(11.7) S = V + ~c
e può essere letta dicendo che S (sottospazio affine), si ottiene traslando V (sottospazio
vettoriale), dove “ traslando” significa proprio “ ad ogni vettore di V sommo ~c ”.
Abbiamo definito i sottospazi affini di Rn come gli insiemi del tipo (11.1). Esattamente
come già visto nel § 10, dato un insieme di tale tipo è possibile eliminare i parametri e scriverlo
come spazio delle soluzioni di un sistema lineare. Questo significa che abbiamo la seguente
caratterizzazione dei sottospazi affini di Rn (ovvero un secondo modo per introdurli):
La (11.7) non è altro che la formula già vista col Teorema di Struttura 3.11. Infatti, dato
S = V + ~c (con V sottospazio vettoriale di Rn ), denotando con
(⋆) A · ~x = ~b
un sistema lineare del quale S ne è l’insieme delle soluzioni, otteniamo che
i) ~c è una soluzione del sistema (⋆);
ii) V è lo spazio delle soluzioni del sistema omogeneo associato al sistema (⋆);
iii) se ~c ′ è un’altra soluzione del sistema (⋆), allora risulta anche S = V + ~c ′ .
Dimostrazione. La i) è una tautologia: dire che ~c soddisfa (⋆) è come dire che ~c ∈ S,
d’altro canto ~c = ~0 + ~c ∈ V + ~c = S . Gli elementi in V si ottengono sottraendo ~c a
quelli di S, pertanto la ii) segue dal fatto che la differenza di due soluzioni del sistema (⋆)
è una soluzione del sistema omogeneo associato (Inciso 3.10). Quanto alla iii) è sufficiente
osservare che risulta S = V + ~c = V + ~c ′ (essendo ~c ′ − ~c ∈ S − ~c = V ).
In effetti non c’è nulla di veramente nuovo, il risultato enunciato non è altro che una
rivisitazione del Teorema di Struttura 3.11.
Esercizio 11.10. Scrivere una dimostrazione diretta (che eviti i sistemi lineari) della (11.9).
Tornando alla (11.9), quanto osservato sopra, e cioè che lo spazio vettoriale V definito
dalla (11.7) sia univocamente individuato da S (e che per questa ragione chiameremo spazio
associato ad S ), suggerisce la definizione che segue:
(11.14) S = V + ~s , ∀s ∈ S .
Infatti, la catena di equivalenze nell’avvertenza 11.6 può essere prolungata come segue:
V + ~c = V + ~s ⇐⇒ ~s − ~c ∈ V ⇐⇒ ~s ∈ V + ~c .
Riepilogando gli ultimi risultati provati sopra, abbiamo la proposizione che segue.
Sottolineiamo che la ii) ci dice che gli elementi di V si ottengono come differenze di
elementi di S (questa osservazione è alla base della definizione astratta di spazio affine che
daremo nel paragrafo degli approfondimenti, cfr. Definizione 16.22).
Corollario 11.16. Se due sottospazi affini di Rn hanno la stessa dimensione ed uno dei
due è contenuto nell’altro, allora coincidono. In formule,
S ⊇ S′ , dimS = dim S ′ =⇒ S = S′
(S e S ′ denotano i due sottospazi).
3 3
piano affine piano vettoriale
(12
5)
(23)
(fig. 11.18 ′ )
retta
(10
2) r
D’altro canto, sappiamo che gli elementi dello spazio vettoriale V si ottengono come dif-
ferenza di elementi di S , cfr. Proposizione 11.15, ii). Questo suggerisce l’idea che la dif-
ferenza di due punti è comunque un vettore. In effetti esiste una costruzione astratta, che
vedremo nel capitolo II, secondo la quale i vettori appaiono come oggetti rappresentati da
segmenti orientati, ovvero “differenze di punti”. Ma a riguardo per ora non diciamo nulla.
Comunque, per quel che riguarda quello che stiamo facendo ora, ricordiamoci che lavoriamo
con Rn , dove somme e differenze hanno sempre senso.
Queste “ affermazioni famose”, per quanto intuitivamente ovvie, nel contesto della nos-
tra trattazione6 seguono dalla prossima Proposizione 11.17 e dall’osservazione 11.18 che la
segue. Precisamente, la Proposizione 11.19 ci dà una descrizione della retta per due punti
(caso k = 2), ovvero del piano per tre punti non allineati (caso k = 3) eccetera (in parti-
colare garantendo “ l’esistenza” di questi oggetti), l’osservazione 11.20 ci assicura l’unicità
di questi oggetti.
6 Dove, lo ribadiamo, punti, rette, piani eccetera sono quanto introdotto con le Definizioni 11.2, 11.13 e 11.17.
68
′
(le ipotesi sono che S è un sottospazio affine della stessa dimensione di quella di S ).
S // T ⇐⇒ V ⊆ W oppure W ⊆ V ,
dove S = V + ~c e T = W + d~ .
Esercizio 11.25. Provare che se ci si restringe a spazi della stessa dimensione, la nozione
di parallelismo è transitiva. Cioè che se S, S ′ , S ′′ sono spazi affini della stessa dimensione
e se S//S ′ nonché S ′ //S ′′ , allora S//S ′′ .
Esercizio 11.27. Scrivere l’equazione del piano affine in R3 passante per il punto di
coordinate 2, −1, 5 e parallelo al piano di equazione x + y + z = 1 .
7 Ci concentriamo sul piano solo per fissare le idee, in realtà quello che stiamo dicendo vale in dimensione
arbitraria.
70
Una funzione definita su un insieme A, che assume valori in un insieme B , è una legge
f che ad ogni elemento di A associa un elemento di B (nel cap. 0, §2 vengono richiamati
i concetti di dominio, codominio, grafico, fibra, funzione iniettiva, suriettiva, biunivoca).
Le applicazioni lineari sono funzioni dove dominio e codominio sono spazi vettoriali, che
soddisfano la proprietà di essere lineari:
Torniamo alla definizione. Questa ci dice che una applicazione lineare è una funzione che
“rispetta” le operazioni su V e W : dati due vettori in V , l’immagine della loro somma
(operazione in V ) è uguale alla somma (operazione in W ) delle loro immagini, l’immagine
di un multiplo di un vettore è quel multiplo dell’immagine del vettore.
Ora, diamo brutalmente un’altra definizione generale, subito dopo studiamo l’esempio
delle applicazioni lineari da Rn a Rm .
Sottolineiamo che i vettori del nucleo di L sono quei vettori in V che vengono mandati
nel vettore nullo, quindi ker L = L−1 ~0 è la fibra del vettore nullo di W . I vettori
nell’immagine di L , come la parola stessa suggerisce (e coerentemente con la definizione
~ ∈ W che soddisfano la condizione che
data nei richiami, cfr. cap. 0), sono quei vettori w
segue: esiste almeno un vettore ~v ∈ V al quale L associa w ~.
n m
vettoriali R ed R . Si definisce l’applicazione
Definizione 12.5. Consideriamo gli spazi
LA associata ad una matrice A = ai,j ∈ Mm,n (R) ponendo
LA : Rn −→ Rm
λ1 a1,1 ... a1,n λ1
... 7−→ .
.. .. .. · ..
. . .
λn am,1 ... am,n λn
dove, come sempre, “·” denota il prodotto righe per colonne tra matrici.
71
Dimostrazione. Infatti, per la proprietà distributiva del prodotto righe per colonne,
LA (~v + w)
~ = A · (~v + w)
~ = A · ~v + A · w
~ = LA (~v ) + LA (w)
~ ,
LA (λ~v ) = A · (λ~v ) = λ A · ~v = λLA (~v ) .
~ ∈ Rn e λ ∈ R .
per ogni ~v , w
LA : R2 −→ R3
3 7 3α + 7β
α α
7−→ 2 4 · = 2α + 4β
β β
5 1 5α + β
a1,1 a1,n
.. + ... + λ ..
= λ1 . n . λ1 , ..., λn ∈ R
am,1 am,n
a1,1 a1,n
.. , ..., ..
= Span . . .
am,1 am,n
Questo prova che l’immagine di LA è lo “Span delle colonne della matrice A”. In particolare,
per il Teorema 10.13 si ha
(12.9) dim ImLA = rg A
Per quel che riguarda l’iniettività e la suriettività di LA vale la proposizione che segue.
Dimostrazione. È sufficiente verificare che sussiste la condizione (8.9′′ ): le c.l. di vettori nel
nucleo hanno anch’esse immagine nulla, quindi appartengono al nucleo; analogamente, le c.l.
di vettori nell’immagine, in quanto immagini di c.l. di vettori nel dominio, appartengono
anch’esse all’immagine.
73
Osserviamo che questa definizione è coerente con la formula (12.9): il rango dell’applicazione
LA (def. 12.12) coincide col rango della matrice A (def. 9.1).
Dimostrazione. Chiaramente, Span{L(~c1 ), ..., L(~cr )} = Span{~0, ..., ~0, L(~c1 ), ..., L(~cr )}
= Span {L(~b1 ), ..., L(~bs ), L(~c1 ), ..., L(~cr )} = Im V , questo perché {~b1 , ..., ~bs , ~c1 , ..., ~cr }
è una base di V . D’altro canto, se i vettori L(~c1 ), ..., L(~cr ) fossero linearmente dipendenti,
P
ovvero se esistessero dei coefficienti (non tutti nulli) λ1 , ..., λr tali che λ L(~c1 ) = ~0 , per
P Pi
la linearità di L si avrebbe anche L λi~c1 = ~0 , quindi si avrebbe λi~c1 ∈ kerL =
Span{b1 , ..., bs } . Questo non è possibile perché, per ipotesi, i vettori b1 , ..., ~bs , ~c1 , ..., ~cr
~ ~ ~
sono indipendenti.
Esercizio. Per ognuna delle matrici che seguono, si consideri l’applicazione lineare asso-
ciata e se ne determini una base del nucleo ed una base dell’immagine.
1 3
4 3 1 1 2 3 1 1 0 0 4
1 1 0 0
2 , 4 8 12 4 , 3 0 1 0 ,
3 9
5 4 3 −2 −4 −6 −2 −1 2 0 0
2 6
0 2 3 −1 −1 3 3 1 2 1
0 0 0 2 3 4 9 4 0 0 0 0 0
, , ,
0 0 0 1 1 2 0 4 0 0 0
4 2
1 0 0 0 0 −1 1 7
0 1 1 1 1 1
0 0 1 1 1 1
0 0 1 1 3 9 1 −3 4 0 0 0 1 1 1
, , .
1 0 1 1 3 9 −2 6 −8 0 0 0 0 1 1
0 0 0 0 0 1
0 0 0 0 0 0
74
i) LA è suriettiva;
ii) LA è iniettiva;
iii) rg A = n .
P P
Dimostrazione.PDato ~v ∈ Rn scriviamo
P P ~v = αi~ei . Si ha L(~v ) = L( αi~ei ) =
αi L(~ei ) = αi LA (~ei ) = LA ( αi~ei ) = LA (~v ) (si osservi che le tre uguagliane al
centro seguono dalla linearità di L, dalla definizione di A e dalla linearità di LA ). Quanto
appena provato, cioè che risulta L(~v ) = LA (~v ) per ogni ~v ∈ Rn dimostra la (12.16′).
La seconda parte della proposizione segue dalla prima: per l’osservazione 12.7, a matrici
distinte associamo applicazioni lineari distinte, ovvero la legge che alla matrice A associa
la trasformazione LA (Def. 12.5) è iniettiva, l’uguaglianza L = LA ci dice che la legge
che ad L associa la matrice A costruita come nell’enunciato della proposizione inverte tale
legge.
3
Esempio 12.17. Lamatrice associata all’applicazione
lineare
L : R −→ R3 definita
x x − y + 7z 1 −1 7
dalla relazione L( y ) = 2x + y + z è la matrice 2 1 1 . Per scriverla è
z 3x − 4y + 5z 3 4 5
stato sufficiente considerare le immagini dei vettori della base canonica (cfr. Proposizione 16),
ovvero prendere i coefficienti di x, y, z nella descrizione di L.
Già osservammo (osservazione 3.4) che il prodotto righe per colonne tra matrici “codifica
l’operazione di sostituzione”, pertanto, modulo l’identificazione qui sopra, il prodotto righe
per colonne tra matrici corrisponde alla composizione8 di applicazioni lineari. Lo ripetiamo:
L B ◦ L A : Rn → Rm → Rk .
Si ha
(12.18) LB ◦ LA = LB·A .
8 La composizione di funzione si effettua sostituendo: siano A, B e C tre insiemi, f : A → B e g : B → C
due funzioni, sia quindi b = f (a) e c = g(b) , la composizione g ◦ f : A → C viene definita ponendo
g ◦ f (a) = g(f (a)) = g(b) , cioè sostituendo!
75
Esempio. Consideriamo le due applicazioni lineari (si veda l’esempio 17 del paragrafo §4:
le matrici sono le stesse)
L : R4 −→ R3
z1
z1
y1 1 2 0 3
z2 z
7→ y2 := 0 7 2 1 · 2
z3 z3
y3 3 0 −1 −1
z4 z4
M : R3 −→ R2
y1 y1
y2 7→ x1 :=
4 0 1
· y2
x2 2 −5 0
y3 y3
1 2 3 1 0 0 2 1 0
Esercizio. Sia A = 0 1 2 , B = 0 2 0 , C = 1 1 1 . Si
0 0 1 0 0 3 0 1 3
calcoli, e si descriva esplicitamente,
LA ◦LB , LB ◦LA , LA ◦LB ◦LC , LA ◦LA ◦LA , LB ◦LC ◦LC , LC ◦L(C −1 ) , L(A3 ) .
LA è una applicazione lineare nonché è l’applicazione lineare associata alla matrice A−1
(inversa di A). Infatti, per la (12.18),
LA ◦ LA−1 = LA·A−1 = LIn = I .
2 −1 −7
Esercizio 12.22. Sia A = . Calcolare LA ◦ LA .
3 5 4
C’è una applicazione lineare che merita di essere menzionata. Sia V uno spazio vettoriale
e sia BV = {~v1 , ..., ~vn } una base di V . Le coordinate di un vettore in V sono una n−pla
di numeri, quindi possiamo considerare la seguente funzione
CBV : V −−−−→ Rn
(12.25)
~v 7→ “coordinate di ~v ”
(dove le somme sono tutte somme per i che va da 1 a n), ovvero le coordinate di una somma
di vettori sono la somma delle coordinate dei singoli vettori e le coordinate del prodotto di un
vettore per una costante sono le coordinate di quel vettore moltiplicate per quella costante.
77
L : R2 −→ R2
x 3 0 x 3x
7→ · =
y 0 1 y y
M : R2 −→ R2
x 2 1 x 2x + y
7→ · =
y 1 2 y x + 2y
(13.1′ ) L(w
~ 0) = λw
~0 .
Esercizio 13.2. Verificare che l’insieme Wλ definito sopra soddisfa le condizioni (8.9′ ),
e pertanto è un sottospazio vettoriale di Rn .
78
T : V −→ V
Anche la tesi dell’esercizio 13.2 si generalizza: l’insieme dei vettori che soddisfano la
(13.3′ ) è un sottospazio vettoriale di V .
Esercizio 13.4. Verificare che l’insieme Vλ dei vettori che soddisfano la (13.3′ ) è un
sottospazio vettoriale di V .
Definizione 13.5. Lo spazio dei vettori che soddisfano la (13.3′ ) si chiama autospazio
associato all’autovalore λ e si denota con Vλ .
Osservazione
13.6. Scrivendo la (13.3′ ) nella forma T (~v) − λ~v = 0 , ovvero nella forma
T − λI (~v ) = 0 , dove I : V → V denota l’identità (trasformazione che manda ogni
vettore in se stesso), si evince che l’autospazio Vλ è il nucleo della trasformazione T − λI :
...vi sarete accorti che Vλ , in quanto nucleo di una applicazione lineare, è sicuramente un
sottospazio V . Questo risolve l’esercizio 13.4 e, a maggior ragione, l’esercizio 13.2!
Osservazione 13.8. Alla luce della Definizione 13.3 e di quanto appena osservato, il
valore λ è un autovalore di T se e solo se il nucleo ker (T − λI) contiene almeno un vettore
non nullo, ovvero se e solo se tale nucleo ha dimensione strettamente positiva:
λ è un autovalore di T ⇐⇒ dim ker T − λI > 0 .
Abbiamo visto che un autovettore rappresenta una direzione privilegiata, ovvero una
direzione lungo la quale T è una dilatazione. Il relativo autovalore λ è il coefficiente di tale
dilatazione. E’ del tutto evidente che lo stesso vettore ~v non può essere autovettore per
due autovalori distinti (l’esercizio 13.11 vi chiede di dimostrare questa affermazione!). Un
po’ meno evidente è la proprietà secondo la quale autovettori corrispondenti a autovalori
distinti sono sicuramente indipendenti:
Si tratta solo di una questione di linguaggio, la definizione è quella ovvia: diciamo che i
sottospazi W1 , ..., Wk di uno spazio vettoriale V sono indipendenti se presi comunque dei
vettori non nulli w ~ ir ∈ Wir si ha che w
~ i1 ∈ Wi1 , ..., w ~ ir sono vettori indipendenti.
~ i1 , ..., w
Negli approfondimenti, paragrafo § 16, proponiamo un esercizio utile (esercizio 16.9).
Come già accennato, il Teorema 13.9 generalizza il risultato dell’esercizio che segue.
Può essere dimostrato per induzione sul numero degli autospazi che si considerano, la di-
mostrazione la svolgiamo negli approfondimenti (§ 16).
Esercizio 13.11. Provare che due autospazi corrispondenti a due autovalori distinti sono
indipendenti (i.e. la loro intersezione è il vettore nullo).
Torniamo a considerare LA : Rn → Rn (in realtà, tutto quello che stiamo per dire ha
perfettamente senso anche per le trasformazioni lineari di uno spazio vettoriale astratto).
Naturalmente, per definizione, ci si può riferire direttamente alla matrice A: si può dire
“il polinomio caratteristico di A” e si può scrivere PA (λ), intendendo sempre det (A − λI).
2 1 0
Esempio. Se A = 4 5 1 , si ha
−1 7 3
2 1 0 1 0 0 2−λ 1 0
PA (λ) = det 4 5 1 − λ 0 1 0 = det 4 5−λ 1
−1 7 3 0 0 1 −1 7 3−λ
= −λ3 + 10 λ2 − 19 λ + 3 .
Vedremo (Lemma 15.14 e oss. 15.16) che il polinomio caratteristico è un invariante delle
trasformazioni lineari, questo significa che anche i suoi coefficienti lo sono e che in particolare
devono avere un significato geometrico. Ora cerchiamo di capire cosa si può dire a priori,
almeno algebricamente, sui coefficienti di PA (λ). Innanzi tutto osserviamo che λ compare
n volte e che compare sulla diagonale, questo significa che sicuramente PA (λ) comincia con
(−λ)n . Inoltre, il termine noto di un qualsiasi polinomio si ottiene valutando il polinomio
in zero. Nel nostro caso, sostituendo λ = 0 nella (13.12) si ottiene detA, quindi il termine
noto di PA (λ) è det A. Un altro coefficiente interessante è quello di (−λ)n−1 : sebbene la
formula del determinante di una matrice sia complessa, domandandoci quali sono i termini
di grado n−1 in λ, ci accorgiamo che questi si ottengono facendo scontrare i vari ai, i con
i restanti −λ sulla diagonale e quindi che il coefficiente di (−λ)n−1 vale a1, 1 + ... + an, n ,
espressione che denotiamo con tr A (traccia di A, def. 13.14). In definitiva risulta
(13.13) PA (λ) = (−λ)n + tr A · (−λ)n−1 + ... + det A ,
80
Definizione 13.14. Sia A ∈ Mn, n (R) una matrice, la somma degli elementi sulla
diagonale principale si definisce la traccia di A:
Questo significa che abbiamo uno strumento per determinare gli autovalori di una trasfor-
mazione lineare: scriviamo il polinomio caratteristico e ne troviamo le radici. Una volta
trovati gli autovalori la strada è in discesa: i relativi autospazi si determinano utilizzando
la (13.6′ ).
L : R2 −→ R2
x 1 2 x x + 2y
7→ · =
y −1 4 y −x + 4y
e calcoliamone gli autovalori ed i relativi autospazi. Per prima cosa scriviamo il polinomio
caratteristico:
1 2 1 0 1−λ 2
PL (λ) := det −λ = det = λ2 − 5λ + 6 ;
−1 4 0 1 −1 4−λ
Nell’esempio che precede la Definizione 13.16, entrambi gli autovalori hanno molteplicità
algebrica e geometrica uguale a uno.
µg (λ) ≤ µa (λ) .
Esercizio. Calcolare autovalori e autospazi delle matrici che seguono (calcolare anche le
molteplicità algebrica e geometrica di ogni autovalore)
4 −3 0
1 1 3 2 1 −1 4 0 −3 2 0
−2 −2 2 1 −1 2 0 7
0 0 5
4 0 5 2 0 0 2 1 0
0 −2 0 0 2 0 0 1 1
0 0 2 0
1 0 1 1
5 0 3 0 0 7 0 0 7
Ak ~v = |A · {z
... · A} ~v = | · {z
A ... · A} λ~v = ... = λk ~v
k volte k−1 volte
3 0 −3
Esercizio 13.19. Verificare che ~v = è un autovettore della matrice A = .
−2 −2 −1
2 3 5 14
Calcolarne il relativo autovalore e determinare A ~v , A ~v , A ~v , A ~v .
82
Abbiamo visto che se L : Rn → Rm è una applicazione lineare, allora esiste una matrice
A tale che L(~x) = A · ~x , ∀ x ∈ Rn (cfr. Prop. 12.16). Tale matrice “descrive numerica-
mente” la nostra funzione L e la possiamo utilizzare per rispondere a molte domande che
la riguardano.
L : V −→ W Lcoord : Rn −→ Rm
ad associamo “coordinate del
~v 7→ L(~v ) ~λ 7→ P
vettore L( λi~vi )”
Notiamo che essendoPi ~vi i vettori della base di V , il vettore numerico ~λ è il vettore delle
coordinate di ~v := λi~vi . Ciò significa che abbiamo la seguente chiave di lettura per la
funzione Lcoord :
“alle coordinate di un vettore associa le coordinate della sua immagine”.
Esempio 14.3. Sia V lo spazio dei polinomi di grado minore o uguale a 2. Consideriamo
la funzione D : V −→ V che ad un polinomio associa la sua derivata. Cerchiamo la
matrice rappresentativa di D rispetto alla base BV = {1, x, x2 } . Le coordinate del
polinomio p(x) = a + bx + cx2 sono la terna a, b, c. Quanto alla sua derivata abbiamo
Dp(x) = b + 2cx , di coordinate b, 2c, 0 (attenzione all’ordine). Ne segue che
Dcoord : R3 −→ R3
D : V −→ V a b
a associamo b 7→ 2c
p(x) 7→ Dp(x)
c 0
b 0 1 0 a 0 1 0
Poiché 2c = 0 0 2 · b (cfr. esempio 12.17), la matrice 0 0 2 è la
0 0 0 0 c 0 0 0
matrice rappresentativa di D rispetto alla base BV = {1, x, x2 } .
83
e pertanto, in particolare, ciò dovrà valere per il vettore ~vi , si deduce quanto segue:
Ribadiamo l’osservazione 14.5 e quanto spiegato sopra in altri termini: vale la catena di
uguaglianze
LA : Rn −−−−→ Rm
~x 7→ A · ~x
coincide con la matrice A. Questo semplicemente perché le coordinate di un vettore rispetto
BCan(Rn ) di un vettore di Rn coincidono col vettore stesso (stessa cosa per Rm ).
Da notare che, in particolare, matrici rappresentative (rispetto a basi diverse) della stessa
applicazione lineare L : V −→ W hanno necessariamente lo stesso rango. Infatti, la
nozione “rango di L” (cfr. Definizione 12.12) è intrinseca: non ha nulla a che vedere con la
scelta di basi di V e W .
84
Osservazione 15.1. Siano V e T come sopra e sia B = {~b1 , ..., ~bn } una base di V .
Si ha che T è rappresentata dalla matrice diagonale
α1 0 ... 0
0 α2 ... 0
∆(α1 , ..., αn ) := . .. .. .. .
.. . . .
0 0 ... αn
se e solo se
T (~bi ) = αi~bi , ∀i.
Si noti che, nella situazione indicata, in particolare i vettori ~b1 , ..., ~bn sono autovettori
della trasformazione T (di autovalori α1 , ..., αn ).
affrontare con gli strumenti visti nel paragrafo § 13. A questo punto è naturale porsi le
domande che seguono:
Cosa hanno in comune due matrici che rappresentano la stessa trasformazione (rispetto
a basi diverse)? È possibile scrivere una formula che le lega?
La Proposizione 15.6 e le osservazioni che seguono rispondono alle nostre domande. In
inciso, negli approfondimenti (paragrafo § 16) vedremo, in generale, come cambia la matrice
rappresentativa di una applicazione lineare L : V → W quando si cambia la base del
dominio e/o del codominio.
Consideriamo una trasformazione lineare L di uno spazio vettoriale V . Siano date due
basi di V che chiamiamo “vecchia” e “nuova” (e chiamiamo “vecchio” e “nuovo” i rispettivi
sistemi di coordinate). Premettiamo che alla luce di quanto visto nel paragrafo precedente
ed in particolare della caratterizzazione (14.4), scrivere la matrice rappresentativa di L
rispetto ad una base fissata equivale a conoscere la funzione che alle coordinate di un vettore
~v associa le coordinate della sua immagine L(~v ) . Ora, assumendo di conoscere la matrice
rappresentativa di L rispetto alla vecchia base, ovvero la legge che alle vecchie coordinate
di un vettore ~v associa le vecchie coordinate della sua immagine L(~v ), siamo in grado di
scrivere un mero algoritmo che consente di passare dalle nuove coordinate di un vettore ~v
alle nuove coordinate della sua immagine L(~v ):
siano date le nuove coordinate di un vettore ~v ,
i) determiniamo le vecchie coordinate di ~v ;
(15.3)
ii) determiniamo le vecchie coordinate di L(~v ) ;
iii) determiniamo le nuove coordinate di L(~v ) .
Il passaggio ii) lo sappiamo già eseguire: consiste nella moltiplicazione per la matrice rap-
presentativa rispetto alla vecchia base. Ci domandiamo come eseguire i passaggi i) e iii),
ovvero come effettuare i cambi di coordinate. La risposta è nelle Proposizioni 15.4 e 15.7
che seguono. Per rendere un po’ meno astratta la trattazione e per semplificare il discorso
iniziamo considerando il caso dove V = Rn e dove la vecchia base in questione è la base
canonica di Rn . Dunque, vale il risultato che segue.
Proposizione 15.4. Si considerino Rn , la sua base canonica Can = {~e1 , ..., ~en } e
la base B = {b1 , ..., bn } . Sia B la matrice associata ai vettori ~b1 , ..., ~bn . Allora, la
~ ~
moltiplicazione per B fa passare da coordinate rispetto a B a coordinate canoniche. In
altri termini, se ~λ è il vettore delle coordinate di ~v rispetto a B , allora B · ~λ è il vettore
delle coordinate canoniche di ~v (cioè ~v stesso).
Dimostrazione. Dire che ~λ è il vettore delle coordinate di ~v rispetto a B significa dire che
P ~ P ~
~v = λi bi . Vista la definizione di B e di prodotto righe per colonne si ha λi bi = B·~λ.
A questo punto abbiamo una prima risposta alle domande che ci siamo posti.
(15.6′ ) X = B −1 · A · B
di L(~v ), sempre rispetto a B . Questa legge è descritta dall’algoritmo (15.3). Denotato con
~λ il vettore delle coordinate di ~v rispetto a B , per la Proposizione 15.4 il passaggio i) è
la moltiplicazione per B e pertanto restituisce B · ~λ, come già osservato il passaggio ii) è
la moltiplicazione per A, che quindi restituisce A · (B · ~λ), infine per l’osservazione 15.5 il
passaggio iii) è la moltiplicazione per B −1 , che quindi restituisce B −1 · (A · (B · ~λ)).
In definitiva, poiché la legge che al vettore ~λ delle coordinate di ~v rispetto alla base B
associa le coordinate di L(~v ) (sempre rispetto alla base B ) è la funzione che a ~λ associa
B −1 · (A · (B · ~λ )), si ha che B −1 · A · B è la matrice cercata.
Abbiamo considerato Rn ed abbiamo assunto che una delle due basi era quella canonica.
In effetti anche nel caso generale di una trasformazione di uno spazio vettoriale astratto V
la formula che lega le matrici rappresentative rispetto a basi diverse è identica alla (15.6′ ).
Infatti, possiamo ripetere i risultati visti nel caso generale:
(15.8′ ) X = B −1 · A · B
Visto che il coefficiente (⋆) è esattamente il prodotto tra la h−esima riga di B ed il vettore
~λ si ha che B · ~λ è il vettore delle coordinate di ~v rispetto alla base C .
Dimostrazione (della Proposizione 15.8). Come nella dimostrazione della Proposizione 15.6,
vista la Proposizione 15.7, i tre passi dell’algoritmo (15.3) corrispondono, nell’ordine, alla
moltiplicazione per B , la moltiplicazione per A, la moltiplicazione per B −1 .
Quanto visto si può riassumere nello schemino che segue (“nu”, “ve” e “co” stanno rispet-
tivamente per “nuove”, “vecchie” e “coordinate”, la freccia “ ” indica il passaggio):
nu.co.(~
v) nu.co.(~
v)
z}|{ z}|{
X · ~ B −1 · A · |B · {z ~λ }
| {z λ } =
nu.co.(T (~
v)) ve.co.(~
v)
| {z }
ve.co.(T (~
v ))
| {z }
nu.co.(T (~
v ))
Attenzione: La formula X = B −1·A·B può anche essere scritta nella forma A = B·X·B −1 ,
come pure nella forma A = C −1 ·X ·C, ovvero X = C ·A·C −1 , essendo ora C la matrice di
87
passaggio da vecchie a nuove coordinate, cioè essendo C = B −1 . Tutto questo può creare
molta confusione, ma non ci si deve spaventare: una volta compresa l’essenza della formula,
l’unico dubbio che può venire riguarda i ruoli giocati dai due sistemi di coordinate. Bene,
le possibilità sono due e c’è un trucco per non sbagliarsi mai. Vedendo il prodotto per una
matrice come funzione che ad un vettore numerico associa un altro vettore numerico, l’input
della stessa sono coefficienti da dare alle colonne mentre l’output sono c.l. delle colonne,
quindi se nelle colonne della matrice di un cambiamento di base ci sono le coordinate dei
vettori di una base B (rispetto un’altra base), allora l’input “naturale” sono coordinate
rispetto a B (e l’output saranno coordinate rispetto l’altra base). Scrivendo la formula del
cambiamento di base coerentemente con questo principio è impossibile confondersi.
(15.10′ ) A′ = C −1 · A · C
Avvertenza. Nel risolvere il problema posto abbiamo effettuato delle scelte: abbiamo
scelto di considerare λ = 2 come primo autovalore e λ = 6 come secondo autovalore;
relativamente ai due autovalori trovati, abbiamo scelto gli autovettori
3 1
~v2 = , ~v6 = .
1 −1
Naturalmente avremmo potuto considerare λ = 6 come primo autovalore e λ = 2 come
secondo autovalore, nonché, ad esempio, v~6 ′ = −4 4 , v~2 ′ = 31 . Seguendo queste scelte
avremmo trovato
−1
′′ −4 3 3 −3 −4 3 6 0
(15.13 ) · · = .
4 1 −1 5 4 1 0 2
In particolare, tutti i coefficienti del polinomio caratteristico sono invarianti per coniugio.
Poiché il termine noto ed ilcoefficiente di (−λ)n−1 sono rispettivamente determinante e
traccia, infatti det A − λI = (−λ)n + (−λ)n−1 tr (A) + ... + det (A) , si ha il seguente
corollario.
detA = det A′ ; tr A = tr A′
(ricordiamo che la traccia di una matrice è la somma degli elementi sulla diagonale).
E’ bene ripeterlo: quando si calcola la somma degli autovalori (cosı̀ come quando se ne
calcola il prodotto), se un autovalore ha molteplicità µ, deve essere ripetuto µ volte.
soddisfano le proprietà i), ii) e iii) del Corollario 15.17. Ciò nonostante nessuna di esse è
diagonalizzabile. Lo studente verifichi quanto affermato. Il motivo per il quale le matrici
indicate non sono diagonalizzabili è che “non possiedono abbastanza autovalori”9.
sono diagonalizzabili (e per quali valori del parametro k) procediamo come segue:
risulta PA (λ) = PB (λ) = (2 − λ)2·(3 − λ) , sapendo che ad autovalori distinti corrispondono
autospazi indipendenti, di sicuro troviamo due autovettori indipendenti (uno per l’autovalore
2 ed uno per l’autovalore 3) e ci domandiamo se è possibile trovarne 3; la risposta dipen-
derà dalla molteplicità geometrica dell’autovalore 2 (che può valere 1 o 2, da notare che
l’autovalore 3 non può esserci d’aiuto, avendo molteplicità algebrica 1 avrà necessariamente
anche molteplicità geometrica 1, Teorema 13.17). Scrivendo A−2I e B−2I vediamo che la
prima non ha righe proporzionali (ha rango 2, quindi nucleo di dimensione 3-2=1), mentre
la seconda ha rango 1 (nucleo di dimensione 3-1=2). Ne segue che A non è diagonalizzabile
e che B invece lo è.
Riguardo alla matrice Ck il discorso è simile. Risulta PC (λ) = (4 − λ)·(1 − λ)·(k − λ) ,
ne segue che per k diverso da 4 e 1 abbiamo tre autovalori distinti (4, 1 e k), quindi
tre autovettori indipendenti, e Ck , è diagonalizzabile. Per k = 4 e per k = 1 scriviamo
Ck quindi procediamo esattamente come abbiamo fatto per le matrici A e B (troveremo
rg (C4 − 4I) = 1 e rg (C1 − I) = 2 , ovvero che C4 è diagonalizzabile e C1 non lo è). In
definitiva: “ Ck è diagonalizzabile” ⇐⇒ k 6= 1 .
Dimostrazione (del Corollario 15.17). Per ipotesi, la matrice A è coniugata ad una ma-
trice diagonale ∆ . Per la premessa, la matrice ∆ soddisfa i), ii) e iii). D’altro canto
A e ∆ hanno lo stesso polinomio caratteristico, in particolare, hanno stessi autovalori e
relative molteplicità algebriche e geometriche (queste ultime coincidono per ragioni geomet-
riche: perché A e ∆ rappresentano la stessa trasformazione lineare), stessa traccia e stesso
determinante. Ne segue che anche A soddisfa i), ii) e iii).
9 Va detto che se si lavora sul campo C dei numeri complessi (si veda l’appendice), già la proprietà iii) da sola
è equivalente alla diagonalizzabiltà, questo segue dal Teorema Fondamentale dell’algebra: sui complessi, il
polinomio caratteristico si decompone in fattori di primo grado, quindi il suo grado (che è uguale all’ordine
della matrice) è uguale alla somma delle molteplicità delle sue radici (ricordiamo che tali radici sono gli
autovalori della matrice). Questo vale per le molteplicità algebriche, assumendo l’ipotesi che molteplicità
algebriche e geometriche coincidano, anche la somma delle molteplicità geometriche uguaglia l’ordine della
matrice e, alla luce del fatto che autospazi corrispondenti ad autovalori distinti sono indipendenti, ciò
garantisce l’esistenza di una base di autovettori. Da notare che lo stesso discorso non si può fare quando si
lavora sul campo R dei numeri reali perché un polinomio a coefficienti reali può contenere fattori di secondo
grado che non si decompongono.
91
c) trovare, se esistono, una matrice C ∈ M3, 3 (R) ed una matrice diagonale ∆ ∈ M3, 3 (R)
tali che C −1 · A · C = ∆ .
−7 3 1 4 t − 22
Soluzione. Calcoliamo il prodotto A · ~vt : 4 −11 −2 2 = −2t − 6 .
2 −3 −6 t 2 − 6t
Il vettore ~vt è un autovettore di A se esiste un valore λ per il quale risulti
t − 22 4
−2t − 6 = λ 2 .
2 − 6t t
Risolvendo il sistema indicato troviamo λ = −5 , τ = 2 .
L’autospazio associato all’autovalore λ = −5 è il nucleo della matrice
−2 3 1
A + 5I = 4 −6 −2 ,
2 −3 −1
ovvero è lo spazio delle soluzioni dell’equazione 2x − 3y − z = 0 (le tre righe della
matrice indicata sono chiaramente proporzionali tra loro, quindi il sistema omogeneo as-
sociato si riduce ad una sola equazione). Risolvendo
questa equazione troviamo una base
3 1
dell’autospazio V−5 : si ha BV−5 = 2 , 0 .
0 2
Questo significa che V−5 ha dimensione 2 (quindi, per definizione di molteplicità geometrica,
la molteplicità geometrica dell’autovalore λ = −5 vale 2.
Se la matrice A è diagonalizzabile, anche la molteplicità algebrica dell’autovalore λ = −5
deve essere uguale a 2 nonché la somma degli autovalori deve essere uguale a -24 (che è
la traccia della matrice A) . In questo caso c’è un altro autovalore, che indicheremo con
µ , ed è dato dall’equazione −24 = −5 − 5 + µ , dalla quale troviamo µ = −14 , quindi
-14 avrà molteplicità algebrica e geometrica uguale a 1 e -5 avrà effettivamente molteplicità
algebrica uguale a 2 (la somma delle molteplicità, di quelle algebriche come pure di quelle
geometriche, non può superare 3). In questo caso l’autospazio V−14 associato all’autovalore
µ = −14 è lo spazio delle soluzioni del sistema lineare (A + 14I)~x = ~0 , ovvero è lo spazio
delle soluzioni del sistema lineare
7 3 1 x 0
4 3 −2 y = 0 .
2 −3 8 z 0
Tale sistema lineare ammette infinite soluzioni, questo conferma che -14 è effettivamente un
autovalore e che la situazione è quella descritta.
1
Risolvendo tale sistema troviamo che { −2 } è una base dell’autospazio V−14 .
−1
Infine, C e ∆ sono rispettivamente la matrice di una base
di autovettori
e la matrice
3 1 1 −5 0 0
diagonale dei corrispondenti autovalori: C = 2 0 −2 , ∆ = 0 −5 0 .
0 2 −1 0 0 −14
Esercizio. Per ognuna delle matrici che seguono, determinare gli autovalori e calcolarne le
relative molteplicità algebriche e geometriche. Osservare che nessuna soddisfa la proprietà
iii) del Corollario 15.17, quindi dedurre che sono tutte matrici non diagonalizzabili.
3 1 0 −2 1 0 11 0 8
1 1 2 1 3 4
, , , 0 3 1 , 0 −2 0 , 0 7 0 ,
0 1 0 2 −1 7
0 0 3 0 0 3 −2 0 3
92
2 6 −2 0 0 1 1 5 3
−2 −5 1 (sapendo che − 2 è un autovalore), 0 0 0 , 0 1 4 .
2 3 −3 0 0 0 0 0 1
Esercizio. Sia V lo spazio dei polinomi di grado minore o uguale a 93 e sia D : V −→ V
la funzione derivata. Determinare tutti gli autovalori di D e, per ognuno di essi, una base
del corrispondente autospazio (cfr. esempio 14.3).
Soluzione. Lavorare con un sistema di coordinate (cfr. esempio 14.3) vorrebbe dire cercare
autovalori ed autospazi di una matrice 94 × 94 !
...percorriamo una strada diversa: usiamo direttamente le definizioni.
Il polinomio p(x) è un autovettore se e solo se risulta Dp(x) = λp(x) per qualche λ ∈ R.
Sappiamo che il grado di Dp(x) è minore del grado di p(x), quindi non potrà esserne un
multiplo non nullo. In altri termini, nessun valore diverso da 0 può essere un autovalore.
L’equazione Dp(x) = 0 è soddisfatta solamente dai polinomi costanti. In definitiva: λ = 0
è l’unico autovalore e l’insieme {1} è una base del corrispondente autospazio.
Concludiamo il paragrafo vedendo come la “geometria” può essere utilizzata per risolvere
un problema algebrico: quello di calcolare la potenza n-esima An di una matrice A.
Sia A ∈ Mk, k (R) una matrice. Vista la natura del prodotto righe per colonne il calcolo
di An risulta difficile per n grande o arbitrario. Esiste però un metodo che sostanzialmente
riduce il problema a quello di trovare una matrice “semplice” coniugata ad A. L’idea
è quella di considerare A come trasformazione lineare di Rk , scriverla rispetto ad una
base conveniente quindi passare alla composizione con se stessa n-volte ed infine passare
alla matrice che rappresenta quest’ultima rispetto alla base canonica di Rk . Nell’esercizio
svolto 15.20 vediamo come calcolare la potenza An di una matrice diagonalizzabile A.
Prima di procedere deve essere ben chiaro quanto segue:
i) non esistono formule generali per la potenza n-esima An ;
ii) se ∆ è una matrice diagonale il calcolo di ∆n è immediato (esercizio 15.19).
Si osservi alla luce dell’osservazione 13.18 non potrebbe essere diversamente: indicando
con m l’ordine di ∆ ed interpretandola come trasformazione di Rm , cioè considerando
L∆ come nella Def. 12.5), la formula (12.18) ci dice che la potenza ∆n corrisponde
(cfr. Prop. 12.16) alla composizione L∆ ◦ ... ◦ L∆ (n-volte). D’altro canto, sempre per
l’osservazione 13.18, la base canonica di Rm è una base di autovettori della composizione in
questione (come lo è per la trasformazione L∆ stessa) ed i corrispondenti autovalori sono
le potenze n-esime di quelli di L∆ .
11 6
Esercizio 15.20. Sia A = . Calcolare A80 .
−18 −10
Soluzione. Naturalmente potremmo armarci di pazienza e svolgere semplicemente il prodotto
di A per se stessa 80 volte. No, percorriamo un’altra strada: consideriamo la trasformazione
lineare LA : R2 → R2 e ne troviamo le direzioni privilegiate, utilizzando queste calcoliamo
la composizione LA ◦ ... ◦ LA (80-volte), infine scriviamo la matrice rappresentativa di
questa composizione.
Il polinomio caratteristico della trasformazione LA è il polinomio
11 − λ 6
det = λ2 − λ − 2 = (λ − 2)(λ + 1) ,
−18 −10 − λ
quindi gli autovalori di LA sono i valori λ = 2 e λ = −1 . I corrispondenti autospazi
93
sono
9 6 2
V2 = ker(A − 2I) = ker = Span{ };
−18 −12 −3
12 6 −1
V−1 = ker(A + I) = ker = Span{ }.
−18 −9 2
2 −1
Rispetto alla base di autovettori B = { , } la trasformazione LA è rappre-
−3 2
2 0
sentata dalla matrice diagonale degli autovalori ∆ = , quindi la composizione
0 −1
LA ◦ ... ◦ LA (80-volte)
80 è rappresentata
(sempre rispetto alla base di autovettori) dalla
80 2 0
matrice ∆ = (vedi esercizio 15.19).
0 (−1)80
A questo punto, effettuando un cambiamento di base troviamo la matrice che rappresenta
LA ◦ ... ◦ LA (80-volte) rispetto alla base canonica di R2 (tale matrice è A80 ):
80 −1
2 −1 2 0 2 −1 282 −3 281 −2
A80 = · · =
−3 2 0 (−1)80 −3 2 −3·2 +6 −3·280 +4
81
Non abbiamo voluto dirlo prima... ma da un punto di vista algebrico quello che abbiamo
fatto èassolutamente
elementare: diagonalizzando A si trova ∆ = B −1· A · B , dove
2 −1 2 0
B = è la matrice di una base di autovettori, ∆ = è la matrice
−3 2 0 −1
diagonale dei corrispondenti autovalori. Quindi,
A = B · ∆ · B −1 ,
i.e. −1
11 6 2 −1 2 0 2 −1
= · · .
−18 −10 −3 2 0 −1 −3 2
(il vantaggio è che, essendo ∆ una matrice diagonale, la potenza ∆80 la sappiamo calcolare:
basta elevare alla 80 gli elementi sulla diagonale).
94
§16. Approfondimenti.
Iniziamo col discutere alcuni risultati sulle permutazioni, risultati strumentali ad una
trattazione più approfondita di quelli che sono gli aspetti algebrici del determinante.
Sulle permutazioni.
Il nome “permutazione” viene dal fatto che posso pensare che gli elementi del mio insieme
abbiano una posizione e che io li stia spostando, o meglio, permutando (porto l’elemento i
nel posto che era occupato da σ(i), la biunivocità mi garantisce “un posto a disposizione”
per ogni elemento).
Ogni permutazione di un insieme finito può essere ottenuta effettuando un certo numero
di scambi, ovvero può essere scritta come composizione di scambi. Il numero di scambi che
intervengono in una tale scrittura non è ben definito, ma il suo essere pari o dispari lo è.
Questo fatto, che dimostro tra poco, permette di dare la definizione che segue.
Ad esempio, dati a, b, c ∈ I , abbiamo σa, b = σb, c ◦ σa, b ◦ σa, c , dove “◦” denota la
composizione di funzioni. Notiamo che abbiamo scritto uno scambio come composizione di
tre scambi.
Un corollario interessante, e che ci servirà, del fatto che il segno di una permutazione è
ben definito è il seguente:
Corollario 16.4 Dato un insieme, ogni scambio può essere scritto esclusivamente come
composizione di un numero dispari di scambi.
Faccio notare che, tornando a considerare insiemi i cui elementi occupano una posizione
e assumendo di numerare queste posizioni, si ha che la permutazione che scambia due ele-
menti scelti in modo arbitrario può essere scritta utilizzando un solo scambio e, essendo 1
dispari, esclusivamente come composizione di un numero dispari di scambi, e quindi, a mag-
gior ragione, esclusivamente come composizione di un numero dispari di scambi di elementi
adiacenti. ...tanto per fissare le idee e passare a quello che ci interessa:
Esercizio 16.5. Data una matrice, scrivete lo scambio della prima riga con la quarta come
95
Dimostrazione (del fatto che il segno di una permutazione è ben definito). L’inversa di
σa, b è sempre σa, b , quindi l’inversa di una composizione di scambi è la composizione degli
stessi scambi ordinati a partire dall’ultimo. Quindi, se due composizioni di scambi s1 ◦...◦sk
e r1 ◦...◦rh producono la stessa permutazione σ, possiamo scrivere la permutazione identica
nella forma σ ◦σ −1 = s1 ◦...◦sk ◦rh ◦...◦r1 . Di conseguenza, sarà sufficiente dimostrare che
la trasformazione identica può essere scritta esclusivamente come composizione di un numero
pari di scambi (infatti, k + h è pari se e solo se k ed h sono entrambi pari oppure entrambi
dispari). Ora, ragioniamo per induzione sul numero di elementi dell’insieme I . Sia dunque
I = {a, 1, 2, ..., n} e sia t1 ◦ ... ◦ tm una composizione di scambi uguale alla permutazione
identica di I . Dobbiamo provare che m è pari. Definiamo J = {1, 2, ..., n} e fissiamo
un ordine per il posto occupato dagli elementi di I . Ad ogni ti associamo la permutazione
pi di J indotta sull’ordine dei suoi elementi, ad esempio se ti = (3, 4, 2, a, 1, 5) 7→
(a, 4, 2, 3, 1, 5) allora pi = (3, 4, 2, 1, 5) 7→ (4, 2, 3, 1, 5) . Osserviamo che pi non è
necessariamente uno scambio. Posto ℓi = “lunghezza del salto di posizione di a”, pi è uno
scambio se ℓi = 0 , i.e. ti non coinvolge l’elemento a, e si può scrivere come composizione di
ℓi −1 scambi se ℓi ≥ 1 (ti coinvolge a). Poiché ogni P elemento di I dopo la sua passeggiata
torna nella sua posizione iniziale abbiamo che ℓi è pari nonché la composizione delle
pi è l’identità. A questo punto abbiamo concluso:Pm posto αi = 1 se P ℓi = 0 e posto
m
αi = ℓi − 1 se ℓi 6= 0 , abbiamo che m = i=1 1 è pari se e solo se i=1 αi è pari.
D’altro canto, quest’ultimo numero è uguale al numero di scambi di una scrittura della
permutazione identica di J , numero che, essendo J un insieme che ha meno elementi di I ,
è necessariamente pari per l’ipotesi induttiva.
Sia A = (ai,j ) ∈ Mn,n (R) una matrice quadrata di ordine n. Dalla (5.2′ ) si evince
che detA è un polinomio negli ai,j . Affermo che i monomi che lo costituiscono sono,
a meno del segno, tutti i prodotti di n elementi della matrice che stanno sia su righe
che su colonne distinte. Questa affermazione segue di nuovo dalla (5.2′ ). Ragioniamo per
induzione: premesso che quanto affermato è banalmente vero per le matrici 1 × 1 , visto che
nella (5.2′ ) il termine a1,j si scontra con det C1,j (per ogni i, j), essendo C1,j la matrice
ottenuta cancellando proprio la riga e la colonna corrispondente a a1,j , questo termine
non può scontrarsi con termini che stanno sulla sua stessa riga o colonna. D’altro canto
anche nei monomi di detC1,j non possono esserci due termini che stanno sulla stessa riga
o colonna (questa volta per l’ipotesi induttiva). Quindi, di fatto, in ogni a1,j ·detC1,j non
ci sono prodotti con due elementi sulla stessa riga o colonna. Inoltre, come già osservato,
det A è un polinomio costituito da n! monomi (di grado n) ed i monomi di grado n che
si possono scrivere considerando prodotti di elementi che stanno su righe e colonne distinte
sono esattamente10 in numero uguale ad n! (n fattoriale). Di conseguenza, necessariamente,
det A deve contenerli tutti.
Con un pizzico di lavoro in più, che a questo punto però ce lo risparmiamo per non
appesantire il discorso, non è difficile comprendere anche quali sono i segni davanti a tali
monomi e in definitiva provare la prossima proposizione.
10 Questa affermazione segue dalla teoria delle permutazioni. Infatti, le scelte di n elementi su righe e colonne
distinte si ottengono scegliendo un elemento da ogni colonna, ovvero una riga per ogni colonna, senza però
poter scegliere due volte la stessa riga. Considerando la prima colonna abbiamo n scelte a disposizione,
considerando la seconda colonna ne abbiamo n − 1 , considerando la terza colonna ne abbiamo n − 2 e cosı̀
via. In definitiva abbiamo n · (n − 1) · (n − 2) · ... · 3 · 2 · 1 = n! scelte a disposizione. Notiamo che tali
scelte sono sequenze {i1 , ..., in } (essendo ij la riga scelta per la colonna j ), trattandosi di sequenze senza
ripetizioni corrispondono alle permutazioni dell’insieme {1, ..., n} .
96
dove Sn è l’insieme delle permutazioni dei primi n interi {1, ..., n} , e dove ǫ(σ) è il
segno della permutazione σ .
Lo studente non si deve spaventare perché non dovrà mai impelagarsi con il formalismo di
questa formula. Il motivo per cui abbiamo voluto enunciarla è per ribadire lo straordinario
“ordine” della funzione determinante. In particolare, per ribadire, usando il linguaggio di
una formula, la (16.6′ ) appunto, il fatto già menzionato che il determinante è il polinomio
(omogeneo, di grado n) nelle variabili ai,j i cui monomi che lo costituiscono sono (a meno
del segno) i prodotti di n elementi della matrice che stanno sia su righe che su colonne
distinte.
Un altro vantaggio della (16.6′ ) è che è possibile ricondurvi entrambe le formule nella
(5.4′ ). Infatti, fissato un valore di k entrambe le espressioni nella (5.4′ ), cosı̀ come la
(5.2′ ) e per gli stessi motivi, si vedano le considerazioni che precedono la Proposizione 16.6,
coincidono con la (16.6′ ) a meno dei segni davanti i vari monomi. Ragionando per induzione
non è difficile verificare che anche i segni sono gli stessi.
Quanto detto dimostra la Proposizione 5.4: il determinante di una matrice può essere
calcolato mediante lo sviluppo di Laplace rispetto a una qualsiasi riga o colonna.
Proposizione 16.7. Esiste una unica funzione F definita su Mn,n (R) tale che
i) F è multilineare rispetto alle righe di Mn,n (R) ;
ii) F è antisimmetrica rispetto alle righe di Mn,n (R) ;
iii) F (In ) = 1 , dove In è la matrice identica.
Dimostrazione. Per quel che riguarda l’esistenza di una tale F è stato già detto tutto: la
funzione determinante soddisfa i), ii) e iii).
L’unicità segue dal fatto che è possibile calcolare il determinante di una matrice qualsiasi
utilizzando unicamente le proprietà i), ii) e iii). Vediamo come: sia dunque A una matrice e
sia F una funzione che soddisfa le proprietà i), ii) e iii). In particolare, le varie proprietà
che sono soddisfatte dalla funzione F ci dicono come cambia F (A) quando effettuiamo
uno dei passi dell’eliminazione di Gauss (2.1). A questo punto l’osservazione che conclude
la dimostrazione è il fatto che tramite i passi dell’eliminazione di Gauss (2.1) è possibile
trasformare qualsiasi matrice in una matrice che ha una riga di zeri oppure nella matrice
identica. Nel primo caso si ha F (A) = 0 (segue dalla multilinearità, il ragionamento è quello
fatto quando abbiamo dimostrato la 5.11.d). Nel secondo caso siamo ugualmente in grado
di dire quanto vale F (A) : basta che ci ricordiamo delle costanti (non nulle) che avremo
fatto intervenire nell’applicare l’E.G. che trasforma A nella matrice identica e del numero
degli eventuali scambi di righe effettuati. Si osservi che usiamo l’ipotesi F (In ) = 1 . Poiché
in entrambi (tutti) i casi siamo stati capaci di calcolare F (A) utilizzando solo le proprietà
che avevamo a disposizione, F è unica.
Come applicazione dei risultati visti, vediamo due dimostrazioni del teorema di Binet.
Una premessa: alla fine del paragrafo § 5 abbiamo osservato che come conseguenza del
97
teorema di Binet il determinante di una matrice invertibile non può annullarsi. Tuttavia
questo risultato non lo abbiamo utilizzato. Dunque, siano A, B ∈ Mn, n (R) due matrici.
Si vuole dimostrare che det (A · B) = detA · detB .
Nota: non abbiamo voluto appesantire la dimostrazione ma, ad essere precisi, scrivere
A = E1 · ... · Eh richiede un minimo di lavoro: la Proposizione 2.1 ci dice che possiamo
scrivere A = E1 · ... · Ej · T , dove le Ei sono matrici elementari e T è una matrice a scala,
quindi (trattandosi di una matrice quadrata) triangolare. D’altro canto, poiché det A 6= 0
per ipotesi, T è una matrice triangolare senza zeri sulla diagonale e, sempre con i passi
dell’E.G., può essere trasformata nell’identità cosı̀ come abbiamo fatto nell’esempio 6.3.
Dimostrazione #2 (del teorema di Binet). Il caso in cui det B = 0 lo trattiamo come nella
dimostrazione precedente (una colonna di A·B sarà c.l. delle altre, quindi il determinante
del prodotto A·B sarà nullo). Assumendo det B 6= 0 , consideriamo la funzione
det (M · B)
F (M ) := .
det B
Per la Proposizione 16.7 è sufficiente provare che questa funzione soddisfa le proprietà i), ii)
e iii) ivi indicate. La iii) è ovvia; la ii) segue dal fatto che scambiare due righe di M
equivale a scambiare due righe del prodotto M · B ; la i) vale per un motivo analogo: se
fissiamo tutti gli elementi di M eccetto quelli sulla j −esima riga, che indicherò con ~r , la
funzione ~r 7→ “j −esima riga di M ·B ” è lineare.
Ora la dimostriamo utilizzando solamente gli strumenti che avevamo a disposizione a quel
punto della trattazione.
La ii) è più sottile: si deve dimostrare che, per ogni w ~ ∈ Mn,1 (R) , il sistema lineare
B · ~x = w ~ è necessariamente compatibile. Ora, immaginiamo di effettuare la riduzione a
scala di B . Se per assurdo il sistema in questione è incompatibile, la riduzione a scala di B
(matrice incompleta associata al sistema) deve produrre una riga di zeri. D’altro canto B è
quadrata, quindi avendo una riga di zeri ha meno di n pivot, quindi le soluzioni del sistema
omogeneo B · ~x = ~0 dipendono da almeno un parametro libero. Ma questo è assurdo
perché il sistema B · ~x = ~0 ammette al più una sola soluzione, infatti B · ~x = ~0 implica
~x = A · ~0 = ~0 (abbiamo moltiplicato a sinistra per A e usato l’ipotesi A · B = In ).
Infine, la iii) è ovvia.
LA : Rn −→ Rn , LB : Rn −→ Rn ,
T ◦S = I se e solo se S◦T = I.
La ii′ ) è più sottile: essendo T ◦ S l’identità, abbiamo che S è iniettiva (se per assurdo
esistesse ~v 6= ~0 tale che S(~v ) = ~0 si avrebbe anche ~v = I(~v ) = T (S(~v )) = ~0 ). Poiché S
è iniettiva, deve essere necessariamente anche suriettiva (vedi l’osservazione a pagina 48).
La iii′ ) è una tautologia.
Abbiamo sempre lavorato con spazi vettoriali di dimensione finita (ovvero finitamente
generati). Enunciando la Proposizione 16.8 abbiamo voluto sottolineare questa ipotesi
perché nel caso degli spazi vettoriali di dimensione infinita la tesi della proposizione è falsa.
In effetti, in dimensione infinita i′ ) e iii′ ) continuano a valere (e le dimostrazioni non cam-
biano). Ma la ii′ ) non vale più, si può solamente dire che S è iniettiva e T è suriettiva. In
dimensione infinita “l’invertibilità a destra” non implica “l’invertibilità a sinistra”. E non è
difficile fornire un controesempio: sia V lo spazio vettoriale di tutti i polinomi, T : V → V
la trasformazione che al polinomio p(x) associa la sua derivata,
Rx sia inoltre S : V → V la
trasformazione che al polinomio p(x) associa l’integrale 0 p(·) (che è anch’esso un poli-
nomio). Le trasformazioni T ed S sono entrambe lineari (per esercizio, lo si verifichi). Si
99
ha T ◦ S = I (se prima integro e poi derivo ritrovo il polinomio dal quale ero partito), ma
la composizione S ◦ T fa fuori le costanti, infatti S ◦ T è l’applicazione che al polinomio
p(x) associa il polinomio p(x) − p(0) (questo è facile, verificatelo!).
Vale la pena osservare che questo discorso appartiene a un contesto più ampio, quello
dell’insiemistica: siamo A e B due insiemi e siamo f : A → B e g : B → A due funzioni.
Supponiamo che la composizione g ◦ f sia l’identità su A. Allora:
• f è iniettiva;
• g è suriettiva;
• la restrizione della composizione f ◦ g all’immagine di f è l’identità.
Esercizio. Dimostrare le affermazioni precedenti (un po’ di insiemistica non fa mai male).
Nel § 6 abbiamo visto che (Teorema 6.1) una matrice A ∈ Mn,n (R) è invertibile se e
solo se det A 6= 0 e che, se A è invertibile, si ha
det Cj,i
(⋆) A−1 i,j
= (−1)i+j · ,
det A
dove Cj,i è la matrice ottenuta da A sopprimendo la j -esima riga e la i-esima colonna. Ora
dimostriamo quanto affermato.
Dimostrazione. Come già osservato nel §6, il non annullarsi del determinante è una con-
dizione necessaria per l’invertibilità di A . Quindi, sarà sufficiente dimostrare che il prodotto
di A per la matrice indicata in (⋆) è la matrice identica. Verifichiamo quindi che A · X =
det C
In , essendo X la matrice Xi, j = (−1)i+j · det Aj,i . L’elemento di posto i, j della matrice
in questione è
n
X n
X
t+j detCj,t
A·X i, j
= Ai, t · Xt, j = Ai, t · (−1) ·
t=1 t=1
det A
n
1 X
= Ai, t · (−1)t+j · det Cj,t
detA t=1
Ora, guardando meglio l’espressione trovata ci accorgiamo che questa ha la faccia uno svi-
luppo di Laplace, più precisamente, sotto il segno di sommatoria c’è lo sviluppo di Laplace
del determinante della matrice ottenuta sostituendo la j esima riga di A con la iesima riga
di A !!! Quindi,
det A 0
se j = i si ottiene det A = 1 ; se j 6= i si ottiene12 det A = 0.
...questa non è altro che la definizione della matrice identica!
Dimostrazione. Effettuiamo una dimostrazione per induzione sul numero degli autospazi
in questione. Siano dunque ~v1 , ..., ~vk autovettori corrispondenti ad autovalori λ1 , ..., λk
distinti. Assumiamo k ≥ 2 (per k = 1 la tesi è banale) e che ogni insieme costituito da k −1
autovettori è un insieme indipendente di vettori (ipotesi induttiva). Si vuole dimostrare che
~v1 , ..., ~vk sono indipendenti. Ragioniamo per assurdo, supponiamo che esista una relazione
non banale di coefficienti tutti non nulli (altrimenti abbiamo anche una relazione non banale
tra meno di k autovettori e questo contraddice l’ipotesi induttiva)
Essendo i λi distinti ed essendo i ci non nulli, anche i prodotti (λi −λk )ci (per i < k) sono
non nulli. In particolare si ha una relazione non banale tra i vettori ~v1 , ..., ~vk−1 . Questo
contraddice il fatto che per ipotesi induttiva tali vettori sono indipendenti.
Si noti che alcuni dei sottospazi Wi possono anche essere di dimensione zero, cioè costituiti
solamente dal vettore nullo (rileggete con attenzione la definizione citata).
101
Come promesso nel § 13, dimostriamo il Teorema 13.17. Stabiliamo una premessa.
Dimostrazione. Posto d = µg (α) , sia {~v1 , ..., ~vd } una base dell’autospazio Vα e sia
un completamento di tale base a una base di V . Affermiamo che, rispetto alla base B , la
trasformazione T è rappresentata da una matrice del tipo
α 0 0 ... 0 ⋆ ... ⋆
0 α 0 ... 0 ⋆ ... ⋆
0 0 α ... 0 ⋆ ... ⋆
. .. .. ..
. .
. . .
A = 0 0 0 ... α ⋆ ... ⋆ ,
0 0 0 ... 0 ⋆ ... ⋆
. .. .. ..
.. . . .
0 0 0 ... 0 ⋆ ... ⋆
dove gli asterischi indicano numeri che non conosciamo e dove il blocco in alto a sinis-
tra, quello dove appare α lungo la diagonale principale, è una matrice quadrata d × d
(sotto questo blocco ci sono tutti zeri, le ultime n − d colonne di A non le conosciamo).
L’affermazione fatta si giustifica facilmente ricordando che nelle colonne di A troviamo
le coordinate delle immagini dei vettori della base: nella prima colonna di A ci sono le
coordinate di T (~v1 ) = α~v1 , eccetera.
A questo punto è chiaro che il polinomio caratteristico di A , è un polinomio del tipo
indicato nella formula che segue:
det A − λI = (α − λ) · ... · (α − λ) · q(λ) ,
| {z }
d volte
dove q(λ) è un polinomio di grado n − d (del quale non sappiamo dire nulla). Questo ci
garantisce che la molteplicità algebrica dell’autovalore α è maggiore o uguale a d .
102
Apriamo una breve parentesi per introdurre una nuova notazione. Il vettore ~v ∈ V di
~ ∈ W di coordinate β1 , ..., βm , per definizione, sono
coordinate λ1 , ..., λn e il vettore w
rispettivamente i vettori
n
X m
X
(16.10) ~v = λi ~vi , w
~ = βi w
~i
i=1 i=1
Queste espressioni la scriviamo utilizzando il formalismo del prodotto “righe per colonne”
(capisco che possa dare fastidio scrivere una matrice i cui elementi sono vettori... ma qual è
il problema! si tratta semplicemente di una notazione che mi consente di evitare di scrivere
fastidiose sommatorie):
(16.11) ~v = v · ~λ , ~,
~ = w·β
w
β~ = A · ~λ
Ora che abbiamo scritto in termini più intrinseci chi è l’applicazione T , il problema
di trovare la matrice rappresentativa A′ di T rispetto a delle basi {~ v ′1 , ..., v~ ′m } di V e
′ ′
{w ~ m } di W è ridotto ad un semplice conto formale che coinvolge il prodotto tra
~ 1 , ..., w
matrici. Ricaveremo A′ confrontando le due equazioni
(16.13) T v · ~λ = w · A · ~λ , T v ′ · λ~′ = w′ · A′ · λ~′ .
v′ = v · B , w′ = w · C .
103
Si noti che nella i-esima colonna di B ci sono le coordinate di vi′ rispetto alla vecchia base
{~v1 , ..., ~vm } ; in particolare la moltiplicazione “B·” trasforma le nuove coordinate di un
vettore nelle vecchie. L’affermazione analoga vale per C .
Tramite queste uguaglianze e la 1a delle equazioni (16.13) otteniamo
T v ′ · λ~′ = T (v · B) · λ~′
= T v · (B · λ~′ )
= w · A · (B · λ~′ )
= (w′ · C −1 ) · A · (B · λ~′ ) = w′ · C −1 · A · B · λ~′ .
Pertanto, confrontando l’equazione ottenuta con la 2a delle equazioni (16.13) otteniamo
(16.14) A′ = C −1 · A · B .
In effetti la (16.14) può essere dedotta anche da un semplice ragionamento (confronta con
la dimostrazione della Proposizione 15.6). Innanzi tutto ricordiamo che la moltiplicazione
per A′ è l’operazione che associa alle nuove coordinate di un vettore ~v ∈ V , le nuove
coordinate di T (~v ) ∈ W . Ora, analogamente a quanto visto nel §15, l’operazione appena
descritta può essere effettuata nel modo che segue: consideriamo nuove coordinate di ~v e
i) le trasformiamo nelle vecchie coordinate di ~v (moltiplicazione per B ),
ii) moltiplichiamo quanto ottenuto per A (ottenendo le vecchie coordinate di T (~v )),
iii) moltiplichiamo quanto ottenuto per C −1 (ottenendo le nuove coordinate di T (~v)).
Dal fatto che l’esecuzione di i), ii) e iii) è la moltiplicazione per la matrice C −1 · A · B
otteniamo la (16.14).
Naturalmente, se W = V , si sceglie la stessa base su dominio e codominio di T (i.e.
si sceglie w = v nonché w′ = v ′ ). Pertanto si ha C = B e l’uguaglianza (16.14) diventa
l’uguaglianza già nota
(16.15) A′ = B −1 · A · B .
Inciso 16.16. Abbiamo visto (Osservazione 15.16 e Proposizione 15.10) che matrici
coniugate rappresentano la stessa applicazione lineare rispetto a basi diverse e viceversa.
Di conseguenza, gli invarianti per coniugio dello spazio delle matrici corrispondono alle
proprietà geometriche intrinseche delle trasformazioni lineari di uno spazio vettoriale.
In particolare questo vale per il determinante di una trasformazione lineare (osservazione
15.16). Una discussione dell’interpretazione geometrica del determinante non è oggetto
di questo corso, comunque due parole le vogliamo dire. L’interpretazione geometrica del
determinante è la seguente:
il determinante misura di quanto la trasformazione in questione dilata “i volumi”.
Ciò, addirittura, indipendentemente da come misuriamo distanze e volumi.
Spieghiamo. Dato uno spazio vettoriale V è possibile misurare distanze e angoli, e di
conseguenza volumi, introducendo un prodotto scalare definito positivo. Con le nozioni a
disposizione in questo testo, è possibile introdurre un modo di misurare distanze e angoli
come segue: si scelga una base BV di V , si identifichi V con lo spazio delle coordinate Rn ,
quindi si consideri il prodotto scalare introdotto nel cap. II, § 7 (si vedano anche le definizioni
II.7.3 e II.7.7). Ora, sia T : V → V una trasformazione lineare e sia V il volume di una
regione misurabile (ad esempio, un qualsiasi parallelepipedo), allora il volume dell’immagine
di tale regione è uguale al prodotto V · det T . Questo indipendentemente dal prodotto
scalare a disposizione (ovvero dalla base BV scelta), cioè da come misuriamo distanze e
angoli. Quindi possiamo dire che det T è il coefficiente di dilatazione dei volumi pur senza
avere in mente un modo di misurare distanze e angoli, quindi volumi. Attenzione, quanto
detto vale solamente per i volumi, ad esempio non vale per la misura delle lunghezze: se ~v
è un vettore, la lunghezza di T (~v) , dipende anche dal prodotto scalare in questione (ovvero
dalla base BV scelta), cioè da come misuriamo le distanze, oltre che dalla lunghezza di ~v e
dalla trasformazione T .
104
In questa sezione facciamo delle considerazioni che ci portano a una definizione di spazio
vettoriale alternativa a quella vista (la Definizione 8.8), cfr. Definizione 16.18. Ribadiamo
la nostra convenzione stabilita subito dopo la Definizione 8.16:
Convenzione. Con la locuzione “ spazio vettoriale” intendiamo sempre “ spazio vettoriale
finitamente generato” (cfr. Definizioni 8.8 e 8.16).
Nel §8 abbiamo introdotto gli spazi vettoriali come insiemi V sui quali sono definite due
funzioni, una da V × V in V ed una da R × V in V , che soddisfano una lista di proprietà.
Più avanti abbiamo dimostrato che ogni spazio vettoriale è isomorfo ad un qualche Rn ,
cioè che può essere identificato con un qualche Rn (cfr. Oss. 8.20 e Oss. 12.26). Una tale
identificazione, chiamiamola φ, è una applicazione lineare biunivoca
φ : V −→ Rn .
Questa definisce un sistema di coordiante su V , è la funzione “ coordinate” (8.20) (ci preme
ribadirlo). Un altro aspetto che vogliamo sottolineare è il seguente:
una tale funzione φ consente di ricostruire la struttura di V (come spazio vettoriale)
a partire dalla struttura di Rn :
~ e λ · ~v
~v + w sono i vettori di coordinate ~ e λ · φ(~v ) .
φ(~v ) + φ(w)
(operazioni in V ) (operazioni in Rn )
Il fatto che la Definizione 16.18 sia equivalente alla Definizione 8.8 + (quel “ +” ha il
significato di ricordarci che alla Definizione 8.8 abbiamo aggiunto la nostra convenzione)
sostanzialmente si riduce alle considerazioni viste nell’inciso. Preferiamo comunque scrivere
una dimostrazione più pulita e diretta dell’equivalenza delle due definizioni.
Naturalmente non abbiamo alcun bisogno di una nuova definizione di spazio vettoriale,
la definizione data nel §8 è perfetta cosı̀ com’è. Con le considerazioni precedenti si vuole
semplicemente suggerire la strada per una definizione alternativa. Ci sembrava interessante
illustrarla perché l’idea che c’è sotto è un’idea che può essere, e viene, utilizzata spesso e
in contesti diversi per definire oggetti matematici. La ritroviamo nella sezione successiva,
sezione dove definiamo gli spazi affini (per i quali è scomodo seguire la via assiomatica).
106
Spazi Affini 13 .
Definizione 16.19. Uno spazio affine di dimensione n è un insieme A sul quale sia
definita una famiglia14 non vuota di funzioni biunivoche
F = φ : A −→ Rn
che soddisfi
(♣) φ ◦ ψ −1 (x) = M x + b , ∀ φ, ψ ∈ F , x ∈ Rn ,
dove b ed M sono rispettivamente un elemento in Rn ed una matrice invertibile n × n
(entrambi dipendenti da φ e ψ).
Inoltre, uno spazio affine è uno spazio affine di dimensione n per un qualche n.
Nel paragrafo §11 abbiamo introdotto i sottospazi affini di Rn come gli spazi delle
soluzioni dei sistemi lineari (arbitrari, cioè anche non omogenei). Naturalmente, i sottospazi
affini di Rn introdotti nel paragrafo §11 sono spazi affini secondo la Definizione 16.19 .
Naturalmente l’esempio 16.21 non ha nulla di speciale: come abbiamo avuto già modo
di dire, le soluzioni di sistemi non omogenei, che nel paragrafo §11 abbiamo chiamato
“ sottospazi affini di Rn ”, sono spazi affini secondo la Definizione 16.19.
Definizione 16.22 (alternativa alla 16.19). Uno spazio affine è una terna (A, W, Ψ),
dove A è un insieme, W è uno spazio vettoriale di dimensione finita e Ψ è una funzione
Ψ : A × A −−−−→ W
tale che
i) per ogni a ∈ A fissato, si ha che la funzione
ψa : A −→ W , ψa (x) := Ψ(a, x),
è biunivoca;
ii) vale la regola di Chasles Ψ(a, b) + Ψ(b, c) = Ψ(a, c) , ∀ a, b, c ∈ A .
Oss. 16.25. I “ sottospazi affini di Rn ” introdotti nel paragrafo § 11 (che sono i traslati
dei sottospazi vettoriali di Rn ), cioè i sottoinsiemi del tipo
(♠) ~v0 + W ,
dove ~v0 ∈ Rn è un punto (fissato) e W è un sottospazio vettoriale di Rn (cfr. 11.2, 11.5, 11.7),
sono in modo naturale spazi affini secondo la Definizione 16.22, infatti basta porre
W = “ spazio V della (11.7)”, Ψ(a, b) := b − a
(per esercizio, si verifichi che questa funzione soddisfa la regola di Chasles).
affini di un qualsiasi spazio vettoriale (che chiameremo “spazio ambiente”) sono i traslati
dei suoi sottospazi vettoriali, cioè i sottoinsiemi del tipo (♠), dove ~v0 è un punto fissato
dello spazio ambiente e W un sottospazio vettoriale dello spazio ambiente.
Per concludere, non possiamo non menzionare il fatto che classicamente gli spazi affini
vengono introdotti per via assiomatica, fissando classi di sottoinsiemi e vari tipi di assiomi,
come assiomi di ordinamento per i punti di una retta, come pure assiomi del tipo “per due
punti passa una sola retta” o “data una retta r e un punto p esiste un’unica retta s parallela
ad r passante per p”. Invitiamo il lettore a documentarsi per scoprire bellezza, vantaggi, ma
anche svantaggi, di questo approccio.
110
{~b1 , ..., ~br , ~u1 , ..., ~us } una base di U ed essendo ~z = ~0, anche i coefficienti α1 , ..., αr+s
sono nulli (si noti che usiamo tutti i dettagli della costruzione dei vari vettori in questione).
10.9. Considerando che 14 ≤ dim (U + W ) ≤ 19 (la dimensione dello spazio ambiente),
dalla formula di Grassmann otteniamo 4 ≤ dim (U ∩ W ) ≤ 9 .
10.10. Per la formula di Grassmann abbiamo dimW = dim (U + W ) + dim (U ∩ W ) −
dim U = dim (U +W ) + 3 − 6 = dim (U +W ) − 3 . Poiché 6 = dim U ≤ dim (U +W ) ≤ 8 ,
si deve avere 3 ≤ dim W ≤ 5 .
10.11. a) Indichiamo con ~u1 , ~u2 , ~u3 i tre generatori di Uk e con w ~ 1, w
~ 2 i due generatori
di W . Di sicuro ~u3 non è c.l. di ~u1 ed ~u2 (solo ~u3 ha prima coordinata non nulla),
inoltre ~u1 ed ~u2 sono proporzionali se e solo se k = 1 . Quindi, dim Uk = 3 per k 6= 1 ,
dim Uk = 2 per k = 1 . I due generatori di W non sono proporzionali, pertanto dim W = 2 .
Per k = 1 i quattro vettori ~u2 , ~u3 , w ~1 , w
~ 2 sono indipendenti, quindi generano l’ambiente
R4 (pertanto, in questo caso, l’intersezione è costituita solamente dal vettore nulla). Inoltre,
~ 1 non è c.l. dei generatori di Uk eccetto quando 2 = 7 − k, cioè k = 5. Ne segue che
w
dim Uk ∩ W ≤ 1 per k 6= 1, 5 , d’altro canto per la formula di Grassmann e quanto stabilito
sopra dim Uk ∩ W 6= 0 (sempre per k 6= 1, 5). Infine w ~ 2 ∈ U5 , quindi W ⊆ U5 .
~ 1, w
Mettendo insieme i risultati trovati abbiamo
dim U1 = 2 , dimW = 2 , dim U1 ∩ W = 0 , dim U + W = 4
dim U5 = 3 , dimW = 2 , dim U5 ∩ W = 2 , dim U + W = 3
dim Uk = 3 , dim W = 2 , dimU5 ∩ W = 1 , dim U + W = 4 per k 6= 1, 5 .
b) Scegliendo k̄ = 0 troviamo U0 ∩ W = Span{w ~2 − w
~ 1 } ; {w~2 − w
~ 1 } ne è una base.
c) {w ~2 − w ~ 1 , ~u2 , ~u3 } è una base di U0 soddisfacente le richieste.
Nota. Abbiamo “guardato” i vettori in questione per capire se c’erano o meno relazioni di
dipendenza, naturalmente avremmo potuto effettuare la solita riduzione a scala...
10.20. Come indicato nel suggerimento, il rango in questione vale r . Le equazioni
individuate da un minore invertibile di ordine r costituiscono un sistema quadrato di r
equazioni nelle r incognite t1 , ..., tr , la cui matrice incompleta è invertibile. Risolverlo,
cosa che sappiamo essere possibile, significa isolare t1 , ..., tr .
10.21. Prendiamo la strada più rapida: risolvendo il primo sistema troviamo x = 3 t,
y = 2 t, z = −15 t. D’altro canto queste equazioni soddisfano anche le equazioni del secondo
sistema, che pertanto per ragioni di dimensione (ovvero di numero di parametri liberi) deve
essere necessariamente equivalente al primo.
10.27. La prima stima da effettuare riguarda la dimensione di U che deve essere compresa
tra 15 e 19, infatti U è definito da 4 equazioni (che a priori potrebbero essere tutte banali).
La stessa stima vale per la dimensione dello spazio somma U + W . A questo punto la
stima 6 ≤ dim (U ∩ W ) ≤ 10 segue dalla formula di Grassmann. Un altro modo di
ottenere quest’ultima stima è il seguente: U ∩ W si ottiene considerando i vettori di W le
cui coordinate soddisfano le equazioni che definiscono U ; i.e. è un sottospazio di uno spazio
di dimensione 10, definito da 4 equazioni. Quindi la sua dimensione deve essere compresa
tra 6 = 10 − 4 e 10 .
10.28. Si deve avere dim (U ∩ W ) ≤ dim U ≤ dim (U + W ), cioè 6 ≤ 15 − k ≤ 11 .
Da queste disuguaglianze si ottiene 4 ≤ k ≤ 9 . Dalla formula di Grassmann si ottiene
dim W = 11 + 6 − (15 − k) = k + 2 .
11.4. Un’implicazione è immediata: uno spazio vettoriale deve contenere l’origine. Vice-
versa, se l’insieme S della (11.1) contiene l’origine, possiamo scrivere ~0 = t1~v1+...+ tk~vk +~c.
Questo dimostra che ~c è c.l. dei ~vi e pertanto che S = Span{~v1 , ..., ~vk } .
11.10. Usando la notazione (11.5) e la successiva osservazione abbiamo:
(∗)
V +~c = V ′ +~c ′ =⇒ V = V ′ +~c ′ −~c =⇒ V ′ + ~c ′ − ~c = V ′ =⇒ V = V ′
dove l’uguaglianza (∗) segue dalla precedente (più precisamente, dal fatto che, come con-
seguenza dell’uguaglianza precedente, lo spazio affine V ′ +~c ′ −~c è uno spazio vettoriale).
11.24. Non c’è praticamente nulla da dimostrare (cfr. Definizione 11.22)! ...lo spazio
113
II
GEOMETRIA EUCLIDEA
Nei primi 6 paragrafi di questo capitolo studiamo il piano Euclideo R2 e lo spazio Euclideo
3
R . Non introduciamo in modo rigoroso le nozioni di piano e spazio Euclideo astratto,
questo perché ci costerebbe del lavoro tutto sommato inutile alle luce di quelli che sono i
nostri obiettivi e del fatto che si tratta di nozioni per certi versi familiari. Pertanto, gli
oggetti del nostro studio saranno
• R2 , i cui elementi li consideriamo come “punti” (cfr. anche inciso cap. I, §11.16),
ed il cui soggiacente spazio vettoriale dei vettori geometrici (def. 1.2 e 1.5) è dotato
del prodotto scalare (1.7′ );
• R3 , dotato di analoga struttura (cfr. §4).
Consideriamo un piano H (quello che avete conosciuto alle scuole superiori e del quale
né allora né mai vedrete una definizione formale), fissiamo un sistema di riferimento ed
una unità dimisura
(vedi figura 1.1). Ad ogni punto P ∈ H possiamo associare le sue
x
coordinate ∈ R2 e viceversa. In questo modo i punti del piano vengono messi in
y
corrispondenza biunivoca con gli elementi di R2 .
asse (y)
3 u
(fig. 1.1) P =
2 • 2
asse (x)
P
•
•P ′
(fig. 1.4) chiaramente,
′
px − qx px − qx′
Q• = .
py − qy p′y − qy′
•
Q′
~v + w
~ w
~
(fig. 1.6)
•
•
~v
Osserviamo che gli elementi di R2 possono essere interpretati sia come punti del piano
H che come vettori geometrici di H . Ci stiamo complicando inutilmente la vita? Forse ce
la stiamo complicando, ma non inutilmente: è estremamente utile mantenere le due nozioni
“punti” e “vettori geometrici” distinte. D’ora in poi dirò semplicemente “vettore” invece di
“vettore geometrico”.
vx wx
Definizione 1.7. Siano ~v = e w~ = due vettori. Si definisce il loro
vy wy
prodotto scalare mediante la formula
(1.7′ ) ~v · w
~ := vx wx + vy wy .
Osservazione. Per il teorema di Pitagora, la norma del vettore ~v coincide con la lunghezza
di un segmento orientato che lo rappresenta:
~v vy
vx
|| c~v || = |c| · || ~v ||
|~v · w|
~ ≤ ||~v || · ||w||
~
~v · w
~ = ||~v || · ||w||
~ · cosθ
Dimostrazione. Alle scuole superiori abbiamo visto che se a, b, c sono le misure dei lati di
un triangolo e θ è l’angolo indicato nella figura, allora
1
a · b · cosθ = 2 a2 + b 2 − c2 c
b
θ
a
16Non abbiamo mai definito l’angolo compreso tra due vettori; rispetto al nostro modo di procedere, sarebbe
più corretto definire l’angolo θ compreso tra due vettori non nulli ~v e w
~ come l’arco-coseno di ~v · w
~ ||~v||·||w||
~
(numero che per la disuguaglianza di Cauchy-Schwarz ha valore assoluto minore o uguale ad uno). Cfr. § 7.
117
~v − w
~ a = ||~v ||
w
~
b = ||w||
~
c = ||~v − w||
~
θ
~v
troviamo
1
||~v || · ||w||
~ · cosθ ||~v ||2 + ||w||
= ~ 2 − ||~v − w||
~ 2 = ~v · w
~
2
(la verifica dell’ultima uguaglianza è un facile esercizio: basta scrivere per esteso le espres-
sioni ivi coinvolte).
Osservazione 1.13. In particolare, due vettori sono ortogonali se e solo se il loro prodotto
scalare è nullo (per definizione, il vettore nullo si considera ortogonale ad ogni vettore).
~v + w
~
w
~ ||~v + w||
~ ≤ ||~v || + ||w||
~
•
•
~v
~v ~u
(fig. 1.16)
Πhwi
~ (~
v)
•
w
~
118
~
v ·w
~
Dimostrazione. Il vettore w
~ è un multiplo del vettore w
~ 2
||w|| ~ , quindi è sufficiente
verificare che il vettore differenza ~u := ~v − ||~vw||
·w
~
~ 2 w ~ è effettivamente perpendicolare al
vettore
h w
~ . Effettuiamo
i tale verifica
(calcoliamo il prodotto
scalare
~ · ~u): si ha w
w ~ · ~u =
~
v ·w
~ ~
v ·w
~ ~
v ·w
~
~ · ~v −
w ~ 2
||w|| w
~ = ~v · w
~ − ~ 2
||w|| ~ · w)
(w ~ = ~v · w
~ − ~ 2
||w|| ~ 2 = ~v · w
||w|| ~ − ~v · w
~ = 0.
4 1
Esercizio. Siano ~v = e w~ = due vettori del piano Euclideo. Determinare
3 2
la proiezione di ~v lungo la direzione individuata da w ~.
~
v ·w
~ 10 1 2
Soluzione. Applicando la formula (1.15) si ha: Πhwi ~ (~ ~ 2 ·w
v ) = ||w|| ~ = 5 ·
2
=
4
.
4 −5
Esercizio 1.17. Siano ~v = e w~ = . Determinare la proiezione Πhwi
~ (~
v) .
7 3
−2 6 −6 10
Esercizio 1.18. Siano ~v = , ~u1 = , ~u2 = , w
~= . Determinare
5 −15 15 4
a) la proiezione del vettore ~v lungo la direzione individuata dal vettore w~;
b) la proiezione del vettore ~v lungo la direzione individuata dal vettore ~u1 ;
c) la proiezione del vettore ~v lungo la direzione individuata dal vettore ~u2 .
Proposizione 1.19. Siano ~v e w ~ due vettori del piano e sia A l’area del parallelogramma
che individuano (vedi figura). Si ha
vx wx
A = | det |,
vy wy
dove le barre verticali denotano la funzione modulo (valore assoluto).
w
~
θ
~v
Gli esercizi che seguono sono parte integrante della teoria (=lo studente si risolva).
Esercizio 1.21. Dire quali sonole coordinate dell’estremo finale di un segmento orientato
4 −3
che rappresenta il vettore ~v = ed il cui estremo iniziale è il punto P = .
5 2
Disegnare i due punti ed il vettore.
Esercizio 1.22.
Determinare l’estremo iniziale del segmento orientato
che rappresenta il
−7 5
vettore ~v = e che ha per estremo finale il punto P = .
18 −2
2 8
Esercizio. Determinare la distanza tra i punti P = , Q= .
1 5
6
Soluzione. Tale distanza è la lunghezza del vettore ~v = P Q = . Si ha
4
6 √ √
dist {P, Q} = ||~v || = || || = 62 + 42 = 52 .
4
Esercizio
1.23. Determinare
le misure
dei lati del triangolo di vertici
2 5 4
P = , Q = , R = .
−3 1 9
3 −5
Esercizio 1.24. Trovare il coseno dell’angolo compreso tra i vettori ~v = e w
~= .
4 12
Esercizio
1.25. Determinare
i
coseni
degli angoli interni del triangolo di vertici
2 7 4
A = , B = , C = .
1 3 11
Suggerimento: si considerino i vettori rappresentati da AB, AC eccetera.
Esercizio 1.29. Determinare le aree dei triangoli degli esercizi (1.23) e (1.25).
120
Secondo la definizione data nel cap. I, §11, una retta nel piano è un sottospazio affine di R2
di dimensione 1. Considerando R2 come piano Euclideo manteniamo la stessa definizione.
Naturalmente, considerando R2 come piano Euclideo17 , anche sulle rette che vi giacciono
sarà possibile misurare le distanze; in questo caso parleremo di rette Euclidee.
Nota. Può apparire bislacco sommare un vettore a un punto! ...a parte il fatto che
nulla vieta di definire algebricamente una tale somma (come somma delle coordinate), la
cosa ha geometricamente senso: la somma nella (2.2) P0 +t~v ha il significato geometrico di
considerare l’estremo finale del segmento orientato rappresentato dal vettore t~v , di estremo
iniziale P0 .
I coefficienti delle equazioni che descrivono una retta hanno una importante interpre-
tazione geometrica. Cominciamo col caso parametrico (equazioni 2.2).
(fig. 2.5) ~v
x0 + α
P1 =
• y0 + β
(x) r
2 5
Esempio. Il punto P0 = appartiene alla retta dell’esempio (2.3), il vettore ~v =
3 −2
è parallelo a tale retta.
Esercizio
2.6.
Determinare delle equazioni
parametriche della retta passante per il punto
−1 5
P = e parallela al vettore ~v = .
4 9
Naturalmente la proposizione precedente può essere sfruttata per scrivere le equazioni
parametriche della retta passante per due punti.
px qx
Osservazione 2.7. La retta passante per i punti P = e Q = è descritta
py qy
dalle equazioni parametriche
(
x = px + α t α qx − px
, dove = PQ =
y = py + β t β qy − py
4 7
Esempio. La retta passante per i punti P = e Q = è descritta dalle
2 4
equazioni parametriche (
x = 4 + 3t
y = 2 + 2t
3
Si noti che è il vettore rappresentato dal segmento orientato P Q .
2
122
La proposizione precedente può essere utilizzata per scrivere un’equazione cartesiana per
la retta ortogonale
ad un vettore e passante per un punto
dati: la retta r passante per il
px a
punto P = ed ortogonale al vettore ~v = ha equazione cartesiana
py b
ax + b y − apx − b py = 0.
Infatti, il fatto che r debba avere un’equazione del tipo ax + by + c = 0 segue dalla
proposizione precedente, il passaggio per P impone la condizione apx + bpy + c = 0 , ovvero
fornisce c = −apx −bpy .
2 8
Esempio. La retta r ortogonale al vettore ~v = e passante per il punto P =
5 1
ha equazione cartesiana
2 x + 5 y − 21 = 0 .
Esercizio
2.10. Determinare un’equazione cartesiana della retta r passante per il punto
6
P = e parallela alla retta s di equazione 2x − 3y + 1 = 0 .
7
Esercizio.
Determinare un’equazione cartesiana della retta r passante per il punto
8 x = 4 + 2t
P = e parallela alla retta s di equazioni parametriche .
5 y = −3 + 7 t
Soluzione #1. Si trova un’equazione cartesiana di s e si procede come per l’esercizio
precedente.
2 7
Soluzione #2. Il vettore è parallelo ad s, ovvero ad r . Quindi è un vettore
7 −2
ortogonale ad r . Per la Proposizione 2.9, r ha un’equazione del tipo 7x − 2y + c = 0 .
Imponendo il passaggio per il punto P troviamo c = −46 .
x = 8 + 2t
Soluzione #3. La retta r è descritta dalle equazioni parametriche .
y = 5 + 7t
Un’equazione cartesiana la troviamo eliminando il parametro t .
123
Esercizio
2.11. Determinare
un’equazione cartesiana per la retta r passante per i punti
2 8
P = , Q = .
1 5
Esercizio
2.12. Determinare un’equazione cartesiana della retta s passante per il punto
1
P = ed ortogonale alla retta r di equazione 2x − 3y − 4 = 0 .
5
L’intersezione di due rette si determina mettendo a sistema le rispettive equazioni carte-
siane. Si avrà un’unica soluzione quando le rette non sono parallele, si avranno infinite
soluzioni se le rette coincidono, mentre il sistema sarà incompatibile nel caso in cui le rette
sono parallele e distinte.
Il caso in cui entrambe le rette sono data in forma parametrica si tratta in modo analogo (o
si confronta il punto generico dell’una con quello dell’altra, oppure si determina l’equazione
cartesiana di una o entrambe le rette e si procede come sopra).
Esercizio
2.15. Determinare un’equazione cartesiana della retta s passante per il punto
6
P = ed ortogonale alla retta r di equazione 2x − 3y − 4 = 0 .
7
Esercizio 2.16. Determinare
delle equazioni parametriche
chedescrivono la retta passante
−1 −1
per il punto P = ed ortogonale al vettore ~v = .
3 3
Esercizio
2.17. Determinare un’equazione
cartesiana della retta s passante per il punto
−1 1
P = e parallela al vettore ~v = .
−1 2
Esercizio
2.18. Determinare equazioni parametriche
della retta s passante per il punto
4 3
P = ed ortogonale al vettore ~v = .
5 3
124
px
Proposizione. Sia r la retta di equazione ax + b y + c = 0 e sia P = un
py
punto del piano. La distanza di P da r , che per definizione è la “distanza minima”, cioè
il minimo tra le distanze di P dai punti di r , è data dalla formula
| apx + bpy + c |
(2.19) dist P, r = √ ,
a2 + b 2
•P
dist{P, r}
r
•
Q
Naturalmente va osservato che tale distanza minima esiste e viene realizzata dal punto
Q (vedi figura) di intersezione della retta r con la retta ortogonale ad essa passante per P .
Per questa ragione Q viene detto anche
proiezione ortogonale del punto P sulla retta r .
La formula della distanza punto-retta è per un certo verso molto naturale. Infatti,
l’espressione apx + bpy + c si annulla sui punti di r , quindi definisce una funzione che si
annulla proprio sui punti che hanno distanza nulla dalla retta, ed è una funzione di primo
grado in x ed y . Ora, restringendo la nostra attenzione ad uno dei due semipiani in cui r
divide il piano, anche la nostra funzione distanza deve essere rappresentata da una funzione
di primo grado in x ed y e poiché anch’essa si annulla su r , deve essere proporzionale alla
funzione apx + bpy + c . Pertanto la distanza cercata deve soddisfare un’equazione del tipo
(⋆) dist P, r = γ · | apx + b py + c | ,
dove γ è una costante (= non dipende dal punto P ) opportuna. Quanto al fatto che
risulta γ = √a21+b2 voglio far notare che tale valore rende l’espressione (⋆) invariante per
cambiamenti dell’equazione cartesiana scelta per rappresentare r ...ed una formula che si
rispetti deve soddisfare tale condizione di invarianza!
125
4
Esercizio. Determinare la distanza del punto P = dalla retta r di equazione
7
cartesiana x + 2y − 3 = 0 .
~v
•K = 7
2
w
~
• 2
P =
1
(x)
Si ha
1 vx wx 1 6 5
A = |det | = |det | = 7.
2 vy wy 2 4 1
3 3
Esercizio 3.2. Calcolare le aree dei triangoli T1 di vertici A = , B = ,
7 −5
−4 −1 13 −7
C= ; T2 di vertici P = , Q= , K= .
9 −4 8 11
Esercizio
3.3. Calcolare
l’area A del quadrilatero
irregolare (disegnatelo) di vertici
−3 6 1 −4
P = , Q= , K= , W = .
1 5 −3 −5
Suggerimento: dividetelo in due triangoli, quindi procedete come nell’esercizio precedente.
126
Esercizio
3.4. Calcolare
l’area A del pentagono
irregolare
divertici
−3 6 6 1 −4
P = ,Q= , E = , K = , W = .
1 5 1 −3 −5
Suggerimento: dividetelo in tre triangoli.
Esercizio
3.5. Determinare il punto K ottenuto proiettando ortogonalmente il punto
0
P = sulla retta r di equazione x + 2y − 3 = 0 .
4
(è opportuno verificare che le coordinate del punto K soddisfano l’equazione che definisce
la retta r e che il vettore K P = 0−(−1)
4−2 = 12 è perpendicolare al vettore w ~ = −2 1 , i.e.
il loro prodotto scalare è nullo. Queste due verifiche garantiscono la correttezza del risultato
trovato).
(y)
0
•P = 4
−1 • ~v
K =
2
~u 3
Q =
0
• (x)
r
Soluzione #2. Il punto K è il punto di intersezione della retta r con la retta ortogonale
ad r passante per P . Quest’ultima ha equazioni parametriche
(
x = t
(⋆)
y = 4 + 2t
127
−1
Esercizio 3.6. Determinare la proiezione K del punto P = sulla retta r di
8
equazione 3x + 2y − 13 = 0 .
15
Esercizio 3.7. Determinare la proiezione K del punto P = sulla retta r di
5
equazione 4x − y − 4 = 0 .
−1 5
Esercizio 3.8. Determinare il punto medio M tra i punti P = , Q = .
7 3
Soluzione. Il punto M è l’estremo
finale del segmento
5 orientato
di 2estremo
iniziale P
rappresentato dal vettore 12 P Q : M = −1 7 + 1
2 3 − −1
7 = 5 (notiamo che si
ottiene la semi-somma delle coordinate di P e Q).
Esercizio
3.9. Determinare
un’equazione cartesiana dell’asse del segmento di vertici
−1 5
P = , Q = .
7 3
6
Soluzione. Tale asse è ortogonale al vettore P Q = , quindi è descritto da
−4
un’equazione del tipo 6x − 4y + c = 0 . La costante c si può determinare in due
modi: i) si impone che la retta indicata sia equidistante da P e Q (dall’equazione
|6·(−1) − 4·7 + c| = |6·5 − 4·3 + c| si trova c = 8);
2
ii) si impone il passaggio per il punto medio M = tra P e Q .
5
15 1 2
Esercizio 3.10. Siano A = , O= , B = . Determinare la bisettrice
4 2 9
dell’angolo \AOB .
14 ′ 1 dist{O, B} 14 8
Soluzione. Risulta O A = , poniamo A = + dist{O, A} = (è il
2 2 2 3
punto sulla semiretta di origine O, contenente A, avente distanza da O pari alla distanza
dist{O, B} , convincersene!). Notiamo che gli angoli AOB \ e A \ ′ OB sono uguali, ma il
Molte definizioni e risultati che vedremo in questo paragrafo generalizzano quelli visti
studiando il piano. Consideriamo lo spazio S (cfr. introduzione al capitolo) e fissiamo un
di misura (figura 4.1). Ad ogni punto P ∈ S possiamo
sistema di riferimento ed unaunità
x
associare le sue coordinate y ∈ R3 e viceversa (figura 4.1). In questo modo i punti
z
dello spazio vengono messi in corrispondenza biunivoca con gli elementi di R3 .
asse (z)
z
•
x
(fig. 4.1) • P = y
z
x•
y
•
geometrici dello spazio S di una struttura di spazio vettoriale (cfr. cap. I, §8 def. 8.8). La
somma di due vettori geometrici è l’operazione analoga a quella vista studiando il piano
(cfr. §1).
vx wx
Definizione 4.3. Siano ~v = vy e w ~ = wy due vettori. Si definisce il loro
vz wz
prodotto scalare mediante la formula
~v · w
~ := vx wx + vy wy + vz wz .
Osservazione. Analogamente a quanto accadeva per i vettori del piano, la norma del
vettore ~v coincide con la lunghezza di un segmento orientato che lo rappresenta. Inoltre,
se c ∈ R è una costante e ~v è un vettore si ha
|| c~v || = |c| · || ~v ||
(cfr. oss. 1.9). Continuano a valere anche le proprietà (1.10), la disuguaglianza di Cauchy-
Schwarz (1.11), la disuguaglianza triangolare e la Proposizione 1.12. Quest’ultima la ricor-
diamo:
(4.4) ~v · w
~ = ||~v || · ||w||
~ · cosθ
Osservazione. Di nuovo, due vettori sono ortogonali se e solo se il loro prodotto scalare
è nullo (cfr. oss. 1.13).
Passando dal piano allo spazio, la Proposizione 1.14 diventa più complicata:
(4.8) ~ = ~0
~v ∧ w ⇐==⇒ ~v e w
~ sono dipendenti.
~v ∧ (λ w
~1 + µw
~ 2) = λ~v ∧ w
~ 1 + µ~v ∧ w
~2 ,
(λ~v1 + µ~v2 ) ∧ w
~ = λ~v1 ∧ w
~ + µ~v2 ∧ w
~ ,
~v ∧ w
~ = −w
~ ∧ ~v
Il prodotto della (4.10′ ) è molto importante, tant’è che gli è stato dato un nome:
(4.12) ~v ∧ w
~ è ortogonale al piano individuato da ~v e w
~
Dimostrazione. È sufficiente verificare che ogni vettore di tale piano è ortogonale a ~v ∧ w
~.
Se ~u è un vettore appartenente a tale piano, cioè se è una combinazione lineare dei vettori
~v e w~ , allora il determinante che compare nella (4.10′ ) si annulla, quindi il prodotto misto
si annulla, quindi ~u e ~v ∧ w
~ sono ortogonali.
(si noti che l’espressione che appare a destra è un polinomio18 che sappiamo scrivere).
~ 2 è un polinomio che sappiamo scrivere (def. 4.7
D’altro canto anche l’espressione ||~v ∧ w||
e 4.3). Queste due espressioni coincidono (lo studente le scriva entrambe).
La proprietà iv) merita un approfondimento sul concetto di orientazione, la dimostriamo
nell’inciso che segue (cfr. inciso 4.14).
18 Nelle coordinate di ~v e w
~.
132
Inciso 4.14. Consideriamo una base ordinata19 B = {~v1 , ~v2 , ~v3 } di R3 . Ci sono due
possibilità: il determinante della matrice associata ai vettori può essere positivo o negativo.
Nel primo caso diremo che B è positivamente orientata, nel secondo caso diremo che è
negativamente orientata. Utilizzando questa definizione la dimostrazione della proprietà
(4.13, iv )) è immediata: posto ~u = ~v ∧ w ~ , il determinante della matrice associata alla
terna {~v, w,~ ~v ∧ w}
~ soddisfa
Lemma (4.10)
| | | ux uy uz ւ
det ~v ~ = det vx
~ ~v ∧ w
w vy vz = ~u · (~v ∧ w) ~ 2 > 0
~ = ||~v ∧ w||
| | | wx wy wz
Appena prima della (4.13) abbiamo introdotto anche una nozione a priori differente: ab-
biamo detto che una terna (ordinata, indipendente) di vettori è positivamente orientata se
“la posizione nello spazio dei tre vettori, nell’ordine indicato, appare come quella di pollice
indice e medio della mano destra”. Dietro l’equivalenza delle due definizioni ci sono alcuni
fatti e una convenzione:
I fatti. Dato uno spazio vettoriale20 astratto (cap. I, def. 8.8), l’insieme di tutte le sue
possibili basi (ordinate) è dotato di una naturale relazione di equivalenza che lo divide in due
sottoinsiemi: due basi appartengono allo stesso sottoinsieme se e solo se il determinante della
matrice del cambiamento di base è positivo; equivalentemente, è possibile passare dall’una
all’altra con continuità. Per “l’esempio spazio fisico” i due sottoinsiemi di cui sopra sono
rispettivamente quelli costituiti dalle basi identificabili con pollice, medio e indice della mano
destra e quelli costituiti dalle basi identificabili con la mano sinistra. Questa affermazione
vale per ragioni di continuità (mi rendo conto che ciò possa sembrare un po’ “scivoloso”, visto
che lo spazio fisico matematicamente non esiste; naturalmente esiste -matematicamente- il
modello R3 che lo rappresenta ...ma per esso non ha alcun senso parlare di mano destra o
sinistra!). Per definizione, un’orientazione di uno spazio vettoriale è la scelta di uno dei due
possibili insiemi ed una base si dirà positivamente orientata se appartiene all’insieme scelto.
Non esiste una scelta universale, per l’esempio R3 si sceglie l’insieme contenente la base
canonica, per lo spazio fisico si sceglie l’insieme individuato (vedi sopra) dalla mano destra.
La convenzione. Lo spazio fisico si rappresenta orientando i tre assi coordinati in modo che
siano sovrapponibili a pollice, medio e indice della mano destra (cioè come nella figura 4.1).
Studiando la geometria Euclidea del piano abbiamo visto che l’area del parallelogramma
individuato da due vettori è il modulo del determinante associato (Proposizione 1.19). Nello
spazio abbiamo che l’area del parallelogramma individuato da due vettori è la norma del
loro prodotto vettoriale. Faccio notare che questi due risultati sono molto meno distanti di
quanto possa sembrare, o meglio che il secondo generalizza il primo: due vettori nel piano
li possiamo considerare come vettori nello spazio introducendo una terza coordinata nulla,
d’altro canto risulta
vx wx 0
vy ∧ wy = 0
0 0 vx wy − vy wx
e la norma di questo vettore è il modulo della sua terzacoordinata (l’unica non nulla), che
vx vy
a sua volta è il modulo del determinante della matrice .
wx wy
Dimostrazione (della Proposizione 4.6). Assumiamo che i tre vettori siano indipendenti
(altrimenti il volume ed il determinante in questione sono nulli e non c’è nulla da dimostrare).
Sia P il parallelogramma individuato da ~v e w ~ , sia A la sua area e sia θ l’angolo
compreso tra il vettore ~u ed il piano del parallelogramma P . Si osservi che l’angolo
compreso tra ~u e la retta ortogonale al parallelogramma P è pari a π/2 − θ e che questa
retta rappresenta la direzione individuata dal vettore ~v ∧ w~ (proprietà 4.13, ii)). Si ha
V = A · ||~u|| · |senθ| = A · ||~u|| · |cos π/2 − θ |
= ||~v ∧ w||
~ · ||~u|| · |cos π/2 − θ |
= |~u · (~v ∧ w)|
~
ux uy uz
= |det vx vy vz |
wx wy wz
dove la 1a uguaglianza segue dal fatto che l’altezza relativa alla base P del nostro paralle-
lepipedo vale ||~u|| · |sen θ|, la 2a è ovvia, la 3a segue dalla proprietà (4.13, iii)) del prodotto
vettoriale, la 4a dalla formula (4.4), la 5a dalla (4.10′ ).
Concludiamo il paragrafo con alcuni esercizi che lo studente dovrebbe essere in grado
di risolvere senza problemi (le tecniche di risoluzione viste nei paragrafi relativi al piano
Euclideo si adattano mutatis mutandis anche allo spazio Euclideo).
Esercizio 4.15. Si considerino i seguenti punti e vettori geometrici dello spazio Euclideo:
5 −1 1 3 −7 1 3
P = −2 , Q = 7 , R = −1, ~u = −6, ~v = 18 , w ~ = 2 , ~z = 1 .
1 2 3 2 5 1 2
a) Calcolare le coordinate del vettore geometrico rappresentato dal segmento orientato QR;
b) determinare l’estremo iniziale del segmento orientato che rappresenta il vettore ~v , di
estremo finale il punto P ;
c) calcolare la distanza tra i punti P e Q ;
d) calcolare il coseno dell’angolo compreso tra i vettori ~v e w ~;
e) trovare un vettore di norma 35 parallelo al vettore ~u ;
f ) trovare un vettore ortogonale al vettore ~v ;
g) trovare due vettori indipendenti ortogonali al vettore ~v ;
h) calcolare i prodotti vettoriali ~u ∧ ~v , ~u ∧ w ~ , ~u ∧ ~z , w
~ ∧ ~z
(in tutti i casi, verificare che il risultato ottenuto è ortogonale a entrambi gli argomenti);
i) trovare due vettori ~a e ~b ortogonali tra loro ed ortogonali al vettore ~u ;
l) calcolare l’area del parallelogramma individuato dai vettori ~v e w ~;
m) calcolare l’area del triangolo di vertici P, Q, R ;
n) calcolare i coseni degli angoli interni del triangolo di vertici P, Q, R ;
o) calcolare il volume del parallelepipedo sghembo di spigoli ~v , w, ~ ~z .
p) calcolare il volume Ω del parallelepipedo di spigoli ~a, b, ~u (dove ~a e ~b sono i vettori
~
del punto di domanda i)), verificare che risulta Ω = ||~u|| · ||~a|| · ||~b|| = 7 · ||~a|| · ||~b|| , interpretare
geometricamente questo risultato;
q) supponiamo di occupare la posizione del punto R e di guardare un topolino che cammina
lungo il triangolo di vertici O, P, Q (essendo O l’origine di R3 ) seguendo il percorso
O P Q O . In quale verso lo vedrò girare (orario o antiorario)?
134
Per definizione, rette e piani nello spazio S = R3 sono rispettivamente i sottospazi affini
di dimensione 1 ed i sottospazi affini di dimensione 2. Dalla teoria svolta sui sistemi lineari
questi possono essere definiti sia per via cartesiana che parametrica. Per fissare le notazioni
ed agevolare la lettura ricordiamo le definizioni.
x
Definizione. Un piano π dello spazio S è il luogo dei punti P = y che soddisfano
z
un’equazione di primo grado (detta equazione cartesiana), cioè un’equazione del tipo
(5.1) ax + b y + cz + d = 0 , rango a b c = 1
(i.e. a, b, c non sono tutti nulli). Equivalentemente, è il luogo dei punti P descritto
parametricamente dalle equazioni
x = x0 + λ1 t
+ µ1 s λ1 µ1
(5.2) y = y0 + λ2 t + µ2 s , rango λ2 µ2 = 2
z = z0 + λ3 t + µ3 s λ3 µ3
Come sappiamo, l’equivalenza delle due formulazioni segue dal fatto che è possibile passare
dalla (5.1) alla (5.2) risolvendo il sistema lineare (che essendo di rango 1 produrrà 2 parametri
liberi) e, viceversa, è possibile passare dalla (5.2) alla (5.1) eliminando i parametri.
x
Definizione. Una retta r dello spazio S è il luogo dei punti P = y che soddisfano
z
un sistema lineare (le cui equazioni sono dette equazioni cartesiane) del tipo
(
ax + b y + cz + d = 0 a b c
(5.3) , rango = 2.
a′ x + b′ y + c′ z + d′ = 0 a′ b ′ c′
Di nuovo, la condizione sul rango della matrice incompleta associata al sistema (5.3) ne as-
sicura la compatibilità ed il fatto che questo ha soluzioni dipendenti da un parametro libero,
ovvero soluzioni come descritto dalla (5.4). Naturalmente, l’eliminazione del parametro
consente il passaggio inverso, quello dalla (5.4) alla (5.3).
Va osservato che ognuna delle due equazioni che compaiono nella (5.3) descrive un piano,
metterle a sistema significa considerare l’intersezione dei piani che (prese singolarmente)
descrivono. La già citata condizione sul rango della matrice incompleta associata al sistema
(5.3) è, da un punto di vista geometrico, la condizione di non parallelismo tra i piani che
stiamo intersecando.
135
(5.4′ ) P (t) = P0 + t α
~ , ~ 6= ~0
α
Come già osservato nel paragrafo § 2, notiamo che sommare un vettore a un punto ha il
significato geometrico di considerare l’estremo finale del segmento orientato rappresentato
dal vettore di estremo iniziale il punto. Il motivo per il quale si sceglie di interpretare la
terna x0 , y0 , z0 come punto e le terne λ1 , λ2 , λ3 , µ1 , µ2 , µ3 , α1 , α2 , α3 come vettori
geometrici (che è la domanda che probabilmente vi state ponendo!) sta nei seguenti fatti:
i) Il punto P0 è effettivamente un punto del piano π si ottiene per t = s = 0
(ovvero è un punto della retta r , si ottiene per t = 0);
ii) i vettori ~λ e ~ µ sono vettori21 paralleli al piano π (ovvero α
~ è un vettore parallelo
alla retta r );
iii) P (t, s), che è un punto in quanto elemento del piano π, è l’estremo finale del seg-
mento orientato di estremo iniziale P0 , rappresentato dal vettore t ~λ + s~µ (ovvero
è l’estremo finale del segmento orientato di estremo iniziale P0 , rappresentato dal
vettore t α~ ).
Osserviamo che come conseguenza della proprietà ii) e della (4.13, i) e ii)) risulta
(5.5) ~λ ∧ µ
~ ⊥ π (nonché ~λ ∧ µ
~ 6= ~0 ) .
Anche i coefficienti delle equazioni cartesiane (5.1) e (5.3) hanno una interpretazione
geometrica:
Il vettore di coordinate a, b, c è un vettore (non nullo per ipotesi) ortogonale al
(5.6) piano π ;
il piano generato dai vettori di coordinate a, b, c ed a′ , b′ , c′ indipendenti per
(5.7)
l’ipotesi rango aa′ bb′ cc′ = 2 nella 5.3 è ortogonale alla retta r .
Alla luce del fatto che il prodotto vettoriale di due vettori indipendenti è ortogonale (e
non nullo) al piano che essi generano (proprietà 4.13, i) e ii)), la (5.7) può essere riscritta
nella forma
′
a a
(5.7′ ) il prodotto vettoriale b ∧ b′ è parallelo alla retta r .
c c′
(
2 x − y + 3 z − 11 = 0
Esempio. Sia r la retta di equazioni cartesiane . Il
3 x + 5 y − 8 z + 19 = 0
2 3 −23
vettore −1 ∧ 5 = −7 è parallelo ad essa.
3 8 13
Tornando un momento alla (5.2), poiché i vettori λ e µ sono paralleli al piano ivi descritto
ed il punto P0 di coordinate x0 , y0 , z0 vi appartiene, abbiamo la seguente interessante
rilettura di quanto appena osservato:
(5.9′ ) ax + by + cz + d = 0
dove a, b, c sono le coordinate del prodotto vettoriale ~λ ∧ ~µ e dove d = −ax0 − by0 − cz0
(si noti che la condizione su d garantisce il passaggio per il punto P0 ).
Naturalmente, per trovare un’equazione cartesiana del piano definito dal sistema (5.2) si
può procedere anche eliminando i parametri.
Esercizio. Scrivere, sia equazioni cartesiane che parametriche per ognuno dei piani e rette
dell’esercizio (5.8).
137
Cominciamo col caso della retta descritta dalla (5.4′ ). Il punto P1 := P (1) è l’estremo
finale del segmento orientato di estremo iniziale P0 rappresentato da dal vettore α (ed è
distinto da P0 in quanto α~ è non-nullo). Visto che la coppia P0 , P1 determina la coppia
P0 , α
~ e viceversa, abbiamo la seguente conseguenza:
per due punti distinti passa una ed una sola retta
(il risultato è ben noto, quello che stiamo dicendo è che lo abbiamo dedotto dalla nostra
definizione di retta). Un’altra conseguenza è la seguente:
Osservazione 5.10. Siano A, B, C tre punti dello spazio. Questi risultano allineati
(cioè esiste una retta che li contiene) se e solo se i due vettori rappresentati da AB ed AC
sono dipendenti.
Passiamo ora al caso del piano descritto dalla (5.2′ ), posto Q := P (1, 0) = P0 + ~λ
ed R := P (0, 1) = P0 + ~ µ , essendo ~λ e µ~ indipendenti abbiamo tre punti non-allineati
(oss. 5.10) appartenenti al piano in questione. La terna P0 , Q, R determina la terna
P0 , ~λ, ~µ e viceversa, i vettori che si ottengono partendo da una terna di punti non allineati
sono indipendenti (di nuovo, oss. 5.10). Pertanto
per tre punti non allineati passa uno ed un solo piano
Di nuovo, da notare che (al di là dell’evidenza “fisica”) abbiamo dedotto questo risultato
dalla nostra definizione di piano.
Le considerazioni viste ci dicono anche come scrivere le equazioni della retta passante
per due punti, ovvero del piano passante per tre punti non allineati: si tratta di scegliere
un punto e calcolare il vettore rappresentato dal segmento orientato che lo congiunge con
l’altro punto, ovvero di scegliere un punto e calcolare i vettori rappresentati dai segmenti
orientati che lo congiungono con gli altri due punti. Ovviamente scelte diverse porteranno a
equazioni diverse (ma sappiamo bene che lo stesso oggetto può essere rappresentato in modi
differenti).
È opportuno osservare che quanto abbiamo detto già lo sapevamo: si tratta di casi par-
ticolari della Proposizione (11.17). Ad esempio, per n = 3 e k = 2 la proposizione citata
ci dice che per tre punti non allineati22 passa uno ed un solo piano (ivi descritto sia come
“ V + P0 ” che come “più piccolo piano affine contenente i tre punti”).
Esercizio 5.11. Scrivere equazioni parametriche per il piano passante per i punti
2 6 4
P = 0, Q = 5 K = 9.
1 7 8
Suggerimento: calcolare ~λ = P Q e ~
µ = PK.
22Essendo k = 2 , il termine “generici” che appare nella Proposizione (11.14) significa, come definito poco
prima “non contenuti in nessuno spazio affine di dimensione 1”
138
Le intersezioni tra piani, tra rette, tra rette e piani, si determinano mettendo a sistema
le equazioni cartesiane degli oggetti geometrici in questione.
Naturalmente questo discorso vale per le equazioni cartesiane, equazioni che sono “con-
dizioni”. Se gli oggetti in questione sono definiti tramite equazioni parametriche, equazioni
che di fatto sono un modo di “elencarne gli elementi”, si procede in modo del tutto analogo
a quanto visto nel § 10 per l’intersezione di spazi vettoriali. Vediamo qualche esempio.
Esercizio.
Determinare il punto P di intersezione della retta r di equazioni parametriche
x = 2 + 7t
y = 5 + 2t con il piano H di equazione cartesiana x − 3y + 5z − 43 = 0 .
z = 8 + 3t
Soluzione. Sostituendo x = 2 + 7t, y = 5 + 2t, z = 8 + 3t nell’equazione di H troviamo
(2 + 7t) − 3(5 + 2t) + 5(8 + 3t) − 43 = 0 , quindi t = 1 . Sostituendo il valore t = 1 nelle
equazioni parametriche di r troviamo le coordinate 9, 7, 11 (del punto P = H ∩ r ).
Esercizio. Determinare
un’equazione parametrica della retta r ottenuta intersecando i
x = 2 + 7t + 2s
piani H := y = 4 + 2t − 6s ed H′ := 8x − 3y − 7z − 4 = 0 .
z = 8 + 3t + 5s
Soluzione #1. Innanzi tutto si trova un’equazione cartesiana anche per il piano H (uti-
lizzando la (5.9) oppure eliminando i parametri). Quindi, si risolve il sistema costituito
dall’equazione trovata e l’equazione di H′ .
Per quel che riguarda la distanza di un punto da un piano, vale una formula analoga alla
(2.19). Si ha infatti quanto segue.
Vale un commento analogo a quello relativo alla (2.19): tale “distanza minima” esiste e
139
viene realizzata dal punto K di intersezione del piano π con la retta r passante per P ed
ortogonale a π . Di nuovo, per questo motivo tale punto K viene anche chiamato
proiezione ortogonale del punto P sul piano π .
La dimostrazione della formula (5.12′ ) è del tutto identica alla dimostrazione della (2.19).
Alla luce di quanto visto all’inizio del paragrafo la retta r ortogonale a π passante per
P ha equazioni parametriche
x = px + at
y = py + b t
z = pz + ct
dove a, b, c sono proprio i coefficienti che appaiono nell’equazione del piano π ! Questa
osservazione ci consente di risolvere l’esercizio che segue.
Quanto alla distanza punto-retta nello spazio non c’è una formula diretta. Naturalmente
le definizioni sono le stesse: dati un punto P ed una retta r si definisce lo loro distanza
dist{ P, r} come il minimo delle distanze di P dai punti di r . Tale minimo viene realizzato
dal punto K che si ottiene intersecando r con il piano ortogonale ad r passante per P .
Va osservato che K è anche caratterizzato dall’essere l’unico punto di r soddisfacente la
condizione K P ⊥ r (esattamente come nel caso discusso nel § 2 di un punto e una retta
nel piano). Le coordinate del punto K possono essere determinate con metodi analoghi a
quelli visti nell’esercizio (3.5) del §3:
i) si sceglie un punto Q di r , si proietta il vettore QP su un vettore parallelo
ad r , si determina K come estremo finale di un segmento orientato che ha Q
come estremo iniziale e che rappresenta il vettore proiezione trovato;
ii) si interseca r con il piano passante per P ortogonale a r .
Naturalmente, per calcolare la distanza di P da r dovremo prima determinare il punto di
proiezione K quindi la distanza dist{P, K} .
Soluzione #2. Il punto K è il punto di intersezione della retta r con il piano ortogonale
ad r passante per P . Quest’ultimo ha equazione cartesiana (qui usiamo l’interpretazione
5.6, quindi imponiamo il passaggio per P )
(⋆) 3x + y − 2z + 8 = 0
Sostituendo le equazioni di r nell’equazione (⋆) troviamo 3(5+3t) + (3+t) − 2(7−2t) + 8 =
0 , quindi 12 + 14t = 0 . Sostituendo infine il valore t = −6/7 nelle equazioni di r
troviamo 17/7, 15/7, 61/7 (coordinate del punto K ).
La distanza dist{P, r} si calcola come nella soluzione #1.
3 x = −11 + 5 t
Esercizio 5.16. Sia P = −4 e sia r la retta di equazioni y = 3 − 12 t .
6 z = −2 + 3 t
Determinare la proiezione ortogonale di P su r e la distanza dist{P, r} .
5
x − 3y + z = 0
Esercizio 5.17. Sia P = −2 e sia r la retta di equazioni .
2x + z − 5 = 0
3
Determinare la proiezione ortogonale di P su r e la distanza dist{P, r} .
141
In questo paragrafo vediamo come si calcola la distanza tra due rette nello spazio.
Supponiamo che r ed s non siano parallele (se lo sono, la distanza cercata è uguale
alla distanza di un punto qualsiasi di r da s e si calcola con i metodi visti nel paragrafo
precedente). Supponiamo inoltre che r ed s siano date in forma parametrica, e.g. che
nella notazione introdotta con la (5.4′ ) siano
r : P (t) = P0 + ~v t , s : Q(t) = Q0 + w
~t.
Nota bene: non stiamo dicendo che Q0 è il punto di s che realizza il minimo della
Definizione 6.1, in generale possiamo solamente dire che dist{Q0 , r} ≥ dist {r, s} .
Per trovare i punti che realizzano il minimo della Definizione 6.1, si deve lavorare un po’
di più: continuando ad assumere che r ed s non siano parallele, la proiezione della retta
s sul piano H (:= luogo dei punti ottenuti proiettando su H i punti di s) è una retta se
che incontra r . Sia A = se ∩ r e sia B il punto di s la cui proiezione è il punto A . Si ha
La prima uguaglianza è la stessa che appare nelle (6.2), la seconda uguaglianza segue dal
fatto che AB è ortogonale ad H come pure ad H′ (è opportuno ricordare che i due piani
sono paralleli per costruzione). Infine, poiché A e B sono rispettivamente punti di r ed
s, abbiamo che sono proprio i punti che realizzano il minimo della Definizione 6.1.
H′
s
A
H
s̃
142
Esercizio 6.4. Calcolare la distanza tra le rette (si osservi che non sono parallele)
x = 2 + 3t x = −1 + t
r : y = −1 + 4 t , s : y = 1 + 3t .
z = 3 + −2 t z = −7 + t
Soluzione. Il piano H contenente r e parallelo ad s ha equazioni parametriche
x = 2 + 3 t + t′
y = −1 + 4 t + 3 t′ .
z = 3 − 2 t + t′
Passando da equazioni parametriche a cartesiane troviamo che
(6.4′ ) 2x − y + z − 8 = 0
−1
è un’equazione cartesiana di H . Per le osservazioni viste, posto Q0 = 1 si ha
−7
|2 · (−1) − 1 · 1 + 1 · (−7) − 8| √
dist {r, s} = dist { Q0 , H } = √ = 3 6
4+1+1
Nei paragrafi precedenti abbiamo studiato la geometria del piano Euclideo R2 e dello
spazio Euclideo R3 . In questo paragrafo studiamo lo spazio vettoriale Euclideo Rn , riper-
corriamo i risultati già visti concernenti R2 ed R3 , quindi trattiamo l’ortonormalizzazione,
le trasformazioni lineari nel caso Euclideo ed infine introduciamo la nozione di spazio vetto-
riale Euclideo astratto. La vera differenza rispetto ai paragrafi precedenti non è tanto quella
di considerare spazi di dimensione arbitraria (anzi la maggior parte di esercizi e problemi
sono posti per R2 ed R3 !) quanto piuttosto nel metodo adottato e nella natura dei risultati
che si stabiliscono.
n
X
(7.1) h~v , wi
~ := ~v · w
~ := vi wi
i=1
Rn −−−−→ Rn Rn −−−−→ Rn
~x 7→ h~x, ~ui ~x 7→ h~u, ~xi
sono lineari per ogni vettore ~u fissato (naturalmente, per la commutatività del prodotto
scalare queste due funzioni coincidono).
La norma di ogni vettore ~v , in quanto radice della somma dei quadrati delle sue coordinate,
è positiva e si annulla esclusivamente se ~v è il vettore nullo. Questa proprietà si esprime
dicendo che il prodotto scalare è definito-positivo.
Una prima conseguenza della bilinearità del prodotto scalare è la formula seguente:
1
(7.4) h~v , wi
~ = ~ 2 − ||~v − w||
||~v + w|| ~ 2 .
4
La dimostrazione di questa proposizione è stata già vista: cfr. Proposizione 1.14 (con-
siderando Rn invece di R2 non cambia una virgola).
⊥ ⊥
Da notare che ~0 = Rn , Rn = {~0} .
W ∩ W⊥ = {~0 }
Definizione 7.11. Sia W un sottospazio di Rn . Diciamo che B = {~b1 , ..., ~bm } è una
base ortonormale di W se
Ora enunciamo una proposizione che consente di definire la nozione di proiezione ortogo-
nale su un sottospazio. Questa proposizione ci dice che dati un sottospazio W di Rn ed
un vettore ~v ∈ Rn esiste un unico vettore w~ ∈ W che soddisfa la proprietà che si richiede
ad una “proiezione ortogonale” che si rispetti: differisce da ~v di un vettore ortogonale allo
spazio W .
esistono unici ~ ∈ W , ~u ∈ W ⊥
w tali che ~v = w
~ + ~u .
Osserviamo che se {d~1 , ..., d~m } è una base ortogonale di W (non si richiede che i d~i
abbiano norma uno ma solo che siano ortogonali tra loro), visto che d~1 ||d~1 ||, ..., d~m ||d~1 ||
è una base ortonormale di W , l’uguaglianza (7.12′ ) diventa
Osservate che i singoli termini della somma qui sopra li abbiamo già incontrati: sono
le proiezioni di ~v lungo le direzioni individuate dai d~i (cfr. formula (1.15) e (4.5)). La
condizione che i d~i siano ortogonali tra loro è una condizione necessaria: in generale, la
proiezione su uno “Span” di vettori indipendenti non è uguale alla somma delle proiezioni
sulle direzioni individuate dai singoli vettori (cfr. esercizio 7.17).
146
Risulta πW (α~v1 + β~v2 ) = απW (~v1 ) + βπW (~v2 ) , cioè la funzione “proiezione su W ”
πW : Rn −−−−→ Rn
~v 7→ πW (~v )
è lineare.
Dimostrazione #1. Segue dalla (7.12′ ) e dalla linearità del prodotto scalare rispetto al
primo argomento (Lemma 7.2).
Dato un sottospazio W ⊆ Rn , il fatto che ogni vettore in Rn si scrive in modo unico come
somma di un vettore in W ed uno in W ⊥ si esprime dicendo che W ⊥ è un complemento
di W . Da notare che per la formula di Grassmann risulta
Esercizio 7.17. Si consideri la base {~h, ~k} del piano H dell’esercizio precedente, con ~h
e ~k rispettivamente di coordinate 1, 2, 0 e 0, 3, 1 .
a) Determinare le proiezioni di ~v lungo le direzioni individuate da ~h e ~k ;
b) verificate che la proiezione su H di ~v non è la somma delle proiezioni al punto a).
dove il denominatore è la norma del vettore al numeratore (il che significa normalizzarlo,
w~
ovvero renderlo di norma 1). Cioè: ~b1 = || w~ 1 || , il vettore ~b2 si ottiene normalizzando il
1
147
Dimostrazione. La i) vale perché ad ogni passo sommiamo a w ~ i una c.l. dei precedenti e
lo moltiplichiamo per una costante non nulla. Quanto alla ii), che i vettori abbiano norma
1 è ovvio, sono mutuamente ortogonali perché ogni ~bi è ortogonale ai “precedenti” (~bi lo
otteniamo normalizzando ciò che si ottiene sottraendo a un vettore non appartenente a Si−1
la sua proiezione su Si−1 ). L’affermazione tra parentesi è evidente per ragioni geometriche.
A questo punto torniamo alle trasformazioni lineari (dette anche endomorfismi). Nel
primo capitolo abbiamo visto qual è la matrice rappresentativa di una trasformazione lineare.
In analogia con la diagonalizzabilità diciamo che la trasformazione lineare T : Rn −→ Rn
è triangolarizzabile se esiste una base di Rn rispetto alla quale T è rappresentata da
una matrice triangolare superiore (cfr. cap. I, def. 1.23). Diremo che T è triangolarizzabile
tramite una base ortonormale se ciò accade rispetto ad una base ortonormale di Rn .
Precisazione 7.21. Chiedere che il polinomio caratteristico abbia n radici reali significa
chiedere che si fattorizzi come prodotto di polinomi di primo grado, cioè che si possa scrivere
nella forma
PT (λ) = (λ1 − λ) · ... · (λn − λ)
(con i λi ∈ R non necessariamente distinti).
matrice triangolare. Trovare una tale base significa trovare dei vettori ~b1 , ..., ~bn di norma
1 nonché mutuamente ortogonali soddisfacenti T (~bi ) ∈ Span{~b1 , ..., ~bi } per ogni indice i .
Concentriamoci su questa formulazione del problema da risolvere e ragioniamo per induzione
sul numero k dei vettori di un insieme ortonormale {~b1 , ..., ~bk } soddisfacente
(⋆) T (~bi ) ∈ Span{~b1 , ..., ~bi } per ogni i ≤ k .
Il primo passo dell’induzione è immediato: si trova un primo autovettore (ciò è possi-
bile per l’ipotesi sul polinomio caratteristico) e lo si normalizza. Supponiamo quindi di
aver trovato un insieme {~b1 , ..., ~bk } soddisfacente (⋆) e mostriamo che possiamo trovare
{~b1 , ..., ~bk+1 } anch’esso soddisfacente (⋆). A tal fine consideriamo un completamento ar-
bitrario di {~b1 , ..., ~bk } ad una base di Rn ed osserviamo che rispetto a tale base T è
rappresentato da una matrice A = (ai, j ) con ai, j = 0 , ∀ i > j, j ≤ k . Osserviamo
inoltre che se denotiamo con B il minore delle ultime n − k righe e colonne della matrice
A risulta
(⋆⋆) PT (λ) = (a1, 1 − λ) · ... · (ak, k − λ) · det(B − λI) .
Consideriamo U = {~b1 , ..., ~bk }⊥ e la restrizione ad U della composizione πU ◦ T (dove
πU denota la proiezione ortogonale su U ), che denoteremo con S . Si ha l’uguaglianza
(⋆ ⋆ ⋆) PS (λ) = det(B − λI) .
Infatti, gli ultimi n − k vettori della base di Rn si proiettano su U ad una base di U
e la trasformazione S , rispetto a tale base, è rappresentata dalla matrice B . Infine, alla
luce di (⋆⋆) e (⋆ ⋆ ⋆), poiché il polinomio PT (λ) si decompone nel prodotto di polinomi di
primo grado, lo stesso deve valere per il polinomio PS (λ), in particolare S ammette un
autovalore e quindi un autovettore, chiamiamolo ~vk+1 . Poiché S(~vk+1 ) ∈ Span {~vk+1 } , si
ha T (~vk+1 ) ∈ Span{~b1 , ..., ~bk , ~vk+1 } (attenzione, c’è di mezzo una proiezione, non è detto
~vk+1 sia un autovettore per T ). Infine, applicando l’ortonormalizzazione di Gram-Schmidt
all’insieme {~b1 , ..., ~bk , ~vk+1 } si ottiene un insieme {~b1 , ..., ~bk+1 } come richiesto.
2 0 −1
Esercizio 7.22. Provare che la trasformazione lineare di R associata alla matrice
1 0
non è affatto triangolarizzabile.
4 3 1 3 0 0
Esercizio 7.23. Si considerino le matrici A = −2 −1 −1 , C = 1 2 5 .
4 6 4 2 0 2
a) Si verifichi che (3 − λ) · (2 − λ)2 è il polinomio caratteristico di entrambe;
b) diagonalizzare A ;
c) triangolarizzare A tramite una base ortonormale;
d) provare che C non è diagonalizzabile;
e) triangolarizzare C tramite una base ortonormale.
hT (~v ), wi ~ = t(A · ~v ) · w
~ = hA · ~v , wi ~ = t~v · tA · w
~ = t~v · ( tA · w)
~ = h~v , tA · wi
~
dove i vettori sono considerati come matrici di n righe ed una colonna e tutti i prodotti
sono prodotti tra matrici (la quarta uguaglianza segue dalla proprietà t(A · B) = t B · tA;
cfr. cap. I, 3.19).
Abbiamo due aggettivi diversi per indicare la stessa caratteristica perché le matrici23
autoaggiunte sono le matrici simmetriche (nell’ambito della generalizzazione agli spazi metrici
astratti della teoria che stiamo sviluppando si preferisce riferirsi alle trasformazioni che co-
incidono con la propria aggiunta dicendo che sono “autoaggiunte”).
Una classe importante di trasformazioni lineari è quella delle trasformazioni che conser-
vano le lunghezze dei vettori e la misura degli angoli tra vettori. In virtù di questa carat-
teristica tali trasformazioni sono dette anche movimenti rigidi. I movimenti rigidi del piano
vettoriale R2 sono le rotazioni intorno l’origine e le riflessioni rispetto ad una retta passante
per l’origine. I movimenti rigidi dello spazio vettoriale R3 sono le rotazioni intorno ad un
asse passante per l’origine e le composizioni di queste con la riflessione rispetto al piano
ortogonale all’asse. Da notare che a priori non è affatto ovvio che quelli indicati siano gli
unici movimenti rigidi del piano e dello spazio vettoriale Euclideo. Da un punto di vista
algebrico conservare lunghezze e angoli equivale a conservare il prodotto scalare. In effetti
grazie alle identità (7.3′ ) e (7.4) conservare le lunghezze equivale a conservare il prodotto
scalare, in particolare implica conservare gli angoli. Il teorema che segue caratterizza le
trasformazioni lineari che conservano il prodotto scalare.
Dal lavoro fatto nel cap. I, § 15 sappiamo che le trasformazioni diagonalizzabili sono carat-
terizzate dall’esistenza di una base di autovettori. Sia dunque T una trasformazione diago-
nalizzabile, ci domandiamo quali proprietà debbano soddisfare i suoi autovalori e autovettori
affinché risulti autoaggiunta, e quali affinché essa risulti ortogonale. Partiamo proprio dal
dato degli “autovalori e autovettori”: consideriamo dei vettori indipendenti ~v1 , ..., ~vn ∈ Rn
e dei numeri reali λ1 , ..., λn quindi consideriamo la trasformazione T avente questi dati
come autovettori e relativi autovalori. Dalla formula del cambiamento di base (cap. I, 15.6′ )
sappiamo che T è rappresentata (rispetto alla base canonica di Rn ) dalla matrice
A = B · ∆ · B −1
dove B è la matrice associata ai vettori ~v1 , ..., ~vn e ∆ è la matrice diagonale associata
ai valori λ1 , ..., λn . Nell’ambito delle trasformazioni diagonalizzabili abbiamo la seguente
caratterizzazione di quelle che sono ortogonali e di quelle che sono autoaggiunte.
h~vi , ~vj i = 0 , ∀ i, j | λi 6= λj .
151
~ = h~v , T ⋆ ◦ T (w)i
hT (~v ), T (w)i ~
(7.32)
= h~v , T ◦ T ⋆ (w)i
~ = hT ⋆ (~v ), T ⋆ (w)i
~ ~ ∈ Rn .
∀ ~v , w
In particolare si ha
Dimostrazione. È sufficiente provare che ||T ⋆ (~v ) − λ~v || = ||T (~v ) − λ~v || (avendo la stessa
norma, il primo vettore è nullo se e solo se il secondo vettore è nullo). Si ha:
||T ⋆ (~v ) − λ~v || = ||(T − λI)⋆ (~v )|| = ||(T − λI)(~v )|| = ||T (~v ) − λ~v ||
dove I denota l’identità (la prima uguaglianza segue dalle uguaglianze (7.26′ ), la seconda
segue dall’osservazione (7.32′ ) perché naturalmente anche T + λI è normale, la terza è una
tautologia).
Lemma 7.37. Una matrice triangolare che commuta con la sua trasposta è necessaria-
mente diagonale:
“X triangolare, tX · X = X · t X =⇒ X diagonale”.
Dimostrazione. È sufficiente svolgere i prodotti: scriviamo (nello stesso ordine!) gli elementi
sulla diagonale delle due matrici in questione:
X · tX : x21,1 + x21,2 + x21,3 + ... ; x22,2 + x22,3 + ... ; ... ; x2n,n
t
X ·X : x21,1 ; ; ... ; x21,n + x22,n + ... + x2n,n
x21,2 + x22,2
Dal confronto di questi elementi si deduce che X è diagonale: X · t X 1,1 = tX ·X 1,1 ⇒
x1,2 = x1,3 = x1,4 = ... = 0 ; X · t X 2,2 = tX · X 2,2 ⇒ x2,3 = x2,4 = ... = 0 , e cosı̀
via.
Dimostrazione. Il fatto che la i) implichi la ii) l’abbiamo già dimostrato (cfr. Proposizione
7.30): se esiste una base ortonormale di autovettori T ha n autovalori reali ed è autoag-
giunta. Naturalmente se T è autoaggiunta (= coincide con l’aggiunta) a maggior ragione è
normale (= commuta con l’aggiunta). Quindi “ii) implica iii)”.
Infine, se vale la proprietà iii), sappiamo che T è triangolarizzabile rispetto ad una base
ortonormale (Proposizione 7.20). D’altro canto la matrice X rappresentativa di T rispetto
ad una tale base è una che commuta con la sua trasposta (cfr. 7.34′ ). Per il Lemma 7.37
la matrice X deve essere diagonale.
153
Questo risultato è uno dei pochi Teoremi di questo testo (quelli veri si contano sulle
dita di una mano!). Riferendoci all’implicazione “iii) ⇒ i)”, l’ipotesi sugli autovalori
ci dice che (cfr. precisazione 7.21) la somma delle molteplicità algebriche degli autovalori
vale n. Quest’ipotesi, presa da sola non dà la diagonalizzabilità (non possiamo dire che le
molteplicità geometriche siano uguali a quelle algebriche): affinché una trasformazione di
Rn sia diagonalizzabile abbiamo bisogno di n autovettori indipendenti, equivalentemente
che la somma delle molteplicità geometriche sia uguale ad n. Assumendo anche l’ipotesi
di normalità otteniamo che T è diagonalizzabile, in particolare che molteplicità algebriche
e geometriche coincidono.
1 1
Esempio. La matrice A = non è diagonalizzabile (non è normale: A· tA 6= tA·A).
0 1
Un altro aspetto del Teorema (7.38) riguarda il modo in cui è possibile diagonalizzare T :
assumendo che sia normale ed abbia n autovalori reali è possibile diagonalizzarla tramite
una matrice ortonormale. Evidentemente nell’ipotesi di normalità la costruzione nella di-
mostrazione della Proposizione 7.20 conduce a una base ortonormale di autovettori, ovvero
ad una diagonalizzazione tramite una base ortonormale. Ciò è importante di per se, riper-
corriamo la dimostrazione citata e stabiliamolo in maniera diretta: trovati k autovettori
ortonormali, indicato con S lo spazio che essi generano e definito U := S ⊥ , vogliamo
provare che T (U ) ⊆ U . Si ha
T (U ) ⊆ U ⇐⇒ hT (~u), ~v i = 0 , ∀ ~u ∈ U , ~v ∈ S
d’altro canto, grazie alla normalità, T e T ⋆ coincidono su S (oss. 7.35), quindi
hT (~u), ~v i = h~u, T ⋆ (~v )i = h~u, ~v ′ i = 0 (essendo ~u ∈ U , ~v ′ ∈ S)
Questo dimostra che T (U ) ⊆ U e quindi che quella fastidiosa proiezione nella dimostrazione
della Proposizione 7.20 che ci costringeva a scrivere “ T (~vk+1 ) ∈ Span{~b1 , ..., ~bk , ~vk+1 } ”
invece di “ T (~vk+1 ) ∈ Span{~vk+1 } ” non è necessaria (proiettare su U vettori che già
appartengono ad U è come non fare nulla). Voglio sottolineare che la dimostrazione della
Proposizione 7.20, con l’aggiunta di quanto appena osservato diventa una dimostrazione
diretta del Teorema 7.38 (che peraltro evita il Lemma 7.37).
Visto che in generale non si sanno decomporre i polinomi di grado alto il Teorema 7.38
ha un difetto: l’ipotesi sulle radici del polinomio caratteristico è difficilmente controllabile!
Ebbene, nel punto ii) tale ipotesi può essere cassata: le affermazioni del Teorema 7.38 sono
equivalenti alla seguente affermazione:
ii ′ ) T è autoaggiunta.
Questo risultato è noto come teorema Spettrale (che ora enunciamo di nuovo in termini di
matrici). Prima però osserviamo che la stessa ipotesi non può essere cassata al punto iii):
0 −1
Esempio. La matrice è normale, è addirittura ortogonale, ma non è diagona-
1 0
lizzabile: non ha affatto autovalori reali, rappresenta una rotazione di π2 radianti, il suo
polinomio caratteristico è il polinomio λ2 + 1 .
L’implicazione “=⇒” è l’implicazione “i) ⇒ ii)” del Teorema 7.38. L’altra impli-
cazione si dimostra facilmente a condizione di usare i numeri complessi: sostanzialmente
154
segue immediatamente dalla versione sui complessi del Teorema 7.38. Naturalmente ciò
significa che si deve ripetere la teoria svolta in ambito complesso. Gli enunciati come pure
le dimostrazioni sono di fatto identici, con qualche piccola differenza. Ripercorriamone le
tappe
1. Il prodotto scalare viene sostituito dal prodotto Hermitiano: su Cn la (7.1) viene
sostituita dalla n
X
h~v , wi
~ = vi · wi
i=1
in questo modo la norma di un vettore complesso ~v vale
p pP
||~v || = h~v , ~v i = |vi |2 (cfr. appendice, A.14);
hλ~v , wi
~ = λh~v , wi
~ ; h~v , λwi
~ = λh~v , wi
~ ;
inoltre risulta
h~v , wi
~ = hw,
~ ~v i ,
questo significa che si deve fare molta attenzione all’ordine in cui si scrivono i
prodotti Hermitiani.
7. vale l’analogo del Teorema 7.38, solo che in ambito complesso l’ipotesi sugli auto-
valori diventa vuota grazie al teorema fondamentale dell’algebra.
Sebbene un po’ ostinatamente abbiamo insistito nel lavorare con Rn , i risultati visti sono
più generali e sarebbe uno spreco non fare quel piccolo passo in più che consente di enunciarli
svincolati dall’ambiente che è stato il contesto del nostro lavoro, per l’appunto Rn .
In questo paragrafo introduciamo gli Spazi vettoriali Euclidei e gli Spazi Euclidei, sempre
reali e di dimensione finita, in un contesto astratto, generale, quindi rivisitiamo in questo
nuovo contesto i risultati visti finora. Iniziamo col definire gli oggetti del nostro studio.
Definizione 8.1. Sia V uno spazio vettoriale. Un prodotto scalare su V è una funzione
h , i : V × V −−−−→ R
La proprietà i) ci dice che il prodotto scalare è simmetrico. La proprietà ii) ci dice che il prodotto scalare
è bilineare , cioè lineare rispetto a ciascuno dei due argomenti. La proprietà iii) si esprime dicendo che il
prodotto scalare è definito-positivo . Osserviamo che la simmetria e la linearità rispetto al primo argomento,
insieme, implicano la linearità rispetto al secondo argomento, ovvero: in quanto ridondante, potevamo
evitare di scrivere la seconda metà della proprietà ii).
Definizione 8.2. Uno spazio vettoriale Euclideo è uno spazio vettoriale25 sul quale sia
stato fissato un prodotto scalare.
|h~v , w
~ i| ≤ ||~v || · ||w||
~ ||~v + w||
~ ≤ ||~v || + ||w||
~
In entrambi i casi la dimostrazione è quella già vista nel caso di Rn , dove non usiamo mai il fatto di avere
a che fare con Rn dotato del prodotto scalare standard (7.1), ma solo le proprietà i), ii) e iii) enunciate
sopra (cfr. dimostrazioni delle disuguaglianze 7.6 e 7.8).
(come nella (7.7), i vettori ~ ~ sono vettori non nulli, l’angolo ϑ si assume compreso tra 0 e π ).
v e w
Per la bilinearità, la conoscenza del prodotto scalare di certi vettori implica la conoscenza
del prodotto scalare delle loro combinazioni lineari, infatti si deve avere
DX X E X D E
(8.3) λi ~vi , µi ~vi = λi µj ~vi , ~vj .
i i i, j
In particolare, fissata una base B = {~b1 , ..., ~bn } di V , il prodotto scalare è univocamente
determinato dalla matrice dei prodotti scalari dei vettori di B, la matrice
M = Mh , i ; B := h ~bi , ~bj i ,
matrice che chiameremo matrice del prodotto scalare rispetto alla base B . Precisamente,
dati due vettori ~v e w,
~ risulta
D E µ1
X
(8.4) h~v , w
~i = λi µj ~bi , ~bj = (λ1 , ..., λn ) · M · ...
(8.3) i, j µn
dove t (λ1 , ..., λn ) e t (µ1 , ..., µn ) sono i vettori numerici delle coordinate dei vettori ~v e
~ rispetto alla base B .
w
Proposizione 8.6. Uno spazio vettoriale Euclideo V, h , i ha una base ortonormale.
Dimostrazione. Il Teorema (7.18) ed il procedimento di ortonormalizzazione di Gram-Schmidt illustrato
subito prima valgono, senza bisogno di cambiare una virgola, anche nel contesto attuale: dati dei vettori
w
~1
indipendenti {w
~ 1 , ..., w ~ 1 , ovvero si pone ~b1 =
~ m }, si normalizza w (cosı̀ da avere ||~b1 || = 1), quindi
||w
~ 1 ||
~ 2 −h~
w ~2 i ~
b1 , w b1
si pone ~b2 = (cosı̀ da avere ~b2 ortogonale a ~b1 e anch’esso di norma 1). Il passo generale
|| ... ||
consisterà nel porre
~ k − c1 ~
w b1 − ... −ck−1 ~
bk−1
~b := , dove ci = h~bi , w
~ ii .
k || ... ||
In questo modo si ottiene una base ortonormale.
In effetti, il risultato provato è più forte: ogni base può essere ortonormalizzata (fissata una base arbitraria,
si trova una base ortonormale dove lo Span dei primi k vettori coincide con lo Span dei primi k vettori
della base di partenza, per ogni k ). Cfr. Teorema (7.18).
Esercizio 8.10. Verificare che se T è rappresentata dalla matrice A rispetto ad una base
ortonormale B, allora T ⋆ è rappresentata dalla matrice tA (sempre rispetto alla base B).
Naturalmente, per l’esercizio (8.10), il suggerimento dato per l’esercizio (7.26) si applica anche in questo
caso. Cionondimeno questa volta riteniamo istruttiva una verifica diretta, ovvero che usi la caratterizzazione
dell’aggiunta data dalla formula hT (~
v ), wi
~ = h~ v , T ⋆ (w)i
~ , ∀ ~v, w
~ ∈ V.
(nelle ultime due affermazioni Rn si intende dotato del prodotto scalare standard 7.1).
Questo teorema è la rivisitazione del Teorema 7.28 e, alla luce di quanto visto, in particolare dell’esercizio
8.10, la dimostrazione data allora si applica anche in questo nuovo contesto.
Tornando alla (8.4), abbandoniamo le basi ortonormali. La proposizione che segue ci dice
come cambia la matrice del prodotto scalare quando si cambia la base di V .
t~ ′
µ′ = t~λ′ ·(t C·M ·C)·~µ′ deve valere per ogni coppia di vettori
Poiché l’uguaglianza λ · M ′ · ~
~ , di conseguenza per ogni coppia ~λ′ e ~µ′ , segue la tesi.
~v e w
159
Definizione 8.21. Uno Spazio Euclideo è una terna (E, W, Ψ), dove E è un insieme,
W è uno spazio vettoriale Euclideo (def. 8.2) e Ψ è una funzione
Ψ : E × E −−−−→ W
tale che
i) per ogni a ∈ E fissato, si ha che la funzione
ψa : E −→ W , ψa (a) := Ψ(a, a),
è biunivoca;
ii) vale la regola di Chasles Ψ(a, b) + Ψ(b, c) = Ψ(a, c) , ∀ a, b, c ∈ E .
Come già osservato nel citato (cap. I, §16, sezione “Spazi Affini”), dalla regola di Chasles seguono rapida-
mente le due proprietà :
iii) Ψ(a, a) = ~0 , ∀ a ∈ E (~0 ∈ W denota il vettore nullo di W );
iv) Ψ è antisimmetrica, cioè Ψ(a, b) = −Ψ(b, a) , ∀ a, b ∈ E .
Naturalmente la definizione di Spazio Euclideo può essere anche data in analogia alla
Definizione I.16.18 del capitolo I:
Definizione 8.21 ′ . Uno Spazio Euclideo è un insieme E sul quale sia definita una famiglia
non vuota di funzioni biunivoche
F = φ : E −→ Rn tale che φ ◦ ψ −1 (x) = M x + b , ∀ φ, ψ ∈ F
dove x, b ∈ Rn ed M è una matrice ortogonale n × n.
160
Vista la convenzione adottata27 (inciso 4.15), siamo nel primo caso se e solo se i vettori
OP , OQ, OR definiscono la stessa orientazione della terna canonica ~e1 , ~e2 , ~e3 , ovvero se
27Si noti che questa determina la corrispondenza “orientazione di R3 ” ←−−→ “orientazione dello spazio fisico”,
senza la quale non avrebbe neanche senso porre la domanda (i dati dell’esercizio sono coordinate, concernono
R3 , mentre la domanda concerne lo spazio fisico).
161
e solo se il determinante della matrice associata ad essi è positivo. Questo accade (tale
determinante vale 99), quindi vedremo girare il topolino in senso antiorario.
x = 2 + 4t + 2s
5.11. y = 5 t + 9 s (i coefficienti di t ed s sono le coordinate di P Q e P K ).
z = 1 + 6t + 7s
−6 √ 2 √
5.16. πr (P ) = −9, dist{P, r} = 131. 5.17. πr (P ) = 1 , dist{P, r} = 22 .
1 1
7.5. ||~v + w|| ~ 2 − ||~v − w||
~ 2 = h~v + w, ~ ~v + wi ~ − h~v − w, ~ ~v − wi
~ = h~v , ~v i + 2h~v , wi ~ + hw, ~ −
~ wi
h~v , ~v i + 2h~v , wi ~ − hw,~ wi~ = 4h~v , wi ~ .
7.16. Si vogliono due soluzioni dell’equazione 2x − y + 3z = 0 che siano ortogonali. Ad
1 6 2
esempio ~h1 = 2 ed ~h2 = ~h1 ∧ ~n = −3 . Si ha πH (~v ) = π~h1 (~v ) + π~h2 (~v ) = 7
0 −5 1
(formula 7.12′′ ).
16/5 0
7.17. Si ha π~h (~v ) = 32/5 , π~k (~v ) = 33/5 . La somma non dà il vettore πH (~v )
0 11/5
trovato nell’esercizio precedente.
7.19. Denotiamo con w ~ 1, w~ 2, w ~ 3 i tre vettori indicati nel testo.
Eseguendo l’ortonormalizzazione di Gram-Schmidt si trova
3 2 1
~b1 = w~ 1 = 1 , ~b2 = 1 w~ 2 −π ~b
( w
~ 2 ) 1 0 ~ w
~ 3 −π ~
b
( w
~ 3 )−π~b
( w
~ 3 ) 0
|| “numeratore ” || = 3 2 , b3 = = .
1 1 2
||w
~ 1 || 6 5 || “numeratore ” || 0
1 1 0
Una verifica utile è la seguente: Span {w ~ 1, w~ 2, w ~ 3 } è lo spazio di equazione cartesiana
−3y+z−2w = 0, anche i vettori ~b1 , ~b2 , ~b3 soddisfano questa equazione e sono indipendenti.
7.22. Se lo fosse, il polinomio caratteristico P (λ) avrebbe 2 radici reali, ma questo non
accade perché P (λ) = λ2 + 1 .
1 2 3
7.23. I vettori ~v1 = −1 , ~v2 = −1 , ~v3 = −1 costituiscono una base di
2 −1 −3
autovettori per A, indicando con B la matrice associata a questi vettori e con ∆ la matrice
diagonale associata ai corrispondenti autovalori (nell’ordine) 3, 2, 2 risulta ∆ = B −1 ·A·B
(questa è la diagonalizzazione di A). Per triangolarizzare A tramite una base ortonormale
è sufficiente ortogonalizzare la base ~v1 , ~v2 , ~v3 : si ottengono i vettori d~1 , d~2 , d~3 e la
triangolarizzazione
indicati:
1 √ 11 3 3 ∗ ∗
d~1 = 16 −1 , d~2 = 202 −5 , d~3 = √135 5 ; 0 2 ∗ = D−1 · A · D , essendo
2 −8 1 0 0 2
D la matrice associata ai vettori d1 , d2 , d3 . ~ ~ ~
La matrice C non è diagonalizzabile perché l’autospazio relativo all’autovalore 2 ha dimen-
sione 1 (mentre la molteplicità algebrica di tale autovalore è 2).
Indichiamo con ~r1 ed ~r2 due autovettori (indipendenti) di C . Per triangolarizzare C si
devono trovare tre vettori ortonormali w ~ 1, w ~ 2, w~ 3 tali che C · w ~ 1 ∈ Span{w ~ 1 }, C · w~2 ∈
Span{w ~ 1, w ~ 2 }, C · w~ 3 ∈ Span {w ~ 1, w ~ 2, w ~ 3 } . Quanto al primo vettore siamo costretti a
scegliere un autovettore e normalizzarlo (scegliamo ~r1 ), quanto al secondo vettore possiamo
sia procedere come nella dimostrazione del Teorema 7.20 che prendere il secondo autovettore
(visto che c’è, perché non usarlo) ed ortonormalizzare la coppia {w ~ 1 , ~r2 } . Quanto al terzo
vettore, visto che la condizione sullo “Span” è vuota, è sufficiente prendere un qualsiasi
vettore di norma 1 ortogonale ai primi due, ad esempio il loro vettoriale w ~1 ∧ w ~ 2 (che ha
automaticamente norma 1: l’area di un quadrato di lato 1 vale 1!).
162
Appendice
I NUMERI COMPLESSI
I numeri complessi sono un campo che estende il campo dei numeri reali. Ciò che ne
giustifica l’introduzione e ne rende assolutamente irrinunciabile l’utilizzo risiede nel teo-
rema Fondamentale dell’Algebra, Teorema secondo il quale ogni polinomio si fattorizza nel
prodotto di polinomi di primo grado, ovvero ogni polinomio di grado n ha esattamente n
radici (contate con molteplicità). I numeri complessi sono spesso di fatto indispensabili,
persino molti problemi concernenti esclusivamente i numeri reali vengono risolti mediante il
loro utilizzo. Giusto a titolo d’esempio: i) il fatto che ogni polinomio reale (a coefficienti
reali) si fattorizza nel prodotto di polinomi anch’essi reali di grado 1 e 2 segue immediata-
mente dal teorema Fondamentale dell’Algebra; ii) il metodo di Cardano per determinare
le soluzioni dei polinomi di terzo grado coinvolge i numeri complessi anche se si conside-
rano esclusivamente polinomi reali che hanno tre radici reali; iii) per dimostrare il Teorema
Spettrale (7.39) si utilizzano i numeri complessi.
Naturalmente: N ⊆ Z ⊆ Q ⊆ R ⊆ C.
Definizione A.1. L’insieme dei numeri complessi C è l’insieme delle espressioni formali
del tipo a + ib , dove a e b sono numeri reali (mentre “+” ed “i” sono semplicemente dei
simboli):
C := a + i b a, b ∈ R
Dato un numero complesso z = a + i b , i numeri reali a e b vengono chiamati rispettiva-
mente parte reale e parte immaginaria di z .
Si osservi che, in sostanza, un numero complesso non è altro che una coppia di numeri
reali, la ragione per cui si utilizza questa notazione
√ sarà chiara molto presto. Esempi di
numeri complessi sono 2 + i 3, −1 + i (− 73 ), 0 + i 2, −19 + i 0 eccetera.
L’insieme dei numeri reali viene visto come sottoinsieme di quello dei numeri complessi
tramite l’inclusione naturale seguente:
R ֒→ C
(A.2)
a 7→ a + i 0
Inoltre si fa uso della seguente notazione: per ogni a ∈ R, b ∈ R r {0} i numeri complessi
a+i 0, b+i 1, 0+i b vengono denotati rispettivamente con a, b+i, i b (con i se b = 1). Da
notare che la notazione è compatibile con l’inclusione R ⊆ C appena introdotta.
164
Per ora abbiamo solo introdotto un insieme. Ora vogliamo arricchire il nostro insieme
introducendovi due operazioni.
Si osservi che c’è un notevole abuso di notazioni: i simboli “+” e “ · ” sono gli stessi che
si usano per indicare la somma e il prodotto di numeri reali, e addirittura il simbolo “+” lo
abbiamo anche usato nell’espressione formale (def. A.1) che denota un numero complesso.
Nonostante questo abuso di notazioni è impossibile avere ambiguità: il numero complesso
a + i b (def. A.1) risulta uguale alla somma (secondo la def. A.3) dei numeri complessi a ed
i b ; (inoltre, il numero complesso i b è uguale al prodotto i · b dei numeri complessi i e b ,
ciò permette che il simbolo “ · ” venga omesso senza che per questo ci sia ambiguità); somma
e prodotto di numeri reali coincidono con somma e prodotto dei corrispondenti numeri
complessi. Quest’ultima proprietà è ben più della legittimazione di un abuso di notazione,
per questo motivo la ripetiamo:
Osservazione A.5. Si ha
i2 = −1
nella notazione della def. A.1: (0 + i 1) · (0 + i 1) = −1 + i 0 .
Osservazione A.6. La definizione del prodotto può sembrare poco naturale ma non lo
è affatto: il prodotto tra numeri complessi (a1 + ib1 ) · (a2 + ib2 ) non è altro è altro che il
risultato che si ottiene semplificando il prodotto tra polinomi
(a1 + i b1 ) · (a2 + i b2 ) = a1 a2 + i (b1 + b2 ) + i2 (b1 b2 )
mediante la sostituzione di i2 con −1 . Questa prerogativa ha una conseguenza importante:
possiamo considerare i numeri complessi, nonché svolgere le operazioni tra questi, come se
fossero polinomi. In particolare valgono tutte quelle proprietà alle quali siamo abituati: as-
sociativa, commutativa, distributiva, esistenza dello zero e dell’opposto, esistenza dell’unità.
In altri termini, vale la proposizione che segue.
u + (v + z) = (u + v) + z , u+v = v +u,
u · (v · z) = (u · v) · z , u· v = v ·u,
′
(A.7 ) (u + v) · z = u · z + v · z ,
0+u = u , ∃ − u | u + (−u) = 0
1·u = u , 0·u = 0 .
(Naturalmente, −u = −a − i b , dove, per abuso di notazione, con −a − i b intendiamo l’espressione formale
c + i d , essendo c = −a e d = −b , della Definizione A.1 ).
(si osservi che essendo u non nullo per ipotesi risulta anche ρ 6= 0). Tale numero, che viene
denotato con u−1 , è l’unico numero che gode di questa proprietà (si ha esistenza e unicità29
del reciproco di un numero complesso non nullo).
2 5
Esempio. L’inverso di 2 + 5 i è il numero 29 − 29 i (lo studente svolga il prodotto e
verifichi che dà 1).
−1 −1 −1 −1 −1
Esercizio A.11. Calcolare 1 + 7 i , 19 i , 14 , 3 + 4i , 8− i .
A questo punto vogliamo fornire una rappresentazione grafica dei numeri complessi ed
introdurre un po’ di terminologia. La rappresentazione grafica di z = a + ib è quella
indicata in figura.
Im
θ
Re
a
a·u = b·u = 1 =⇒ a = a · 1 = a · (b · u) = a · (u · b) = (a · u) · b = 1 · b = b .
166
Pertanto, si ha anche
n
(A.16) ρ(cosθ + i senθ) = ρn cos(nθ) + i sen(nθ) .
Questa formula consente di estrarre senza difficoltà le radici di un numero complesso: con-
sideriamo z = ρ(cosθ + isenθ), i numeri complessi x che soddisfano l’equazione xn = z
√
sono i numeri complessi di modulo n ρ e di argomento ϕ che soddisfa l’equazione
(A.17) nϕ = θ (modulo 2 π) ,
dove la postilla tra parentesi sottintende il fatto che si tratta di un’identità di angoli, alge-
bricamente ha il significato che segue: consideriamo nϕ uguale a θ se la loro differenza è
un multiplo intero di 2π (che è l’angolo nullo). Ogni angolo del tipo ϕk := 2kπ+θ n (con k
intero) è una soluzione dell’equazione (A.17), d’altro canto ϕk = ϕk+n ed è quindi chiaro
che per ottenere tutte le soluzioni senza ripetizioni l’indice k deve variare da 0 ad n − 1 :
2π + θ 4π + θ 2 (k−1)π + θ
(A.18) le soluzioni dell’equazione (A.17) sono : , , ... , .
n n n
In definitiva, l’equazione xn = z ha esattamente n radici distinte:
√
n 2kπ + θ 2kπ + θ
(A.19) ρ · cos + i sen , k = 0, 1, ..., n − 1 .
n n
Il calcolo di q(x) ed r(x) si chiama divisione con resto. Sicuramente avrete visto l’algoritmo
della divisione tra polinomi reali (che peraltro è assolutamente identico a quello della divi-
sione tra numeri interi). Qualora p(x) e d(x) siano polinomi complessi non cambia una
167
5 x4 − (2+i) x2 (2+i)x2 + x − 1 + i
3x + 4
p(x) = a · (x − λ1 ) · ... · (x − λn )
dove λ1 , ..., λn ∈ C.
Da notare che risulta p(λi ) = 0 per ogni i . D’altro canto, fissato un valore λ è possibile
scrivere p(x) = (x− λ) · q(x) + r , dove q(x) ed r sono quoziente e resto della divisione
p(x) : (x − λ) (il resto di questa divisione deve avere grado zero, ovvero deve essere una
costante). Di conseguenza, se risulta p(λ) = 0 si ha anche r = 0 e pertanto x−λ è un
fattore di p(x). Naturalmente la stessa radice potrà comparire più volte. Ricapitolando:
i) i λi sono esattamente le radici del polinomio;
ii) i λi non sono necessariamente distinti.
Come conseguenza del risultato sulla divisione tra polinomi abbiamo che il Teorema Fon-
damentale dell’Algebra è equivalente all’affermazione che segue:
Il Teorema Fondamentale dell’Algebra può essere dimostrato sia con metodi algebrici che
analitici che topologici. Noi non lo dimostriamo.
Concludiamo questa appendice con due importanti conseguenze del Teorema Fondamen-
tale dell’Algebra. Premettiamo due osservazioni.
168
Corollario A.25. Ogni polinomio reale si fattorizza nel prodotto di polinomi reali di
primo e secondo grado.
Dimostrazione. Sia p(x) un polinomio reale. Fattorizziamolo sui complessi. Per il Lemma
A.24, per ogni radice λ = a + ib non reale (cioè con b 6= 0) troviamo anche la radice
λ = a − i b (distinta da λ). D’altro canto
(x−λ) · (x−λ) = (x−a−i b) · (x−a+i b) = x2 − 2ax + a2 + b2
è un polinomio reale nonché un fattore di p(x). Quanto visto permette di raccogliere in
ogni polinomio almeno un polinomio di grado uno o due. Per ragioni induttive otteniamo
la tesi.
Da notare che questo risultato concerne esclusivamente l’ambito reale ma che lo abbiamo
dedotto dal Teorema Fondamentale dell’Algebra, in particolare usando i numeri complessi.
III
Gli esercizi sono catalogati per argomenti. Naturalmente, per quel che riguarda i testi
d’esami questa catalogazione è meno rigorosa: può accadere che un esercizio catalogato sotto
una certa etichetta richieda in parte la conoscenza di nozioni successive.
§1. Matrici.
1 4 t−3 −3 1 1 4 t−3 −3 1
t+2 5 2 2 1 t t t t t
M = 3t−1 5 2 2 t+5 , N = 3t−1 5 2 2 t+5 .
0 0 0 0 0 t t t t t
t−13 0 t2 3 1 t−13 0 t 2
3 1
Esercizio 1.9. Trovare quattro matrici A, B, C, D ∈ M2,2 tali che:
a) det (A + B) 6= det A + detB ; b) det(C + D) = det C + detD .
Esercizio 1.10. Trovare due matrici quadrate invertibili la cui somma non è invertibile.
Esercizio 1.11. Si considerino le matrici che seguono (dove a, b, c ∈ R).
1 1 1 1 1 1 1 1 1 1 a b
A = a b c , B = a b c , C = 2 2 2 , D = 0 1 c .
a2 b 2 c2 a3 b 3 c3 0 0 0 0 0 1
a) Dimostrare che detA = (b − a)(c − a)(c − b) ; b) calcolare detB ; c) calcolare
la potenza n-esima C n della matrice C (cioè il prodotto di C con se stessa n volte) per
ogni n ∈ N; d) calcolare la potenza n-esima Dn per ogni n ∈ N.
1 2
Esercizio 1.12. Data A = , trovare tutte le matrici B ∈ M2,2 tali che AB = BA.
2 1
Esercizio 1.13. Trovare tutte le matrici P ∈ M2,2 tali che P 2 = P .
Esercizio 1.14. Trovare tutte le matrici A ∈ M2,2 tali che A2 = 0 (matrice nulla 2 × 2).
∗ Esercizio 1.15. Determinare tutti i valori di k per i quali la matrice
k−6 3 −k − 2 3 −k − 2
A = 2k + 1 3 5 3 5
5k + 9 6 k + 17 6 k + 17
a) ha rango 0; b) ha rango 1; c) ha rango 2; d) ha rango 3.
4 0 1 0 x
∗ Esercizio 1.16. Siano A = 0 −1 0 , ~b = 1 , ~x = y .
6 0 1 0 z
a) Calcolare l’inversa della matrice A ;
b) Determinare le soluzioni del sistema lineare A−1 · ~x = ~b .
3 −1 5 2 0 3
∗ Esercizio 1.17. Siano A = 0 2 2 e B = k 5 4 due matrici.
0 2 3 0 6 0
a) Calcolare l’inversa della matrice A ;
b) determinare i valori del parametro k per i quali il prodotto A2 · B 3 è invertibile;
c) posto k = 0 , calcolare A2 · B 3 · ~e1 , dove ~e1 è il primo vettore della base canonica di R3 .
1 −3 1 2 −5 2
∗ Esercizio 1.18. Siano A = 2 −9 2 , B = 0 4 0 .
2 5 1 −2 0 −1
a) calcolare: l’inversa di A, det (2AB 2 ) , det(2A + B) , det 2(A−1 )2 B 2 ;
b) trovare una matrice C in modo tale che A + C abbia rango 1;
c) trovare una matrice D in modo tale che A · D abbia rango 1.
1 −3 1 2 6 2 1
∗ Esercizio 1.19. Siano A = 2 −9 2 , B = 1 9 −1 , ~v = −2 .
2 5 1 −2 −8 −1 1
2 −1 2 2
a) calcolare: l’inversa di A , det (2AB ) , det (2A + B) , det 2(A ) B , AB(~v ) ;
b) trovare una matrice D in modo tale che il nucleo del prodotto A · D sia uguale allo
spazio Span{~v } .
172
1 1 −2
∗ Esercizio 1.20. Sia A = 1 0 −1 . Calcolare:
0 1 0
a) A ; b) i determinanti det An e det n·A) (al variare di n ∈ N).
−2
3 −1 0 2 1 −3
∗ Esercizio 1.21. Sia A = −1 2 0 una matrice, sia B = −1 3 2
2 −1 −3 0 k−1 1
una matrice che dipende da un parametro k , sia {~e1 , ~e2 , ~e3 } la base canonica di R3 .
a) Calcolare l’inversa della matrice A ; b) posto k = 0 , calcolare B · A3 · ~e3 ;
c) determinare i valori del parametro k per i quali il prodotto A3 · B 2 è invertibile;
d) posto k = 0 , determinare una soluzione ~x dell’equazione A·~x = B ·~e3 .
2 0 −1 t−1 8 0
∗ Esercizio 1.22. Si considerino le matrici A = 0 1 −1 e Bt = 1 −2 0 .
1 0 1 −1 0 2
a) Verificare che A è invertibile
e determinare i valori di t per i quali Bt è invertibile;
b) calcolare det 4 · A−3 · B 2 e det (A + B) ; c) calcolare C = A−1 ·(A + A·B)
(suggerimento: usate la proprietà distributiva, evitate calcoli inutili!)
∗ Esercizio 1.23. a) Determinare tutte le matrici invertibili A ∈ Mn, n (R) (con n arbi-
trario) soddisfacenti la condizione A3 = A2 ; b) (facoltativo) siano A, B ∈ Mn, n (R)
due matrici e sia a = det A , b = det B , c = det (A + B) . Calcolare il determinante
della matrice λ A2 BA + A2 B 2 (suggerimento: usate la proprietà distributiva).
3 1 2 k −1 −2
∗ Esercizio 1.24. Si considerino le matrici A = 1 0 1 , Bk = 4 1 −1 .
2 −5 1 −1 −5 2
a) determinare l’inversa della matrice A ;
b) calcolare i determinanti det (A−1 ·Bκ ·A2 ), det (2Bκ ), det(A+Bκ ) in funzione di k ;
c) (facoltativo)
Dimostrare le uguaglianze che seguono (dove
I denota la matrice
identica):
rango Bk · A2 = rango Bk , rango A−1 · Bk · A2 + A = rango Bk + I .
∗ Esercizio 1.25. Siano A , B ∈ Mn, n , C ∈ Mn, k tre matrici dipendenti da un
parametro t . Supponiamo che det A = t2 − 1 , det B = t + 1 , det (A − B) = t2 + 3 ,
rangoC = 2 .
a) Studiare l’invertibilità delle matrice B · A3 · B 2 al variare di t ;
b) calcolare il rango della matrice A · C − B · C (giustificare la risposta).
Rispondere ad almeno una delle seguenti domande (l’altra verrà considerata facoltativa):
c) per i valoridi t per i quali B è invertibile, calcolare det A4 · B −2 − A3 · B −1 ;
1 2 1
d) sia D = 0 0 3 , trovare due matrici E , F ∈ M3, 3 (R) , entrambe di rango 2,
0 0 1
tali che risulti rango (D · E) = 1 , rango (D · F ) = 2 .
173
Esercizio 2.5. Abbiamo visto che possiamo risolvere un sistema lineare nel modo seguente:
1) scriviamo la matrice completa associata A; e
e
2) riduciamo A ad una matrice a scala tramite l’eliminazione di Gauss (le operazioni
consentite sono: cambiare l’ordine delle righe, moltiplicare una riga per una costante non
nulla, sommare ad una riga una combinazione lineare delle altre);
3) scriviamo il sistema associato alla matrice ottenuta (che è un sistema a scala, equivalente
a quello di partenza) e lo risolviamo per sostituzione (partendo dall’ultima equazione).
Sarebbe corretto, quando riduciamo A e ad una matrice a scala,
a) cambiare l’ordine delle colonne? Perché?
b) effettuare due passaggi contemporaneamente (ad esempio: sommare ad una riga una
combinazione lineare delle altre e, allo stesso tempo, sommare ad un’altra riga una combi-
nazione lineare delle altre)?
Esempio. Nel passaggio da A a B che segue sommiamo alla prima riga la combinazione
lineare di coefficienti 2 e 1 di seconda e terza riga e sommiamo alla terza riga la prima riga:
1 4 7 −3 1 2 2 2 20 16 4 13 7 14
A = 2 5 2 2 5 2 5 B = 2 5 2 2 5 2 5 .
−3 6 5 3 2 1 2 −2 10 12 0 3 3 4
E’ vero che i sistemi lineari associati alle matrici A e B sono equivalenti? Perché?
c) dividere una riga per due? Perché?
d) eliminare una riga costituita da tutti zeri? Perché?
e) eliminare una colonna costituita da tutti zeri? Perché?
f ) sommare ad una colonna una combinazione lineare delle altre? Perché?
g) moltiplicare una colonna per una costante non nulla? Perché?
Esercizio 2.6. Siano SA , SB , SC , SD , SE , SF , SG , SH , SL , SM , SN i sistemi lineari
aventi come matrici complete associate rispettivamente
1 4 7 −3 1 2 2 1 4 7 −3 1 2 2
A = 0 0 0 2 5 2 5 , B = 0 0 0 2 5 2 5 ,
0 0 0 0 0 0 2 0 0 0 0 0 −1 2
1 4 7 −3 1
1 4 7 −3 1 1 4 0 7 −3 1
0 5 2 2 1
0 5 2 2 1 0 5 0 2 2 1
C= , D = , E = 0 5 2 2 1 ,
0 0 5 3 1 0 0 0 5 3 1
0 0 5 3 1
0 0 0 3 1 0 0 0 0 3 1
0 0 0 3 1
1 4 0 7 −3 0 1
1 4 7 −3 1 2 2
0 5 0 2 2 0 1
F = 0 0 0 4 10 4 10 , G = ,
0 0 0 5 3 0 1
0 0 0 0 0 −1 2
0 0 0 0 3 0 1
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
H = , L = ( 0 0 0 ), M = ( 0 0 ), N = .
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
a) Indicare quali sistemi lineari sono compatibili, hanno un’unica soluzione, hanno infinite
soluzioni (per essi, dire quanti sono i parametri liberi);
b) dire se ci sono sistemi lineari equivalenti tra loro ed indicare quali.
Esercizio 2.7. Discutere, al variare del parametro k , la compatibilità dei sistemi lineari
A · ~x = ~b nei seguenti casi:
1 k 1
k+1 k+2 −1+k
a) A = , ~b = ; b) A = k 4 , ~b = k ;
−2k−3 4k−6 3−k
1 4−k 3−k
k+1 5 −1
~ k 2k 1 ~ k
c) A = −2k+2 k , b= 1 ; d) A = , b= .
−2k −4k k−3 −2
4 10+k −1
175
∗ Esercizio 2.8. Trovare i valori di k per i quali il sistema lineare nelle incognite x ed y ,
(6k − 4) x + (5k − 2) y = −8
(7k − 7) x + (6k − 5) y = −7
a) è incompatibile; b) ammette una unica soluzione; c) ammette infinite soluzioni.
k+3 0 2−k 2k−8 x1
∗ Esercizio 2.9. Siano A = 0 k+6 k+3 , ~b = 3 , ~x = x2 .
0 0 k−2 8 x3
Determinare i valori di k per i quali il sistema lineare A~x = ~b (nelle incognite x1 , x2 , x3 )
a) è incompatibile; b) ammette un’unica soluzione; c) ammette infinite soluzioni.
x
4 3 4 2 5
y
∗ Esercizio 2.10. Si consideri il sistema lineare 8 2t 5+t 4 · = 11+t .
z
4 9−2t 7−t 5+t 10+t
w
Determinare i valori di t per i quali il sistema
a) è incompatibile; b) ammette infinite soluzioni, dipendenti da un solo parametro
libero; c) ammette infinite soluzioni, dipendenti da 2 parametri liberi.
∗ Esercizio 2.11. Si consideri il sistema lineare omogeneo
t + 30 t + 45 15 t + 10 5 x1 0
t−5 .
2t − 10 t−5 0 0 · .. = 0 .
−2 − t −5 − t −3 −3 4−t x5 0
a) Determinare, al variare del parametro t , la dimensione dello spazio Wt delle soluzioni
del sistema dato; b) scegliere (a proprio piacere) un valore t̃ del parametro e, per tale
valore, trovare una base di Wt̃ .
t + 12 t −2 t + 9 5
∗ Esercizio 2.12. Data la matrice A = t + 1 2t + 2 t + 1 0 0 , sia Wt
10 − t t −2 8 4−t
lo spazio delle soluzioni del sistema lineare omogeneo A · ~x = ~0 .
a) Determinare, al variare del parametro t , la dimensione di Wt ;
b) per i valori del parametro t per i quali Wt ha dimensione 3, trovare una base di Wt .
t 0 t+3 1
x
6 t + 2 1 1
∗ Esercizio 2.13. Si consideri il sistema lineare · y = .
1 0 t+2 0
z
2 0 1 1
Determinare i valori del parametro t per i quali il sistema
a) è incompatibile; b) ammette un’unica soluzione; c) ammette infinite soluzioni.
∗ Esercizio 2.14. Determinare i valori della costante k per i quali il sistema lineare, nelle
incognite x, y, z ,
3x − 2y + z = 1
3x + (k − 3)y + 7z = 4
−9x + (k + 5)y + (k + 6)z = 2
a) ammette una unica soluzione; b) ammette infinite soluzioni; c) è incompatibile.
t+3 0 2 −1 2t − 1 x1 1
.
∗ Esercizio 2.15. Dato il sistema lineare 2t+9 0 t+9 −2 t−11 · .. = 1 .
t+1 0 2 −3 2t−7 x5 1
Determinare i valori del parametro t per i quali il sistema
a) è incompatibile; b) ammette un’unica soluzione; c) ammette infinite soluzioni e,
per ciascuno di tali valori di t, indicare da quanti parametri liberi dipendono le soluzioni.
176
1 −1 1 x 1
∗ Esercizio 2.16. Si consideri il sistema lineare λ 1 −1 · y = 0 , nelle
1 −1 λ z λ
incognite x, y, z . Determinare i valori del parametro λ per i quali il sistema è compatibile
e per tali valori scrivere esplicitamente le soluzioni del sistema, indicando chiaramente gli
eventuali parametri liberi dai quali dipendono le soluzioni.
k−1 1 2k − 7
x
∗ Esercizio 2.17. Si consideri il sistema lineare −1 k − 3 · = k + 1 nelle
y
1 1 2k − 7
incognite x, y . Determinare i valori della costante k per i quali il sistema è incompatibile,
ammette una unica soluzione, ammette infinite soluzioni. Scrivere (per i valori di k per i
quali il sistema è compatibile) le soluzioni del sistema al variare di k .
(7−2k) x + (4−k) y = 1
∗ Esercizio 2.18. Si consideri il sistema lineare nelle
3 k x + (k+2) y = 2
incognite x, y , dipendente del parametro k .
Studiarne la compatibilità al variare di k nonché determinarne esplicitamente le soluzioni
per k = 0 e per gli eventuali valori di k per i quali ammette infinite soluzioni.
∗ Esercizio 2.19. Si consideri lo spazio R3 (con coordinate x, y, z) e l’insieme St delle
soluzioni del sistema lineare
x
t+3 0 5 8+t
·y =
3 0 t+1 t+4
z
nelle incognite x, y, z, dipendente dal parametro t.
a) Per i valori della costante t per i quali il sistema è compatibile, si indichi, in funzione
di t , il numero dei parametri liberi dai quali dipende St ; b) Per il valore t = 0 ,
determinare esplicitamente le soluzioni del sistema lineare dato; c) Indicare per quali
valori di t l’insieme St è un sottospazio vettoriale di R3 ;
d) (facoltativo) sia r la retta passante per i punti P di coordinate 1, −2, 1, Q di
coordinate 1, 0, 1 . Determinare, in funzione del parametro t , quali relazioni tra quelle che
seguono sono vere: St ⊆ r , r ⊆ St , r = St , r 6= St . (Spiegare le risposte date).
∗ Esercizio
2.20.
Si considerino
il
sistema lineare
t 3 2 x 4 t+3
2 t − 1 2 · y = t + 1 nelle incognite x, y, z, ed il vettore ~c = 2 .
1 1 1 z 5+t 0
a) Studiarne la compatibilità e determinare il numero dei parametri liberi dai quali dipende
l’insieme delle eventuali soluzioni, in funzione del parametro t ;
b) determinare i valori del parametro t per i quali ~c è una soluzione del sistema dato;
c) (facoltativo) dimostrare che se ~c e d~ sono due soluzioni di un sistema lineare, allora
anche λ~c + (1 − λ) d~ ne è una soluzione per ogni λ ∈ R .
3 4 9
∗ Esercizio 2.21. Si consideri la matrice At = 0 t + 1 5 .
0 4 7
a) Stabilire i valori di t per i quali At è invertibile;
b) per i valori di t per i quali At è invertibile calcolare il determinante della matrice 5·(At )−2 ;
c) posto t = 2 calcolare l’inversa di At nonché determinare le soluzioni del sistema lineare
−1
A2 · ~x = ~e3 (essendo ~e3 il terzo vettore della base canonica di R3 ).
177
1 0 1 −1
0 1 1 −1
f) U = Span , , Wk = Span , ⊆ R4 ;
1 0 2 5−k
0 1 k−3 3−k
1 −1 0 (
0 −2 1 x1 + x2 = 0
g) U = Span , , , W : ⊆ R4 ;
1 1 −1 x1 −x3 −x4 = 0
−1 1 0
( 1−t 2
3y + w = 0
1 −1
h) U : , Wt := Span ,
⊆ R4 ;
x+z = 0
0 0
1 t−4
3 3
3 2 −3 5 1 5
i) U = ker , W = Span { , } ⊆ R4 ;
0 7 0 7 5 4
−1 −5
0
0 1
0 0
1 0 0 k 1
l) U = Span , , , Wk = Span , ⊆ R4 ;
0
1 0 k+4
−1
1 0 0 6−k k−2
1 3 1 4 2
0 8 4 8 1+t
m) U = Span , , , W = Span , ⊆ R4 .
3
−7 −5 2+2t
7−t
2 14 6 16 5+t
Esercizio 3.12. Siano U e W due sottospazi di R37 . Determinate le possibili dimensioni
della loro intersezione sapendo che dim U = 19 , dim W = 21 .
Suggerimento: usare la formula di Grassmann e la stima 21 ≤ dim (U + W ) ≤ 37 .
Esercizio 3.13. Siano U e W due sottospazi di R49 . Supponiamo che dim(U ∩W ) = 3
e che dimU = 30 . Provare che 3 ≤ dimW ≤ 22 .
Esercizio 3.14. Siano U e W due sottospazi di R50 . Supponiamo che U sia definito
da 8 equazioni cartesiane e che dim W = 36 . Provare le seguenti disuguaglianze:
28 ≤ dim (U ∩ W ) ≤ 36 ; 42 ≤ dim (U + W ) ≤ 50 .
Suggerimento: innanzi tutto stimate la dimensione di U .
Esercizio 3.15. Sia B = ~v1 , ~v2 , ~v3 , ~v4 un insieme di vettori in R4 . Provare che le
tre affermazioni che seguono sono equivalenti:
i) B è una base di R4 ; ii) B è una base di Span B ; iii) SpanB = R4 .
Esercizio 3.16. Si consideri lo spazio R4 ed i suoi sottospazi U = Span{~u1 , ~u2 } e
3 7 3 11
4 0 5 0
W = Span{w ~ 2 } , essendo ~u1 = , ~u2 = , w
~ 1, w ~ 1 = , w ~2 = .
−5 −1 −7 −4
0 0 0 0
a) scrivere equazioni parametriche e cartesiane per gli spazi U e W ;
b) determinare una base dell’intersezione U ∩ W e una base dello spazio somma U + W ;
c) trovare delle equazioni cartesiane per U ∩ W e U + W ;
d) trovare un vettore ~v tale che ~v ∈ U , ~v 6∈ W ;
e) verificare che Span{~v , w ~ 2} = U + W ;
~ 1, w
f ) trovare un vettore ~z che non appartiene allo spazio somma U + W ;
g) verificare che l’insieme di vettori B = {~z, ~v , w
~ 1, w~ 2 } è una base di R4 ;
h) dimostrare che per ogni scelta di ~v e ~z che soddisfano le condizioni ~v ′ ∈ U , ~v ′ 6∈ W ,
′ ′
~z′ 6∈ U+W (come ai punti “d” e “f”), l’insieme {~z′ , ~v ′ , w ~ 2 } costituisce una base di R4 .
~ 1, w
180
1 0 3 1 1
1 1 5 2 2
Esercizio 3.17. Siano U = Span 1 , 1 , W = Span 6 , 3 , 3
1 1 5 3 4
1 1 5 2 2
due sottospazi di R5 .
a) Determinare una base degli spazi U, W, U ∩ W, U + W (indicare le dimensioni di tali
spazi e verificare che soddisfano la formula di Grassmann);
b) completare: la base di U ad una base di U + W , la base di U ad una base di R5 ,
la base di U ∩ W ad una base di U + W , la base di W ad una base di U + W ;
c) trovare dei vettori w,~ ~u, ~s, ~r tali che: w ~ ∈ W, w ~ 6∈ U , ~u ∈ U , ~u 6∈ W , ~s ∈ U + W ,
~s 6∈ U ∪ W (unione insiemistica) ~r ∈ U + W , ~r 6∈ U ∪ W , ~r 6∈ Span {~s};
d) siano ~u1 e ~u2 due vettori indipendenti appartenenti allo spazio U , dimostrare che
l’insieme di vettori ~s, ~r, ~u1 , ~u2 costituisce una base dello spazio somma U + W ;
e) trovare delle equazioni cartesiane per gli spazi U , W , U ∩ W , U + W .
Esercizio 3.18. Sia W l’insieme dei polinomi p(x) di grado minore o uguale a 4 che
soddisfano la relazione p(1) = 0 .
a) Dimostrare che W è uno spazio vettoriale; b) trovare una base di W ;
c) trovare le coordinate del polinomio q(x) = x − x2 + x3 − x4 rispetto alla base trovata;
d) completare la base di W trovata ad una base dello spazio vettoriale V di tutti i polinomi
di grado minore o uguale a 5.
2 −5 −5 2
∗ Esercizio 3.19. Siano U = Span { 5 , 7 } e W = Span{ −7 , 5 }
−7 −41 9 −8
due sottospazi di R3 .
a) Trovare un vettore ~v non appartenente né ad U né a W (cioè ~v 6∈ U , ~v 6∈ W );
b) è vero che esiste un vettore ~k ∈ R3 non appartenente allo spazio somma U + W ?
c) Determinare una base dell’intersezione U ∩ W ed una base dello spazio somma U + W .
∗ Esercizio 3.20. Si consideri il seguente sottospazio di R4 :
0 0 1 −2 1 7
0 0 −5 10 −5 −35
W := Span , , , , . Sia inoltre ~v = .
3 1 0 0 1
−2
3 1 0 0 1 −2
a) Trovare una base e la dimensione di W ; b) stabilire se ~v ∈ W e, in caso
affermativo, determinare le coordinate di ~v rispetto alla base trovata.
∗ Esercizio 3.21. Si considerino i seguenti sottospazi di R4 :
1 3 3 5 −8
0 t − 5 0 0 0
U = Span , ,
, W = Span ,
1 3 t−4 5 6 − 2t
2 6 t−1 10 −2 − 2t
a) Determinare i valori del parametro t per i quali si ha l’uguaglianza U = W ;
b) determinare i valori del parametro t per i quali l’intersezione U ∩ W ha dimensione 1
e, per tali valori di t , determinare una base dello spazio somma U + W ;
c) determinare i valori del parametro t per i quali lo spazio somma U + W ha dimensione
2 e, per tali valori di t , determinare una base dello spazio somma U + W ;
d) per il valore t = 0 , trovare, se esiste, un vettore ~v appartenete allo spazio somma
U + W ma non appartenente all’unione insiemistica U ∪ W , cioè ~v ∈ U + W , ~v 6∈ U ∪ W .
181
∗ Esercizio 3.35. Sia V uno spazio vettoriale e B = {~v1 , ~v2 , ~v3 , ~v4 , ~v5 } una sua base.
Siano inoltre w~ 1 = 3~v1 − 2~v2 , w
~ 2 = ~v1 + ~v2 , W = Span{w ~ 2} .
~ 1, w
a) Provare la seguente affermazione: {w ~ 2 } è una base di W ;
~ 1, w
b) determinare se ~v1 ∈ W e, in caso di risposta affermativa, determinare le sue coordinate
rispetto alla base {w ~ 2 } di W .
~ 1, w
∗ Esercizio 3.36. Stabilire, nei casi indicati sotto, per quali valori della costante c il
sottoinsieme W di V è un sottospazio vettoriale di V .
a) V = R≤3 [x] (spazio dei polinomi di grado minore o uguale a 3), W = p(x) p(0) = c ;
3
c
b) V = R , W = soluzioni del sistema lineare A · ~x = , dove A ∈ M2, 3 (R);
1
∗ Esercizio 3.37. Stabilire, nei casi indicati sotto, per quali valori della costante c il
sottoinsieme W di V è un sottospazio vettoriale di V .
a) V = R≤3 [x] (spazio dei polinomi di grado minore o uguale a 3), W = p(x) p(c) = 0 ;
3
0
b) V = R , W = soluzioni del sistema lineare A · ~x = , dove A ∈ M2, 3 (R).
c
∗ Esercizio 3.38. Sia V uno spazio vettoriale e B1 = {~v1 , ~v2 , ~v3 , ~v4 } una sua base. Si
consideri inoltre il sottospazio W = Span{w ~ 2 } , dove w
~ 1, w ~ 1 = −2~v1 + 3~v2 e w ~2 =
−2~v1 + 5~v3 .
a) Dimostrare che i vettori w ~ 2 sono indipendenti e completare l’insieme {w
~ 1, w ~ 2}
~ 1, w
ad una base B2 di V ; b) determinare le coordinate del vettore 2~v1 − 5~v3 + ~v4 ∈ V
rispetto alla base B2 di V trovata al punto a).
∗ Esercizio 3.39. Sia V uno spazio vettoriale reale e B = {~v1 , ~v2 , ~v3 , ~v4 , ~v5 } una sua
base. Siano inoltre w ~ 1 = 3~v1 − 2~v2 , w
~ 2 = ~v1 + ~v2 , W = Span{w ~ 2} .
~ 1, w
a) Provare la seguente affermazione: {w ~ 2 } è una base di W ;
~ 1, w
b) determinare se ~v1 ∈ W e, in caso di risposta affermativa, determinare le sue coordinate
rispetto alla base {w ~ 2 } di W .
~ 1, w
∗ Esercizio 3.40. Sia V lo spazio vettoriale dei polinomi p(x) di grado minore o uguale a
3. Denotiamo con p′ (x) la derivata del polinomio
p(x) . Si consideri l’applicazione lineare
L : V −→ R3 definita come segue: L p(x) = “vettore di coordinate p(0), p(1), p′ (0)”.
a) Trovare una base di V e determinare la sua dimensione;
b) trovare la matrice rappresentativa di L rispetto alla base di V trovata nel punto a) ed
alla base canonica di R3 ;
c) determinare la dimensione ed una base del nucleo kerL .
∗ Esercizio 3.41. Sia V lo spazio vettoriale dei polinomi p(x) di grado minore o uguale
a 2. Siano inoltre U il sottospazio di V dei polinomi soddisfacenti p(−1) = 0 e W il
sottospazio di V dei polinomi soddisfacenti p(3) = 0 .
a) Trovare una base e la dimensione degli spazi U e W ; b) determinare una base dello
spazio somma U + W ; c) determinare una base dell’intersezione U ∩ W ; d) stabilire se
U + W è somma diretta di U e W (=stabilire se gli spazi U e W sono indipendenti).
1 0
∗ Esercizio 3.42. Sia V lo spazio vettoriale delle matrici 2 × 2 , sia B = . Si
0 2
consideri la funzione F : V −→ V definita ponendo F (A) = B · A − A · B (essendo “·”
il prodotto righe per colonne di matrici).
a) Dimostrare che F è lineare; b) scrivere una base BV dello spazio vettoriale V ;
c) scrivere la matrice rappresentativa M della trasformazione lineare F , rispetto alla base
BV scelta precedentemente; d) determinare una base del nucleo di F .
184
Esercizio 4.2. Spiegare la formula (⋆) dell’esercizio (1) in termini della teoria dei sistemi
lineari: il nucleo kerL è lo spazio delle soluzioni del sistema lineare di n equazioni in m
incognite ..., le dimensioni di dominio e immagine di L sono rispettivamente ... .
Esercizio 4.3. Siano
2 1 0
1 2 3 1 0 2
1 1 1 −5
A = 0 1 2 , B = 0 2 , C = , ~v = , w~ = −1 .
0 0 3 4
0 0 1 0 0 3
1 −2 1
Si calcoli, e si descriva esplicitamente,
a) LA ◦LB , LC ◦LA ◦LB , LA ◦LA ◦LB , LC ◦LA−1 ◦LB , LC ◦LA−1 ◦LA−1 ◦LB ,
b) LC ◦ LA , LC ◦ LA ◦ LA , LA ◦ L(A−1 ) , L(A3 ) , LC ◦ LA−1 ,
dove LA è l’applicazione lineare associata alla matrice A eccetera. Si determini l’immagine
del vettore ~v per ognuna delle applicazioni in (a) e l’immagine del vettore w~ per ognuna
delle applicazioni in (b).
Esercizio 4.4. Sia L : R8 → R14 una applicazione lineare rappresentata da una matrice
A ∈ M14,8 (R) di rango 3. Calcolare dimker L e dim ImL .
Esercizio 4.5. Sia L : R9 → R4 una applicazione
lineare e sia W ⊆ R9 un sottospazio
di dimensione 7. Provare che dim ker L ∩ W ≥ 3 .
Suggerimento: stimate la dimensione di kerL usando ilfatto che dim ImL ≤ 4 , osservate
che dim (ker L + W ) ≤ 9 , infine stimate dim kerL ∩ W usando la formula di Grassmann.
185
4 3
Esercizio 4.6. Si considerino
le applicazioni
lineari L A : R −→ R , LB : R4 −→ R3
0 1 0 0 0 1 0 2
associate alle matrici A = 0 0 0 0 , B = 3 3 −1 4 .
0 0 −1 0 3 1 −1 0
a) Trovare delle basi, equazioni cartesiane ed equazioni parametriche, di kerLA , kerLB ,
ImLA , Im LB ; b) discutere iniettività e suriettività di LA ed LB .
Esercizio 4.7. Trovare una matrice B ∈ M3,4 (R) in modo tale che l’applicazione lineare
ad essa associata LB : R4 −→ R3 soddisfi le seguenti proprietà:
il primo vettore della base canonica di R4 appartiene al nucleo di LB ,
(⋆)
LB è suriettiva.
a) dimostrare che le condizioni (⋆) determinano univocamente nucleo e immagine di LB ;
b) scrivere (senza fare calcoli!) una base del nucleo ed una base dell’immagine di LB ;
c) trovare matrici Ck ∈ M3,4 (R) tali che il nucleo di LCk : R4 → R3 ha dimensione k
(con k = 1, 2, 3, 4; d) scrivere una base del nucleo ed una base dell’immagine delle LCk .
Esercizio 4.8. Si considerino l’applicazione lineare LA : R7 −→ R3 rappresentata
dalla
1 3 7 3 1 0 1 8
matrice A = 3 9 2 2 5 2 1 nonché il vettore w ~ = 7 .
−2 −6 5 1 −4 −2 0 1
a) Determinare una base del nucleo ed una base dell’immagine di LA ;
b) trovare delle equazioni cartesiane per il nucleo e per l’immagine di LA ;
c) trovare, se esiste, un vettore ~v ∈ R7 la cui immagine è il vettore w
~;
d) trovare, se esistono, 5 vettori indipendenti (in R7 ) che hanno come immagine w~;
e) trovare, se esistono, 6 vettori indipendenti (in R7 ) che hanno come immagine w~;
f ) trovare, se esistono, 7 vettori indipendenti (in R7 ) che hanno come immagine w
~.
Esercizio 4.9. Sia A ∈ M3, 5 una matrice e sia LA : R5 −→ R3 l’applicazione lineare
associata ad A .
a) Dimostrare che il nucleo di LA contiene almeno due vettori indipendenti;
b) dimostrare che LA è un’applicazione suriettiva se e solo se il nucleo di LA non contiene
tre vettori indipendenti;
Esercizio 4.10. Sia L : R3 −→ R4 una applicazione lineare che soddisfa le condizioni
1
2 −1 1
1
L( −2 ) = L( 1 ) = L( 1 ) , ∈ Im L
1
1 1 1
1
Determinare (esplicitamente) una base del nucleo di L ed una base dell’immagine di L .
Esercizio 4.11. Si considerino le applicazioni lineari
L : R3−→ R2 M : R3−→ R3
x x x 1 7 3t x
y 7→ 1 1 3t · y y 7→ t 5 1 · y
t 5 1
z z z 0 1 1 z
Determinare i valori del parametro t per i quali
a) il nucleo di L ha dimensione 0, 1, 2, 3; b) l’immagine di L ha dimensione 0, 1, 2.
c) M non è suriettiva; d) M non è iniettiva! e) dim kerM = 1.
7 2 1 −1 1
Esercizio 4.12. Si considerino i vettori ~u = , ~v = ,w~= , ~y = , ~z = ,
5 3 3 3 −1
1 1 1
1 4 0 1 0
1 0 2
~a = −3, ~b = 0 , ~c = 1 , d~ = 1 , ~e = −2, f~ = , ~g = , ~h = .
1 1 3
4 1 0 1 5
1 0 4
Trovare, se esistono, delle applicazioni lineari A, B, C, D, E, F, G, H, I, L, M, N che
186
Esercizio 4.16. Per ognuna delle funzioni che seguono, trovare i valori del parametro t
per i quali è una applicazione lineare
f : R2 −→ R2 g : R2 −→ R2 h : R2 −→ R2
x x·cos(t) + y ·sen(t) x x − ty x x+y
7→ 7→ 7 →
y −x·sen(t) + y ·cos(t) y t−1 y txy
φ: R3 −→ R2 ψ : R2 −→ R3 ω :R−→ R2
x 0 2
y 7→ x + y x
7→ 0 x 7→
x
1 y x
z 0
Esercizio 4.17. Sia V lo spazio vettoriale dei polinomi p(x) di grado minore o uguale 4.
a) Verificare che la “derivata” D : V → V è lineare;
b) Trovare una base di V e la matrice rappresentativa di D rispetto a tale base.
Esercizio 4.18. Sia V lo spazio vettoriale dei polinomi p(x) di grado minore o uguale
4 che soddisfano la relazione p(2) = 0 . Denotiamo con p′ (x) la derivata del polinomio
p(x) .
a) Trovare una base di V e determinare la sua dimensione;
b) trovare la matrice rappresentativa dell’applicazione lineare
L : V −→ R3 , L p(x) = “vettore di coordinate p(0), p(1), p′ (0)”
rispetto alla base di V trovata e alla base canonica di R3 .
∗ Esercizio 4.19. Sia L : R3 −→ R2 una applicazione lineare, assumiamo che
−2 4 −1
4
L( 2 ) = L( −3 ) = −3L( 4 ) = .
5
−1 2 −3
a) Determinare, se possibile, una base del nucleo di L ; b) calcolare L(~e1 ) , dove
~e1 è il primo vettore della base canonica di R3 ; c) è possibile determinare la matrice
A ∈ M2,3 (R) per la quale si ha L = LA ? Se la risposta è “si”, spiegare come.
∗ Esercizio 4.20. Si considerino le applicazioni lineari
R3 −→ R2 e LB : R3−→ R
LA :
3
7 −1 9 2
6 6 −9
associate alle matrici A = , B = 3 −6 2 ed il vettore ~v = −2 .
−4 −4 6
5 −8 4 3
Si consideri inoltre la composizione LA ◦ LB .
a) Determinare una base del nucleo di LB ; b) calcolare LA ◦ LB (~v ) ;
c) determinare una base del nucleo ed una base dell’immagine di LA ◦ LB .
12 −4 16
∗ Esercizio 4.21. Siano A = ed LA : R3 → R2 l’applicazione lineare
−6 2 −8
associata.
a) Determinare una base del nucleo ed una base dell’immagine di LA ;
b) scegliere un vettore non nullo ~k nell’immagine di LA e trovare due vettori distinti ~u
e ~v appartenenti ad R3 la cui immagine è ~k (cioè LA (~u) = LA (~v ) = ~k ).
∗ Esercizio 4.22. Sia L : R4 −→ R3 l’applicazione lineare rappresentata dalla matrice
1 4 5 6 5
A = 3 5 3 2 e sia ~v = 1 un vettore in R3 .
−7 −7 1 6 t+3
a) Trovare, se esistono, i valori del parametro t per i quali il vettore ~v appartiene
all’immagine di L ; b) per i valori di t trovati al punto precedente, determinare un
~ ∈ R4 tale che L(w)
vettore w ~ = ~v .
188
matrici A e B .
a) Calcolare LA ◦ LB (~vk ) (“◦” denota la composizione); b) determinare i valori di k
per i quali ~vk appartiene al nucleo di LA ◦ LB ; c) trovare un vettore che appartiene
all’immagine di LB ma che non appartiene al nucleo di LA .
∗ Esercizio 4.30. Sia F : R3 −→ R3 un’applicazione lineare. Assumiamo che il nucleo
kerF sia lo spazio delle soluzioni del sistema lineare omogeneo x+y −z = 0 , che 8 sia un
autovalore di F avente autospazio V8 generato dal vettore di coordinate 1, 2, 1 . a) Dire
se F è diagonalizzabile (in questo caso indicare una base di autovettori ed i corrispondenti
autovalori); b) scrivere il polinomio caratteristico dell’endomorfismo F ; c) calcolare la
matrice rappresentativa di F rispetto alla base canonica di R3 ; d) scegliere due autovettori
indipendenti ~u e ~v e calcolare F ◦ F (3~u − 5~v ) (dove “◦” denota la composizione).
∗ Esercizio 4.31. Sia V lo spazio vettoriale dei polinomi di grado minore o uguale a 2.
Si consideri l’applicazione lineare L : V −→ V definita ponendo L p(x) = 2p′ (x)+p(x)
a) stabilire se la trasformazione lineare L è iniettiva; b) fissare una base B di V e
determinare la matrice rappresentativa di L rispetto a tale base.
Si consideri ora la funzione Ft : V −→ V definita ponendo Ft p(x) = t−2+p (t+1)·x .
c) Determinare i valori del parametro t per i quali Ft è lineare.
∗ Esercizio 4.32. Sia V lo spazio vettoriale dei polinomi di grado minore o uguale a 3. Sia
L : V → V l’applicazione lineare definita ponendo L p(x) = p(x) + p(−x) .
a) determinare dimensioni e basi del nucleo e dell’immagine di L ; b) determinare la
3 2
25 3 2
alla base BV = {x + x, x + 1, x + 1, x − 1 } ;
matrice rappresentativa di L rispetto
c) calcolare L 5x − x + 3x + 2 .
§5. Diagonalizzazione.
1 4 1
Esercizio 5.1. Verificare che ~v = è un autovettore della matrice A = .
−2 2 3
Calcolarne il relativo autovalore e determinare A~v , A2~v , A3~v , A4~v , A38~v .
Esercizio 5.2. Calcolare il polinomio caratteristico, autovalori e basi dei relativi autospazi
delle
trasformazioni
lineari
associate
alle matrici
2 0 2 0 2 0 2 0 1 −1 3 4 1 2
, , , , , , ,
1 2 0 2 1 3 0 3 2 −2 4 3 −1 −2
−1 0 4 0 0 0
1 −1 5 3 2 5 3 8 0 7 0 , 0 0 0 ,
, , , ,
6 −4 2 4 12 −2 4 −1
1 0 2 0 0 0
7 0 0 3 8 0 5 2 2 −4 2 2 4 2 6
0 2 1 , 4 −1 0 , 1 4 1 , 1 −5 1 , 0 0 0 .
0 0 3 0 0 3 7 −8 1 3 3 −3 2 1 3
7 −3 2 −5 2
−1 9 −2 5 1
Esercizio 5.3. Sia A = e sia ~v = .
1 −3 8 −5 3
2 −6 4 −4 1
Denotiamo con LA la trasformazione lineare associata alla matrice A.
a) Verificare che ~v è un autovettore di LA e calcolarne il relativo autovalore λ;
b) calcolare la dimensione dell’autospazio associato all’autovalore λ;
c) calcolare LA ◦LA ◦LA ◦LA ◦LA ◦LA ◦LA ◦LA ◦LA (~v ), dove ”◦” denota la composizione di
applicazioni lineari; d) verificare che µ = 2 è anch’esso un autovalore di LA e determinare
190
una base del relativo autospazio; e) provare che λ e µ sono gli unici due autovalori di LA .
e) scrivere il polinomio caratteristico di LA (senza fare inutili calcoli).
1 1
∗ Esercizio 5.4. Si considerino ~u = , ~v = ∈ R2 e la trasformazione lineare
1 2
T : R2 −→ R2 definita dalle relazioni T (~u) = T (~v) = ~u + ~v .
a) Determinare nucleo e immagine di T ;
b) scrivere la matrice A che rappresenta T nella base canonica di R2 .
Esercizio 5.5. Nei casi indicati sotto,
a) stabilire quali vettori sono autovettori (e per quali valori dell’eventuale parametro t);
b) per ognuno di tali autovettori determinare il corrispondente autovalore e una base
dell’autospazio cui appartiene; c) calcolare A19 (w); ~ d) determinare tutti gli autovalori
e calcolarne le molteplicità algebrica e geometrica, quindi stabilire se esistono una matrice
invertibile B ed una matrice diagonale ∆ tali che B −1 · A · B = ∆ nonché una matrice
invertibile C ed una matrice diagonale Λ tali che C −1 · Λ · C = A (se esistono, indicare
tali matrici); e) stabilire se esiste una base di autovettori e, se esiste, scrivere tale base
e scrivere la matrice rappresentativa di T rispetto a tale base.
−3 −3 −2 3 2
i) A = −12 2 6 , ~v = 2 , w ~ = −3 ;
8 −6 −11 3 4
1 1 4 1 2
ii) A = 2 2 −4 , ~v = −2 , w ~ = 1 ;
4 −2 −5 1 −2
2 4 −3 −1 1 7
iii) A = 4 −4 6 , ~u = 1 , ~v = 2 , w ~ = 1 ;
2 −4 7 2 4 −1
−3 2 6 1 4 3
iv) A = 2 0 −3 , ~v = −7 , w ~ = 3 , ~ut = 0 ;
−2 1 4 3 1 t−3
3 2 −1 −1 0 t−4
v) A = −1 0 1 , ~v = 1 , w ~ = 1 , ~ut = −1 .
2 4 0 1 −1 t−3
1 1 3
∗ Esercizio 5.6. Siano ~v = 1 , w ~ = 0 , ~z = 1 ∈ R3 . Sia T : R3 → R3
2 1 −1
la trasformazione lineare soddisfacente le condizioni che seguono:
T (~z) = 2~v ; ~v e w~ sono autovettori rispettivamente di autovalori λ = 2 , µ = −5 .
a) Determinare una base del nucleo e una base dell’immagine di T ; b) determinare una
matrice diagonale ∆ e una base di R3 rispetto alla quale T è rappresentata da ∆ ;
c) determinare la matrice rappresentativa di T rispetto alla base canonica.
Esercizio 5.7. Per le matrici dell’esercizio (2) che risultano diagonalizzabili, scriverne la
formula di diagonalizzazione e calcolarne esplicitamente la potenza n-esima per ogni n ∈ N .
∗ Esercizio 5.8. Sia LA la trasformazione dello spazio R3 rappresentata dalla matrice
−5 −6 4
A = −3 2 −6 .
5 −15 3
a) Calcolare il polinomio caratteristico PA (λ) della matrice A ; b) Verificare che λ = −7
è un autovalore di LA e determinare una base del relativo autospazio; c) trovare un
autovalore della trasformazione lineare LA ◦ LA ◦ LA (dove ”◦” denota la composizione di
applicazioni lineari) e determinare una base del relativo autospazio.
191
∗ Esercizio
5.9. Si considerino
la matrice
−2 −8 6 −2 −1 5
A := 2 6 −3 ed i vettori ~u = 1 , ~v = 2 , w ~ = −1 .
−6 −12 11 −3 3 2
a) Individuare i vettori, tra quelli indicati, che sono autovettori di A (spiegare quale
metodo è stato utilizzato); b) determinare gli autovalori corrispondenti agli autovettori
individuati e determinare le basi dei relativi autospazi.
3 −2 1 0 1
∗ Esercizio 5.10. Siano A = e B due matrici, ~e = , ~v = ,w
~=
21 −10 0 3 8
tre vettori in R2 .
a) determinare tutti gli autovalori e delle basi dei rispettivi autospazi
della trasformazione
di R2 associata ad A ; b) calcolare il prodotto A · A · 3~e ;
c) determinare B sapendo che ~v e w ~ sono due autovettori di B , entrambi relativi
all’autovalore λ = 2 . Motivare la risposta. Suggerimento: non dovete fare calcoli!
∗ Esercizio 5.11. Si consideri la trasformazione lineare L dello spazio R3 avente i seguenti
autovettori erelativi
autovalori:
1 1 4
~v1 = 1 , λ1 = −7 ; ~v2 = 2 , λ2 = 2 ; ~v3 = 5 , λ3 = 3 .
3 1 5
a) scrivere esplicitamente le immagini dei vettori ~v1 , ~v2 , ~v3 e determinare il polinomio
caratteristico PL (λ) ;
b) determinare una base del nucleo ker L e una base dell’immagine ImL ;
c) calcolare l’immagine L(~e1 ) del primo vettore della base canonica di R3 .
1 5 2 1
∗ Esercizio 5.12. Siano ~v1 = 3 , ~v2 = 0 , ~u = 2 , w ~ = 2 . Si
1 −1 6 1
consideri la trasformazione lineare L dello spazio R3 che soddisfa le condizioni che seguono:
L(~u) = L(w)
~ ; ~v1 è un autovettore di L di autovalore λ1 = −6 ; ~v2 è un autovettore
di L di autovalore λ2 = 2 .
a) determinare una base del nucleo kerL e una base dell’immagine Im L ;
b) determinare il polinomio caratteristico PL (λ) ;
c) calcolare l’immagine L3 (~v1 ) dove L3 denota la composizione L ◦ L ◦ L .
5 0 0
∗ Esercizio 5.13. Si consideri la matrice A := 0 1 5 .
0 6 −6
a) Determinare il polinomio caratteristico pA (λ) ;
b) determinare gli autovalori, e delle basi dei corrispondenti autospazi, della trasformazione
lineare di R3 associata alla matrice A ; c) indicare esplicitamente una matrice M ed
una matrice diagonale ∆ tali che A = M −1 · ∆ · M .
3 3 1
∗ Esercizio 5.14. Si considerino i vettori ~v = 0 , w ~ = 1 , ~z = 0 ∈ R3 . Sia
5 2 2
L : R3 −→ R3 l’applicazione lineare definita dalle relazioni L(~v ) = L(w)~ = −3~z , L(~z) =
2~v + w
~.
a) si determini una base del nucleo ker L e una base dell’immagine ImL ;
b) determinare un autovettore e un autovalore della trasformazione L ;
c) determinare il polinomio caratteristico della trasformazione L ;
d) determinare le immagini dei vettori della base canonica di R3 ;
e) scrivere esplicitamente la matrice rappresentativa di L rispetto alla base canonica di R3 .
192
4 −3
∗ Esercizio 5.15. Siano ~u = , ~v = ∈ R2 e sia L : R2 −→ R2 l’applicazione
−3 2
lineare individuata dalle relazioni L(~u) = −4~u − 6~v , L(~v ) = 3~u + 5~v .
a) determinare la matrice rappresentativa di L rispetto alla base {~u, ~v } ;
b) determinare il polinomio caratteristico e gli autovalori di L ;
c) determinare la matrice rappresentativa di L rispetto alla base canonica di R2 ;
∗ Esercizio 5.16. Si consideri la trasformazione lineare
9 1 0 0
0 9 0 0
LA : R4 −→ R4 associata alla matrice A = .
0 0 8 3
0 0 −18 −7
a) calcolare il polinomio caratteristico P (λ) ; b) determinare tutti gli autovalori, le loro
molteplicità algebriche e geometriche e delle basi dei rispettivi autospazi; c) è vero che
esistono due matrici C e ∆ tali che C è invertibile, ∆ è diagonale nonché C −1 ·A·C = ∆ ?
(giustificare la risposta e, in caso di risposta affermativa, trovare tali matrici).
−2 −3 3 −9 1
6 7 −3 9 2
∗ Esercizio 5.17. Sia At = e sia ~v = .
2 1 3 3 7
−2 −1 1 t + 3 1
a) trovare un valore t per il quale il vettore ~v è un autovettore di At ; b) determinare
il corrispondente autovalore λ nonché le molteplicità algebrica e geometrica di λ ;
c) trovare, se esistono, una matrice C ∈ M4, 4 (R) ed una matrice diagonale ∆ ∈ M4, 4 (R)
tali che C −1 · At · C = ∆ (dove t è il valore trovato al punto a).
−7 3 1 4
∗ Esercizio 5.18. Sia A = 4 −11 −2 e sia ~vt = 2 .
2 −3 −6 t
a) trovare un valore τ per il quale il vettore ~vτ è un autovettore di A;
b) determinare il corrispondente autovalore λ e le molteplicità algebrica e geometrica di λ;
c) trovare, se esistono, una matrice C ∈ M3, 3 (R) ed una matrice diagonale ∆ ∈ M3, 3 (R)
tali che C −1 · A · C = ∆ .
1 −1 −2 k −1 4
∗ Esercizio 5.19. Si considerino le matrici A = 1 0 0 , Bk = 0 2 0.
2 −1 −3 −6 0 5
a) determinare l’inversa della matrice A ; b) trovare un valore del parametro κ per
il quale il prodotto A−1 · Bκ · A è una matrice diagonale; c) sia κ il valore trovato
precedentemente, determinare il polinomio caratteristico nonché gli autovalori e delle basi
dei rispettivi autospazi della trasformazione lineare di R3 associata alla matrice Bκ .
−1 2 0
∗ Esercizio 5.20. Siano ~v = 0 , w ~ = 1 , ~z = −2 ∈ R3 .
1 0 1
Si consideri la trasformazione lineare L : R3 −→ R3 definita dalle relazioni
~ = ~0 , L(w)
L(~v ) − 2L(w) ~ = w ~ − ~z , L(~z) = 6w ~ − 4~z .
a) determinare una base del nucleo e una base dell’immagine della trasformazione L ;
b) determinare il polinomio caratteristico, gli autovalori e le basi dei rispettivi autospazi
di L ; c) determinare la matrice rappresentativa A di L rispetto alla base {~v , w, ~ ~z } di
R3 nonché la matrice rappresentativa B di L rispetto alla base canonica di R3 .
193
3
∗ Esercizio
5.28. Si considerino
la trasformazione L di R definita dalla relazione
lineare
x x+2y 1
L( y ) = 2x+y ed il vettore ~vk = 1 ∈ R3 .
z 8x−7y +4z k
a) Scrivere la matrice A rappresentativa di L rispetto alla base canonica di R3 ;
b) determinare i valori del parametro k per i quali il vettore ~vk è un autovettore per L ;
c) determinare il polinomio caratteristico di L , tutti gli autovalori e delle basi dei cor-
rispondenti autospazi; d) dire se L è diagonalizzabile e, in caso di risposta affermativa,
scrivere esplicitamente una matrice B e una matrice diagonale ∆ tali che ∆ = B −1 ·A·B .
3
∗ Esercizio 5.29. Sia L : R −→ R3 l’applicazione
lineare rappresentata (nella base
0 4 0
canonica) dalla matrice A = 0 −4 0.
7 −8 1
a) Determinare equazioni parametriche e cartesiane per i sottospazi kerL e Im L, di R3 ;
b) stabilire se L è diagonalizzabile e, in caso di risposta affermativa, determinare una base
B di autovettori per L nonché la matrice ∆ rappresentativa di L rispetto alla base di
autovettori trovata ∆ = MB, B (L) .
∗ Esercizio 5.30. Si considerino lo spazio vettoriale R4 con coordinate x, y, z, w ed il
sottospazio W di equazione cartesiana x − y + 2w = 0 . Sia inoltre T : W −→ R4
a a+d
b a + d
l’applicazione lineare definita dalla relazione T ( ) = .
c c
a) Trovare una base B dello spazio W ; d 0
b) verificare che l’immagine di T è contenuta nello spazio W ;
c) considerare T come trasformazione dello spazio W (cioè T : W −→ W ) e determinarne
la matrice rappresentativa rispetto alla base B trovata precedentemente;
d) stabilire se tale T : W −→ W è diagonalizzabile (giustificando la risposta).
∗ Esercizio 5.31. Si considerino
le trasformazioni
lineari
di R3 associate
alle matrici
3 0 0 3 0 2 1 0 1
A = 0 2 2 , B = 0 2 2 , C = 0 5 0 .
0 0 3 0 0 3 −1 0 1
a) Stabilire quali trasformazioni sono diagonalizzabili (enunciare in modo chiaro i risultati
teorici utilizzati); b) scegliere una trasformazione diagonalizzabile tra quelle date e deter-
minare una base di autovettori; c) stabilire quali tra queste trasformazioni hanno almeno
2 autovettori indipendenti.
∗ Esercizio 5.32. Sia V uno spazio vettoriale e B = {~v1 , ~v2 , ~v3 } una sua base. Sia
Lt : V −→ V la trasformazione lineare (dipendente dal parametro t) definita dalle relazioni
L(~v1 ) = ~v1 + ~v2 , L(~v2 ) = 2~v2 , L(~v3 ) = ~v1 − ~v2 + t~v3 .
a) Determinare i valori del parametro t per i quali Lt è diagonalizzabile;
b) determinare tutti gli autovalori e basi dei corrispondenti autospazi di L0 (t = 0).
4 2 2 1 2
∗ Esercizio 5.33. Si considerino le matrici At = t 1 , Bt =
2 1 2+t 2 4
dipendenti dal parametro t.
a) determinare le dimensioni di nucleo e immagine di At e Bt in funzione del parametro t;
b) determinare i valori di t per i quali il prodotto At · Bt è invertibile;
c) determinare i valori di t per i quali il prodotto Bt · At è invertibile.;
d) determinare un autovettore del prodotto A4 · B4 (t = 4).
∗ Esercizio 5.34. Sia B = { ~v , w ~ , ~u} una base dello spazio vettoriale R3 . Si consideri
3
la trasformazione lineare T di R soddisfacente le condizioni seguenti: ~v è un autovettore
195
~ = −~v + 3w
di autovalore λ = 2 , risulta T (w) ~ − 2~u , T (~u) = −2~v + 2w
~ − 2~u .
a) Stabilire se T è diagonalizzabile; b) determinare il polinomio caratteristico di T ;
c) calcolare T 5 (~v − w
~ + 2~u) .
3
∗ Esercizio 5.35. Si consideri lo spazio vettoriale R ela trasformazione
lineare
x y
T : R3 −→ R3 definita da T ( y ) = z .
z −27 x
a) Calcolare il polinomio caratteristico e stabilire l’eventuale diagonalizzabilità della trasfor-
mazione T ; b) stabilire se esiste un autovettore di T 3 che non è un autovettore per T ;
c) stabilire se esiste un autovettore di T −1 che non è un autovettore per T ; d) deter-
minare una base dell’immagine della trasformazione T 19 .
∗ Esercizio 5.36. Sia V uno spazio vettoriale e sia BV = {~v , w, ~ ~z } una sua base. Sia T :
V → V la trasformazione lineare definita dalle condizioni che seguono: ~v è un autovettore
di autovalore λ = 5 , w~ +~z è un autovettore di autovalore λ = 3 , T (2~v + 2w)
~ = 6~v + 2w ~.
a) determinare la matrice rappresentativa di T rispetto alla base BV ; b) determinare
autovalori e basi dei corrispondenti autospazi della trasformazione T ; c) determinare il
polinomio caratteristico di T ; d) stabilire se T è diagonalizzabile (giustificare la risposta).
Esercizio 5.37. a) Dimostrare che le matrici P ∈ Mn,n soddisfacenti P 2 = P sono
caratterizzate dalla proprietà P · w ~ ∀w
~ = w, ~ ∈ ImP (per questo motivo sono chiamate
“matrici di proiezione”); b) determinare gli autovalori e descrivere gli autospazi delle matrici
di proiezione;
c) verificare che se P ∈ Mn,n è una matrice di proiezione allora si ha una decomposizione
in somma diretta Rn = kerP ⊕ ImP .
retta s; d) la proiezione H del punto K sulla retta s di cui al punto “b” e verificare
che la distanza tra i punti H e K è uguale alla distanza calcolata al punto “c”;
e) equazioni parametriche della retta passante per i punti P e K ;
f ) equazioni parametriche della retta passante per il punto P ed ortogonale al vettore ~v ;
g) un’equazione cartesiana della retta passante per il punto P e parallela al vettore w ~.
2 8 7
Esercizio 6.4. Si considerino i punti B = ,C= ,D= ed il triangolo T
1 5 2
di vertici B, C, D.
Calcolare: l’area A, le misure degli angoli interni β, γ e δ di vertici B, C e D, la misura
dell’altezza relativa alla base BC, la proiezione del punto D sulla base BC, del triangolo T.
Esercizio 6.5. Consideriamo i seguenti punti e vettori geometrici dello spazio Euclideo
R3 .
4 −1 2 4 5 7
Punti: P =−2, Q = 7 . Vettori: ~v =−1, w ~ = 12 , ~z = 2 , ~u = 8 .
1 2 −2 −3 −3 −3
Trovare: a) l’estremo iniziale del segmento orientato di estremo finale P che rappresenta ~v ;
b) la distanza tra i punti P e Q ; c) il coseno dell’angolo compreso tra i vettori ~v e w ~;
d) due vettori paralleli al vettore ~v rispettivamente di norma uno e norma 15 ;
e) due vettori indipendenti, entrambi ortogonali al vettore ~v ; f ) due vettori indipendenti,
entrambi di norma 8 ed ortogonali al vettore ~v ; g) due vettori (non nulli) ~h e ~k ortogonali
tra loro ed ortogonali al vettore ~v (verificare che B = {~v , ~h, ~k} è una base di R3 ).
Calcolare: h) i prodotti vettoriali ed i prodotti misti che seguono:
~v ∧ w
~ , ~v ∧ ~v , ~u ∧ ~v , ~v ∧ (4~z) , ~z ∧ ~v , ~z ∧ ~u , ~v ∧ (~v + ~u) , ~v ∧ ~u
(verificare, in tutti i casi, che il vettore ottenuto è ortogonale ad entrambi gli argomenti);
(~v ∧ w)~ · ~z , (~v ∧ ~z) · w
~ , (~v ∧ w) ~ ∧ ~z , ~v ∧ (w ~ ∧ ~z) (“·” denota il prodotto scalare);
i) l’area A del parallelogramma individuato dai vettori ~v e w ~;
l) le coordinate della proiezione ~π di ~v lungo la direzione individuata da w ~.
5 3 6
∗ Esercizio 6.6. Si considerino i punti P = , Q= , K = ∈ R2 ed il
6 4 0
triangolo T di vertici P, Q, K . Determinare
a) l’area del triangolo T ; b) il coseno cosθ dell’angolo di T di vertice Q ;
c) un’equazione cartesiana della retta r passante per i punti P e Q .
3 1 5
∗ Esercizio 6.7. Sia P = −2 un punto di R3 e siano ~u = −3 , ~v = −9 due
5 0 −4
vettori geometrici.
a) Trovare un vettore ~k di norma 7 ortogonale ad entrambi i vettori ~u e ~v ;
b) determinare l’area A del parallelogramma individuato da ~u e ~v ;
c) determinare il coseno cos(θ) dell’angolo compreso tra i vettori ~u e ~v ;
d) determinare le coordinate dell’estremo iniziale I del segmento orientato che rappresenta
il vettore ~v ed il cui estremo finale è il punto P .
−7 1
∗ Esercizio 6.8. Siano ~v = −6 , w ~ = 1 vettori geometrici dello spazio Euclideo
−3 3
R3 . Determinare: a) il coseno cos(θ) dell’angolo compreso tra i vettori ~v e w ~;
b) l’area A del parallelogramma individuato dai vettori ~v e w ~;
c) le coordinate della proiezione ~π di ~v lungo la direzione individuata da w ~.
d) (facoltativo) verificare che il prodotto scalare ~π · w ~ è uguale al prodotto scalare ~v · w~ e
spiegare perché ~v ′ · w~ ′ = ~π ′ · w
~ ′ per ogni coppia di vettori ~v ′ e w~ ′ (essendo ~π ′ la proiezione
di ~v ′ lungo la direzione individuata da w ~ ′ ).
197
13 3
∗ Esercizio 6.9. Si consideri il piano R2 , i punti P = , K = e la retta r di
15 4
equazione cartesiana 5x + 12y − 76 = 0 .
a) Trovare un vettore ~v di norma 26 parallelo ad r ; b) calcolare la distanza
d = dist{P, r} e trovare le coordinate del punto Q ∈ r tale che dist{P, Q} = d ;
c) calcolare l’area del triangolo T di vertici P, Q, K ; d) determinare il coseno cosθ
dell’angolo di T di vertice Q .
3
∗ Esercizio 6.10. nello spazio Euclideo R ,
Si considerino,
7 4 8 2
i punti P = 3 , Q = 2 ed i vettori geometrici ~v = −1 , w ~ = 0 .
5 1 −3 −1
a) determinare le coordinate dell’estremo iniziale I del segmento orientato che rappresenta
il vettore ~v ed il cui estremo finale è il punto P ;
b) determinare l’area A del triangolo di vertici i punti P , Q , I ;
c) trovare un vettore ~h di norma 3 ortogonale ad entrambi i vettori ~v e w ~;
d) determinare il coseno cos(θ) dell’angolo compreso tra i vettori ~v e w ~;
e) determinare le coordinate della proiezione ~π di ~v lungo la direzione individuata da w ~.
2 6
∗ Esercizio 6.11. Siano ~v = 2 e ~k = 7 due vettori dello spazio euclideo R3 .
−1 8
a) Trovare due vettori ~u e w ~ ortogonali tra loro, entrambi ortogonali al vettore ~v nonché
entrambi di norma 3; b) calcolare il prodotto vettoriale ~z = ~u ∧ w ~ ; c) determinare
il coseno cos(θ) dell’angolo compreso tra i vettori ~v e ~k ; d) determinare le coordinate
della proiezione ~π di ~k lungo la direzione individuata dal vettore ~z .
∗ Esercizio
6.12. Si consideri, nel piano Euclideo R2 , la retta r passante
per i punti
2 5 11
P = e Q= . Si consideri inoltre il vettore geometrico ~k = .
3 −1 0
a) Determinare equazioni parametriche e cartesiane di r ; b) trovare un vettore ~v
di norma 7 parallelo alla retta r ; c) trovare una equazione cartesiana di una retta s
parallela ad r e tale che la distanza di s da r vale 5; d) determinare le coordinate della
proiezione ~π del vettore ~k lungo la direzione individuata dalla retta r .
2 5 2
∗ Esercizio 6.13. Si consideri il punto P = 3 ed i vettori ~k = 1 , w ~ = 1.
−1 7 3
a) Determinare le coordinate dell’estremo iniziale Q del segmento orientato che ha P
come estremo finale e che rappresenta il vettore ~k ; b) trovare un vettore ~v di norma 5
nonché ortogonale ai vettori ~k e w ~ ; c) determinare le coordinate delle proiezioni ~π~k (w)
~ ,
~π~k (w+7~
~ v ) , e ~π~k (2w+11~
~ v) , dei vettori w
~ , w+7~
~ v e 2w+11~
~ v lungo la direzione individuata
dal vettore ~k . d) (facoltativo) Scrivere una base del nucleo e una base dell’immagine
dell’applicazione lineare L : R3 −→ R3 definita ponendo L(~x) = ~π~k (~x) .
2 −2 5
∗ Esercizio 6.14. Siano P = , Q = , R = tre punti del piano
3 3 −1
Euclideo, sia T il triangolo di vertici P, Q, R e sia θ l’angolo di vertice P (del triangolo
T). Determinare:
a) l’area A del triangolo T ; b) il coseno cosθ dell’angolo θ ; c) equazioni para-
metriche e cartesiane della retta r passante per il punto P e parallela a QR ; d) le
coordinate del punto K ottenuto proiettando P sulla retta s passante per Q ed R .
198
2 2 5
∗ Esercizio 6.15. Si considerino i punti P = 3 , Q = 1 ed il vettore ~k = 1 .
−1 3 7
a) Determinare le coordinate del vettore w ~ rappresentato dal segmento orientato che ha Q
come estremo finale ed ha P come estremo iniziale; b) trovare un vettore ~v di norma 2
nonché ortogonale ai vettori ~k e w
~ ; c) determinare le coordinate della proiezione π~k (w)
~ ,
del vettore w ~
~ lungo la direzione individuata dal vettore k ; d) determinare le coordinate
di un vettore ~r che soddisfa le condizioni ~r 6= w
~ e π~k (~r) = π~k (w)
~ .
1 2 1
∗ Esercizio 6.16. Siano ~v = 4 , P = −1 e Q = −12 rispettivamente
−2 3 12
3
un vettore geometrico e due punti dello spazio Euclideo R . Sia r la retta di equazione
parametrica ~x = P + t · ~v . Determinare:
a) la proiezione ortogonale π del punto Q sulla retta r ; b) l’area del triangolo T
di vertici π, P, Q ; c) il coseno dell’angolo θ individuato dal vettore rappresentato dal
segmento orientato P Q e dal vettore ~v .
2
∗ Esercizio 6.17. R (con coordinate x, y), la retta r di
Si consideri il piano Euclideo
1
equazione x + 3y − 2 = 0 ed il punto A = .
−1
Determinare equazioni parametriche per r , trovare un vettore di norma 2 parallelo ad r ,
trovare un punto P la cui distanza da r vale 5. Scrivere una equazione cartesiana per la
retta s ortogonale ad r e passante per il punto A .
2 −1 5
∗ Esercizio 6.18. Siano P = , Q= , ~v = rispettivamente due punti e
3 3 −4
un vettore geometrico del piano Euclideo. Sia R l’estremo iniziale del segmento orientato di
estremo finale Q e che rappresenta il vettore ~v . Determinare l’area A del triangolo T di
vertici P, Q, R , equazioni parametriche e cartesiane della retta r passante per il punto
P e ortogonale a ~v , le coordinate del punto K ottenuto proiettando Q sulla retta r .
4 −2
∗ Esercizio 6.19. Nel piano Euclideo R2 , siano P = un punto e α~ = , β~ =
6 3
5
due vettori geometrici. Siano A e B gli estremi finali dei segmenti orientati di
−1
estremo iniziale P e che rappresentano rispettivamente i vettori α ~ e β~ . Determinare
a) equazioni parametriche e cartesiane per la retta r passante per i punti A, B ;
b) il coseno cosθ dell’angolo θ di vertice P del triangolo T di vertici P, A, B ;
c) le coordinate del punto K ottenuto proiettando A sulla retta passante per i punti P e B.
2
∗ Esercizio 6.20. Si considerino,
nel piano Euclideo R,
2 5 3
il vettore geometrico ~v = ed i punti P = , Q= .
−3 2 −8
a) Determinare equazioni parametriche e cartesiane della r, parallela a ~v e passante per P ;
b) calcolare la distanza dist{Q, r} ; c) determinare le coordinate del punto K , ottenuto
proiettando ortogonalmente il punto Q sulla retta r ; d) calcolare l’area del triangolo T
di vertici P, Q, K .
2
∗ Esercizio 6.21.
Nel piano Euclideo R , si consideri
2 2 5
il punto Q = e la retta r passante per i punti A = , B= .
−1 3 −1
a) Determinare equazioni parametriche e cartesiane di r ; b) trovare la distanza di Q da
r ; c) determinare le coordinate della proiezione ~π del vettore geometrico rappresentato
dal segmento orientato AQ lungo la direzione di r .
199
2
∗ Esercizio
6.22. Si consideri, nel piano
Euclideo R , la r retta ortogonale al vettore
1 4 11
~v = passante per il punto P = . Sia Q = un altro punto.
2 −3 1
a) Determinare equazioni parametriche e cartesiane per r ; b) calcolare le coordinate
della proiezione K ortogonale del punto Q su r ; c) calcolare la distanza del punto Q
da r ; d) determinare le coordinate di un vettore di norma 5 parallelo ad r .
∗ Esercizio 6.23. Si considerino
( lo spazio Euclideo R3(
, con coordinate (x, y, z), e le rette
x − 2y = 1 x+y−z = 0
r : , s :
2x + z = 0 y = 1
a) stabilire se le due rette date hanno un punto in comune; b) scrivere equazioni parame-
triche per la retta r. c) determinare l’equazione cartesiana del piano passante per l’origine
ortogonale ad r ; d) determinare la distanza dell’origine dalla retta r .
∗ Esercizio 6.24. Si consideri lo spazio vettoriale R3 , il piano H di equazione x+y−2z = 0
ed il vettore ~vt di coordinate 1, t, 3 .
a) trovare il valore t0 per il quale ~vt0 appartiene ad H ;
b) trovare i valori t1 per i quali risulta Span{~vt1 } + H = R3 ;
c) trovare una base di H contenente il vettore ~vt0 ;
d) si consideri R3 dotato della naturale struttura di spazio Euclideo. Sia π : R3 → R3
la proiezione ortogonale su H , determinarne la matrice rappresentativa (rispetto alla base
canonica di R3 ).
1 2 1
∗ Esercizio 6.25. Si considerino lo spazio R3 i punti P = 0 , Q = −2, R = 6 .
−1 −1 1
a) determinare un’equazione cartesiana per il piano H passante per i tre punti dati.
b) Considerando su R3 la struttura naturale di spazio Euclideo, calcolare l’area del trian-
golo T di vertici P, Q, R e la la distanza dell’origine dal piano H
−t 2
∗ Esercizio 6.26. Si considerino lo spazio Euclideo R3 ed i punti Pt = 0 , Q = −2.
t−1 −1
a) determinare un’equazione cartesiana per il piano H passante per il punto Q e contenente
Pt per ogni valore di t; b) Calcolare l’area del triangolo T di vertici Q, P0 , P1 ;
c) determinare la distanza dell’origine dal piano H .
200
fornisce una risposta soddisfacente anche nel caso delle matrici n × n (cfr. esercizio 5.37).
−αγ α2
1.14. Sono le matrici del tipo ± .
−γ 2 αγ
1.15. Innanzi tutto osserviamo che la quarta e la quinta colonna di A sono uguali
rispettivamente alla seconda e terza colonna. Di conseguenza possiamo ignorarle: rango(A)
= rango(A′ ) per ogni valore di k, dove A′ è la sottomatrice costituita dalle prime tre colonne
di A . Si ha det(A′ ) = 0 ,ne segue che rango(A′ ) ≤ 2, per ogni k . Ora consideriamo
k−6 3
il minore M = . Poiché det (M ) = −3k − 21 , per k 6= −7 la matrice A′
2k+1 3
(quindi la matrice A) ha rango maggiore o uguale a 2. Studiando separatamente il caso in
cui k = −7 si ottiene che A′ , quindi A, ha rango 1. Riassumendo: A ha rango 1 per
k = −7; A ha rango 2 per k 6= −7; A non ha mai rango 3.
−1/2 0 1/2 0
1.16. A−1 = 0 −1 0 , ~x = A · ~b = −1 . Nota: per determinare le
3 0 −2 0
soluzioni del sistema lineare A−1·~x = ~b non si devono fare calcoli: A−1·~x = ~b ⇒ ~x = A·~b .
1/3 13/6 −2
1.17. Si ha A−1 = 0 3/2 −1 . Visto che A è invertibile, l’invertibilità del
0 −1 1
prodotto A2·B 3 è equivalente all’invertibilità di B . Poiché det B = −6(8 − 3k), la matrice
A2 · B 3 è invertibile per k diverso da 38 .
Posto k = 0 , si ha B~e1 = 2e1 nonché A~e1 = 3e1 . Quindi, A2 ·B 3 ·~e1 = 32 ·23 ·~e1 = 72~e1 .
−19/3 8/3 1
1.18. a) A−1 = 2/3 −1/3 0 . Si ha det A = 3, detB = 8 , quindi,
28/3 −11/3 −1
det (2AB 2 ) = 23 · 3 · 82 = 1536 , det 2(A−1 )2 B 2 = 23 · 3−2 · 82 = 512 9 .
Invece, per calcolare det(2A+B) non ci sono scorciatoie. Si trova det(2A + B) = 12.
b) abbiamo ampia possibilità di scelta. Infatti, possiamo fare in modo che la somma A+C
sia quello che ci pare: presa una qualsiasi matrice D di rango 1 definiamo C = D−A.
c) abbiamo di nuovo ampia possibilità di scelta: basta scegliere una matrice D di rango
1 (anche il prodotto A · D, essendo A invertibile, avrà rango 1).
−19/3 8/3 1 59
1.19. Risulta: det A = 3 , A−1 = 2/3 −1/3 0 ; AB(~v ) = 172 ;
28/3 −11/3 −1 −93
2 3 2
det B = 4 ; det(2AB
) = 2 · det A · (det B) = 8 · 3 · 16 = 384; det (2A + B) = 52;
det 2(A−1 )2 B 2 = 23 · (det A)−2 · (det B)2 = 8·16 9 = 128
9 .
Poiché A è invertibile, si ha che A·D ·~k = ~0 se e solo se D ·~k = ~0 , quindi il nucleo di
A · D è uguale al nucleo di D . La matrice D deve avere rango 2 e si deve avere D · ~v = ~0 ,
cioè si deve avere d~1 − 2d~2 + d~3 = ~0 (essendo d~1 , d~2 , d~3 le tre colonne di D). Abbiamo
1 0 −1
ampia possibilità di scelta, ad esempio possiamo prendere D = 0 1 2 .
0 0 0
−1 2 1 0 −1 2
(Binet)
1.20. A−1 = 0 0 1 ; A−2 = −1 1 1 ; det An = (det A)n = (−1)n .
−1 1 1 0 −1 1
3 3
Inoltre, det n · A = n ·detA = −n (questo perché A è una matrice di ordine 3).
2/5 1/5 0 81
1.21. A−1 = 1/5 3/5 0 ; B ·A3 ·~e3 = −54 ; A3 ·B 2 è invertibile se e
1/5 −1/15 −1/3 −27
202
−4/5
solo se B è invertibile, questo accade per k 6= 8; ~x = A−1 ·B ·~e3 = 3/5 .
−16/15
1.22. Risulta: det A = 3 , quindi A è invertibile;
det Bt = 2 · (−2t+2 − 8) = −4t − 12 , quindi Bt è invertibile per t 6= −3 ;
−3 2 2
det 4·A−3 ·B 2 = 43 · detA · det Bt = 64
27 4t + 12 (si usa il teorema di Binet);
det (A + B) = −3t − 27 (si deve prima calcolare A + B);
t 8 0
C = A−1 ·(A + A·B) = A−1 ·A + A−1 ·A·B = I + B = 1 −1 0 .
−1 0 3
1.23. Moltiplicando per A−2 si trova A = In (matrice identica di ordine
n).
Si ha A2 BA + A2 B 2 = A2 B(A + B), quindi det λ(A2 BA + A2 B 2 ) = λn a2 bc.
5/6 −11/6 1/6
1.24. a) A−1 = 1/6 −1/6 −1/6 . b) det A−1 Bk A2 = detBk · det A =
−5/6 17/6 −1/6
−18 k + 270; det (2Bk ) = −24 k + 360; det (A + Bk ) = 3k + 9. c) Il “rango di una
matrice” corrisponde alla “dimensione dell’immagine” (nella corrispondenza tra matrici e
applicazioni lineari). D’altro canto questa dimensione non varia quando si compone una
applicazione lineare con una applicazione lineare biunivoca (cfr § 12). Questo principio si
applica anche alla seconda uguaglianza perché risulta A−1 Bk A2 + A = A−1 ·(Bk + I)·A2 .
1.25. a) B ·A3 ·B 2 è invertibile per t 6= 1, −1. b) Poiché A·C −B ·C = (A−B)·C e
A−B è invertibile (t2 +3 non si annulla mai), si ha rango(A·C −B ·C) = rango(C) = 2 .
c) B è invertibile per t 6= −1 . Assumendo t 6= −1 risulta A4 · B −2 − A3 · B −1 =
A3 · (A − B) · B −2 . Il determinante di questo prodotto vale (t2 − 1)3 · (t2 + 3) · (t + 1)−2 .
c) E = “matrice di colonne ~e1 , ~e2 , ~0 ” (in questo modo il prodotto D ·E dà le prime due
colonne di D e la colonna nulla); F = “matrice di colonne ~e1 , ~e3 , ~0 ”.
2.4. S1 . k 6= −4 : ∃∞1 soluzioni; k = −4 : incompatibile.
S2 . k 6= 4, −2, 3 : ∃! soluzione; k = 4, 3 : ∃∞1 soluzioni; k = −2 : incompatibile.
S3 . k 6= 0, −1 : ∃∞1 soluzioni; k = 0 : incompatibile; k = −1 : ∃∞2 soluzioni.
S4 . k 6= 1, −2 : ∃∞1 soluzioni; k = 1 : ∃∞2 soluzioni; k = −2 : incompatibile.
S5 . k 6= 1, −3 : ∃∞1 soluzioni; k = 1 : incompatibile; k = −3 : ∃∞2 soluzioni.
S6 . k 6= 2, −5 : ∃∞1 soluzioni; k = 2 : ∃∞2 soluzioni; k = −5 : incompatibile.
S7 . k 6= 3, −5 : ∃∞1 soluzioni; k = 3 : ∃∞2 soluzioni; k = −5 : incompatibile.
S8 . k 6= 2, 7 : ∃! soluzione; k = 2 : incompatibile; k = 7 : ∃∞1 soluzioni.
2.5. a) cambiare l’ordine delle colonne equivale a cambiare l’ordine delle incognite ...basta
ricordarsene! b) No, i sistemi associati alle matrici A e B non sono equivalenti; c) si; d)
si; e) no (a meno che non si tenga traccia dell’incognita fatta fuori); f ) e g) no (a meno
che non si tenga traccia della corrispondente trasformazione delle incognite).
2.6. SB ∼ SF ; SC ∼ SE ; SL ∼ SN (“∼” denota l’equivalenza di sistemi lineari).
SA è incompatibile; ∃! soluzione per SC , SE ; ∃ ∞1 soluzioni per SD , SM ;
∃ ∞2 soluzioni per SG , SL , SN ; ∃ ∞3 soluzioni per SB , SF ; ∃ ∞4 soluzioni per SH .
2.8. Poiché il sistema è quadrato (numero equazioni = numero incognite), ammette una
unica soluzione se e solo se il determinante ∆ della matrice incompleta è diverso da zero.
Si ha ∆ = k 2 − 5k + 6 . Pertanto esiste una unica soluzione per k diverso da 2 e 3 .
Per k = 3 il sistema è incompatibile (14x + 13y = −8, 14x + 13y = −7). Si osservi che
il rango della matrice completa è maggiore di quello della matrice incompleta).
Per k = 2 il sistema (che diventa 8x + 8y = −8, 7x + 7y = −7) ammette infinite soluzioni
che dipendono da un parametro libero (“n. incognite − rango” = 1).
2.9. La matrice incompleta associata al sistema è una matrice triangolare, il suo determi-
nante vale (k+3)(k+6)(k−2) , che è non-nullo per k diverso da −3, −6, 2 . Di conseguenza,
203
poiché il nostro sistema è un sistema quadrato (num. equazioni = num. incognite) per k di-
verso da −3, −6, 2 il sistema lineare A~x = ~b ammette una unica soluzione. Sostituendo i
valori −3, −6, 2 nel sistema si trova che per k = −3 e per k = 2 il sistema è incompatibile;
per k = −6 il sistema ammette infinite soluzioni.
2.10. Innanzi tutto, riduciamo a scala la matrice completa associata al sistema lineare:
4 3 4 2 5 4 3 4 2 5 4 3 4 2 5
8 2t 5+t 4 11+t∼0 2t−6 t−3 0 1+t∼0 2t−6 t−3 0 1+t
4 9−2t 7−t 5+t 10+t 0 6−2t 3−t 3+t 5+t 0 0 0 3+t 6+2t
Per t diverso da −3 e 3 la matrice incompleta, nonché quella completa, associata al sistema
ha rango 3. Per tali valori di t quindi il sistema ammette infinite soluzioni, dipendenti da
un solo parametro libero. Per t = 3 , il sistema è incompatibile. Per t = −3 , le matrici
completa e incompleta hanno entrambe rango 2, quindi il sistema ammette infinite soluzioni,
dipendenti da 2 parametri liberi.
2.11. Si ha dim Wt = 5 − rg (A), quindi calcoliamo il rango della matrice A. A tal
fine consideriamo il determinante del minore costituito dalle ultime 3 colonne (cosı̀ i conti
risultano più semplici), questo vale (t − 5)2 · (t + 11). Segue che per t diverso da 5 e -11
la matrice A ha rango 3, ovvero Wt ha dimensione 2 (=5-3). Sostituendo i valori t = 5
e t = −11 troviamo matrici rispettivamente di rango 1 e rango 2. Quindi, le dimensioni
dei corrispondenti spazi W5 e W−11 valgono dim W5 = 5 − rango(A5 ) = 5 − 1 = 4 ,
dim W−11 = 5 − rango(A−11 ) = 5 − 2 = 3 .
Scegliamo t̃ = 5 . Con questa scelta abbiamo una matrice di rango 1, ovvero un sistema
lineare omogeneo costituito da una sola equazione: il sistema A5 · ~x = ~0 è costituito dalla
sola equazione
7x1 + 10x2 + 3x3 + 3x4 + x5 = 0 . Risolvendola, troviamo una base di W5 :
−1/7 0 0 0
0 −1/10 0 0
BW5 = 0 , 0 , −1/3 , 0 .
0 0 0 −1/3
1 1 1 1
2.12. Questo esercizio è molto simile al (4.4). Si ha dim Wt = 5 − rg (A) . Calcolando
il determinante del minore di A costituito dalle ultime 3 colonne si trova (t + 1)2 (t + 4) .
Segue che per t diverso da −1 e −4 la matrice A ha rango 3, ovvero Wt ha dimensione 2
(=5-3). Per t = −1 e t = −4 troviamo rispettivamente matrici di rango 1 e rango 2. Quindi
dim W−1 = 5 − rango(A−1 ) = 5 − 1 = 4 , dim W−4 = 5 − rango(A−4 ) = 5 − 2 = 3 .
Una base di W−4 si trova risolvendo il sistema lineare omogeneo (A−4 ) · ~x = ~0 : BW−4 =
{t (0 0 0 −1 1) , t (0 −1 2 0 0) , t (−1 0 1 1 1)} .
2.13. Le soluzioni del sistema corrispondono ai coefficienti delle combinazioni lineari che
esprimono il vettore dei termini noti come combinazione lineare delle colonne della matrice
incompleta, infatti il sistema può essere scritto nella forma
t 0 t+3 1
6 t+2 1 1
x· +y· +z· = .
1 0 t+2 0
2 0 1 1
D’altro canto il non annullarsi del determinante della matrice completa associata al sistema
(matrice che indicheremo con Ã), esprime l’indipendenza lineare dei quattro vettori cor-
rispondenti alle colonne di Ã, ovvero implica l’incompatibilità del sistema stesso. Calcolando
tale determinante (consiglio lo sviluppo di Laplace rispetto alle seconda colonna) troviamo:
det à = (t + 2) · (t + 2) · (t − 3) . Quindi, per t diverso da −2 e 3 il sistema è incom-
patibile. Studiando separatamente cosa accade per t = −2 e per t = 3 troviamo quanto
segue. Per t = −2 il sistema ammette infinite soluzioni. Per t = 3 il sistema ammette
un’unica soluzione (non servono calcoli: le colonne della matrice incompleta sono chiara-
mente indipendenti, quindi non può esserci più d’una soluzione, d’altro canto già sappiamo
204
Nota: potremmo non essere in grado di risolvere l’equazione di terzo grado in k data
dall’annullarsi del determinante della matrice completa. Un modo per ovviare a questo
inconveniente consiste nel trovare, in qualche modo, almeno una radice di tale equazione
(cosa che consente di abbassarne il grado): ad esempio potremmo lavorare con l’E.G., oppure
osservare che per k = 2 le prime due colonne sono proporzionali (la matrice incompleta ha
rango 1 e, necessariamente, la matrice completa non può avere rango 3).
2.18. Calcoliamo il determinante della matrice incompleta associata al sistema:
7−2k 4−k
det = (7−2k)(k+2) − 3k(4−k) = k 2 − 9k + 14 = (k − 2)(k − 7) .
3k k+2
Quindi, per k diverso da 2 e 7 il sistema ammette un’unica soluzione. Studiamo i casi in cui
k = 2 e k = 7 . Per k = 2 il sistema è compatibile, ammette infinite soluzioni, dipendenti
da un parametro libero (le due equazioni sono proporzionali): x = −2t + 1/3 , y = 3t .
Per k = 7 il sistema è incompatibile.
Infine, per k = 0 la soluzione (che come già sappiamo è unica) è la coppia x = − 73 , y = 1 .
2.19. La matrice incompleta ha rango 2 per t 6= 2, −6 , per tali valori il sistema è
compatibile e le soluzioni dipendono da un parametro libero (anche la matrice completa ha
rango 2). Sia per t = 2 che per t = −6 il sistema è compatibile e le soluzioni dipendono
da due parametri liberi. Per t = 0 si trova x = 1, y = t (parametro libero), z = 1 . Non
esistono valori di t per i quali St è uno spazio vettoriale (il sistema non è omogeneo per
nessun t). L’insieme St , in quanto spazio affine, contiene la retta r se e solo se contiene
i due punti P e Q . Questo accade per ogni t, quindi St ⊇ r , ∀ t. Inoltre, per ragioni
dimensione, l’uguaglianza St = r si ha solo per t 6= 2, −6 .
2.20. La matrice incompleta ha rango 3 per t 6= 2, 3 , per tali valori il sistema è compatibile
ed ammette un’unica soluzione (anche la matrice completa ha rango 3). Sia per t = 2 che
per t = −6 il sistema è incompatibile (la matrice incompleta ha rango 2, quella completa
ha rango 3). Sostituendo ~c al vettore delle incognite si trova che questo risolve il sistema
solo per t = −1. Sia A~x = ~b un sistema lineare del quale ~c e d~ ne sono soluzioni. Risulta
A· λ~c + (1−λ)d) ~ = λA~c + (1−λ)Ad~ = λ~b + (1−λ)~b = ~b . Questo dimostra quanto affermato.
In inciso, il motivo geometrico per il quale le espressioni del tipo λ~c + (1−λ)d~ risolvono
il sistema è il seguente: tali espressioni individuano la retta affine passante per i punti ~c e
d~, d’altro canto essendo lo spazio delle soluzioni di un sistema lineare uno spazio affine, se
contiene due punti contiene anche la retta che li unisce.
3.1 e 3.2. Il determinante della matrice associata ai vettori indicati è diverso da zero
(in tutti i casi), quindi {~v1 , ~v2 , ~v3 } è un insieme indipendente e, per ragioni di dimensione,
costituisce una base di R3 . Le coordinate di w ~ sono, per definizione, i coefficienti α, β, γ
che soddisfano la relazione α~v1 +β~v2 +γ~v3 = w ~ . Risulta: 5.1) α = 1, β = −1/2, γ = 9/2 ;
5.2 a) α = 1, β = 2, γ = 1 ; 5.2 b) α = 17 −5 29
9 , β = 9 , γ = 9 ; 5.2 c) α = 3, β = 1, γ = −2 .
a) 2 2 3 1 {w
~ 1} ogni base di R3 U +W = R3
I primi due sono proporzionali tra loro (infatti ~v2 = 3~v1 ), il terzo e il quarto sono anch’essi
proporzionali tra loro (~v4 = −2~v3 ) e ~v5 = ~v2 + ~v3 . Ne segue che l’insieme ~v1 , ~v3
costituisce una base di W (i vettori ~v1 , ~v3 non sono proporzionali, quindi sono indipen-
denti), in particolare W ha dimensione 2. Questo risultato si può ottenere anche tramite
l’eliminazione di Gauss: effettuando la riduzione a scala sulla matrice associata ai vettori
dati troviamo i pivot su prima e terza colonna.
Risolvendo il sistema λ~v1 + µ~v3 = ~v si trova λ = 7 , µ = −2 . Questi valori sono le
coordinate di ~v rispetto alla base indicata.
3.21. Indichiamo i vettori dati (nell’ordine) con ~u1 , ~u2 , ~u3 , w
~ 1, w
~ 1 ed effettuiamo la
riduzione a scala della matrice associata:
1 3 3 5 −8 1 3 3 5 −8 1 3 3 5 −8
0 t−5 0 0 0 0 t−5 0 0 0 0 t−5 0 0 0
∼ ∼
1 3 t−4 5 6−2t 0 0 t−7 0 14−2t 0 0 t−7 0 14−2t
2 6 t−1 10 −2−2t 0 0 t−7 0 14−2t 0 0 0 0 0
Tenendo presente che le prime tre colonne corrispondono ai generatori di U e le ultime
due ai generatori di W troviamo che per t diverso da 5 e 7, U ha dimensione 3, W ha
dimensione 2 ed è contenuto in U , quindi dimU + W = 3 , dim U ∩ W = 2 (in particolare,
per t 6= 5, 7, non rientriamo nei casi a, b, c).
Per t = 5 , si ha U = W , quindi U = W = U + W = U ∩ W , (e la dimensione è 2, siamo
nei casi a e c); una base di U + W è BU+W = {~u1 , ~u3 } .
Per t = 7 , U ha dimensione 2, W ha dimensione 1. Inoltre, W ⊆ U , quindi U ∩W = W
ha dimensione 1 e U + W = U ha dimensione 2 (siamo nei casi b e c). Una base di
U + W è BU+W = {~u1 , ~u2 } .
Per t = 0 si ha W ⊆ U , quindi non esistono vettori ~v che soddisfano le condizioni
~v ∈ U + W e ~v 6∈ U ∪ W .
3.22. Lo spazio U ha dimensione 2 (indipendentemente da k). Effettuando l’eliminazione
di Gauss sulla matrice associata ai vettori w ~1 , w
~2 , w
~ 3 si trova che lo spazio W ha dimen-
sione 2 ed è generato dai vettori w ~1 e w~ 2 (d’ora in poi possiamo ignorare completamente
w~ 3 ).
Vista la formula di Grassmann, si ha dim (U ∩ W ) = 2 + 2 − dim(U + W ) = 4 − rango(A),
dove A denota la matrice associata ai vettori w ~ 1, w
~ 2 , ~u1 , ~u2 . Effettuando l’eliminazione
di Gauss sulla matrice A si trova
3 1 2 4 3 1 2 4 3 1 2 4 3 1 2 4
0 2 4 3 0 2 4 3 0 2 4 3 0 2 4 3
∼ ∼ ∼
3 3 5 5 0 2 3 1 0 0 −1 −2 0 0 −1 −2
6 4 7 k+4 0 2 3 k−4 0 0 −1 k−7 0 0 0 k−5
Quindi: dim (U ∩ W ) = 0, per k 6= 5 ; dim (U ∩ W ) = 1, per k = 5 (infatti, in questo
caso, A ha rango 3).
Per k = 5 , si deve determinare una base dell’intersezione, a tal fine si deve risolvere il sistema
x1 w ~ 1 + x2 w
~ 2 = y1 ~u1 + y2 ~u2 . Questo sistema lo abbiamo già risolto: dall’eliminazione di
Gauss appena effettuata si ottiene l’equazione −y1 − 2y2 = 0 (corrispondente alla 3a riga
dell’ultima matrice dell’E.G.). Ne segue y2 = t, y1 = −2t , quindi che il vettore 2u1 − u2
(di coordinate 0, 5, 5, 5) costituisce una base dell’intersezione U ∩ W .
Certamente, sempre per k = 5 , esiste un vettore che non appartiene allo spazio somma
(che avendo dimensione 3 non esaurisce tutto R4 ). Un vettore ~v 6∈ U + W è il vettore
~v = ~e4 (quarto vettore della base canonica). La scelta è caduta su ~e4 perché, aggiungendo
~e1 come 5a colonna nell’E.G. effettuata sulla matrice A, è evidente che questo vettore non
è combinazione lineare dei generatori di U + W (tutto questo sempre per k = 5); volendo
scegliere un vettore diverso dovremmo verificare che non appartiene allo spazio somma.
x−y−z = 0
3.23. Risolvendo il sistema troviamo una rappresentazione
x − 2y + z + w = 0
208
Nota. Per t = −7 , dalla matrice trovata effettuando la riduzione a scala si evince che
lo spazio Wt0 =−7 ha dimensione 3 e che i vettori corrispondenti a prima, seconda e quinta
colonna sono indipendenti, quindi formano una base di Wt0 =−7 . Le coordinate di ~v rispetto
a tale base sono 0, 0, 1 (questo proprio in virtù del fatto che tra i vettori di tale base c’è
~v ) ...scegliendo questa base si evita qualsiasi calcolo!
3.25. Innanzi tutto osserviamo che lo spazio Ut ha dimensione 3 per t 6= 4 ed ha
dimensione 2 per t = 4 . Infatti, i primi due vettori sono proporzionali se e solo se t − 2 =
2 (cioè t = 4), il terzo vettore non è mai combinazione lineare dei primi due. Inoltre,
chiaramente W ha dimensione 2.
La dimensione dello spazio somma Ut + W è uguale al rango della matrice A associata ai
vettori forniti nel testo (che denoteremo con ~u1 , ~u2 , ~u3 , w
~ 1, w
~ 2 ):
209
0 0 1 0 1
0 0 t + 11 0 4
dim (Ut + W ) = rango . Il determinante della sottomatrice
1 1 0 0 0
t−2 2 0 1 1
costituita dalle ultime 4 colonne vale −1 · 1 · 4 − (t + 11) e si annulla se e solo se t = −7 .
Quindi, per t 6= −7 la matrice A ha rango 4. Inoltre, per t = −7 la matrice A ha
rango 3 (le prime due righe sono uguali). Inserendo le informazioni trovate nella formula
di Grassmann otteniamo
2+2−4 = 0 per t = 4
dim Ut ∩ W = 3+2−3 = 2 per t = −7
3+2−4 = 1 per t 6= 4, −7
Scegliamo un valore τ per il quale Uτ ∩W ha dimensione 1, ad esempio τ = 0 (un qualsiasi
valore diverso da 4 e -7 va bene). Non serve fare calcoli: il vettore w ~ 1 è chiaramente
combinazione lineare dei vettori ~u1 , ~u2 . Quindi, B = {w ~ 1 } è una base di Uτ =0 ∩ W .
Per completare la base di Uτ ∩W trovata precedentemente a una base di Uτ si deve scegliere
una base di Uτ =0 contenente il vettore w ~ 1 . Ad esempio, BUτ =0 = {w ~ 1 , ~u1 , ~u3 } (scartiamo
~u2 perché w~ 1 , ~u1 , ~u2 sono chiaramente dipendenti).
3.26. Per trovare una base di U si deve risolvere l’equazione x + y − 2z + w = 0 . Si
trova:
−1 2 −1
0 0 1
BU = { , , } .
0 1 0
1 0 0
Per avere l’inclusione Wt ⊆ U è sufficiente che i vettori w ~1 e w
~ 2 appartengano a U , ovvero
che soddisfino l’equazione x + y − 2z + w = 0. Sostituendo le coordinate di w ~1 e w ~2
nell’equazione indicata troviamo 1 + t − 2 · 0 − 4 = 0 e t − 2 − 2 · 1 + 1 = 0 , quindi t = 3 .
L’intersezione non può avere dimensione 0 (questa affermazione può essere giustificata in vari
modi: per la formula di Grassmann, se l’intersezione avesse dimensione 0, lo spazio somma
avrebbe dimensione 3+2=5, cosa che è impossibile perché l’ambiente è R4 ; lo spazio Wt
ha dimensione 2, imponendo una sola condizione, l’equazione che definisce U , la dimensione
non può scendere più di uno). D’altro canto, l’intersezione ha dimensione 2 se e solo se vale
l’inclusione Wt ⊆ U . Per quanto osservato, ciò accade se e solo se t = 3 . Ne segue che
dim U ∩ Wt = 1 per ogni t 6= 3 .
Scegliamo un valore t (diverso da 3), ad esempio t = 0 , e determiniamo una base dell’intersezione
1 0 α
0 −2 −2β
U ∩W0 . I vettori di W0 sono i vettori del tipo α + β = , dove
0 1 β
−4 1 −4α + β
α e β sono parametri liberi. Sostituendo le coordinate trovate nell’equazione che definisce
U troviamo α − 2β − 2β + (−4α + β) = 0 , quindi β = −α . Pertanto,
α 1
2α 2
U ∩ W0 = α parametro libero , una base di U ∩ W0 è BU∩W0 = .
−α −1
−5α −5
Per completare la base di U ∩ W0 appena trovata a una base di U si deve prendere il
vettore trovato e altri due vettori di U (in modo tale da avere comunque una terna in-
1 −1 2
2 0 0
dipendente di vettori): BU = { , , } (l’indipendenza di questi tre
−1 0 1
−5 1 0
vettori è evidente: il primo è l’unico ad avere la seconda coordinata non nulla, quindi non è
combinazione lineare di secondo e terzo, inoltre il secondo e terzo non sono proporzionali).
3.27. Risolvendo il sistema che definisce U troviamo: w = 5x + 3y, z = 6x + 2y (con
210
1 0
0 1
x, y parametri liberi); BU = ~u1 = , ~u2 = (una base di U ). Sostituendo
6 2
5 3
le coordinate di w
~ t nelle equazioni che definiscono U troviamo che queste sono soddisfatte
′
per t = −3 . Una base di U contenente il vettore w ~ τ =−3 è la base BU = {w~ τ =−3 , ~u1 }
(naturalmente abbiamo ampia possibilità di scelta).
3.28. Lo spazio U è costituito dai vettori del tipo r~u1 + s~u2 , dove r ed s sono parametri
liberi. Lo spazio W è il nucleo
della matrice indicata nel testo, ovvero è lo spazio definito
x − 6y + z − 2w = 0
dalle equazioni cartesiane .
−3x + 3y − 3z + w = 0
L’intersezione U ∩ W è costituita dai vettori di U che soddisfano le equazioni cartesiane di
W . Sostituendo l’espressione r~u1 + s~u2 nelle equazioni cartesiane di W troviamo
(r + 5s) − 6(−r + 5s) + (2r − 2s) − 2(9r − 9s) = 0 −9r − 9s = 0
, ovvero ,
−3(r + 5s) + 3(−r + 5s) − 3(2r − 2s) + (9r − 9s) = 0 −3r − 3s = 0
quindi, s = −r . Ne segue che i vettori dell’intersezione sono i vettori del tipo r~u1 − r~u2 .
Pertanto, il vettore ~b := ~u1 − ~u2 costituisce una base dell’intersezione U ∩ W .
Sostituendo le coordinate del vettore ~vt nelle equazioni cartesiane di W troviamo “0 = 0”,
un’identità verificata per ogni valore di t . Ne segue che ~vt ∈ W per ogni t .
Inoltre, ~vt ∈ U ∩ W se e solo se è proporzionale a ~b, questo accade se e solo se t = 3 .
Gli spazi vettoriali U e W sono due piani che si incontrano lungo una retta, in particolare
lo spazio somma ha dimensione 3 (formula di Grassmann). Ne segue che per completare la
base di U ∩ W trovata precedentemente a una base di U + W dobbiamo considerare ~b
e altri due vettori, uno in U e uno in W , non proporzionali a ~b . Ad esempio possiamo
considerare BU+W = {~b, ~u1 , ~vt=0 } (naturalmente sono possibili molte altre scelte).
3.29. La dimensione di Vλ vale 2 per ogni λ . Infatti, ad esempio, il minore costituito da
prima e terza riga della matrice associata ai generatori di Vλ indicati nel testo è invertibile
per ogni λ (se preferite, basta osservare che il primo vettore è sempre non nullo e che il
secondo vettore non può mai essere un multiplo del primo). Visto che le due equazioni che
definiscono W sono indipendenti, lo spazio W ha dimensione 2 (= 4 − 2). Troviamo due
generatori di W risolvendo il sistema lineare che lo definisce, mettendo insieme i generatori
di Vλ e quelli di W abbiamo un insieme di generatori per lo spazio somma:
2 −1 2 −1 2 2−λ
2 2 2 2 λ+1 2
W = Span { , }, Vλ + W = Span{ , , , }.
0 3 0 3 0 3
3 0 3 0 λ λ−3
Il determinante della matrice A associata ai quattro generatori dello spazio somma vale
det A = −9λ2 + 24λ + 9 = −9(λ + 13 )(λ − 3) . Ne segue che per λ diverso da − 13 e
3 tali generatori sono indipendenti, quindi lo spazio somma ha dimensione 4, e pertanto
coincide con R4 . Le equazioni x = t1 , y = t2 , z = t3 , w = t4 sono equazioni parametriche
per lo spazio Vλ + W = R4 .
Per λ = − 31 e per λ = 3 risulta dim(Vλ + W ) = 3 (ha dimensione minore o uguale
a 3 per l’annullarsi del determinante calcolato precedentemente, d’altro canto è evidente
che i primi tre generatori sono indipendenti: primo e terzo non sono proporzionali ed il
secondo non può essere una loro combinazione lineare perché è l’unico ad avere la terza
coordinata non nulla). In entrambi i casi le equazioni parametriche sono (le scriviamo in
forma compatta): ~x = t1~g1 + t2~g2 + t3~g3 , essendo g1 , g2 , g3 i tre generatori in questione.
Infine, per la formula di Grassmann, si ha
2 + 2 − 4 = 0 se λ 6= − 1/3 , 3
dim(Vλ ∩ W ) = .
2 + 2 − 3 = 1 se λ = − 1/3 oppure λ = 3
In definitiva, risulta Vλ ∩ W = {~0} per λ 6= − 1 , 3 .
3
211
Per c = 0 , dati due polinomi p(x), q(x) e due costanti α, β , si ha (αp + βq)(0) =
αp(0) + βq(0) = 0 , pertanto, in questo caso, W è un sottospazio vettoriale di V .
b) Il sistema lineare che definisce W non è un sistema lineare omogeneo (il secondo termine
noto è 1), quindi, W non è un sottospazio vettoriale di V (∀ c).
3.37. a) Poiché una combinazione lineare di polinomi che si annullano in c si annulla
anch’essa in c, W è un sottospazio vettoriale di V per ogni c.
b) W è un sottospazio vettoriale di V se e solo se il sistema (lineare) che lo definisce è
omogeneo, ciò accade se e solo se c = 0 .
3.38. a) I vettori w~ 1, w
~ 2 generano il loro Span, proviamo che sono indipendenti:
λw ~ 2 = 0 =⇒ (−2λ − 2µ)~v1 + 3λ~v2 + 5µ~v3 = 0 =⇒ λ = µ = 0 (essendo i ~vi
~ 1 + µw
indipendenti). L’insieme B2 = {w ~ 2 , ~v1 , ~v4 } è un possibile completamento.
~ 1, w
b) Coordinate: 0, −1, 0, 1 .
4.2. C’è una corrispondenza biunivoca tra matrici A ∈ Mn, m (R) e applicazioni lineari
L : Rn → Rm (cfr § 12). Data un’applicazione lineare L , se consideriamo la matrice
associata A nonché il sistema lineare A·~x = ~0 abbiamo:
dim“dominio” = “# incognite”; dimker LA = # p.l. ; dim ImLA = rangoA
Queste uguaglianze riducono la formula (⋆) alla formula concernete i sistemi lineari (10.25′ ).
4.4. Risulta: dim Im L = 3, dimker L = 8−3 = 5.
4.5. Risulta dimker L ≥ 9−4 = 5 . Quindi: dim (kerL∩W ) = dim kerL+7−9 ≥ 5−2 = 3 .
2
~ t −t−6
4.14. Cerchiamo i valori di t per i quali risulta At ·~vt = 0 . Si ha At ·~vt = ,
t2 − t − 6
quindi ~vt ∈ ker At se e solo se t = −2 oppure t = 3 .
Scegliamo uno dei due valori, ad esempio t = −2 . Il nucleo di A−2 è lo spazio delle soluzioni
del sistema lineare At · ~x = ~0 (dove per abuso di notazione, denotiamo con At anche la
matrice che rappresenta “l’applicazione lineare At ”), risolvendolo si trova
x 15r + 17s 15 17
y 7r + 6s 7 6
= (r, s sono parametri liberi), quindi Bker A−2 = { , }.
z −r −1 0
w −2s 0 −2
L’immagine di A−2 ha dimensione 2 (= 4−2), ovvero A−2 è suriettiva. Quindi, qualsiasi
base di R2 (ad esempio, anche la base canonica) è una base di ImA−2 .
−2 4 −1
4.19. Poniamo ~u = 2 , ~v = −3 , w ~ = 4 . Poiché L(~u) = L(~v ) , si
−1 2 −3
ha L(~u − ~v ) = L(~u) − L(~v ) = ~0 . Ne segue che ~u − ~v ∈ kerL . Analogamente, poiché
L(~v ) = −3L(w) ~ , si ha ~v + 3w ~ ∈ kerL .
−6 1
Quindi, ker L ⊇ Span{~u − ~v , ~v + 3w} ~ = Span 5 , 9 . D’altro canto il
−3 −7
nucleo di L non può avere dimensione 3 (se kerL avesse dimensione 3, si avrebbe kerL = R3
ed L sarebbe l’applicazione nulla), pertanto è uguale a tale “Span” ed i due vettori indicati
ne costituiscono una base.
Conosciamo L(~u), L(~v ) e L(w), ~ quindi siamo in grado di calcolare l’immagine di qualsiasi
combinazione
lineare di
questi tre vettori: L
λ~
u + µ~v + ν w
~ = λL(~
u) + µL(~v ) + νL(w) ~ =
4 4 4 4
λ +µ − ν3 = λ + µ − 31 ν .
5 5 5 5
Poiché ~e1 = 51 ~u + 25 ~v + 51 w
~ (i coefficienti 15 , 52 e 15 si determinano
risolvendo
il sistema
1 2 1
4 8 4 32/15
~ si ha L(~e1 ) = 5 + 5 − 15
lineare ~e1 = λ~u + µ~v + ν w), = 15 = .
5 5 8/3
214
5.6. Il testo ci fornisce le relazioni T (~z) = 2~v , T (~v) = 2~v , T (w)~ = −5w ~ . In particolare,
poiché T (~z) = T (~v ) , si ha T (~z−~v ) = ~0 , ovvero ~z−~v ∈ kerT (pertanto, dim kerT ≥ 1 ).
L’immagine di T contiene gli autovettori ~v e w ~ (quindi, dim Im T ≥ 2 ). Per ragioni di
dimensione (dim kerT+dimIm
T = 3) si deve avere dimker
T=1 edimIm T = 2 . Pertanto:
2 1 1
Bker T = {~z −~v } = { 0 } e BIm T = {~v , w} ~ = { 1 , 0 } sono rispettivamente
−3 2 1
una base del nucleo e una base dell’immagine di T .
Osserviamo che anche il vettore ~z−~v è un autovettore (relativamente all’autovalore α = 0).
Quindil’insieme {~ z −~v, ~v , w}
~ è una base di autovettori
per T . In definitiva:
0 0 0 2 1 1
∆ = 0 2 0 e Bautovettori = 0 , 1 , 0 sono rispettivamente una
0 0 −5 −3 2 1
matrice diagonale e una base di R3 come richiesto al punto “b)”.
La matrice rappresentativa di T rispetto alla base canonica è la matrice fornita dalla formula
del cambiamento di base:
−1
2 1 1 0 0 0 2 1 1 −3 9 −2
0 1 0 0 2 0 0 1 0 = 0 2 0 .
−3 2 1 0 0 −5 −3 2 1 −3 11 −2
Nota. Si può procedere anche in altri modi. Ad esempio, dalle relazioni T (~z) = 2~v ,
~ = −5w
T (~v ) = 2~v, T (w) ~ si deduce qual è la matrice rappresentativa di T rispetto alla base
B ′ = {~z, ~v , w}.
~ Il cambiamento di base che fa passare dalla base B ′ alla base canonica
fornisce anch’esso la matrice rappresentativa di T rispetto alla base canonica (com’è giusto
che sia, il risultato coincide con quello trovato sopra).
218
−5−λ −6 4
5.8. PA (λ) = det (A − λI) = det −3 2−λ −6 = −λ3 + 147 λ + 686 .
−5 −15 3−λ
Per rispondere alla domanda “b)” determiniamo il nucleo della matrice
2 −6 4
M = A − (−7)I = −3 9 −6 .
5 −15 10
3
Si ha kerM = ~v ∈ R M~v = 0 , le tre equazioni del sistema lineare M~v = ~0 si
~
riducono ad una sola (sono tutte proporzionali tra loro), l’equazione x − 3y + 2z = 0 (dove
x, y, z denotano lecoordinate
di~v ). Risolvendo questa equazione troviamo che una base
3 −2
di ker M è B = 1 , 0 . Poiché kerM “è non banale” (cioè contiene vettori
0 1
non nulli), abbiamo dimostrato che λ = −7 è un autovalore di LA e che B è una base
dell’autospazio relativo all’autovalore −7 (naturalmente si può rispondere alla prima parte
della domanda osservando che −7 annulla il polinomio caratteristico, ma visto che una base
del corrispondente autospazio dovevamo calcolarla comunque...).
... ◦ L}~v = λk ~v . Ne segue che λ = (−7)3 = −343 è
In generale, se L(~v ) = λ~v , si ha |L ◦ {z
k−volte
un autovalore di LA ◦LA ◦LA e che il corrispondente autospazio W contiene i due vettori in
B , nonché tali vettori costituiscono una base di W . Per dimostrare quanto abbiamo appena
affermato è sufficiente osservare che W non può essere tutto R3 : la trasformazione LA ,
quindi anche la composizione LA ◦ LA ◦ LA , ha un altro autovalore: non serve determinarlo,
basta osservare che PA (λ) 6= −(λ + 7)3 , comunque PA (λ) = −(λ + 7)2 (λ − 14) .
5.9. Cerchiamo i vettori ~x , tra quelli indicati, per i quali il prodotto A~x è un multiplo di
~x .
Si ha A~u = 11~u e Aw ~ = 2w ~ . Mentre A~v non è un multiplo di ~v . I valori 11 e 2 sono
rispettivamente gli autovalori corrispondenti agli autovettori ~u e w ~.
−13 −8 6
L’autospazio relativo all’autovalore 11 è il nucleo della matrice A−11I = 2 −5 −3.
−6 −12 0
Questa matrice, non avendo le righe proporzionali tra loro, ha rango 2 (non può avere rango
3, se avesse rango 3, il valore 11 non sarebbe un autovalore). Pertanto, visto che ~u appartiene
all’autospazio V11 associato all’autovalore 11, l’insieme {~u} è una base di V11 .
Quanto all’autospazio V2 risulta:
−4 −8 6 2 3
V2 = ker(A − 2I) = ker 2 4 −3 = Span −1 , 0 ed i due vettori
−6 −12 9 0 2
indicati costituiscono una base di V2 (si noti che le righe della matrice indicata sono pro-
porzionali, quindi V2 è descritto dall’equazione cartesiana 2x1 + 4x2 − 3x3 = 0 .
3−λ −2
5.10. Il polinomio caratteristico di A è P (λ) = det(A−λI) = det =
21 −10 − λ
λ2 + 7λ + 12 . Gli autovalori di A sono i valori che annullano il polinomio caratteristico,
quindi si trovano risolvendo l’equazione λ2 + 7λ + 12 = 0 . Le soluzioni di questa equazione
sono λ1 = −3 e λ2 = −4 . Quanto ai relativi autospazi e loro basi abbiamo:
6 −2 1 1
V−3 = ker(A + 3I) = ker = Span ; BV−3 = ;
21 −7 3 3
7 −2 2 2
V−4 = ker(A + 4I) = ker = Span ; BV−4 = .
21 −6 7 7
3 −2 3 −2 3 3 −2 9 −99
Si ha A · A · (3~e) = · · = · = .
21 −10 21 −10 0 21 −10 63 −441
Sappiamo che B ~v = 2~v nonché B w
~ = 2w ~ generano R2 , per ogni vettore
~ . Poiché ~v e w
219
2 0
~x si ha B~x = 2~x . Ne segue che B è il doppio della matrice identica, i.e. B = .
0 2
−7 2 12
5.11. Si ha, L(~v1 ) = −7~v1 = −7 , L(~v2 ) = 2~v2 = 4 , L(~v3 ) = 3~v3 = 15 .
−21 2 15
Inoltre, PL (λ) = (−7 − λ) · (2 − λ) · (3 − λ) = −λ3 − 2λ2 + 29λ − 42 .
I vettori ~v1 , ~v2 e ~v3 sono indipendenti (non potrebbe essere altrimenti, visto che sono
autovettori relativi ad autovalori distinti) e la trasformazione L è invertibile (il determinante
della matrice associata, rispetto ad una qualsiasi base, è il prodotto degli autovalori −42).
Ne segue che il nucleo kerL è costituito solamente dal vettore nullo, mentre l’immagine di
L è tutto R3 (una qualsiasi base di R3 , ad esempio la base canonica, è una base di ImL).
Per calcolare L(~e1 ) conviene scrivere ~e1 come combinazione lineare di ~v1 , ~v2 e ~v3 , questo
perché conosciamo L(~v1 ), L(~v2 ) e L(~v3 ). Risolvendo il sistema lineare x1~v1+x2~v2+x3~v3 = ~e1
troviamo x1 = −1, x2 = −2, x3 = 1 , quindi:
15
L(~e1 ) = L(−~v1 − 2~v2 + ~v3 ) = −L(~v1 ) − 2L(~v2 ) + L(~v3 ) = 14 .
32
5.12. Poiché L(~u) = L(w)~ , il vettore ~u − w
~ appartiene al nucleo di L (pertanto kerL ha
almeno dimensione 1). I vettori L(~v1 ) = −6~v1 e L(~v2 ) = 2~v2 appartengono all’immagine di
L (che pertanto ha almeno dimensione 2). Ne segue che le dimensioni di nucleo e immagine
di L sono rispettivamente 1 e 2 (infatti, oltre alle relazioni dim kerL ≥ 1 e dim ImL ≥ 2 ,
vale la relazione dim kerL + dim ImL = 3). In definitiva, una base del nucleo e una base
dell’immagine di L sono
rispettivamente:
1 1 5
~ = { 0 } e BIm L = { 3 , 0 } .
Bker L = {~u − w}
5 1 −1
I valori 0, −6, 2 sono le 3 radici del polinomio caratteristico di L , quindi PL (λ) =
−λ(−6 − λ)(2 − λ) = −λ3 − 4λ2 + 12λ . Infine, L3 (~v1 ) = (λ1 )3~v1 = −216 ~v1 .
5.13. Si ha PA (λ) = det (A − λI) = (5 − λ)(λ2 + 5λ − 36) = (5 − λ)(λ + 9)(λ − 4) .
Ne segue che gli autovalori cercati sono 5, −9 e 4. Per quel che riguarda i corrispondenti
autospaziabbiamo
0 0 0 1 14 0 0 0
V5 = ker 0 −4 5 , BV5 = { 0 }; V−9 = ker 0 10 5 , BV−9 = { 1 };
0 6 −11 0 0 6 3 −2
1 0 0 0
V4 = ker 0 −3 5 , BV4 = { 5 } (si osservi che i sistemi lineari che definiscono
0 6 −10 3
questi nuclei sono veramente banali, si risolvono “a occhio”!).
Infine, indicata con C la matrice associata a una base di autovettori, la matrice C −1 · A · C
è la matrice diagonale dei corrispondenti autovalori. Pertanto, posto
1 0 0 5 0 0 1 0 0
C = 0 1 5 , si ha ∆ = 0 −9 0 , quindi M = C −1 = 0 3/13 −5/13 .
0 −2 3 0 0 4 0 2/13 1/13
5.14. L’immagine ha dimensione maggiore o uguale a 2, infatti contiene i vettori −3~z e
2~v + w
~.
~ , il nucleo contiene il vettore ~v − w
Poiché L(~v ) = L(w) ~ , in particolare ha dimensione
maggiore o uguale a 1. In quanto il dominio di L ha dimensione 3, ne segue che immagine
e nucleo di L hanno rispettivamente
dimensione 2 e1 ed i vettori indicati
ne costituiscono
1 9 0
delle basi: BIm L = ~z = 0 , 2~v + w ~ = 1 ; Bker L = ~v − w ~ = −1 .
2 12 3
220
10 1 0 0 0
0 10 0 0 0
V−1 = ker A + I = ker = Span .
0 0 9 3 1
0 0 −18 −6 −3
Le molteplicità geometriche dei tre autovalori di LA , che per definizione sono le dimen-
sioni dei corrispondenti autospazi, sono tutte uguali a 1 (si osservi che l’autovalore 9 ha
molteplicità algebrica uguale a 2 e molteplicità geometrica uguale a 1). Poiché la somma
delle dimensioni degli autospazi è uguale a 3, non esiste una base di R4 costituita da auto-
vettori di LA , cioè LA non è diagonalizzabile. Quindi, non esistono due matrici C e ∆
che soddisfano le condizioni richieste.
5.17. Cerchiamo un valore t che soddisfa la seguente condizione: ∃ λ | At ·~v = λ~v .
Questa condizione dà t = −2 (nonché λ = 4) Quindi ~v è un autovettore di At per t = −2
ed il corrispondente autovalore è λ = 4 . Poniamo A = At=−2 . L’autospazio associato
all’autovalore λ = 4 è il nucleo della matrice A − 4I . Si ha
−6 −3 3 −9 1 1 3
6 3 −3 9 −2 0 0
ker(A − 4I) = ker = Span{ , , }
2 1 −1 3 0 2 0
−2 −1 1 −3 0 0 −2
(si osservi che le righe della matrice indicata sono tutte proporzionali tra loro, quindi il
sistema associato alla matrice si riduce a una sola equazione, l’equazione 2x+y−z +3w = 0).
A questo punto abbiamo trovato un autovalore (λ = 4) di molteplicità geometrica 3 e di
molteplicità algebrica maggiore o uguale a 3. Se la matrice è diagonalizzabile esiste un
altro autovalore, che indichiamo con µ, e la traccia della matrice è uguale alla somma degli
autovalori (quindi 4 + 4 + 4 + µ = tr A = −2 + 7 + 3 + 1 = 9 , ovvero µ = −3).
Segue che µ = −3 è effettivamente un autovalore e che le molteplicità algebriche (e
geometriche) di λ = 4 e µ = −3 sono rispettivamente 3 e 1 (questo perché la somma di
tali molteplicità non può essere maggiore di 4).
1 −3 3 −9 3
6 10 −3 9 −3
Si ha ker(A − µI) = ker(A + 3I) = ker = Span{ }
2 1 6 3 −1
−2 −1 1 4 1
(l’autovettore lo troviamo risolvendo il sistema omogeneo associato alla matrice indicata).
In definitiva, A è diagonalizzabile nonché le matrici C e ∆ richieste sono rispettivamente
la matrice di una base di autovettori e la matrice diagonale associata ai corrispondenti
autovalori:
1 1 3 3 4 0 0 0
−2 0 0 −3 0 4 0 0
C = , ∆ = .
0 2 0 −1 0 0 4 0
0 0 −2 1 0 0 0 −3
5.18. Calcolando il prodotto A~vt si trova che questo è un multiplo di ~vt per t = 2
(nonché si trova λ = −5): ~v2 è un autovettore di A, di autovalore λ = −5.
L’autospazio associato all’autovalore λ = −5 è il nucleo della matrice A + 5I , ovvero è
lo spazio delle soluzioni dell’equazione 2x − 3y − z = 0 (le righe della matrice A + 5I
sono tutte proporzionali alla riga (2 − 3 − 1). Risolvendo
questa equazione troviamo una
3 1
base dell’autospazio V−5 : BV−5 = 2 , 0 . Questo significa che V−5 ha
0 2
dimensione 2, ovvero µg (−5) = 2 (molteplicità geometrica).
Se la matrice A è diagonalizzabile, anche la molteplicità algebrica dell’autovalore λ = −5
deve essere uguale a 2 nonché la somma degli autovalori deve essere uguale a −24 (che è
la traccia della matrice A). In questo caso c’è un altro autovalore, che indicheremo con
ν , ed è dato dall’equazione −24 = −5 − 5 + ν , dalla quale troviamo ν = −14 , quindi
l’autovalore −14 avrà molteplicità algebrica e geometrica uguale a 1 e −5 avrà effettivamente
222
molteplicità algebrica uguale a 2 (la somma delle molteplicità, di quelle algebriche come
pure di quelle geometriche, non può superare 3). L’autospazio V−14 associato all’autovalore
ν = −14 è lo spazio delle soluzioni del sistema lineare (A + 14I)~x = ~0. Tale sistema lineare
ammette infinite soluzioni, questo conferma che il valore −14 è effettivamente un autovalore
(e che la situazione
è quella descritta);
risolvendolo,
troviamo
una base dell’autospazio
V−14 :
1 3 1 1 −5 0 0
BV−14 = { −2 } . Infine, C = 2 0 −2 , ∆ = 0 −5 0 (C e ∆ sono
−1 0 2 −1 0 0 −14
le matrici della diagonalizzazione di A , ovvero sono rispettivamente la matrice di una base
di autovettori e la matrice diagonale dei corrispondenti autovalori).
0 1 0 2 0 0
5.19. Risulta A−1 = −3 −1 2 , A−1·Bκ·A = −3k−15 3k+14 6k+30 .
1 1 −1 k+5 −k − 5 −2k−9
Annullando tutti gli elementi di questa matrice che non stanno sulla diagonale troviamo il
sistema −3k−15 = 0 , k+5 = 0 , −k−5 = 0 , 6k+30 = 0, che ha come (unica) soluzione
il valore k = −5 . Sostituendo questovalore nelle matrici B e A−1 · Bκ · A troviamo
−5 −1 4 2 0 0
rispettivamente B−5 = 0 2 0 , A−1 ·B−5 ·A = 0 −1 0 .
−6 0 5 0 0 1
L’ultima equazione rappresenta la diagonalizzazione della matrice B−5 , questo significa che
i valori sulla diagonale 2, −1, 1 sono gli autovalori di B−5 e che i rispettivi autospazi sono
1 −1 −2
V2 = Span{ 1 } , V−1 = Span{ 0 } , V1 = Span{ 0 }
2 −1 −3
(non serve fare conti: i vettori indicati corrispondono alle colonne della matrice A).
Anche per scrivere il polinomio caratteristico di B−5 possiamo utilizzare la diagonalizzazione
a disposizione, si ha PB−5 (λ) = (2 − λ)(−1 − λ)(1 − λ) = −λ3 + 2λ2 + λ − 2.
Nota: gli unici calcoli da fare sono quelli di A−1 e di A−1 ·Bκ ·A fatti all’inizio. Visto
che A−1 viene utilizzata per rispondere alle domande successive ...vietato sbagliarla! (è
opportuno che lo studente verifichi la correttezza del calcolo dell’inversa).
5.20. Conosciamo le immagini dei vettori ~v , w, ~ ~z : L(w)~ = w−~
~ z , L(~z) = 6w−4~~ z e, dalla
relazione L(~v )−2L(w)~ = ~0, abbiamo L(~v ) = 2L(w) ~ = 2w ~ − 2~z . Ne segue
che la matrice
0 0 0
rappresentativa di L rispetto alla base {~v , w,~ ~z } è la matrice A = 2 1 6
−2 −1 −4
(ricordiamo che nelle colonne della matrice rappresentativa di una applicazione lineare ci sono
le coordinate, rispetto alla base considerata, delle immagini dei vettori della base stessa).
Poiché A ha rango 2, dim ImL = 2 e dim kerL = 3 − 2 = 1 . Il testo stesso ci fornisce un
vettore nel nucleo, infatti dalla relazione L(~v ) − 2L(w)~ = ~0 segue che ~v − 2w ~ ∈ ker L , e
ci fornisce due vettori (indipendenti) nell’immagine: w ~ − ~z e 6w ~ − 4~z . Pertanto:
−5 2 12
~ = { −2 } , BIm L = {w
Bker L = {~v − 2w} ~ − ~z, 6w~ − 4~z} = { 3 , 14 } .
1 −1 −4
Per determinare il polinomio caratteristico, gli autovalori e le basi dei rispettivi autospazi
di L possiamo utilizzare la matrice A. Si ha PL λ = det (A − λI) = −λ · (λ + 1) · (λ + 2),
quindi gli autovalori di L sono 0, -1, -2 (essendo il nucleo di L non nullo, che il valore 0
fosse un autovalore già lo sapevamo).
Indichiamo con V0 , V−1 , V−2 , i rispettivi autospazi. Abbiamo V0 = kerL (ne abbiamo
già indicata una base). Il nucleo della matrice A + I è generato dal vettore numerico
di coordinate 0, 3, −1 , questo significa che V−1 = Span {0~v + 3w ~ − ~z} (non bisogna
confondersi: poiché A è la matrice rappresentativa di L rispetto alla base costituita dai
223
vettori ~v , w,
~ ~z , i valori numerici che si ottengono calcolando il nucleo di A+I rappresentano
le coordinate dei vettori del nostro autospazio rispetto a tale base). Analogamente troviamo
V−2 = Span{2w ~ − ~z} . In definitiva abbiamo:
6 4
V−1 = Span{3w ~ − ~z} = Span{ 5 } , V−2 = Span {2w ~ − ~z} = Span{ 4 } .
−1 −1
I vettori indicati formano delle basi degli autospazi indicati (evito di ricopiarli).
Per determinare la matrice rappresentativa di L rispetto alla base canonica di R3 possiamo
effettuare un “cambiamento di base”. Abbiamo a disposizione due possibilità, quella di
utilizzare la matrice rappresentativa rispetto alla base {~v , w, ~ ~z } e quella di utilizzare la
matrice rappresentativa di L rispetto alla base costituita dagli autovettori trovati (cioè la
matrice diagonale degli autovalori). Percorriamo entrambe le strade:
−1
−1 2 0 0 0 0 −1 2 0 12/5 −14/5 32/5
B = 0 1 −2 2 1 6 0 1 −2 = 14/5 −13/5 44/5 ,
1 0 1 −2 −1 −4 1 0 1 −4/5 3/5 −14/5
−1
−5 6 4 0 0 0 −5 6 4 12/5 −14/5 32/5
B = −2 5 4 0 −1 0 −2 5 4 = 14/5 −13/5 44/5 .
1 −1 −1 0 0 −2 1 −1 −1 −4/5 3/5 −14/5
Naturalmente si ottiene sempre lo stesso risultato!
5.21. La matrice rappresentativa di T rispetto alla base 1 1 −1
3
canonica di R è la matrice A indicata a lato (questo perché le A = −2 1 −2
colonne di A sono le immagini dei vettori della base canonica). −2 −1 0
Per determinare gli autovalori si deve calcolare il polinomio caratteristico. Si ha:
PA (λ) = det (A − λI) = −λ3 + 2λ2 + λ − 2 = −(λ − 1)(λ + 1)(λ − 2)
(per decomporre il polinomio usiamo il fatto che ne conosciamo la radice λ = 2). Quindi, gli
autovalori della trasformazione T sono 1, -1, 2. I corrispondenti autospazi, che indicheremo
rispettivamente con V1 , V−1 , V2 , sono i nuclei delle matrici A−I, A+I, A−2I. Risolvendo
i sistemi lineari omogenei associati alle matrici indicate troviamo le basi degli autospazi:
−1 0 −1
BV1 = { 1 } , BV−1 = { 1 } , BV2 = { 0 } .
1 1 1
I tre vettori indicati, che denotiamo con ~u, ~v , w ~ , sono indipendenti (in quanto corrispon-
denti ad autovalori distinti), quindi costituiscono una base di autovettori. La trasformazione
T è pertanto diagonalizzabile. La matrice rappresentativa di T rispetto alla base di auto-
vettori {~u, ~v , w}
~ è la matrice diagonale dei corrispondenti autovalori.
1 7 −2 2
5.22. Si ha Aw ~ = 2 6 −2 · w ~ = 2 = 2w ~ . Questo dimostra che w ~ è un
1 11 −2 6
autovettore per T e che il corrispondente autovalore è λ = 2 . Il polinomio caratteristico
della matrice A è il polinomio −λ3 +5λ2 −2λ−8 = −(λ−2)(λ+1)(λ−4) , quindi i tre valori
2, -1 e 4 sono (tutti) gli autovalori di T (in effetti non è necessario calcolare il polinomio
caratteristico: sapendo che “somma degli autovalori”= tracciaA = 5 e che “prodotto degli
autovalori”= detA = −8 i due valori mancanti -1 e 4 si trovano immediatamente).
Risolvendo i sistemi A·~vt = −~vt e A·~vt = 4~vt , si trovano i due valori t1 = 4 e t2 = 3 .
La matrice rappresentativa di T rispetto alla base di autovettori −1 0 0
B = {~vt1 , ~vt2 , w}
~ è la matrice diagonale ∆ dei corrispondenti ∆ = 0 4 0
autovalori nell’ordine considerato (indicata qui a lato). 0 0 2
11λ + 6 .
Essendo ~a e ~b autovettori di autovalori λ = 2 e µ = 1 ed essendo ~v = 3~a + ~b , risulta
T 15 (~v ) = T 15 (3~a + ~b) = 3 T 15 (~a) + T 15 (~b) =
1 1 3 · 215 + 1
3 λ15 ~a + µ15 ~b = 3 · 215 1 + 115 0 = 3 · 215 .
−2 1 −3 · 216 + 1
Infine, la matrice rappresentativa di T rispetto alla base canonica di R3 la troviamo effet-
tuando un cambiamento di base. Si ha:
−1
1 1 1 2 0 0 1 1 1 4 −8 −3
A = 1 0 −1 · 0 1 0 · 1 0 −1 = −1 5 1 .
−2 1 3 0 0 3 −2 1 3 4 −14 −3
5.27. Per calcolare An dobbiamo diagonalizzare A. Il polinomio caratteristico di A è il
polinomio PA (λ) = det (A − λI) = λ2 − 2λ − 3 = (λ − 3)(λ + 1) . I vettori 12 e 11 sono
rispettivamente autovettori relativi agli autovalori λ1 = 3 e λ2 = −1 . Da ciò otteniamo
−1
1 1 3 0 1 1
la formula A = · · , quindi troviamo
2 1 0 −1 2 1
n −1
n 1 1 3 0 1 1 −3n+2(−1)n 3n−(−1)n
A = · · = .
2 1 0 −1 2 1 −2·3n+2(−1)n 2·3n−(−1)n
17/9 −8/9
In particolare, A−2 = (che si poteva calcolare anche direttamente).
16/9 −7/9
1
1
I vettori 2 e 1 sono anche autovettori per la matrice An (per ogni n), di autovalori
λ′1 = 3n e λ′2 = (−1)n (rispettivamente). In particolare, 12 è un autovettore per A3 di
autovalore 33 = 27.
5.28. La matrice A la possiamo
leggere
nel testo:
⋆ ⋆ ⋆ x x+2y 1 2 0
dovendo risultare ⋆ ⋆ ⋆ y = 2x+y si ha A = 2 1 0 .
⋆ ⋆ ⋆ z 8x−7y +4z 8 −7 4
Il vettore ~vk (che è un vettore non-nullo per ogni k), è un autovettore per L se esiste un
valore λ tale che A · ~vk = λ~vk . Da questa relazione si ottiene λ = 3 e k = −1 , dunque
~vk è un autovettore per L se e solo se k = −1 e l’autovalore corrispondente a ~v−1 è λ = 3 .
Il polinomio caratteristico di L è il polinomio PL (λ) = det A−λI = (4−λ)· λ2 −2λ−3 =
(4−λ)(−1−λ)(3−λ), quindi abbiamo 3 autovalori distinti: 3, 4 e −1 (il calcolo del polinomio
caratteristico potevamo anche risparmiarcelo: conoscendo già due autovalori, gli autovalori
3 e 4, quest’ultimo risulta evidente guardando la terza colonna di A, il terzo autovalore, che
chiameremo µ,, lo troviamo sapendo che la somma degli autovalori, nel nostro caso 3+4+µ
è uguale alla traccia di A, che vale 1+1+4 = 6 ).
Le molteplicità algebriche degli autovalori sono tutte uguali a 1, pertanto sono uguali a
1 anche le corrispondenti molteplicità geometriche. Quanto agli autospazi V3 , V4 , V−1 ,
ricordando che Vλ = ker (A − λI), otteniamo:
1 0 1
BV3 = {~v−1 = 1 }, BV4 = { 0 } , BV−1 = { −1 }.
−1 1 −3
Poiché abbiamo tre autovettori indipendenti (si ricordi che autospazi corrispondenti ad auto-
valori distinti sono sicuramente
indipendenti),
L risulta diagonalizzabile. Infine, posto
1 0 1 3 0 0
B = 1 0 −1 e ∆ = 0 4 0 (sono rispettivamente la matrice di una
−1 1 −3 0 0 −1
base di autovettori = “matrice del cambiamento di base” e la matrice diagonale associata
ai corrispondenti autovalori), si ha ∆ = B −1 · A · B come richiesto.
5.29. Indichiamo con x, y, z le coordinate canoniche di R3 . Per definizione, lo spazio
226
u
~ ·~
v 32
Inoltre: A = ||~u ∧ ~v || = 14 ; cos(θ) = ||~
u||·||~
v|| = √ √ (circa 0,916) ;
10· 122
3 5 −2
I = −2 − −9 = 7 .
5 −4 9
~
v·~ w −22
6.8. cos(θ) = ||~ = √94
v ||·||w||
~
√ ;
· 11
−15 √ −2
~ = || 18 || = 550 ; π = ||~vw||
A = ||~v ∧ w|| ·~
w
~ 2w ~ = −22 ~ = −2 .
11 w
−1 −6
′ ′ ′
La differenza ~v − ~π è un vettore ortogonale a w ~ (per definizione di proiezione), ne segue
che il prodotto scalare (~v ′ −~π ′ ) · w
~ ′ è nullo.
5 12 24
6.9. Risulta ⊥ r, quindi ~v ′ = è parallelo ad r . Si ha ~v = ||~26
v ′ || ~
v ′
= .
12 −5 −10
|5·13+12·15−76|
Si ha d = √
52 +122
= 13 .
Il punto Q può essere determinato intersecando la retta r con la retta s ortogonale ad r
x = 13 + 5t
e passante per P . La retta s ha equazioni parametriche . Sostituendole
y = 15 + 12t
8
nell’equazione di r si trova t = −1 , quindi Q = .
3
5 −5 1 5 −5
Si ha QP = , QK = . Quindi Area(T) = 2 |det | = 65
2 .
12 1 12 1
QP ·QK
Infine, cos(θ) = ||QP ||·||QK||
= −0.19612 (circa).
−1 3
6.10. Si ha ~v = P − I , quindi I = 4 . Posto ~z = QP = 1 , i vettori ~v e ~z
8 4
“sono” due lati del triangolo in questione. La norma del prodotto vettoriale ~v ∧ ~z è uguale
al valore dell’area del parallelogramma
individuato da ~v e ~z . In definitiva abbiamo:
8 3 −1 √
A = 21 ||~v ∧ ~z|| = 21 || −1 ∧ 1 || = 12 || −41 || = 12 1803.
−3 4 11
8 2 1
Il prodotto vettoriale ~v ∧ w ~ = −1 ∧ 0 = 2 è ortogonale ad entrambi i vettori
−3 −1 2
~v e w ~ (ed in effetti ha già norma 3, se avesse avuto norma n lo avremmo moltiplicato per
il coefficiente n3 ). Quindi, questo vettore, è il vettore richiesto ~h.
38/5
Infine: cos(θ) = ~v · w ~ = √ 19√ ≃ 0.98776 ; π = ~v · w ~ w ~ = 195 w~ = 0 .
||~v || · ||w||
~ 74 5 ~ 2
(||w||)
−19/5
0 5
6.11. Il vettore ~u′ = 1 è ortogonale a ~v , il prodotto vettoriale w ~ ′ = ~v ∧ ~u = −4
2 2
è ortogonale sia al vettore ~v che al vettore ~u . Moltiplicando questi vettori per una costante
opportuna si ottengono dei vettori di norma 3:
√
0√ 5/ √5
~u = ||~u3′ || ~u′ = √35 ~u′ = 3/√5 , w ~ = ||w~3′ || w ~ ′ = −4/√ 5 .
~ ′ = √345 w
6/ 5 2/ 5
√
0√ 5/ √5 6
Si ha ~z = ~u ∧ w ~ = 3/√5 ∧ −4/√ 5 = 6 (non è un caso: vista
6/ 5 2/ 5 −3
l’interpretazione geometrica del prodotto vettoriale, ~z è parallelo a ~v ed ha norma 3·3 = 9).
228
√ 4
v ·~ ~
Si ha cosθ = ~ k
v||·||~
||~ k||
= 12+14−8
√
3· 36+49+64
= 18
√
3· 149
= 6 149
149 ; k·~
π = ||~ z
z||2 ~
54
z = 81 ~z = 4 .
−2
~ k·~v
Note: si ha anche π = ||~ v ||2 ~
v , questo segue dal fatto che ~z e ~v (in quanto paralleli)
individuano la stessa direzione; dopo aver svolto un prodotto vettoriale, un’utile verifica
consiste nel controllare che il vettore trovato è ortogonale a entrambi i vettori dati; leggete
criticamente i risultati ottenuti (sono troppi i compiti dove cosθ ha modulo maggiore di
uno! ...come pure quelli dove il risultato di una proiezione non è parallelo alla direzione
lungo la quale si proietta!).
3
6.12. La retta r è parallela al vettore w ~ = P Q = −4 . Equazioni parametriche e
x = 2 + 3t
cartesiane di r sono rispettivamente e 4x + 3y − 17 = 0 (il termine noto
y = 3 − 4t
-17 si trova imponendo il passaggio per P , o per Q).
21/5
Si ha ||P Q|| = 5 , quindi ~v = 75 P Q = ha norma 7.
−28/5
La generica retta parallela ad r ha equazione 4x + 3y + c = 0 . Imporre che la sua distanza
dalla retta r sia 5 equivale a imporre che la sua distanza da un qualsiasi punto di r sia 5.
Imponendo che la sua distanza da P sia 5 si trova |4·2+3·3+c| 5 = 5 , quindi c = 8 (un’altra
soluzione è c = −42 ):
un’equazione cartesiana di una retta s che soddisfa le condizioni indicate è 4x+3y +8 = 0 .
~k · w
~ 33 3 99/25
Si ha ~π = ||w||~ 2 w ~ = 25 = .
−4 −132/25
2−5 −3
6.13. Poiché ~k = QP , si ha Q = 3 − 1 = 2 . Il prodotto vettoriale
−1 − 7 −8 √
−4 −4 −20/√ 26
~k ∧ w~ = −1 è ortogonale a ~k e w ~ . Quindi ~v = ||~k∧5w|| −1 = −5/ 26
~ √
3 3 15/ 26
soddisfa le condizioni richieste.
160/75
~k · w ~ ~k = 32 ~k = 32/75 .
Si ha ~π~k (w)
~ =
||~k||2 75
224/75
Non è necessario calcolare le altreproiezioni: poiché ~v è ortogonale a ~k si ha
160/75 320/75
~π~k (w ~ = 32/75 , ~π~k (2w
~ + 7~v) = ~π~k (w) ~ + 11~v ) = ~π~k (2w) ~ = 64/75 .
~ = 2·~π~k (w)
224/75 448/75
Nel nucleo di L troviamo i vettori ortogonali al vettore ~k (ovvero i vettori che soddisfano
l’equazione 5x + y + 7z = 0)
e nell’immagine di L troviamo ~
i vettori proporzionali a k .
1 0 5
Quindi: Bker L = −5 , −7 ; BIm L = 1 .
0 1 7
−4 3 1 −4 3
6.14. Si ha P Q = e PR = , quindi A = 2 |det | = 8.
0 −4 0 −4
P Q·P R −12 −12
Si ha cosθ = ||P Q||·||P R||
= = −3
4·5 =
5 . 20
7 x = 2 + 7t
Essendo QR = , le equazioni e 4x + 7y − 29 = 0 (il coefficiente
−4 y = 3 − 4t
29 lo troviamo imponendo il passaggio per P ) sono rispettivamente equazioni parametriche
e cartesiane della retta r .
Per trovare le coordinate di K abbiamo a disposizione due metodi:
229
i) considerando l’estremo finale del segmento orientato che rappresenta il vettore ~h ottenuto
proiettando il vettore QP lungo la direzione
QR e che ha Q come estremo iniziale
troviamo
28
~h = QP ·QR QR = (0)(−4) 7 = 28 7 , quindi K = −2 + 65 · 7 = 66/65 ;
4 7
||QR||2 2 −4 65 −4 28 83/65
||(−4
7
)|| 3 − 65 ·4
ii) intersecando la retta s (che ha equazione 4x + 7y − 13 = 0) con la retta ortogonale a
s passante per P (che ha equazione 7x − 4y − 2 = 0) troviamo x = 66/65 , y = 83/65 .
6.15. Le coordinate del vettore w ~ si ottengono come differenza delle coordinate dei due
punti (estremo finale meno estremo iniziale); il prodotto vettoriale ~k ∧ w ~ è ortogonale a ~k
e w, ~
~ per renderlo di norma 2 è sufficiente moltiplicarlo per 2/||k ∧ w||; ~ per calcolare π~k (w)~
usiamo la formula di proiezione. In definitiva:
0 18 26/15
~k ∧ w ~
~ = P Q = −2 , ~v = ||~k∧2w||
w ~
2
~ = √824 ~ = ||k·~k||w~2 ~k = 26
−20 , π~k (w) ~ 26/75 .
75 k =
4 −10 182/75
Per trovare un vettore ~r che soddisfa le condizioni indicate basta sommare a w ~ un qualsiasi
vettore (non nullo) ortogonale a ~k . Ad esempio possiamo prendere ~r = w ~ + ~k ∧ w
~ . Un’altra
possibilità è quella di prendere il vettore trovato prima π~k (w)
~ .
6.16. Indichiamo con ~z il vettore rappresentato dal segmento orientato P Q . Il punto π
è l’estremo finale del segmento orientato di estremo iniziale P , che rappresenta il vettore ~k
ottenuto proiettando ~z lungo la direzione individuata da ~v . Si ha:
1 2 −1 −3 −1
~z = −12 − −1 = −11 ; ~k = ||~ ~
v ·~
z
v = −12 ; π = “p + ~k ” = −13 .
v ||2 ~
12 3 9 6 9
Per calcolare l’area A del triangolo T possiamo utilizzare il fatto che la norma del prodotto
vettoriale di due vettori in √ R3 è uguale all’area del parallelogramma individuato dai due
1 ~
vettori: A = 2 ||k ∧ ~z|| = 2 2646 (~k e w
1
~ sono rappresentati dai lati P π e P Q di T).
~
z ·~
v
Infine, cosθ = ||~z||·||~v|| = √ √−63 = √ −63 ≃ −0, 9649 .
21 203 4263
√ √
Nota. Avremmo potuto anche usare la formula A = 12 ||πP || · ||πQ|| = 21 189 14 =
1
√
2 2646 (questo perché l’angolo di vertice π di T è retto per costruzione di π ).
x = 2 − 3t
6.17. Equazioni parametriche delle retta r : (trovate usando y come
y = t
parametro nell’equazione cartesiana).
√
−6/ 10
Abbiamo: ~v ′ = −3 1 // r, quindi ~ v = ||~v2′ || −3
1 = 2/√10 soddisfa le condizioni richieste.
√
Posto P = xy si deve avere |x+3y−2| √
10
= 5 . Una possibile soluzione è P = 2+5 10
0 .
Il vettore ~v ′ è un vettore ortogonale ad s, quindi un’equazione cartesiana di s si ottiene
imponendo che le coordinate del punto A soddisfino l’equazione −3x + y + c = 0 (si trova
−3·1−1+c = 0, quindi c = 4): l’equazione −3x + y + 4 = 0 è un’equazione cartesiana di s.
5
6.18. Essendo RQ = −4 , si ha R = −6 7 . Inoltre: QP = 30 e QR = −~v = −5 4 .
L’area del triangolo Tè la metà dell’area del parallelogramma
individuato dai due vettori
3 −5 x = 4t + 2
indicati: A = 12 det = 6 . Le equazioni , 5x − 4y + 2 = 0
0 4 y = 5t + 3
sono
rispettivamente equazioni parametriche e cartesiane della retta r (infatti, il vettore
4
5 è ortogonale al vettore ~ v , quindi è parallelo alla retta r). Le coordinate del punto K si
trovano intersecando la retta r con la retta s ortogonale ad r passante per Q . La retta
s ha equazione 4x + 5y − 11 = 0 .
34/41
Mettendo a sistema le equazioni di r ed s si trova K = .
63/41
6.19. Risulta A = 46 + −2 3 = 29 , B = 46 + −1 5
= 95 . Il vettore AB = −4 7
è
230
x = 2 + 7t
un vettore parallelo alla retta r . Quindi le equazioni , 4x + 7y − 71 = 0
y = 9 − 4t
sono rispettivamente equazioni parametriche e cartesiane di r .
~ √
L’angolo θ è l’angolo tra i vettori α ~ e β~ . Si ha cosθ = ||~αα~||·|| ·β
~ =
β||
√ −13√
13· 26
= − 2/2 .
−13 5 3/2
Infine, K = P + α·β ~ 2β =
4
6 + 26 −1 = 13/2 .
||β||
x = 5 + 2t
6.20. In forma parametrica r è definita dal sistema . Da questo sistema
y = 2 − 3t
(oppure imponendo il passaggio per P alla generica retta parallela a ~v ), si trova l’equazione
√
cartesiana 3x + 2y − 19 = 0 . Si ha dist{Q, r} = |3·3+2·(−8)−19| √
32 +22
= √2613 = 2 13 .
−2
Proiettando il vettore w ~ := P Q = −10 lungo la direzione della retta r si ottiene il vettore
~π rappresentato dal segmento orientato P K . Si ha ~π = ||~ w·~
~ v
v = −2·2−10·(−3)
v ||2 ~ 13
2
−3 =
4
5
4
9
−6 , quindi K = 2 + −6 = −4 . In alternativa, avremmo potuto intersecare
la retta r con la retta √ √ ad essa ortogonale passante per Q . Infine risulta Area(T) =
1 1
2 ||P K|| · ||QK|| = 2 52 52 = 26 (P K e QK sono ortogonali
tra
loro). Si poteva usare
−2 4
anche la formula del determinante: Area(T) = 12 det = 26.
−10 −6
3
6.21. Il vettore, rappresentato da AB, ~v = −4 è un vettore parallelo ad r . Il
0
x = 2 + 3t
vettore rappresentato da AQ è il vettore w ~ = −4 . Le equazioni e
y = 3 − 4t
4x + 3y − 17 = 0 sono rispettivamente equazioni parametriche e cartesiane di r . Si ha:
dist{Q, r} = |4·2+3·(−1)−17|
√
16+9
= 12/5 , ~π = πh~v i (w) ~ = ||~ w·~
~ v
v ||2 ·~ v = 2516 3
· −4 48/25
= −64/25 .
6.22. Ricordando l’interpretazione geometrica dei coefficienti delle generiche equazioni
parametriche,
( ovvero cartesiane, di una retta, abbiamo quanto segue. Equazioni parame-
x = 4 + 2t
triche: (essendo 12 ortogonale ad r, il vettore −1 2
è parallelo ad r).
y = −3 − t
Equazione cartesiana: x + 2y + 2 = 0 (il termine noto lo troviamo imponendo il passaggio
per P ).
Per determinare le coordinate di K abbiamo a disposizione due metodi (almeno):
I metodo. Intersechiamo r con la retta s ortogonale ad r nonché passante per Q , siha
8
K = “soluzione del sistema lineare di equazioni x+2y +2 = 0, 2x−y −21 = 0” = −5 .
II metodo. Proiettiamo il vettore P Q lungo la direzione di r quindi determiniamo K come
estremo finale del segmento orientato di estremo iniziale P che rappresenta tale proiezione:
4
(74)·(−1
2
) 2 4
2
8
K = −3 + 5 −1 = −3 + 2 −1 = (osservazione: P Q = 74 , −1 2
r ).
−5
√
Si ha dist{Q, r} = |11+2·1+2|
√
5
= √15
5
= 3 5.
√
2 5 2 √5
2 2√ 5
Il vettore è parallelo ad r, quindi 2 || −1 = = è un
−1 ||(−1) 5 −1 5
vettore di norma 5 parallelo ad r.
231
INDICE ANALITICO
SPAZI TOPOLOGICI
§1 Topologie su un insieme
Sia X un insieme. Una topologia su X è una famiglia τ di sottoinsiemi di X,
che si dicono aperti. Gli aperti di una topologia su X devono soddisfare i seguenti
assiomi:
(O1 ) ∅, X sono aperti;
(O2 ) l’unione di una qualsiasi famiglia di aperti è un aperto;
(O3 ) l’intersezione di una qualsiasi famiglia finita di aperti è un aperto.
L’assioma (O3 ) è equivalente a
(O3′ ) A ∩ B ∈ τ ∀A, B ∈ τ .
Uno spazio topologico è la coppia X = (X, τ ) formata da un insieme X e da una
topologia τ su X.
Se Y è un sottoinsieme di uno spazio topologico X, la famigliaS A degli aperti
A di X contenuti in Y è non vuota, perché ∅ ∈ A. L’unione A è, per l’assioma
◦
(O2 ), il più grande aperto contenuto in Y . Esso si indica con Y e si dice parte
interna di Y . Gli aperti di X sono i sottoinsiemi di X che coincidono con la loro
parte interna.
Lemma 1.1 Sia X uno spazio topologico e siano A, B due sottoinsiemi di X.
Allora:
◦ ◦
(i) Se A ⊂ B, anche A ⊂ B.
◦
z }| { ◦ ◦
(ii) A ∩ B = A ∩ B.
◦ ◦ ◦ ◦
Dim. (i): abbiamo A ⊂ A ⊂ B e quindi A ⊂ B perché A è un aperto contenuto
in B.
◦
◦ ◦ ◦ ◦ z }| {
(ii) Poiché A ∩ B è un aperto contenuto in A ∩ B, vale l’inclusione A ∩ B ⊂ A ∩ B.
◦
z }| {
D’altra parte A ∩ B è un aperto contenuto sia in A che in B e quindi in A ∩ B.
◦
z }| { ◦ ◦
Dunque vale anche l’inclusione opposta A ∩ B ⊂ A ∩ B e quindi l’uguaglianza.
Esempio 1.1 Sia X un insieme qualsiasi. Si dice topologia discreta su X quella
per cui tutti i sottoinsiemi di X sono aperti e topologia indiscreta su X quella in
cui soltanto ∅ e X sono aperti.
Se X contiene almeno due punti, la topologia discreta e quella indiscreta sono
distinte e si possono definire su X topologie diverse da quella discreta e da quella
1
2 CAPITOLO I. SPAZI TOPOLOGICI
Abbiamo poi:
Proposizione 1.3 Sia X un insieme e sia Γ una qualsiasi famiglia di sottoinsiemi
di X. Vi è un’unica topologia τ su X caratterizzata dalla proprietà di essere la
meno fine tra le topologie su X per cui gli elementi di Γ sono aperti. Ogni aperto
di τ è unione di intersezioni finite di aperti di Γ̃ = Γ ∪ {∅, X}.
Dim. La famiglia T delle topologie su X per cui gli elementi di T Γ sono aperti
contiene la topologia discreta e quindi è non vuota. Chiaramente T è meno fine
tra tutte le topologie su X per cui gli elementi di Γ sono aperti. Indichiamo con τ la
famiglia di sottoinsiemi
T di X formata dalle unioni di intersezioni finite di elementi di
Γ̃. Abbiamo τ ⊂ T e quindi per completare la dimostrazione basterà mostrare che
τ è una topologia. Gli assiomi (O1 ) e (O2 ) sono di verifica
S immediata.S Mostriamo
che vale anche (O3′ ). Siano A e B due elementi di τ : A = i∈I Ai , B = j∈J Bj , ove
gli Ai e i Bj sono intersezioni finite di elementi di Γ̃. Per laSproprietà distributiva
dell’unione rispetto all’intersezione otteniamo: A ∩ B = (i,j)∈I×J Ai ∩ Bj ; per
ogni (i, j) ∈ I × J l’insieme Ai ∩ Bj è ancora un’intersezione finita di elementi di Γ̃
e quindi A ∩ B ∈ τ .
Se τ è la meno fine tra le topologie su X per cui gli elementi di Γ ⊂ 2X sono
aperti, diciamo che Γ è una prebase di τ . Se ogni aperto non vuoto di τ è unione
di aperti di Γ ⊂ τ , diciamo che Γ è una base di τ .
Abbiamo:
Proposizione 1.4 Sia X un insieme, τ una topologia su X e Γ una prebase di
τ . Allora le intersezioni finite di aperti di Γ̃ = Γ ∪ {∅, X} formano una base di τ .
§2 Sottoinsiemi chiusi
Sia X = (X, τ ) uno spazio topologico. I complementari in X degli aperti si
dicono chiusi di X. La famiglia dei chiusi di X soddisfa gli assiomi:
(C1 ) ∅, X sono insiemi chiusi;
(C2 ) l’intersezione di una qualsiasi famiglia di chiusi è un chiuso;
(C3 ) l’unione di una famiglia finita di chiusi è un chiuso.
Viceversa, se chiamiamo ”chiusi” gli elementi di una famiglia C di sottoinsiemi
di X che soddisfi gli assiomi (C1 ), (C2 ) e (C3 ), allora la τ = {X \ A | A ∈ C} è la
famiglia degli aperti dell’unica topologia su X per cui la C sia la famiglia dei chiusi.
Osserviamo che la proprietà (C3 ) è equivalente a:
(C3′ ) Se A, B sono chiusi anche A ∪ B è chiuso.
A \ B = A ∩ (X \ B), B \ A = B ∩ (X \ A)
4 CAPITOLO I. SPAZI TOPOLOGICI
C(F ) = {v ∈ V | f (v) = 0, ∀f ∈ F }
CAPITOLO I. SPAZI TOPOLOGICI 5
§3 Intorni, frontiera
Sia X = (X, τ ) uno spazio topologico e sia x ∈ X. Si dice intorno di x un
qualsiasi sottoinsieme U di X che contenga x nella sua parte interna.
Una famiglia V di intorni di x si dice fondamentale se ogni intorno U di x contiene
un elemento V di V.
Gli aperti di X sono tutti e soli i sottoinsiemi A di X che sono intorni di ogni loro
punto. La topologia di X è quindi completamente determinata quando si conosca,
per ogni x ∈ X, un sistema fondamentale Vx di intorni di x.
Indichiamo con Ux la famiglia degli intorni di x ∈ X per una topologia τ su X.
Si verifica che {Ux | x ∈ X} gode delle seguenti proprietà:
(U1 ) Per ogni x ∈ X, Ux 6= ∅ e x ∈ U per ogni U ∈ Ux .
(U2 ) Per ogni x ∈ X ed U ∈ Ux esiste V ⊂ U tale che x ∈ V e V ∈ Uy per ogni
y ∈V.
(U3 ) Se U ⊂ V e U ∈ Ux , allora anche V ∈ Ux .
(U4 ) Se U1 , U2 ∈ Ux , allora anche U1 ∩ U2 ∈ Ux .
Viceversa, sia X un insieme e X ∋ x − → Ux ⊂ 2X un’applicazione che faccia
corrispondere ad ogni punto x di X una famiglia Ux di sottoinsiemi di X, in modo
che siano verificati gli assiomi (U1 ), (U2 ), (U3 ), (U4 ). Allora gli insiemi A ⊂ X tali
che A ∈ Uy per ogni y ∈ A formano gli aperti di una topologia su X, per cui le Ux
sono le famiglie degli intorni dei punti x ∈ X.
Possiamo caratterizzare la chiusura e la parte interna di un sottoinsieme di X
utilizzando il concetto di intorno. Abbiamo infatti:
Lemma 3.1 Sia X uno spazio topologico, A un sottoinsieme e x un punto di X.
Allora:
◦
(i) x ∈ A se e soltanto se A è un intorno di x;
(ii) x ∈ A se e soltanto se ogni intorno di x ha con A intersezione non vuota.
§4 Spazi metrici
Una distanza su un insieme X è una funzione
→R
d:X ×X −
La verifica che questa sia una distanza su ℓ2 è analoga a quella per gli spazi Euclidei.
CAPITOLO I. SPAZI TOPOLOGICI 7
Dim. Siano x1 , ..., xn ∈ X e siano r1 , ..., rn numeri reali positivi. Per ogni x ∈
∩ni=1 B(xi , ri ) poniamo r(x) = inf 1≤i≤n ri − d(x, xi ). Il numero reale r è positivo e,
se y ∈ B(x, r(x)), allora per ogni 1 ≤ i ≤ n abbiamo
Z × Z ∋ (x, y) −
→ |x − y| ∈ R.
§6 Ricoprimenti
Sia A un sottoinsieme di X. SSi dice ricoprimento di A una famiglia Γ di
sottoinsiemi di X tale che A ⊂ Γ. Un secondo ricoprimento ∆ di A si dice
inscritto in Γ o un raffinamento di Γ se si può definire un’applicazione ι : ∆ −→Γ
tale che A ⊂ ι(A) per ogni A ∈ ∆. La ι si dice funzione di raffinamento. Se ∆ ⊂ Γ
e la funzione di raffinamento è l’inclusione, diciamo che ∆ è un sottoricoprimento
di Γ.
Se X = (X, τ ) è uno spazio topologico, un ricoprimento Γ di un suo sottoinsieme
A si dice aperto (risp. chiuso) se ogni suo elemento è un aperto (risp. un chiuso)
di X.
Esso si dice localmente finito se ogni punto di X possiede un intorno Ux che ha
intersezione non vuota con al più un numero finito di elementi di Γ.
È ovvio che in ogni ricoprimento aperto se ne può inscrivere uno i cui insiemi
appartengano tutti a una base di aperti assegnata.
Un ricoprimento Γ di uno spazio topologico X si dice fondamentale se condizione
necessaria e sufficiente affinché un sottoinsieme A di X sia aperto è che A ∩ B sia
un aperto di B (per la topologia di sottospazio) per ogni B ∈ Γ.
Si ottiene una caratterizzazione equivalente dei ricoprimenti fondamentali sosti-
tuendo alla parola aperto la parola chiuso nella definizione precedente.
Teorema 6.1 Ogni ricoprimento aperto e ogni ricoprimento chiuso localmente
finito di uno spazio topologico X = (X, τ ) sono fondamentali.
Dim. È evidente che ogni ricoprimento aperto e ogni ricoprimento chiuso finito
sono fondamentali.
Supponiamo ora che Γ sia un ricoprimento chiuso localmente finito. La famiglia
∆ degli aperti di X che intersecano solo un numero finito di elementi di Γ è un
ricoprimento aperto di X e dunque fondamentale. Sia A un sottoinsieme di X tale
che A ∩ B sia aperto in B per ogni B ∈ Γ. Allora A ∩ B ∩ C è un aperto di B ∩ C
per ogni B ∈ Γ e C ∈ ∆. Poiché {B ∩ C | B ∈ Γ} è un ricoprimento chiuso finito di
C ∈ ∆, ne segue che A ∩ C è aperto in C per ogni C ∈ ∆ e quindi che A è aperto
in X in quanto ∆ è fondamentale.
Esempio 6.1 Se A, B sono due sottoinsiemi di uno spazio topologico X tali che
◦ ◦
A ∪ B = X, allora {A, B} è un ricoprimento fondamentale di X.
Se Γ è un ricoprimento fondamentale inscritto in un ricoprimento ∆, allora ∆ è
anch’esso fondamentale.
Proposizione 6.2 Sia Γ un qualsiasi ricoprimento di un insieme X e sia asse-
gnata, per ogni A ∈ Γ, una topologia τA su A. Allora
τ = {Y ⊂ X | Y ∩ A ∈ τA ∀A ∈ Γ}
10 CAPITOLO I. SPAZI TOPOLOGICI
τΓ = {B ⊂ X | B ∩ A ∈ τ |A }
§7 Applicazioni continue
Siano X = (X, τX ) e Y = (Y, τY ) due spazi topologici.
Un’applicazione f : X −→ Y si dice continua se l’immagine inversa mediante f
di un qualsiasi aperto di Y è un aperto di X:
(7.1) f :X−
→Y è continua ⇐⇒ f −1 (A) ∈ τX ∀A ∈ τY .
f ∗ (τY ) = {f −1 (A) | A ∈ τY }
è una topologia su X.
Se Γ è una base (risp. prebase) di τY , allora
f ∗ (Γ) = {f −1 (A) | A ∈ Γ}
CAPITOLO I. SPAZI TOPOLOGICI 11
f |B
A :A∋x−
→ f (x) ∈ B
f −1 (U ) = f −1 (B ∩ Ũ ) = f −1 (B) ∩ f −1 (Ũ )
e quindi
(f |B
A)
−1
(U ) = A ∩ f −1 (B) ∩ f −1 (Ũ ) = A ∩ f −1 (Ũ )
è un aperto della topologia indotta su A da X.
L’applicazione f |B
A introdotta sopra si dice abbreviazione di f al dominio A
e al codominio B. Se B = Y , scriviamo semplicemente f |A e chiamiamo tale
applicazione restrizione di f ad A.
12 CAPITOLO I. SPAZI TOPOLOGICI
f (X)
Osserviamo che f : X − → Y è continua se e soltanto se f |X è continua.
B
Per semplicità, indicheremo a volte l’abbreviazione f |A di f mediante f : A −
→ B.
Osservazione Sia f : X − → Y un’applicazione tra due insiemi X e Y e siano
τ1 ⊂ τ2 due topologie su X e σ1 ⊂ σ2 due topologie su Y . Se f è continua per la
topologia τ1 su X e la topologia σ2 su Y , allora è continua anche per le topologie
τ2 su X e σ1 su Y : un’applicazione continua rimane cioè continua quando si passi
a una topologia meno fine nel codominio e a una più fine sul dominio.
Lemma 7.5 La topologia di sottospazio su un sottoinsieme A ⊂ X di uno spazio
topologico X è la meno fine tra quelle che rendono l’applicazione di inclusione
ι:A∋x−
→x∈X
continua.
fA : A −
→Y
Sia (X, d) uno spazio metrico, Y uno spazio topologico. Condizione necessaria
e sufficiente affinché un’applicazione f : X −
→ Y sia continua in un punto x0 ∈ X
è che, fissato un sistema fondamentale di intorni Γ di f (x0 ) in Y, per ogni V ∈ Γ
esista un numero reale δ > 0 tale che
◦ ◦
La sua abbreviazione a Dn , I n , a S n−1 , bI n , a Dn , I n dà gli omeomorfismi cercati.
Esempio 7.4 (Proiezione stereografica) Indichiamo con e0 , e1 , ..., en la base
canonica di Rn+1 . Sn −{e0 } è omeomorfo a Rn . Un omeomorfismo è descritto dalla
proiezione stereografica:
n 2x1 2xn
S − {e0 } ∋ x = (x0 , x1 , ..., xn ) −
→ , ..., ∈ Rn .
1 − x0 1 − x0
con inversa
n |y|2 − 1 2y1 2yn
R ∋y−
→ 2
, 2
,... ∈ Sn \ {e0 }.
1 + |y| 1 + |y| 1 + |y|2
Uz0 ∋ eiθ −
→ eimθ ∈ {eiφ | |φ − mθ0 | < π}
→ eiθ ∈ S1
R∋θ−
→ z m ∈ Ċ e
fm : Ċ ∋ z − → ez = eRe z (cos(Im z) + i sin(Im z)) ∈ Ċ.
exp : C ∋ z −
S1 ∋ eiθ −
→ (1 − cos(2θ))eiθ ∈ C
1 Immersione e immersione locale corrispondono alle parole inglesi embedding e immersion
rispettivamente.
16 CAPITOLO I. SPAZI TOPOLOGICI
Teorema 7.10 Sia (X, d) uno spazio metrico e A un sottoinsieme non vuoto di
X. Allora la funzione
→ d(x, A) = inf{d(x, y) | y ∈ A} ∈ R
X∋x−
lim d(f, fn ) = 0
n−
→∞
allora f è continua.
Sia infatti x ∈ X e sia ǫ > 0. Fissiamo n in modo che d(f, fn ) < ǫ/3. Possiamo
trovare allora un intorno aperto U di x in X tale che |fn (x) − fn (y)| < ǫ/3 per ogni
y ∈ U . Abbiamo quindi, per y ∈ U :
|f (x) − f (y)| ≤|f (x) − fn (x)| + |fn (x) − fn (y)| + |fn (y) − f (y)|
≤d(f, fn ) + ǫ/3 + d(fn , f ) < ǫ
CAPITOLO II
COSTRUZIONI TOPOLOGICHE
§1 Prodotti topologici
Dal Teorema I.5.1 e dalla Proposizione I.1.1 segue immediatamente:
Teorema 1.1 Sia X un insieme e sia {Xi = (X, τi ) | i ∈ I} una famiglia di spazi
topologici, parametrizzata da un insieme I di indici. Supponiamo assegnata, per
ogni i ∈ I, un’applicazione fi : X − → Xi . Vi è un’unica topologia τ su X, meno
fine tra tutte quelle che rendono continue tutte le applicazioni fi . Una prebase Γ
di tale topologia è costituita dai sottoinsiemi di X:
[
Γ = {fi−1 (A) | A ∈ τi }
i∈I
La topologia τ è infatti la meno fine tra tutte le topologie su X che sono più fini
di ognuna delle fi∗ (τi ).
Y
Ricordiamo che il prodotto cartesiano X = Xi di una I-upla (Xi | i ∈ I) di
i∈I S
insiemi è l’insieme di tutte le applicazioni x : I −→ i∈I Xi tali che x(i) = xi ∈ Xi
per ogni i ∈ I. Chiaramente X = ∅ se uno dei fattori Xi è vuoto. Ammetteremo
nel seguito che valga l’assioma della scelta, che cioè, se I 6= ∅ e Xi 6= ∅, il prodotto
cartesiano di una qualsiasi I-upla2 di insiemi non vuoti sia un insieme non vuoto.
YSia (Xi = (Xi , τi ) | i ∈ I) una I-upla di spazi topologici non vuoti. Sia X =
Xi il loro prodotto cartesiano. Per ogni indice h ∈ I indichiamo con
i∈I
πh : X ∋ x −
→ x(h) = xh ∈ Xh
Lemma 1.2 Sia m un intero positivo, (Xi = (Xi , τi ) | i = 1, ..., m) una m-upla di
spazi topologici non vuoti e sia X = (X, τ ) il loro prodotto topologico. Allora
Dim. Il lemma è una conseguenza immediata del Teorema 1.1 e della definizione
di topologia prodotto.
Esempio 1.3 Sia Y un insieme contenente almeno due punti, su cui consideriamo
la topologia discreta. Sia X = Y N l’insieme delle successioni a valori in Y , con
la topologia prodotto. La topologia di X è strettamente meno fine della topologia
discreta: una base degli aperti di X è costituita dagli insiemi
{(yn ) | yj = aj ∀j ≤ m}
al variare di m tra gli interi positivi e di (a0 , ..., am ) tra le m-uple di elementi di Y .
Osservazione Nel caso di un prodotto finito di spazi topologici una base di aperti
per la topologia prodotto è dataYdai prodotti di aperti dei singoli fattori. Invece
nel caso di un prodotto infinito Xi una base di aperti è costituita dai prodotti
i∈I
Y
di aperti Ai in cui tutti gli Ai , tranne al più un numero finito, siano uguali ad
i∈I
Xi . Infatti una base del prodotto sarà costituita dalle intersezioni finite di elementi
della prebase definita nel Lemma 1.2. In particolare se A è un aperto nella topologia
prodotto, abbiamo πi (A) = Xi per tutti, tranne al più un insieme finito di indici
i ∈ I.
al variare di α, β tra le coppie di funzioni reali di variabile reale tali che α(x) < β(x)
per ogni x ∈ R. Questa topologia è più fine di quella della convergenza uniforme.
Dim. Poiché le proiezioni sui singoli fattori sono continue, se f è continua anche
le fi sono continue perché composte di applicazioni continue.
Supponiamo viceversa che tutte le fi siano continue. Gli aperti πi−1 (A) al variare
di i in I e di A tra gli aperti di Xi formano una prebase della topologia di X. Per
ciascuno di questi aperti f −1 (πi−1 (A)) = fi−1 (A) è aperto in Y . Quindi f è continua
perché sono aperte in Y le immagini inverse degli aperti di una prebase di X.
Q
Teorema 1.4 Sia X = (X = i Xi , τ ) il prodotto topologico di una I-upla di
spazi topologici non vuoti (Xi = (Xi , τi ) | i ∈ I). Fissato un elemento x0 ∈ X e un
indice h ∈ I, indichiamo con Xh (x0 ) il sottospazio di X:
è un aperto di Xj .
è aperto in X.
Dim. Supponiamo che X = (X, τ ) sia metrizzabile. Allora tutti i suoi sottospazi
sono metrizzabili. Per il Teorema 1.3 ogni fattore sarà allora metrizzabile perché
omeomorfo a un sottospazio topologico di X. Per dimostrare che l’insieme di indici I
è al più numerabile, fissiamo una distanza d su X che induca la topologia prodotto di
X. Sia x0 un punto di X. Allora gli intorni aperti B(x0 , 2−n ) = {x ∈ X | d(x, x0 ) <
2−n } di x0 al variare di n in N formano un sistema fondamentale di intorni aperti di
x0 in X. Per ogni n ∈ N l’insieme In degli indici i ∈ I per cui πi (B(x0 , 2−n )) 6= Xi
è finito. Quindi I ′ = ∪n∈N In è un insieme finito o al più numerabile. Mostriamo
che I = I ′ . Ragioniamo per assurdo. Se cosı̀ non fosse, potremmo trovare un indice
h ∈ I \ I ′ . Per la definizione di I ′ abbiamo Xh ⊂ πh (B(x0 , 2−n )) per ogni n ∈ N e
quindi πh (U ) = Xh per ogni intorno U di x0 in X.
Fissiamo una distanza dh su Xh che induca la topologia τh di Xh . Poiché Xh
contiene almeno due punti, possiamo fissare in Xh un punto x1h distinto da x0h . Sia
0 < r < dh (x1h , x0h ). Allora U = πh−1 (Bh (x0h , r)) è un intorno aperto di x0 in X, con
πh (U ) ⊂ Xh . Abbiamo ottenuto una contraddizione e quindi I = I ′ è finito o al
6=
più numerabile.
Supponiamo ora che I sia un insieme numerabile o finito e gli Xi siano tutti
metrizzabili. Possiamo supporre che I ⊂ N. Fissiamo su ciascuno degli spazi
topologici Xi una distanza di che induca su Xi la topologia τi e rispetto alla quale
Xi abbia diametro ≤ 1. Definiamo allora una funzione d su X × X a valori reali
mediante: X
d(x, y) = 2−i di (xi , yi ) ∀x, y ∈ X.
i∈I
II. COSTRUZIONI TOPOLOGICHE 23
Quindi la topologia indotta dalla distanza d è meno fine della topologia prodotto.
Sia ora U un aperto della topologia prodotto e sia x0 un punto di U . Possiamo
allora trovare un numero reale positivo r e un insieme finito di indici I ′ ⊂ I tale
che \
πi−1 (Bdi (x0i , r)) ⊂ U.
i∈I ′
Fissato un intero positivo m tale che 2−m < r/2, risulta allora
Bd (x0 , 2−m−1 ) ⊂ U.
Ciò dimostra che la topologia indotta dalla distanza è più fine della topologia
prodotto e quindi le due topologie coincidono.
è un omeomorfismo.
§2 Quozienti topologici
Proposizione 2.1 Sia X = (X, τX ) uno spazio topologico, Y un insieme e f :
X−→ Y un’applicazione. Allora
f∗ (τX ) = {A ⊂ Y | f −1 (A) ∈ τX }
[x] = {y ∈ X | y ∼ x}
la
X/∼ = {[x] | x ∈ X}
è una famiglia di sottoinsiemi di X che gode delle proprietà:
S
(1) x∈X [x] = X,
(2) x, y ∈ X e [x] ∩ [y] 6= ∅ ⇒ [x] = [y].
L’insieme X/∼ delle classi di equivalenza di X rispetto alla relazione di equivalenza
∼ si dice quoziente di X rispetto a ∼ e l’applicazione naturale surgettiva
π:X∋x−
→ [x] ∈ X/∼
x ∼ y ⇔ (x = y oppure x, y ∈ A) .
x ∼ y ⇔ x − y ∈ Q.
π : Rn+1 \ {0} −
→ RPn
ωt : Rn+1 \ {0} ∋ x −
→ tx ∈ Rn+1 \ {0}
Rn ∋ (x1 , ..., xn ) −
→ (1, x1 , ..., xn ) ∈ RPn
ove
z ∼ w ⇔ z e w sono linearmente dipendenti in Cn+1 ,
Cn ∋ (z1 , ..., zn ) −
→ (1, z1 , ..., zn ) ∈ CPn
Ui = {π(z0 , z1 , . . . , zn ) | zi 6= 0}
πX : X −
→ X/RX , πY : Y −
→ Y /RY
f
X −−−−→ Y
πX y
π
(2.1) y Y
X/RX −−−−→ Y /RY
fˆ
fˆ([x]X ) = [f (x)]Y ∀x ∈ X.
Abbiamo:
Teorema 2.3 (di omomorfismo)Siano X e Y due spazi topologici e siano RX ,
RY relazioni di equivalenza sugli insiemi X e Y ed f : X − → Y un’applicazione tale
che f ([x]X ) ⊂ [f (x)]Y per ogni x ∈ X. Se f è continua, allora anche la fˆ descritta
dal diagramma commutativo (2.1) è continua.
Dim. Sia A un aperto di Y /RY per la topologia quoziente. L’insieme B = fˆ−1 (A)
−1
è un aperto di X/RX per la topologia quoziente se e soltanto se πX (B) è un aperto
di X. Ma
−1
πX −1
(B) = πX ◦ fˆ−1 (A) = (fˆ ◦ πX )−1 (A) = (πY ◦ f )−1 (A).
è aperto perché unione di aperti (le traslazioni sono omeomorfismi di R). Da questo
segue che fˆ è aperta e quindi un omeomorfismo.
Dim. Basta osservare che, se f è aperta (risp. chiusa) il suo quoziente iniettivo fˆ
è un’applicazione aperta (risp. chiusa) e quindi un omeomorfismo.
Siano R e R′ due relazioni d’equivalenza sullo stesso insieme X. Indichiamo
rispettivamente con [x] ed [x]′ le classi d’equivalenza di x ∈ X rispetto alle relazioni
R ed R′ . Diciamo che R è più fine di R′ se
[x] ⊂ [x]′ ∀x ∈ X,
→ [x]′ ∈ X/R′ .
X/R ∋ [x] −
→ [x]′ ∈ X/R′
g : X/R ∋ [x] −
La sua abbreviazione
◦ p
Dn ∋ x −
→ (2|x|2 − 1, 2x (1 − |x|2 )) ∈ Sn − {e0 }
dove e0 = (1, 0, ..., 0) è il primo vettore della base canonica di Rn+1 è un omeomor-
fismo: la sua inversa è infatti l’applicazione continua
n ′ y′ ◦
S − {e0 } ∋ (y0 , y ) −
→p ∈ Dn .
4 − (1 + y0 ) 2
x∼y ⇔x−y ∈Z
3 {|x| | x
∈ F } è un sottoinsieme chiuso e limitato di R e quindi ha massimo per il teorema di
Weierstrass.
II. COSTRUZIONI TOPOLOGICHE 31
è aperta.
Esempio 2.8 La relazione di equivalenza su Sn :
x ∼ y ⇔ x = ±y
è aperta e chiusa.
§3 Incollamenti e attaccamenti
Descriviamo in questo paragrafo alcune costruzioni topologiche, che si deducono
dalle operazioni di prodotto topologico e di quoziente, utili in topologia algebrica e
in analisi funzionale.
A. Somme disgiunte Sia (Xi | i ∈ I) una I-upla di insiemi. La loro somma
disgiunta è l’insieme:
( ! )
G [
X= Xi = (x, i) ∈ Xi × I | x ∈ Xi ∀i ∈ I
i∈I i∈I
ove π : ⊔i∈I Xi −
→ Y è la proiezione nel quoziente, si dice affondamento i-esimo.
Vale la seguente:
Proposizione 3.1 La famiglia {ji (Xi ) | i ∈ I} è un ricoprimento fondamentale
di Y. Un’applicazione f : Y − → Z dell’incollamento topologico Y in uno spazio
topologico Z è continua se e soltanto se le f ◦ ji : Xi −
→ Z sono continue per ogni
i ∈ I.
C. Somme topologiche Sia (Xi )i∈I una I-upla di spazi topologici. Per ogni
coppia (i, j) ∈ I × I siano assegnati un sottospazio Xi,j ⊂ Xj e una applicazione
bigettiva4 φi,j : Xi,j −
→ Xj,i , in modo tale che valgano, per ogni i, j, k ∈ I:
(1) Xi,i = Xi e φi,i è l’identità su Xi ;
4 Per
semplicità supporremo che la funzione vuota sia l’unica applicazione bigettiva sull’insieme
vuoto, a valori nell’insieme vuoto.
32 II. COSTRUZIONI TOPOLOGICHE
φi,k
Xi,k ∩ Xj,k −−−−→ Xj,i ∩ Xk,i
φj,k y
φ
y j,i
Xi,j ∩ Xk,j Xi,j ∩ Xk,j .
Dim. Supponiamo che tutti i sottospazi Xi,j siano chiusi e tutte le φi,j siano degli
omeomorfismi. Se F è un chiuso di Xj , allora ι−1 i π −1 (jj (F )) = φi,j (F ∩ Xi,j )
è un chiuso in Xi per ogni (i, j) ∈ I × I. Quindi le jj : Xj − → Y , essendo appli-
cazioni chiuse, sono immersioni topologiche. Lo stesso ragionamento, sostituendo
alla parola chiuso la parola aperto, si applica nel caso in cui tutti i sottospazi Xi,j
siano aperti.
lim
−→ (Xn , φn ).
n
(4.1) CX = (X × I) / (X × {0}) .
(4.2) Cf : CX ∋ t · x −
→ t · f (x) ∈ CY
f ×id
X × I −−−−→ Y × I
y y
CX −−−−→ CY
Cf
CSn ∋ t · x −
→ tx ∈ Dn+1
Il quoziente topologico
SX = (X × I) /R
si dice la sospensione topologica di X. Detta π : X × I −
→ SX la proiezione nel
quoziente, l’insieme π(X × {1/2}) si dice base di SX. Osserviamo che per ogni
0 < t < 1, l’applicazione
X∋x− → π(x, t) ∈ SX
è un’immersione topologica. L’applicazione naturale CX − → SX è decomponibile
e SX è omeomorfo al quoziente che si ottiene identificando a un punto la base del
cono CX.
Osservazione Abbiamo gli omeomorfismi:
SDn ≃ Dn+1
SSn ≃ Sn+1 .
e p
Sn × I ∋ (x, t) −
→ (2 t − t2 x, 2t − 1) ∈ Sn+1 .
Il quoziente topologico:
X1 ∗ X2 = (X1 × X2 × I)/R
X1 × X2 × I ∋ (x1 , x2 , t) −
→ ((1 − t) · x1 , t · x2 ) ∈ CX1 × CX2
(4.4) α : X1 ∗ X2 −
→ CX1 × CX2 .
φ :X1 × X2 × I ∋ (x1 , x2 , t) −
→ (x1 , 1 − t, x2 , t)∈ X1 × I × X2 × I
ψ :X1 × I × X2 × I ∋ (x1 , s, x2 , t) −
→ (x1 , x2 , t)∈ X1 × X2 × I.
(4.5) X1 ∗ X2 ≃ X2 ∗ X1 ,
II. COSTRUZIONI TOPOLOGICHE 37
X1 × X2 × I ∋ (x1 , x2 , t) −
→ (x2 , x1 , 1 − t) ∈ X2 × X1 × I
Y = {(t1 · x1 , t2 · x2 , t3 · x3 ) | xi ∈ Xi , ti ∈ I i = 1, 2, 3, t1 + t2 + t3 = 1};
X1 × X2 × I × X3 × I −
→ X1 × I × X2 × I × X3 × I,
definita da
(x1 , x2 , s, x3 , t) −
→ (x1 , (1 − t)(1 − s), x2 , (1 − t)s, x3 , t)
e
X1 × I × X2 × X3 × I −
→ X1 × I × X2 × I × X3 × I,
definita da:
(x1 , s, x2 , x3 , t) −
→ (x1 , s, x2 , (1 − s)(1 − t), x3 , (1 − s)t).
−1
La α′′ ◦ α′ dà l’omeomorfismo cercato.
Se (Xi )1≤i≤m è una m-upla di spazi topologici, possiamo definire, utilizzando
l’associatività dell’operazione di giunto topologico dimostrata nella proposizione
precedente, lo spazio topologico X1 ∗ ... ∗ Xm : esso si identifica in modo canonico
al sottospazio
Proposizione 4.4 Sia (Xi )1≤i≤m una m-upla di spazi topologici. Allora C(X1 ∗
Qm
... ∗ Xm ) è omeomorfo a i=1 CXi .
Qm
identificando X1 ∗ ... ∗ Xm al sottospazio di i=1 CXi formato dalle m-uple (t1 ·
x1 , ..., tm · xm ) con xi ∈ Xi , ti ∈ I per i = 1, ..., m e t1 + ... + tm = 1 e ponendo
X × D0 × I ∋ (x, 0, t) −
→ (x, t) ∈ X × I;
X × S0 × I ∋ (x, s, t) −
→ (x, (1 + st)/2) ∈ X × I,
S k+1 X≃ S k (X ∗ S0 ) ≃ S k−1 (X ∗ S0 ∗ S0 )
≃ S k−1 (X ∗ S1 ) ≃ ...
... ≃ X ∗ Sk
Esempio 4.2 Siano m1 , ..., mn interi non negativi. Abbiamo gli omeomorfismi:
Basta dimostrare che gli omeomorfismi valgono per n = 2. Quindi la (1) è stata già
verificata. La (2) è ovvia se m1 = 0 o m2 = 0. Se m1 , m2 ≥ 1, abbiamo la catena
di omeomorfismi:
Dm1 × Dm2 ≃ CSm1 −1 × CSm2 −1 ≃ C Sm1 −1 ∗ Sm2 −1
≃ C Sm1 +m2 −1 ≃ Dm1 +m2 .
CAPITOLO III
ASSIOMI DI SEPARAZIONE
L’esistenza di funzioni continue a valori reali non banali su uno spazio topologico
X è naturalmente legata alle proprietà della struttura topologica. In questo capitolo
esamineremo alcuni degli assiomi di separazione e numerabilità collegati a questo
problema e le loro conseguenze.
§1 Assiomi di separazione
Un intorno di A di uno spazio topologico X è un qualsiasi sottoinsieme B di X
◦
tale che A ⊂ B.
Diciamo che uno spazio topologico X soddisfa l’assioma di separazione Ti (i =
1, 2, 3, 4) se:
(T1 ) Per ogni x 6= y ∈ X, esiste un intorno di x in X che non contenga y.
In modo equivalente: Per ogni punto x ∈ X, l’insieme {x} è chiuso in X.
(T2 ) Due qualsiasi punti distinti di X ammettono intorni disgiunti: per ogni
x 6= y ∈ X, possiamo trovare un aperto Ux ∋ x e un aperto Uy ∋ y tali che
Ux ∩ Uy = ∅.
(T3 ) Se F è un chiuso di X e x un punto di X non appartenente ad F , esiste
un aperto A ⊃ F e un aperto U ∋ x tali che A ∩ U = ∅.
Questa prorietà è equivalente al fatto che: Ogni punto x di X ha un
sistema fondamentale di intorni chiusi.
(T4 ) Ogni coppia di chiusi disgiunti di X ammette una coppia di intorni
disgiunti.
Se cioè F, G sono due chiusi di X con F ∩ G = ∅, allora esistono due
aperti A ⊃ F e B ⊃ G di X tali che A ∩ B = ∅.
/ N − {0}
U = {x ∈ [0, 1[ | x(1 + n) ∈ ∀n ∈ N} .
A ⊂ B, y ∈ U, B ∩ U = ∅.
F1 ⊂ A1 , F2 ⊂ F2 , A1 ∩ A2 = ∅.
III. ASSIOMI DI SEPARAZIONE 41
Osservazione Vedremo nel seguito che un sottospazio chiuso di uno spazio nor-
male può non essere un sottospazio normale.
Teorema 1.2 Ogni spazio metrizzabile è normale.
Dim. Sia X uno spazio metrizzabile e sia d : X ×X − → R una distanza che definisce
la topologia di X.
Dimostriamo innanzi tutto che X è di Hausdorff: se x 6= y ∈ X, le palle aperte
B(x, 12 d(x, y)) e B(y, 21 d(x, y)) sono due intorni aperti disgiunti di x e y.
Siano ora A e B due chiusi disgiunti di X. Poiché le funzioni X ∋ x − → d(x, A) ∈
ReX∋x− → d(x, B) ∈ R sono continue, i due insiemi
{x ∈ X | f (x) = g(x)}
è chiuso in X.
Dim. L’applicazione
(f, g) : X ∋ x −
→ (f (x), g(x)) ∈ Y × Y
42 III. ASSIOMI DI SEPARAZIONE
Allora \ \ ◦
U ⊃B = πj−1 (Bj ) ⊃ πj−1 (B j ) ∋ x
j∈J j∈J
Osservazione In generale il prodotto di spazi normali può non essere uno spazio
normale.
§2 Funzioni di Urysohn
Lemma 2.1 Siano A e B due chiusi disgiunti di uno spazio topologico X che
soddisfa l’assioma T4 . Sia Γ la famiglia degli intorni aperti di A che non intersecano
B e sia ∆ l’insieme di tutti i numeri razionali della forma m · 2−n con m ed n interi
e 0 ≤ m · 2−n ≤ 1. Esiste una applicazione
φ:∆−
→Γ
tale che
φ(r1 ) ⊂ φ(r2 ) ∀r1 , r2 ∈ ∆ con r1 < r2 .
∆n = {m2−n | m ∈ N, 0 ≤ m ≤ 2n }.
III. ASSIOMI DI SEPARAZIONE 43
φ|∆n = φn ∀n ∈ N.
f :X−
→ [0, 1]
tale che
f (x) = 0 ∀x ∈ A, f (x) = 1 ∀x ∈ B.
R∋t−
→ at + b ∈ R
f (x) = 0, f (y) = 1 ∀y ∈ A.
Dim. Sia X = (X, τ ) il prodotto topologico della I-upla di spazi topologici com-
pletamente regolari (Xi )i∈I . Fissato un punto x di X e un chiuso F di X che non lo
contenga, possiamo trovare un sottoinsieme finito J di I ed aperti Aj ∋ xj = πj (x)
di Xj , per j ∈ J, tali che \
πj−1 (Aj ) ∩ F = ∅.
j∈J
f˜ : X −
→R
f˜|A = f.
Inoltre possiamo fare in modo che f˜(X) sia contenuto nell’inviluppo convesso di
f (A).
ψ:X−
→ [−L, L]
tale che
Dim. I sottoinsiemi:
sono due chiusi disgiunti di X. Per il Lemma di Urysohn esiste una funzione
continua ψ : X − → [−L/3, L/3] che valga −L/3 su A e L/3 su B. Tale funzione
soddisfa le condizioni (i) ed (ii).
Dimostrazione del Teorema 3.1 Supponiamo inizialmente che la funzione f
sia a valori nell’intervallo [−1, 1]. Dico che allora possiamo trovare una successione
{gn } di funzioni continue gn : X − → [−1, 1], per n ≥ 0, tale che
|gn (x)| ≤ 2−1 (2/3)n
(*) Pn
|f (x) − j=1 gj (x)| ≤ (2/3)n ∀x ∈ X.
è una funzione continua e per il lemma precedente possiamo trovare una funzione
continua gn+1 : X −→ [−(2/3)n , (2/3)n ] che soddisfi:
g|A = f.
Consideriamo ora il caso generale. Sia J l’inviluppo convesso di f (A) in R. Se J
è un intervallo della forma [a, b] con −∞ < a < b < ∞, ci riconduciamo al caso
precedente componendo la f con la trasformazione affine
2t − a − b
R∋t−
→ h(t) = ∈ R.
b−a
t
R∋t−
→ ∈] − 1, 1[.
1 + |t|
→ R | A ∈ Γ}
{φA : X −
Lemma 4.1 Sia X uno spazio topologico che soddisfa l’assioma T4 e sia Γ =
{Ai | i ∈ I} un ricoprimento aperto localmente finito di X. Possiamo allora trovare
un ricoprimento aperto ∆ = {Bi | i ∈ I} di X tale che B i ⊂ Ai per ogni i ∈ I.
Teorema 4.2 Sia Γ un ricoprimento aperto localmente finito di uno spazio to-
pologico X che soddisfi l’assioma di separazione T4 . Allora esisteuna partizione
continua dell’unità subordinata a Γ.
Di ⊂ Bi ⊂ B i ⊂ Ai ∀i ∈ I.
φi (x) = ψi (x)/ψ(x) ∀x ∈ X, ∀i ∈ I
R = R ∪ {−∞, +∞}
III. ASSIOMI DI SEPARAZIONE 49
A = {x ∈ X | χA (x) ≥ 1}
A = {x ∈ X | χA (x) > 0}
6 In questo paragrafo, per semplificare le notazioni, non faremo distinzione tra una funzione f
a valori in un sottoinsieme A di R e la funzione a valori in R che si ottiene componendola con
l’inclusione A −→ R.
50 III. ASSIOMI DI SEPARAZIONE
→ R è a
Dim. Verifichiamo la (1). Siano f, g ∈ SCS(X). La funzione f + g : X −
valori in [−∞, +∞[. Inoltre, per ogni a ∈ R,
[
{x ∈ X | f (x) + g(x) < a} = ({x ∈ X | f (x) < s} ∩ {x ∈ X | g(x) < t})
s+t<a
Ea ⊂ {x ∈ X | φ ◦ f (x) < a}
Teorema 5.3 Sia {fi | i ∈ I} una qualsiasi famiglia di funzioni di SCS(X). Allora
la
→ inf fi (x) ∈ R
f :X∋x−
i∈I
è ancora una funzione semicontinua superiormente della classe SCS(X). Sia {fi | i ∈
I} una qualsiasi famiglia di funzioni di SCI(X). Allora la
→ sup fi (x) ∈ R
f :X∋x−
i∈I
Dim. Supponiamo {fi | i ∈ I} ⊂ SCS(X) e f (x) = inf i∈I fi (x) per ogni x ∈ X.
Fissato un qualsiasi numero reale a l’insieme:
[
{x ∈ X | f (x) < a} = {x ∈ X | fi (x) < a}
i∈I
Lemma 5.4 Siano {fn } e {gn } due successioni di funzioni continue a valori in I,
definite su uno spazio topologico X. Supponiamo che inf n fn = f ≤ g = supn gn .
Possiamo allora trovare una funzione continua h : X −
→ I tale che f ≤ h ≤ g.
Le funzioni
h1 : X ∋ x −
→ sup αn (x) ∈ I,
n
h2 : X ∋ x −
→ inf βn (x) ∈ I,
n
f1 (x) ≥ f2 (x) ≥ ... ≥ fµ (x) > t < αµ (x) ≤ αµ+1 (x) ≤ ...
Lemma 5.5 Sia X uno spazio topologico T4 e siano f ∈ SCS(X), g ∈ SCI(X) due
funzioni tali che
0 ≤ f (x) ≤ g(x) ≤ 1 ∀x ∈ X.
→ R tale che
Esiste allora una funzione continua h : X −
m+1 m
Abbiamo allora φn (x) ≥ f (x) su X e inoltre φn (x) ≤ n se g(x) ≤ n. Posto
χB (x) ≤ 1 − χA (x) ∀x ∈ X.
Dim. Sia B = {An | n ∈ N} una base numerabile degli aperti della topologia τX di
X. Fissato un punto x di X, la famiglia {An ∈ B | x ∈ An } è una base numerabile
di intorni di x in X.
Per ogni n appartenente all’insieme N′ dei numeri naturali per cui An 6= ∅,
scegliamo un elemento xn ∈ An . Allora D = {xn | n ∈ N′ } è un sottoinsieme denso
e numerabile di X.
III. ASSIOMI DI SEPARAZIONE 55
Teorema 6.5 Ogni spazio topologico che soddisfi l’assioma T3 e sia a base nu-
merabile soddisfa anche l’assioma T4 .
Dim. Sia B una base numerabile di aperti di uno spazio topologico X, che soddisfi
anche l’assioma di separazione T3 . Siano A e B due chiusi disgiunti di X. Per ogni
punto x ∈ A esiste un intorno aperto Ux ∈ B di x tale che U x ∩ B = ∅ e per ogni
y ∈ B un intorno aperto Vy ∈ B di y tale che V y ∩ A = ∅. Poiché B è numerabile,
possiamo trovare due successioni {xn } ⊂ A e {yn } ⊂ B tali che
Poniamo Un = Uxn e Vn = Vyn . Allora {Un } e {Vn } sono due ricoprimenti aperti
di A e B rispettivamente che sono numerabili e hanno la proprietà:
U n ∩ B = ∅, Vn ∩ A = ∅ ∀n ∈ N.
Poniamo
U0′ = U0
Sn−1
Un′ = Un \ j=1 V j
Sn
Vn′ = Vn \ j=0 U j .
Allora S∞
U = j=0 Un′ è un aperto contenente A
S∞
V = j=0 Vn′ è un aperto contenente B.
Dico che i due aperti U e V sono disgiunti. Se infatti fosse x ∈ U ∩ V , avremmo
x ∈ Un′ ∩ Vm′ per due interi m, n ≥ 0. Non può essere n ≤ m perché in questo caso
III. ASSIOMI DI SEPARAZIONE 57
Un′ ∩ Vm′ ⊂ Un ∩ (Vm \ Un ) = ∅, né n > m in quanto in questo caso Un′ ∩ Vm′ ⊂
(Un \ Vm ) ∩ Vm = ∅. Quindi U ∩ V = ∅. La dimostrazione è completa.
Dim. Sia X uno spazio topologico regolare a base numerabile e sia B una base
numerabile degli aperti di X. Sia
∆ = {(U, V ) | U, V ∈ B, U ⊂ V }.
N∋n−
→ (Un , Vn ) ∈ ∆.
Per il Teorema 6.4 X è uno spazio normale. Per ogni n ∈ N esiste quindi una
funzione di Urysohn fn della coppia (U n , X − Vn ). Consideriamo l’applicazione
→ (2−n fn (x))n∈N ∈ ℓ2 .
f :X∋x−
Poiché ciascuna delle funzioni fn è continua, possiamo poi trovare un intorno aperto
W di x0 tale che
Allora
P∞
kf (x) − f (x0 )k2 = n=0 2−2n |fn (x) − fn (x0 )|2
Pm P∞
≤ (ǫ2 /4) n=0 2−2n + n=m+1 2−2n < ǫ2 ,
∀y ∈ W.
f (X)
Sia ora g : f (X) − → X la funzione inversa dell’abbreviazione f |X :X −
→ f (X).
Sia y0 = f (x0 ) ∈ f (X) e sia W un intorno di x0 in X. Possiamo allora trovare
una coppia (Un , Vn ) ∈ ∆ con x ∈ Un ⊂ Vn ⊂ W . Se y ∈ B(y0 , 2−n ) ∩ f (X) =
{f (x) | kf (x) − y0 k < 2−n } avremo in particolare |fn (x) − fn (x0 )| = fn (x) < 1
e quindi x ∈ Vn ⊂ W . Questo dimostra che anche g è continua e quindi f è
un’immersione topologica.
58 III. ASSIOMI DI SEPARAZIONE
CAPITOLO IV
COMPATTEZZA
Dim. Supponiamo che X sia compatto. Sia T Γ una famiglia di chiusi di X che goda
della proprietà dell’intersezione finita. Se Γ fosse vuota, allora {X − A | A ∈ Γ}
sarebbe un ricoprimento aperto di X. Potremmo allora, per la compattezza di X,
trovare un sottoinsieme finito {A1 , ..., An } di chiusi di Γ tali che
n
[
(X \ Aj ) = X.
j=1
Ciò equivale al fatto che {A1 , ..., An } sia un ricoprimento di X. Questo dimostra
che X è compatto.
Fa = {x ∈ X | f (x) ≥ a}
IV. COMPATTEZZA 61
La sua intersezione \
F = Fa
a<α
→ R su uno spazio
Osservazione In particolare: Ogni funzione continua f : X −
compatto X ammette massimo e minimo.
Poniamo
n
\
W (y) = V (xj , y).
j=1
Allora
m
\
G = Gyj
j=1
Dalle prime due affermazioni del teorema segue immediatamente che uno spazio
di Hausdorff compatto è normale.
n
[
xn ∈
/ Aj .
j=0
Sia K = {xn | n ∈ N}. Questo insieme contiene infiniti punti ed è chiuso perché
la sua intersezione con ogni elemento del ricoprimento fondamentale Γ è finita e
quindi chiusa perché X soddisfa T1 . Dunque K è compatto perché sottospazio
chiuso di uno spazio compatto. D’altra parte ogni sottoinsieme di K interseca
ciascuno degli An in un numero finito di punti: quindi è chiuso e la topologia
di K come sottospazio di X è la topologia discreta. Abbiamo cosı̀ ottenuto una
contraddizione, perché uno spazio topologico compatto con la topologia discreta
contiene al più un numero finito di punti.
7 Ciò
significa che J è un insieme totalmente ordinato rispetto a una relazione d’ordine < e che
∆j1 ⊂ ∆j2 se j1 < j2 .
8 Il lemma di Zorn è equivalente all’assioma della scelta e al principio del buon ordinamento.
Esso si enuncia nel modo seguente: Sia E un insieme non vuoto, con una relazione di ordine
parziale rispetto alla quale ogni suo sottoinsieme totalmente ordinato ammetta un maggiorante.
(Un insieme parzialmente ordinato con questa proprietà si dice induttivo). Allora E contiene un
elemento massimale, cioè un elemento che non precede nessun altro elemento distinto da esso.
IV. COMPATTEZZA 63
Poiché x ∈
/ ∪(Γ ∩ ∆), nessuno dei Bj appartiene a ∆. Quindi, per ogni j = 1, ..., n
possiamo trovare un sottoinsieme finito ∆j di ∆ tale che
[
X = ∆j ∪ B j .
S
n
Ma allora j=1 ∆j ∪ {A} è un ricoprimento di X contenuto in ∆. Infatti
S S S S
A∪( ∆1 ) ∪ ... ∪ ( ∆n )⊃ (B
Tn 1 ∩ ... ∩ B n
S ) ∪ ( ∆ 1 ) ∪ ... ∪ ( ∆n )
⊃ j=1 (Bj ∪ ( ∆j )) = X.
Dim. Sia X = (X, τ ) il prodotto topologico della famiglia di spazi topologici non
vuoti Xj = (Xj , τj ). Se X è compatto, ciascuno degli Xj è compatto perché
immagine di X mediante l’applicazione continua πj : X − → Xj . Per dimostrare la
sufficienza della condizione, applichiamo il teorema di Alexander. Sia Γ la prebase
64 IV. COMPATTEZZA
∆j = {πj−1 (A) | A ∈ τj } ∩ ∆.
Allora
n
[
πj−1 (Aj ) = X
j=1
L ∈ lim xn
n−
→∞
se, per ogni intorno U di L in X possiamo trovare un numero naturale ν tale che
xn ∈ U ∀n ≥ ν.
Teorema 2.1 Ogni spazio topologico compatto che soddisfi il primo assioma di
numerabilità è compatto per successioni.
Dim. Sia X = (X, τX ) uno spazio topologico compatto e sia {xn } una successione
a valori in X. Per ogni numero naturale n indichiamo con Fn la chiusura in X
dell’insieme {xm | m ≥ n}. La famiglia di chiusi Fn ha la proprietà dell’intersezione
finita e quindi ha intersezione non vuota
F = ∩n∈N Fn 6= ∅.
Una successione {xn }n∈N a valori in uno spazio metrico (X, d) si dice di Cauchy
se soddisfa la condizione:
d(x, y) = |x − y| per x, y ∈ R
e la metrica
x y
d′ (x, y) = − per x, y ∈ R
1 + |x| 1 + |y|
definiscono entrambe la topologia euclidea su R. La retta reale R è completa
rispetto alla metrica euclidea, ma non lo è rispetto alla metrica d′ in quanto la
successione {n} è di Cauchy rispetto a d′ , ma non è convergente.
66 IV. COMPATTEZZA
Esempio 2.2 Sia ∆ = {z ∈ C | |z| < 1}. Con la metrica euclidea di C, il disco
∆ non è uno spazio metrico metrico completo. Esso diviene uno spazio metrico
completo con la metrica definita dalla distanza
z−w
d(z, w) = arcth = 1 log |1 − z w̄| + |z − w|
1 − z w̄ 2 |1 − z w̄| − |z − w|
Abbiamo allora
10 È dz dz̄
la distanza associata alla metrica di Poincaré ds2 = .
(1 − z z̄)2
IV. COMPATTEZZA 67
Infatti, poiché ∆0 è finito, uno dei suoi elementi contiene xm per infiniti indici
m ∈ N. Scegliamo quindi y0 in modo che Bd (y0 , 1) ∈ ∆0 contenga xm per infiniti
indici m. Supponiamo di aver costruito y0 , ..., yn in modo che valgano le (∗). Allora
Bd (yn , 2−n ) è ricoperta da un numero finito di palle aperte di ∆n+1 . Una di queste,
diciamo Bd (yn+1 , 2−(n+1) ), avrà intersezione non vuota con Bd (yn , 2−n ) e conterrà
xm per infiniti indici m ∈ N. Chiaramente
Se n < m abbiamo
Pm−1
d(xkn , xkm )≤ d(xn , yn ) + j=n d(yj , yj+1 ) + d(ym , xm )
Pm−1
< 2−n + j=n 2j−1 + 2−m < 12 · 2−n
e quindi la {xkn } è una successione di Cauchy. Poiché per ipotesi (X, d) è completo,
essa è convergente. Questo dimostra che la (2) implica la compattezza per succes-
sioni.
(3)⇒(1) Dimostriamo innanzi tutto che X è totalmente limitato. Se non lo fosse,
potremmo trovare ǫ > 0 tale che non sia possibile ricoprire X con palle aperte di
raggio ǫ. Fissato un punto x0 ∈ X, potremmo allora costruire per ricorrenza una
successione {xn } tale che
n
[
xn+1 ∈
/ Bd (xj , ǫ) se n ≥ 0.
j=0
D = ∪∞
n=0 Fn
68 IV. COMPATTEZZA
Dim. Sia {a(n) } una successione di Cauchy in ℓ2 . Per ogni indice 0 ≤ j < ∞ la
(n)
successione di numeri reali {aj } è di Cauchy e quindi converge a un numero reale
Lj . Vogliamo dimostrare che
e quindi
∞
X
L2j ≤ ǫ2 /16.
j=µ
3ǫ
≤ 4 < ǫ.
A ⊂ ∪N j
j=1 B(a , ǫ/2).
Quindi, se a ∈ A, abbiamo
1/2 1/2
X∞ X∞
|aj |2 ≤ min ka − ar k + max |arj |2 < ǫ.
1≤r≤N 1≤r≤N
j=ν j=ν
L’applicazione
→ (a0 , ..., aν−1 ) ∈ Rν
π : ℓ2 ∋ a −
trasforma insiemi limitati in insiemi limitati. In particolare π(A) è limitato e quindi
relativamente compatto in Rν . In particolare π(A) è totalmente limitato in Rν e
potremo dunque trovare a1 , ..., aN ∈ A tali che
π(A) ⊂ ∪N ν j
j=1 {x ∈ R | |π(a ) − x| < ǫ/2}.
Se a ∈ A avremo allora
P∞ 1/2
min1≤j≤N ka − aj k≤ min1≤j≤N |π(a) − π(aj )| + |ah |2
h=ν
P 1/2
∞ j 2
+ max1≤j≤N h=ν |a h | < ǫ.
Dim. Sia {fn } una successione di Cauchy a valori in Cu (X, Y ). Per ogni x ∈ X
fissato, la successione {fn (x)} è una successione di Cauchy a valori in Y . Poiché
(Y, d) è completo, essa ha limite in Y . Indichiamo con f (x) il valore del limite:
Abbiamo allora
d(f (x0 ), f (x)) ≤ d(f (x0 ), fν (x0 )) + d(fν (x0 ), fν (x)) + d(fν (x), f (x)) < ǫ ∀x ∈ U.
Se x0 ∈ X, poniamo
U = ∩N
j=1 {x ∈ X | d(fj (x), fj (x0 )) < ǫ/3}.
72 IV. COMPATTEZZA
F ⊂ ∪M
h=1 {f ∈ Cu (X, Y ) | d(f (xj ), fh (xj )) < ǫ/4 per 1 ≤ j ≤ N }.
Sia ora f ∈ F e x ∈ X. Fissiamo 1 ≤ h ≤ N tale che d(f (xj ), fh (xj )) < ǫ/4 per
1 ≤ j ≤ N . Sia x ∈ X. È x ∈ Uxj per qualche 1 ≤ j ≤ N e dunque
d(f (x), fh (x)) ≤ d(f (x), f (xj )) + d(f (xj ), fh (xj )) + d(fh (xj ), fh (x)) < (3/4)ǫ.
Ne segue che d (f, fh ) ≤ (3/4)ǫ < ǫ e questo dimostra che F è totalmente limitato.
φ:X−
→ Y,
tale che φ(X) sia denso in Y per la topologia indotta dalla distanza.
Teorema 4.1 Ogni spazio metrico (X, d) ammette un completamento.
Sia (Y, δ) un completamento di (X, d) e φ : X −→ Y l’isometria di X nel suo
completamento. Per ogni spazio metrico completo (Z, η) ed ogni contrazione
IV. COMPATTEZZA 73
Dim. Sia (X, d) uno spazio metrico. Indichiamo con X l’insieme di tutte le suc-
cessioni di Cauchy di (X, d). Introduciamo su X la relazione di equivalenza:
Allora
e quindi
δ̃({x′n }, {yn′ }) = δ̃({xn }, {yn }).
Possiamo quindi definire una distanza δ sul quoziente Y = X/∼ ponendo
se {xn }, {yn } sono due successioni di Cauchy a valori in X e [{xn }], [{yn }] le
rispettive classi di equivalenza in Y .
Facendo corrispondere a x ∈ X la classe di equivalenza della successione costante
xn = x ∀n ∈ N, otteniamo un’isometria φ : X − →Y.
Dico che φ(X) è denso in Y . Se infatti y ∈ Y è la classe di equivalenza della
successione di Cauchy {xn } ⊂ X, allora {φ(xn )} è una successione a valori in φ(X)
74 IV. COMPATTEZZA
che converge a y: per dimostrare questo fatto, fissato un qualsiasi numero reale
positivo ǫ, scegliamo ν ∈ N tale che
Allora
δ(φ(xm ), y) = lim d(xm , xn ) ≤ ǫ/2 < ǫ ∀m ≥ ν.
n−
→∞
Dimostriamo che (Y, δ) è completo. Sia {yn } una successione di Cauchy a valori in
Y . Poiché φ(X) è denso in Y , per ogni n ∈ N possiamo trovare xn ∈ X tale che
abbiamo
d(xm , xn ) < ǫ ∀m, n ≥ ν.
Questo dimostra che {xn } è di Cauchy. Inoltre la successione {yn } converge alla
classe di equivalenza [{xn }]. Infatti abbiamo:
otteniamo
δ(ym , [{xn }]) < ǫ ∀m ≥ ν.
Se f : X −→ Z è una contrazione, essa trasforma successioni di Cauchy a valori
in X in successioni di Cauchy a valori in Z. Sia (Y, δ) uno spazio metrico completo
eφ:X− → Y un completamento di X. Poiché φ(X) è denso in Y , per ogni y ∈ Y
possiamo trovare una successione {xn } ⊂ X tale che y = limn− →∞ φ(xn ). Poiché
φ è un’isometria, {xn } è una successione di Cauchy in (X, d) e quindi {f (xn )} è
una successione di Cauchy in (Z, η). Essa ammette limite perché (Z, η) è completo.
Osserviamo che, se {x′n } ⊂ X è un’altra successione tale che y = limn− ′
→∞ φ(xn ),
allora {xn } ∼ {x′n } e
lim f (x′n ) = lim f (xn ).
n−
→∞ n−→∞
IV. COMPATTEZZA 75
ψ̃ : Y −
→Z e φ̃ : Z −
→Y
ψ̃
Y −−−−→ Z
x x
φ
ψ
X X
ψy
φ
y
Z −−−−→ Y.
φ̃
è una norma su C0 (R). Con la distanza d definita da questa norma, C0 (R) non è
completo. Consideriamo ad esempio la funzione
0 se x ≤ −1
f (x) = 1 − x2 se − 1 ≤ x ≤ 1
0 se x ≥ 1.
f :X−
→Y
fj : X ∋ x −
→ πj ◦ f (x) ∈ Yj .
→ IJ
f :X−
§6 Compattificazione di Stone-Čech
Sia X = (X, τX ) uno spazio di Tychonoff, sia J l’insieme di tutte le applicazioni
continue φ : X −
→ I e sia
f :X−→ IJ
l’immersione topologica di X nel cubo di Tychonoff I J descritta nel paragrafo
precedente. Indichiamo con X la chiusura di f (X) in I J . Con la topologia di
sottospazio, X è compatto e di Hausdorff. Chiamiamo l’immersione topologica:
ι = f |X
X :X −
→X
compattificazione di Stone-Čech di X.
IV. COMPATTEZZA 77
→ (h(z))h∈H ∈ I H
φ:Z∋z−
f∗ : H ∋ h −
→ h ◦ f ∈ J.
F : IJ −
→ IH
mediante
F ((tj )j∈J ) = (tf ∗ (h) )h∈H ∀(tj )j∈J ∈ I J .
Per verificare che la F è continua basta verificare che
I J ∋ (tj )j∈J −
→ tf ∗ (h) ∈ I
è continua per ogni h ∈ H. Ma ciò è ovvio perché questa applicazione non è altro
che la proiezione sulla f ∗ (h)-esima coordinata del prodotto topologico I J .
Abbiamo quindi un diagramma commutativo di applicazioni continue
ι
X −−−−→ IJ
fy
yF
Z −−−−→ I H
φ
φ(Z)
f˜ = (φ|Z )−1 ◦ F |
X
ψ:X−
→E
X
ιւ ցφ
X −
→ E.
ψ
g(y) = (j̃(y))j∈J
§8 Compattificazione di Alexandroff
Chiamiamo compattificazione di uno spazio topologico X = (X, τX ) il dato di uno
spazio topologico compatto Y = (Y, τY ) e di un’immersione topologica φ : X − →Y.
Esempio 8.1 Sono compattificazioni dell’intervallo aperto ]0, 1[ le
]0, 1[∋ t −
→ t ∈ [0, 1],
→ e2πi t ∈ S 1 .
]0, 1[∋ t −
(x, y)
R2 ∋ (x, y) −
→p ∈ D2 = {(ξ, η) ∈ R2 | x2 + y 2 ≤ 1},
2
1+x +y 2
(4x, 4y, x2 + y 2 − 4)
R2 ∋ (x, y) −
→ p ∈ S 2 = {(ξ, η, τ ) ∈ R3 | ξ 2 + η 2 + τ 2 = 1}
4+x +y2 2
R2 ∋ (x, y) −
→ [(x, y, 1)] ∈ RP2
dove R3 ∋ (ξ, η, τ ) −
→ [(ξ, η, τ )] ∈ RP2 è la proiezione nel quoziente, (immersione
dello spazio affine nello spazio proiettivo della stessa dimensione),
2πix
√ √2πiy
2
R ∋ (x, y) −
→ e 1+x , e 1+y
2 2
∈ S1 × S1.
è chiuso perché unione finita di chiusi e compatto perché unione finita di compatti.
Quindi ∩Γ = ∩Γ′′ ∈ τY anche in questo caso. Supponiamo ora che Γ′ e Γ′′
siano entrambi non vuoti. Osserviamo che, per ogni A ∈ Γ′′ , l’insieme A ∩ X è
il complementare in X del chiuso X \ A e quindi aperto in X. Allora
Si ragiona in modo analogo per dimostrare che l’unione di una qualsiasi sottofami-
glia Γ di τY è ancora un elemento di τY . Se Γ ⊂ τX , allora ∪Γ ∈ τX ⊂ τY . Se
∞ ∈ A per ogni A ∈ Γ, allora
Y \ (∪Γ) = ∩{Y \ A | A ∈ Γ}
L’ultima affermazione è conseguenza del fatto che per definizione {∞} è un chiuso
della compattificazione di Alexandroff di X.
§9 Applicazioni proprie
Siano X e Y due spazi topologici. Un’applicazione continua f : X − → Y si dice
propria se è chiusa e f −1 (K) è compatto in X per ogni K compatto in Y.
Teorema 9.1 Siano X e Y due spazi topologici. Se f : X − → Y è continua,
chiusa e f −1 (y) è compatto in X per ogni y ∈ Y , allora f è propria.
−1
Dim. Per ogni x ∈ X, l’immagine inversa πX (x) = {x} × Y è un sottospazio
di X × Y omeomorfo ad Y , e quindi compatto. Resta quindi da dimostrare che
πX : X × Y −→ X è un’applicazione chiusa. Sia F un qualsiasi chiuso di X × Y e sia
x0 un punto di X \ πX (F ). Per ogni y ∈ Y , il punto (x0 , y) non appartiene ad F ed
esistono quindi un intorno aperto Uy di x0 in X e un intorno aperto Vy di y in Y
tali che F ∩ (U
Sny × Vy ) = ∅. Poiché Y T
è compatto, possiamo trovare y1 , . . . , yn ∈ Y
n
tali che Y = i=1 Vyi . Poniamo U = i=1 Uyi . Allora :
n
[ n
[
−1
πX (U ) = U × Y = (U × Vyi ) ⊂ (Uyi × Vyi ) ⊂ (X × Y ) \ F .
i=1 i=1
è continua.
CAPITOLO V
CONNESSIONE
§1 Connessione
Uno spazio topologico X = (X, τX ) si dice sconnesso se contiene due aperti A
e B non vuoti tali che
A ∪ B = X, A ∩ B = ∅.
0 < r = |x0 − y0 | ≤ |x − y| ∀x ∈ K1 , ∀y ∈ K2 .
Ma ciò è impossibile perché il punto z = (x0 + y0 )/2 appartiene all’intervallo [a, b],
ma non può appartenere né a K1 né a K2 in quanto |z − x0 | = |z − y0 | = r/2 < r.
Abbiamo dimostrato quindi per contraddizione che A è connesso.
ιh : Xh −
→X
§2 Componenti connesse
Teorema 2.1 Sia {Ai | i ∈ I} una famiglia di sottoinsiemi connessi di uno spazio
topologico X. Se
Ai ∩ Aj 6= ∅ ∀i, j ∈ I
allora
A = ∪i∈I Ai
è connesso.
S
Allora A = i∈I Ai è connesso.
Per dimostrare questa affermazione, possiamo ragionare nel modo seguente: se
A non fosse connesso, potremmo trovare due aperti U e V di A che lo sconnettono.
Poiché gli Ai sono connessi, la famiglia I si decompone in due sottoinsiemi non
vuoti disgiunti:
I1 = {i ∈ I | Ai ⊂ U } e I2 = {i ∈ I | Ai ⊂ V } .
S
ma questo contraddice il fatto che i≺j Ai ⊂ U , Aj ⊂ V e U ∩ V = ∅. La tesi è
quindi dimostrata.
Un sottoinsieme non vuoto A di uno spazio topologico X si dice una componente
connessa di X se è connesso e non è propriamente contenuto in nessun connesso
di X.
Sia x un punto dello spazio topologico X = (X, τX ). Per il teorema precedente,
l’unione di tutti i connessi che contengono x, che è non vuota perché {x} è un
connesso che contiene x, è ancora un connesso. Esso è il più grande connesso,
rispetto all’inclusione, che contenga x e si dice la componente connessa di x in X.
Lemma 2.2 La componente connessa di un punto x di uno spazio topologico
X = (X, τX ) è una componente connessa di X.
→ sin(1/t) ∈ R.
]0, 1[∋ t −
è un connesso di R2 .
V. CONNESSIONE 89
§3 Archi
Chiamiamo arco o cammino continuo in uno spazio topologico X = (X, τX ) una
qualsiasi applicazione continua
α : I = [0, 1] ∋ t −
→ xt ∈ X.
Dim. Abbiamo:
α(4t)
se 0 ≤ t ≤ 1/4
(α · β) · γ(t) = β(4t − 1) se 1/4 ≤ t ≤ 1/2
γ(2t − 1) se 1/2 ≤ t ≤ 1 ,
α(2t)
se 0 ≤ t ≤ 1/2
α · (β · γ)(t) = β(4t − 2) se 1/2 ≤ t ≤ 3/4
γ(4t − 3) se 3/4 ≤ t ≤ 1 .
90 V. CONNESSIONE
Sia φ : I −
→ I l’omeomorfismo definito da:
2t se 0 ≤ t ≤ 1/4
φ(t) = t + (1/4) se 1/4 ≤ t ≤ 1/2
t+1
se 1/2 ≤ t ≤ 1 .
2
Allora
(α · (β · γ)) ◦ φ = (α · β) · γ .
α1 · α2 · . . . · αn = α1 · (α2 · . . . · αn ) .
Osservazione Non è vero il viceversa: uno spazio topologico può essere connesso
senza essere connesso per archi.
Consideriamo ad esempio X = {(x, sin(1/x)) | 0 < x < 1}∪{(0, y) | −1 ≤ y ≤ 1},
con la topologia di sottospazio di R2 . Esso è connesso (cf. Esempio 2.1) ma non
connesso per archi: supponiamo per assurdo che vi sia un arco
α:I∋t−
→ (xt , yt ) ∈ X
12 Unsottoinsieme A di uno spazio vettoriale reale V si dice convesso se, per ogni coppia di
vettori v, w ∈ A, il segmento {v + t(w − v) | 0 ≤ t ≤ 1} è contenuto in A.
V. CONNESSIONE 91
con α(0) = (0, 0) e α(1) = (1/π, 0). Sia t0 il massimo dell’insieme {t ∈ I | xt = 0}.
Poiché α è continua, potremmo trovare ǫ > 0 tale che
Ma questo ci dà una contraddizione, perché {xt | t0 < t < t0 + ǫ}, essendo connesso
in R, contiene l’intervallo ]0, xt0 +ǫ [ e la funzione sin(1/x) assume in tale intervallo
tutti i valori compresi tra −1 e 1.
Teorema 4.2 Sia {Ai | i ∈ I} una famiglia di sottospazi connessi per archi di uno
spazio topologico X. Se
Ai ∩ Aj 6= ∅ ∀i, j ∈ I,
S
allora A = i∈I Ai è connesso per archi.
α:I−
→ Ah , β:I−
→ Ak
tali che
α(0) = x0 , α(1) = z, β(0) = z, β(1) = x1 .
Allora l’arco
α(2t) se 0 ≤ t ≤ 1/2
α · β(t) =
β(2t − 1) se 1/2 ≤ t ≤ 1
è contenuto in A e ha estremi x0 e x1 .
Dim. Sia X = (X, τ ) il prodotto topologico della famiglia di spazi topologici non
vuoti {Xi = (Xi , τi ) | i ∈ I}.
Se X è connesso per archi, ogni fattore Xi è connesso per archi perché immagine
di X mediante l’applicazione continua (proiezione) πi : X − → Xi .
Supponiamo ora che tutti gli spazi topologici Xi siano connessi per archi. Siano
x, x′ ∈ X. Per ogni indice i ∈ I sia αi : I − → Xi un arco con estremi xi = πi (x) e
x′i = πi (x′ ). Allora l’applicazione α : I −
→ X definita da πi ◦ α = αi per ogni i ∈ I
è un arco in X con estremi x e x′ .
§6 Continui topologici
Si dice continuo topologico uno spazio topologico compatto e connesso.
Un sottospazio connesso e compatto Y di uno spazio topologico X si dice un
continuo topologico di X.
Osservazione L’immagine di un continuo topologico mediante un’applicazione
continua è un continuo topologico.
Sia X = (X, τX ) uno spazio topologico e siano x, y due punti distinti di X.
Diciamo che un sottoinsieme A di X connette x e y se non è possibile sconnettere
A mediante due sottoinsiemi U e V , aperti nella topologia di sottospazio di A, tali
che x ∈ U e y ∈ V .
Osservazione Supponiamo che il sottoinsieme A dello spazio topologico X =
(X, τX ) connetta i due punti distinti a e b di X. Supponiamo che A sia sconnesso
e siano U e V due aperti di A che lo sconnettono, con a ∈ U . Allora b ∈ U e U
connette a e b.
Lemma 6.1 Siano a, b due punti distinti di uno spazio di Hausdorff compatto
X = (X, τX ). Se {Yi | i ∈ I} è una famiglia di chiusi di X, totalmente ordinata
mediante inclusione,
T tale che ciascuno degli Yi connetta a e b, allora anche la loro
intersezione Y = i∈I Yi connette a e b.
Y ⊂ U ∪ V, Y ∩ U ∩ V = ∅, a ∈ U, b ∈ V.
Ki = Yi \ (U ∪ V ) .
Teorema 6.2 Sia X uno spazio di Hausdorff compatto. Se X connette due suoi
punti distinti a e b, allora contiene un continuo K che contiene a e b.
Dim. Sia Γ la famiglia dei chiusi di X che connettono a e b. Poiché per ipotesi
X ∈ Γ, la famiglia Γ è non vuota. Per il principio della catena massimale13 possiamo
allora trovare una catena massimale di insiemi {Yi | i ∈ I} ⊂ Γ totalmente ordinata
mediante inclusione. Per il lemma precedente, Y = ∩i∈I Yi ∈ Γ.
Dico che Y è un continuo. Infatti Y è compatto. Se non fosse connesso,
potremmo trovare due aperti U e V nella topologia di sottospazio di Y tali che
U 6= ∅, V 6= ∅, Y = U ∪ V , con a ∈ U . Poiché Y connette a e b, anche b ∈ U e
U = Y \ V è un chiuso che connette a e b ed è propriamente contenuto in Y . Ciò
contraddice il fatto che la catena {Yi } fosse massimale. Quindi Y è un continuo e
il teorema è dimostrato.
Esempio 7.1 Sia A un aperto non denso di uno spazio topologico X. Allora la
frontiera bA di A sconnette X: infatti X \ bA è unione dei due aperti non vuoti e
disgiunti A e X \ A.
Lemma 7.1 Sia X = (X, τX ) un continuo di Hausdorff e supponiamo vi sia un
punto a ∈ X che lo sconnetta. Siano U , V due aperti non vuoti e disgiunti tali che
X \ {a} = U ∪ V . Allora U = U ∪ {a} e V = V ∪ {a} sono continui.
Teorema 7.2 Un continuo di Hausdorff che contenga almeno due punti contiene
almeno due punti che non lo sconnettono.
U ∪ V = X \ x0 , N ⊂ V.
Per ogni punto x ∈ U , fissiamo una coppia Ux , Vx di aperti non vuoti e disgiunti
tali che
Ux ∩ Vx = ∅, X \ {x} = Ux ∪ Vx , x0 ∈ Vx .
Osserviamo che, se x, y ∈ U e y ∈ Ux , allora
Uy = Uy ∪ {y} ⊂ Ux .
Infatti Vx ∪{x} è un continuo che non contiene y. Esso sarà dunque tutto contenuto
in uno dei due aperti disgiunti Uy , Vy . Poiché x0 ∈ Vx ∩ Vy 6= ∅, ne segue che
Vx ∪ {x} ⊂ Vy
Uy ∪ {y} ⊂ Ux .
Kj = ∩ x ∈ U (Uxi ∪ {xi })
i xj
i∈J
otteniamo una famiglia di compatti non vuoti totalmente ordinati mediante inclu-
sione. Quindi
∅ 6= K = ∩j∈J Kj ⊂ ∩j∈J Uxj .
96 V. CONNESSIONE
Dim. Osserviamo che U ∪ {x} è un continuo di Hausdorff che contiene almeno due
punti. Esso contiene quindi almeno un punto y distinto da x che non lo sconnette.
Dico che y non sconnette X. Infatti, se cosı̀ non fosse, avremmo X \ {y} = A ∪ B
con A aperti non vuoti e disgiunti di X. I due aperti A e B hanno chiusura A ∪ {y}
e B ∪ {y} rispettivamente. In particolare, poiché y appartiene sia alla chiusura di
A che alla chiusura di B, l’intorno aperto U di y interseca sia A che B. Quindi il
punto y sconnetterebbe U ∪ {x}. Questo ci dà una contraddizione e dimostra che
y non sconnette X.
Lemma 7.4 Sia X = (X, τX ) un continuo di Hausdorff che contiene esattamente
due punti a, b che non lo sconnettono. Allora per ogni x ∈ X \ {a, b}, l’insieme
X \{x} è unione di due componenti connesse, l’una contenente a e l’altra contenente
b.
Dim. Sia x ∈ X \{a, b}. Allora X \{x} è unione di due aperti non vuoti e disgiunti
U e V e possiamo supporre che a ∈ U . Per il lemma precedente V contiene un punto
che non sconnette X. Poiché gli unici punti che non sconnettono X sono a e b e
a∈/ V , ne segue che b ∈ V .
Per completare la dimostrazione basta quindi verificare che U e V sono connessi.
Sia y ∈ U \ {a}. Sia X \ {y} = Uy ∪ Vy con Uy e Vy aperti non vuoti e disgiunti
e a ∈ Uy . Per le osservazioni precedenti Vy ∋ b. Poiché V ∪ {x} è un continuo che
contiene b e non contiene y, esso è tutto contenuto in uno dei due aperti Uy o Vy .
Essendo b ∈ V ∩ Vy 6= ∅, ne segue che
V ∪ {x} ⊂ Vy
da cui, passando ai complementari,
Uy ∪ {y} ⊂ U.
Quindi, se y ∈ U , l’aperto U contiene un continuo che contiene a e y. Ne segue che
U è connesso. Analogamente si dimostra che V è connesso.
Lemma 7.5 Sia X = (X, τX ) un continuo di Hausdorff che contiene esattamente
due punti a, b che non lo sconnettono. Per ogni x ∈ X indichiamo con [a, x[ la
componente connessa di X \ {x} che contiene a e con ]x, b] la componente connessa
di X \ {x} che contiene b. Definiamo la relazione
x≺y se x, y ∈ X e x ∈ [a, y[ oppure y = b.
Allora
(1) ”≺” è un ordinamento totale su X.
(2) Gli insiemi [a, x[ e ]x, b] al variare di x ∈ X \ {a, b} formano una prebase di
aperti per la topologia di X.
V. CONNESSIONE 97
Dim. Siano x, y ∈ X. Supponiamo che x 6= y e che x ∈ / [a, y[. Sarà allora x ∈]y, b]
e dunque la componente connessa [a, x[ di a in X \ {x} contiene [a, y[∪{y} perché
tale insieme è un continuo contenente a e contenuto in X \ {x}. Questo dimostra
che y ≺ x se x 6= y e x ⊀ y. Il fatto che la relazione ”≺” sia una relazione d’ordine
segue immediatamente perché
Sia τ la topologia su X che ha come prebase degli aperti la famiglia Γ degli insiemi
della forma [a, x[ e ]x, b] con a ≺ x ≺ b. Siano x, y ∈ X con x ≺ y. Allora [a, x[∪{x}
e ]y, b] ∪ {y} sono due chiusi disgiunti di X. Poiché X è connesso, vi è un punto
z ∈ X che non appartiene a nessuno dei due insiemi. Allora x ≺ z ≺ y e [a, z[ e ]z, b]
sono elementi di Γ disgiunti che contengono rispettivamente x e y. La topologia τ
è quindi di Hausdorff. L’applicazione ι : X ∋ x − → x ∈ X è continua da X con la
topologia di Hausdorff τX per cui X è compatto su X con la topologia τ . Poiché ι è
bigettiva, essa è un omeomorfismo. Questo dimostra anche la seconda affermazione
del lemma.
e tale che D non contenga nè un massimo nè un minimo. Allora possiamo trovare
un’applicazione bigettiva crescente
φ:∆−
→ D.
Si verifica immediatamente che φ1 , ..., φn+1 verificano ancora le (∗). Possiamo allora
definire φ : ∆ −→ D ponendo φ|∆ = φn per ogni intero n ≥ 1. Poiché l’ordinamento
”≺” è totale, la φ è surgettiva ed è inoltre strettamente crescente per costruzione.
98 V. CONNESSIONE
la f −1 è continua perché gli aperti della forma [0, r[ e ]r, 1] con r ∈ ∆ formano una
prebase degli aperti di I e f ([0, r[) = [a, φ(r)[, f (]r, b]) =]φ(r), b] sono aperti di X.
Poiché X e I sono compatti di Hausdorff, la f è allora un omeomorfismo.
Teorema 7.8 Sia X = (X, τX ) un continuo metrico che contiene almeno due
punti, tale che, per ogni coppia di punti distinti x, y di X, il sottospazio X \ {x, y}
non sia connesso. Allora X è omeomorfo al cerchio S 1 = {z ∈ C | |z| = 1}.
U ∪ {a, b} = W1 ∪ W2
con W1 e W2 aperti non vuoti e disgiunti del sottospazio U ∪ {a, b}. Possiamo
supporre che a ∈ W1 . Se W1 contenesse anche il punto b, allora W2 sarebbe aperto
e chiuso in X e questo non è possibile perché X è connesso. Quindi b ∈ W2 . Allora
W1 \ {a} e W2 ∪ V sono due chiusi disgiunti di X \ {a} la cui unione è X \ {a} e
V. CONNESSIONE 99
sarebbe connesso perché unione di due connessi che hanno in comune i punti a e b.
(δ) Ciascuno dei due insiemi U ∪ {a, b} e V ∪ {a, b} è omeomorfo a I.
Per il punto (γ) uno dei due insiemi, diciamo V ∪{a, b}, è omeomorfo all’intervallo
I. Se U ∪ {a, b} non fosse anch’esso omeomorfo a I, allora conterrebbe un punto
x distinto da a e da b che non lo sconnette. Scegliamo un qualsiasi punto y ∈
V . Allora, se A e B sono le componenti connesse di a e b rispettivamente in
(V ∪ {a, b}) \ {y}, avremmo
connesso perché unione di connessi due a due non disgiunti. Quindi U ∪ {a, b} e
V ∪ {a, b} sono entrambi omeomorfi a I.
(ǫ) Sia φ1 : I −→ U ∪ {a, b} un omoemorfismo con φ(0) = a, φ1 (1) = b e sia
ψ2 : I −→ V ∪ {a, b} un omeomorfismo con ψ2 (0) = b, ψ2 (1) = a. Definiamo
f :I−→ X mediante
ψ1 (2t) se 0 ≤ t ≤ 1/2
f (t) =
ψ2 (2t − 1) se 1/2 ≤ t ≤ 1.
§8 Spazi di Peano
Uno spazio di Peano è un continuo topologico metrizzabile e localmente connesso.
In questo paragrafo dimostreremo il seguente
Teorema 8.1 Uno spazio metrizzabile connesso, compatto e localmente connesso
è connesso per archi.
Teorema 8.2 Sia X = (X, τX ) uno spazio topologico connesso e sia Γ un rico-
primento aperto di X. Dati due punti x, y di X, è possibile trovare una catena
semplice di elementi di Γ che congiunge x a y.
100 V. CONNESSIONE
Siano A = {A1 , ..., An } e B = {B1 , ..., Bm } due catene semplici che congiungono
i punti x e y di uno spazio topologico X = (X, τX ). Diciamo che la catena A raffina
la catena B se è possibile trovare un’applicazione non decrescente
τ : {1, ..., n} −
→ {1, ..., m}
Dim. Ragioniamo per induzione sul numero m di aperti della catena semplice B.
Se m = 1, poiché B1 è connesso, la tesi segue dal teorema precedente. Supponiamo
ora m > 1 e la tesi vera per catene semplici di aperti connessi contenenti meno di
m elementi. Fissiamo un punto z ∈ Bm−1 ∩ Bm . Allora B ′ = {B1 , ..., Bm−1 } è una
catena semplice di aperti connessi che congiungono x a z e possiamo quindi trovare
una catena semplice {A1 , ..., Aℓ } di aperti di Γ che congiunge x a z e raffina B ′ .
Poiché Bm è un aperto connesso che contiene z e y, possiamo, per il teorema
precedente, trovare una catena semplice di aperti C = {C1 , ..., Ch } di Γ, tutti
contenuti in Bm che congiunge z a y. Sia r ≤ ℓ il più piccolo intero positivo
per cui Ar ∩ (∪hi=1 Ci ) 6= ∅. Sia poi s il più grande intero positivo con 1 ≤ s ≤ h tale
che Ar ∩ Cs 6= ∅. Allora A = {A1 , ..., Ar , Cs , Cs+1 , ..., Ch } è la catena di aperti di
Γ cercata.
Dimostrazione del Teorema .8.1.
Siano x e y due punti distinti di uno spazio di Peano X = (X, τX ). Fissiamo una
distanza d su X che definisca la topologia di X. Indichaimo con Γn la famiglia degli
aperti connessi di X che hanno rispetto alla distanza d diametro minore di 2−n .
Osserviamo che per ogni n la famiglia Γn è una base degli aperti di X. Costruiamo
per ricorrenza per ogni h ∈ N catene semplici Ah = {Ah1 , ..., Ahnh } di aperti di Γh
che congiungono x a y tali che Ah+1 sia un raffinamento di Ah per ogni h ≥ 1 e
nh+1
∪i=1 A(h+1)i ⊂ ∪ni=1
h
Ahi ∀h ≥ 1.
Per il Teorema .8.2, vi è una catena semplice A1 = {A11 , ..., A1n1 } di elementi di Γ1
che congiunge x a y. Supponiamo di aver costruito A1 , ..., Ah−1 con le proprietà
102 V. CONNESSIONE
richieste, per qualche h ≥ 2. Osserviamo che la famiglia Γ′h formata dagli aperti
U di Γh tali che U sia contenuto in uno degli aperti della catena Ah−1 soddisfa le
ipotesi del Lemma .8.1 e quindi possiamo trovare una catena semplice Ah di aperti
di Γ′h che congiunge x a y e raffina Ah .
Osserviamo ora che, posto Ah = ∪ni=1 h
Ahi , abbiamo
∩∞ ∞
h=1 Ah = ∩h=1 Ah = K
Allora
U = ∪h Uh e V = ∪ h Vh
sono due aperti disgiunti di X che ricoprono K \ {z} e contengono il primo x e il
secondo y. Ne segue che il continuo K contiene soltanto i due punti x e y che non
lo sconnettono e pertanto è omeomorfo all’intervallo I.
CAPITOLO VI
PARACOMPATTEZZA
Γ = {U } ∪ {Vy | y ∈ X \ U }
∆′ = {A ∈ ∆ | A ⊂ Vy per qualche y ∈ X \ U }.
S
Allora W = ∆′ è un intorno aperto di X \ U . Poiché ∆ è localmente finito, la
chiusura dell’unione degli elementi di ∆ è l’unione delle chiusure dei suoi elementi :
[
W = A | A ∈ ∆′ .
Abbiamo perciò
x∈X \W ⊂X \W ⊂U
| {z } | {z }
aperto chiuso
Γ = {Aj | j ∈ J}
104 VI. PARACOMPATTEZZA
Dim. Per ogni x ∈ X scegliamo un indice ĵ(x) ∈ J tale che x ∈ Aĵ(x) . Poiché
X è uno spazio regolare, possiamo trovare per ogni x ∈ X un intorno aperto Ux di
x tale che
U x ⊂ Aĵ(x) ∀x ∈ X.
Il ricoprimento aperto {Ux | x ∈ X} ammette, poiché X è paracompatto, un
raffinamento aperto ∆′ localmente finito. Sia
∆′ ∋ W −
→ x(W ) ∈ X
una funzione di raffinamento, cioè una applicazione tale che
W ⊂ Ux(W ) ∀W ∈ ∆′ .
Poniamo allora, per ogni j ∈ J:
[
Bj = {W ∈ ∆′ | ĵ(x(W )) = j}
e definiamo
∆ = {Bj | j ∈ J}.
Allora ∆ è un ricoprimento localmente finito di X che gode della proprietà richiesta:
infatti [
Bj = {W | W ∈ ∆′ , ĵ(x(W )) = j}
Dim. Sia X uno spazio paracompatto. Per dimostrare che è normale, mostriamo
che ogni chiuso di X ha un sistema fondamentale di intorni chiusi. Sia A un chiuso
di X e sia U un intorno aperto di A in X. Allora {U, X \ A} è un ricoprimento
aperto di X e per il lemma precedente possiamo trovare un ricoprimento aperto
{V, W } di X tale che V ⊂ U e W ⊂ X \ A. Poiché W è contenuto in X \ A, l’aperto
V contiene A. In particolare V è un intorno chiuso di A contenuto in U .
Ricordiamo che una partizione continua dell’unità subordinata a un ricoprimento
aperto Γ di uno spazio topologico X = (X, τX ) è il dato di una famiglia di funzioni
continue
{φA : X −→ [0, 1] | A ∈ Γ}
tali che
(i) suppφA = {x ∈ X | φA (x) 6= 0} ⊂ A;
{suppφA | A ∈ Γ} è una famiglia di chiusi localmente finita;
(ii) P
(iii) A∈Γ φA (x) = 1 ∀x ∈ X.
VI. PARACOMPATTEZZA 105
∆ = {{x ∈ X | φA (x) 6= 0} | A ∈ Γ}
§2 Paracompattezza e connessione
Teorema 2.1 Sia X = (X, τX ) uno spazio di Hausdorff localmente compatto. Se
X è unione numerabile di compatti di X, allora X è paracompatto. Viceversa, se
X è connesso e paracompatto, allora è unione numerabile di compatti.
Dim. Supponiamo che X sia uno spazio di Hausdorff localmente compatto e che
vi sia una successione {Kn | n ∈ N} di compatti tali che
∞
[
X = Kn .
n=0
Sia
∞
[
∆ = ∆n .
n=0
(b) ∆ è inscritto in Γ.
(c) ∆ è localmente finito. Sia infatti x ∈ X. Sia n il più piccolo intero positivo
◦
tale che x ∈ An . Allora An+1 è un intorno aperto di x in X che interseca al
Sn+2
più gli elementi di ∆ che sono in j=0 ∆j , e questi sono in numero finito.
Supponiamo ora che X sia di Hausdorff, localmente compatto, paracompatto e
connesso. Poiché X è uno spazio di Hausdorff localmente compatto, ammette un
ricoprimento aperto Γ̃ tale che, se A ∈ Γ̃, allora A sia compatto in X. Poiché
X è paracompatto, possiamo trovare un raffinamento Γ di Γ̃ localmente finito.
Chiaramente A è ancora compatto in X per ogni A ∈ Γ. Fissiamo un sottoinsieme
finito ∆0 di aperti non vuoti di Γ e poniamo
[
K0 = {A | A ∈ ∆0 }.
Questo insieme è compatto perché unione finita di compatti e non vuoto. Definiamo
per ricorrenza
n Sn o
∆
n+1 = A ∈ ∆ \ j=0 ∆ j | A ∩ K n 6
= ∅ , n≥0
S
Kn+1 = ∆n+1 n ≥ 0.
Poiché gli insiemi di una famiglia localmente finita che hanno intersezione non vuota
con un compatto assegnato sono in numero finito, otteniamo per ricorrenza:
∆n è finito, Kn è compatto ∀n ∈ N.
Sn
Poniamo An = j=0 Kj . Allora
◦
Kn ⊂ An ⊂ An+1 .
S∞
Poiché i ∆n sono due a due disgiunti, ∆ = n=0 ∆n è una sottofamiglia di una
famiglia localmente finita e dunque è localmente finita. Ne segue che la famiglia
∆ = {A | A ∈ ∆} è anch’essa localmente finita e dunque la famiglia {Kn | n ∈ N} è
localmente finita in quanto i suoi elementi sono unioni finite di elementi di ∆. Ne
segue che
[∞
Y = Kn
n=0
VI. PARACOMPATTEZZA 107
α : Γ′ −
→Γ
la funzione di raffinamento:
F ⊂ α(F ) ∀F ∈ Γ′ .
è chiuso perché unione di una famiglia localmente finita di chiusi. Quindi, per ogni
B ∈ Γ′ ,
LB = X \ VB
è un aperto di X. Poniamo, per ogni B ∈ Γ′ :
GB = α(B) ∩ LB .
Abbiamo allora:
B ⊂ GB ⊂ α(B) ∀B ∈ Γ′ .
Quindi
Γ̃ = {GB | B ∈ Γ′ }
108 VI. PARACOMPATTEZZA
Lemma 3.3 Uno spazio regolare in cui ogni ricoprimento aperto ammetta un
raffinamento localmente finito è paracompatto.
Dim. Sia X = (X, τX ) uno spazio regolare in cui ogni ricoprimento aperto
ammetta un raffinamento localmente finito. Sia Γ un ricoprimento aperto di X.
Poiché X è regolare, possiamo trovare un raffinamento aperto ∆ di Γ tale che,
detta
α:∆− →Γ
la funzione di raffinamento, sia
A ⊂ α(A) ∀A ∈ ∆.
B ⊂ α(β(B)) ∀B ∈ ∆′ .
An = {x ∈ A | d(x, X \ A) ≥ 2−n }.
GA,n ⊂ A ∀A ∈ Γ, ∀n ∈ N.
Infatti, se x ∈ GA,n , allora possiamo trovare y ∈ BA,n tale che d(x, y) < 2−(n+3) .
In particolare y ∈ An e quindi d(y, X \ A) ≥ 2−n . Perciò
Inoltre
{GA,n | A ∈ Γ, n ∈ N}
è un ricoprimento aperto di X. Infatti, se x ∈ X e A0 è il minimo, rispetto a
”≺” degli aperti di Γ che contengono x, allora possiamo trovare un n ∈ N tale che
x ∈ A0 n e x ∈ BA,n perché x ∈/ A se A ∈ Γ e A ≺ A0 .
Dico che, per ogni intero non negativo n fissato, la famiglia
{GA,n | A ∈ Γ}
Ne segue che ogni palla aperta di raggio minore di 2−(n+2) interseca al più uno solo
dei GA,n . Poniamo S
Gn = {GA,n | A ∈ Γ}
W = S
n m≤n Gm
W−1 = ∅
Ln = Wn \ Wn−1 se n ≥ 0.
Allora
Γ̃ = {Ln ∩ GA,n | A ∈ Γ, n ∈ N}
è un ricoprimento aperto localmente finito di X inscritto in Γ.
Infatti, se x ∈ X, posto n̄ = min{n ∈ | x ∈ Gn }, e scelto un intorno V di x che
intersechi solo un numero finito di aperti GA,m con A ∈ Γ e m ≤ n̄, l’aperto
V ∩ Gn̄
è un intorno aperto di x che interseca solo un numero finito di insiemi di Γ̃. Poiché
X, essendo metrizzabile è regolare, la tesi segue dal lemma precedente.
VII. SPAZI DI BAIRE 111
CAPITOLO VII
SPAZI DI BAIRE
Dim. (1) ⇒ (2). Supponiamo che X sia uno spazio di Baire e sia {Fn } una
qualsiasi successione di chiusi ciascuno con parte interna vuota. Allora An = X \Fn
è per ogni n un aperto denso di X. Quindi
∞
\ ∞
[
D= An = X \ Fn
n=0 n=0
S∞
è denso in X. Se U fosse un aperto non vuoto contenuto in n=0 Fn , sarebbe
D ∩ U = ∅, ma questo non è possibile perché D è denso in X.
(2) ⇒ (3). Supponiamo valga la (2) e sia A un qualsiasi aperto non vuoto di X.
Se A fosse di prima categoria, allora sarebbe unione numerabile di una successione
{Rn } di insiemi rari. Allora {Fn = Rn } sarebbe una famiglia di chiusi con parte
interna vuota la cui unione conterrebbe l’aperto A, contraddicendo la (2).
(3) ⇒ (4). È ovvia, perché l’unione di due insiemi di prima categoria è di prima
categoria.
112 VII. SPAZI DI BAIRE
(4) ⇒ (1). Supponiamo valgaT∞(4). Sia {An } una successione di aperti densi di
X. Per dimostrare che D = n=0 An è denso in X, fissiamo un qualsiasi aperto
U di X e consideriamo per ogni n ∈ N l’insieme Fn =S X \ An . Questo insieme
∞
è un chiuso con parte interna vuota di X. Allora F = n=0 Fn è un sottoinsieme
di prima categoria in X e quindi U \ F è di seconda categoria e in particolare non
vuoto. Poiché U \ F = U ∩ D, otteniamo la tesi.
Da 3) segue subito che:
Osservazione Ogni sottospazio aperto di uno spazio di Baire è uno spazio di
Baire.
Teorema 1.2 Ogni spazio di Hausdorff localmente compatto è di Baire.
T∞ compatto. Sia {An } una
Sia X = (X, τX ) uno spazio di Hausdorff localmente
famiglia numerabile di aperti densi di X e sia D = n=0 An . Vogliamo dimostrare
che per ogni aperto non vuoto U di X interseca D. A questo scopo costruiamo
induttivamente una successione {Bn } di aperti non vuoti tali che
B n è compatto ∀n ∈ N,
(*) B n ⊂ U ∀n ∈ N,
B n+1 ⊂ Bn ∩ An+1 ∀n ∈ N.
Dim. Sia (X, d) uno spazio metrico completo e sia {An } una successione di aperti
densi di X. Fissiamo un aperto npon vuoto U di X. Costruiamo per ricorrenza
una successione {Bn } di palle aperte di X tali che
B n ⊂ U ∀n ∈ N,
(*) Bn = B(xn , rn ) con xn ∈ X e 0 < rn < 2−n ∀n ∈ N
B n+1 ⊂ Bn ∀n ∈ N.
→ lim fn (x) ∈ R
f :X∋x−
n−
→∞
Dim. Per ogni intero positivo n ed ogni numero reale ǫ > 0 poniamo
Poniamo
∞
[ ◦
G(ǫ) = P n (ǫ).
n=0
Dimostriamo che
∞
\
Y = G(2−n )
n=0
|fν (x) − f (x)| ≤ |fν (x) − fν (x0 )| + |fν (x0 ) − f (x0 )| + |f (x0 ) − f (x)| < ǫ ∀x ∈ U.
◦
Ciò dimostra che A ⊂ Pν (ǫ) e quindi x0 ∈ P n (ǫ) ⊂ G(ǫ). Poiché ǫ > 0 è arbitrario,
ne segue che x0 ∈ Y .
◦
Sia viceversa x0 ∈ Y . Fissiamo ǫ > 0. Poiché x0 ∈ G(ǫ/3), avremo x0 ∈ P n (ǫ/3)
per qualche indice n ∈ N. Sia dunque U un intorno aperto di x0 in cui
|f (x) − f (x0 )| ≤ |f (x) − fn (x)| + |fn (x) − fn (x0 )| + |fn (x0 ) − f (x0 )| < ǫ ∀x ∈ U ′
114 VII. SPAZI DI BAIRE
Per la continuità delle fn , questi insiemi sono chiusi. Inoltre, per la convergenza
puntuale della successione {fn }, abbiamo
∞
[
X = Fn (ǫ).
n=0
Inoltre risulta
Fn (ǫ) ⊂ Pn (ǫ),
quindi
◦ ◦
F n (ǫ) ⊂ P n (ǫ),
e dunque
∞
[ ◦
L(ǫ) = F n (ǫ) ⊂ G(ǫ).
n=0
unione numerabile di chiusi con parte interna vuota. Quindi X \ L(ǫ) è di prima
categoria e lo è quindi a maggior ragione X \ G(ǫ). Quindi l’insieme dei punti in
cui f è discontinua:
∞
[
X \Y = (X \ G(2−n ))
n=0
è di prima categoria.
→ R una funzione
Teorema 2.2 Sia X = (X, τX ) uno spazio di Baire e sia f : X −
semicontinua inferiormente. Allora ogni aperto non vuoto U di X contiene un
aperto non vuoto V su cui f è limitata superiormente.
Dim. Ogni aperto U di X è uno spazio di Baire. Poniamo, per ogni intero non
negativo n:
Fn = {x ∈ U | fn (x) ≤ n}.
Tali insiemi sono chiusi in U perché f è semicontinua inferiormente e
∞
[
Fn = U
n=0
◦
perché la f è a valori reali. Possiamo quindi trovare ν ∈ N tale che V = F n 6= ∅.
VII. SPAZI DI BAIRE 115
Lemma 2.3 Sia (X, d) uno spazio metrico compatto e sia f : X − → R una
funzione semicontinua inferiormente. Possiamo allora trovare una successione non
decrescente {fn } di funzioni continue su X a valori reali tale che
Dim. Sia a = minX f (x) ∈ R. Per ogni intero non negativo n siano xn1 , ..., xnℓn
punti di X tali che
ℓn
[
X = B(xnj , 2−(n+1) ).
j=1
→ R tali che
Per il lemma di Urysohn possiamo trovare funzioni continue wnj : X −
a ≤ wnj (x) ≤ µnj ∀x ∈ X
wjn (x) = µjn ∀x ∈ B(xnj , 2−(n+1) )
wjn (x) = a ∀x ∈ / B(xnj , 2−n ).
Poniamo
gn (x) = max{wn1 (x), ..., wnℓn (x)} ∀x ∈ X.
Allora
→ gn (x) ∈ R
gn : X ∋ x −
è continua per ogni n ∈ N e
gn ≤ f su X.
Poniamo
fn (x) = max{g0 (x), g1 (x), ..., gn (x)} ∀x ∈ X.
Allora
→ fn (x) ∈ R
fn : X ∋ x −
sono continue per ogni n ∈ N e
fn ≤ f su X.
Infatti, per ogni x ∈ X ed ogni n ∈ N sia xnjn tale che x ∈ B(xnjn , 2−(n+1) ).
Possiamo allora trovare xn con d(xn , xnjn ) ≤ 2−(n+1) tale che µnjn = f (xn ) =
wnjn (xn ). Allora fn (xn ) = f (xn ) e fn (x) ≥ f (xn ) perché f (x) ≥ wnjn (x) = µnjn .
116 VII. SPAZI DI BAIRE
Poiché d’altra parte supn fn (x) ≤ f (x), vale l’uguaglianza e il lemma è dimostrato.
→ R, che si annullano
Dim. Sia C0 (I) l’insieme di tutte le funzioni continue φ : I −
in 0 e 1, con la topologia indotta dalla distanza
Con questa distanza, C0 (X) è uno spazio metrico completo e quindi di Baire.
Per ogni intero positivo n sia
|g(x) − g(y)|
Fn = g ∈ C0 (I) ∃x ∈ I tale che ≤ n ∀y ∈ I \ {x} .
|x − y|
Dico che Fn è un chiuso. Sia infatti g ∈ C0 (I) una funzione continua a valori reali
definita su I tale che esista una successione {gν }ν∈N in Fn tale che d(gν , g) −
→0
per ν −→ ∞. Per ogni ν ∈ N indichiamo con xν ∈ I un punto per cui valga
→ g(x) − g(y) ∈ R
I × I ∋ (x, y) −
Abbiamo:
xj+1 − x x − xj
|g(x) − ψ(x)| ≤ |g(x) − g(xj )| + |g(x) − g(xj+1 )| < ǫ
xj+1 − xj xj+1 − xj
per xj ≤ x ≤ xj+1 , j = 0, ..., N − 1,
◦
e quindi ψ ∈ F n .
◦
Mostriamo ora che, se supponiamo che F n contenga una funzione lineare a tratti
◦
ψ, otteniamo una contraddizione. Sia r > 0 tale che F n ⊃ B(ψ, r) e sia L > 0 tale
che
|ψ(x) − ψ(y)|
≤ L ∀x = 6 y ∈ I.
|x − y|
Consideriamo, per un intero positivo M > 0 fissato la funzione lineare a tratti
rM (x − j/M ) ⇔ j/M ≤ x ≤ (2j + 1)/(2M )
φM (x) = rM ((j + 1)/M − x) ⇔ (2j + 1)/(2M ) ≤ x ≤ j + 1/M
j = 0, 1, ..., M − 1.
Abbiamo
|φM (x)| ≤ r/2 ∀x ∈ I
e inoltre per ogni x ∈ I abbiamo
è di prima categoria e dunque F 6= C0 (I) perché questo è uno spazio di Baire. Una
qualsiasi funzione k ∈ C0 (I) \ F non è derivabile in alcun punto di I. Si ottiene
118 VII. SPAZI DI BAIRE
una funzione f : R −
→ R non derivabile in nessun punto di R estendendo la k per
periodicità:
f (x) = k(x − q) ⇔ q ∈ Z e q ≤ x ≤ q + 1.
→ kvk ∈ R
V ∋v−
Norme equivalenti definiscono distanze che inducono la stessa topologia sullo spazio
vettoriale V . Abbiamo
Teorema 3.1 Sia V uno spazio vettoriale reale. Due norme su V rispetto alle
quali V sia uno spazio di Banach sono equivalenti fra loro.
Dim. Siano k · k1 e k · k2 due norme sullo spazio vettoriale V rispetto alle quali
V sia uno spazio di Banach. Definiamo una nuova norma k · k su V ponendo
Fr = {v ∈ V | kvk ≤ r}.
Poiché
∞
[
Fn = V,
n=1
per il teorema di Baire possiamo trovare un intero positivo ν tale che F ν contenga
punti interni di X (la chiusura si intende rispetto alla topologia associata alla norma
VII. SPAZI DI BAIRE 119
F 1 ⊃ {v ∈ V | kvk1 < ǫ}
Poiché F 1/ǫ ⊃ {w ∈ V | kwk1 < 1}, possiamo trovare v0 ∈ F1/ǫ tale che
kv − v0 k1 < 1/2 .
n+1
X
kv − vj k1 < 2−(n+2) .
j=0
Abbiamo allora
∞
X
v = vj in X
j=0
e
∞
X ∞
X
kvj k ≤ (1/ǫ) 2−j = 2/ǫ.
j=0 j=0
P∞
Da questa relazione ricaviamo che la serie j=0 vj converge a un elemento ṽ di V
nella metrica definita dalla norma k · k. Abbiamo inoltre
2
kṽk ≤ .
ǫ
Poiché
n
X n
X
kṽ − vj k1 ≤ kṽ − vj k ,
j=1 j=1
120 VII. SPAZI DI BAIRE
2
kvk1 < 1 =⇒ kvk ≤ .
ǫ
Per l’omogeneità della norma abbiamo allora:
2
kvk ≤ kvk1 ∀v ∈ V ,
ǫ
da cui si ricava:
2
kvk2 ≤ kvk1 ∀v ∈ V .
ǫ
In modo analogo si dimostra che esiste una costante positiva c tale che
kvk1 ≤ c kvk2 ∀v ∈ V
Teorema 3.2 Tutte le norme su uno spazio vettoriale reale di dimensione finita
sono equivalenti.
Dim. Sia V uno spazio vettoriale P reale di dimensione finita. Possiamo supporre
n
sia V = R . Indichiamo con |v| = ( j=1 vj2 )1/2 la norma euclidea. Sarà sufficiente
n
Rn ∋ v −
→ kvk ∈ R
S n−1 = {v ∈ Rn | |v| = 1}
è un compatto di Rn , la funzione
S n−1 ∋ v −
→ kvk ∈ R
k(v/|v|)k ≥ µ.
Da questa si ricava
|v| ≤ (1/µ)kvk ∀v ∈ Rn .
La dimostrazione è completa.
122 VII. SPAZI DI BAIRE
x−
→ kf (x)k e x−
→ |x|
sono equivalenti su Rn .
In particolare, se W è un sottospazio di dimensione finita di V , esso è uno spazio
metrico completo per la restrizione a W della distanza indotta dalla norma di V .
Chiaramente un sottospazio completo di uno spazio metrico è chiuso.
Teorema 3.3 Sia V uno spazio vettoriale reale normato, su cui consideriamo
la topologia definita dalla distanza indotta dalla norma. Condizione necessaria e
sufficiente affinché V sia localmente compatto è che V abbia dimensione finita.
Dim. Sia V uno spazio vettoriale reale con una norma k · k. Se V ha dimensione
finita, allora è localmente compatto per il teorema precedente.
Supponiamo ora che V sia localmente compatto e dimostriamo che ha dimensione
finita. Osserviamo innanzi tutto che tutte le palle chiuse {v ∈ V | kvk ≤ r, per r
reale positivo, sono compatte. In particolare, possiamo trovare vettori e1 , ..., en con
kej k ≤ 1 per j = 1, ..., n tali che
n
[
{v ∈ V | kvk ≤ 1} ⊂ {v ∈ V | kv − ej k < 1/2}.
j=1
δ ≤ kv − wk ≤ (3/2)δ.
z = v − (3δ/2) ej ∈ W
e
kw − zk < (3/4)δ < δ.
VIII. SPAZI DI FUNZIONI CONTINUE 123
CAPITOLO VIII
→ kf k = sup |f (x)| ∈ R
C(X) ∋ f −
x∈X
b. Se f ∈ A, allora anche
∞
X fn
exp(f ) = ∈ A.
n=0
n!
∞
1 X (kf k + 1 − f )n
= n+1
∈ A,
f n=0
(kf k + 1)
∞
X
log(f ) = − log(1/f ) = − (1/n)((f − 1)/f )n ∈ A.
n=1
c. Se f ∈ A, allora |f | ∈ A.
Infatti
1 nf (x) −nf (x)
|f (x)| = lim log e +e
→∞ n
n−
e poiché
0 < (1/n) log enf + e−nf − |f | = (1/n) log en(f −|f |) + e−n(f +|f |) ≤ (1/n) log 2
il limite è uniforme su X.
d. Se f, g ∈ A, allora
Poniamo allora
φy = fx1 ,y ∧ .... ∧ fxN ,y .
Otteniamo in questo modo una famiglia {φy | y ∈ B} di funzioni continue in A con
le proprietà:
φy (x) < 0 ∀x ∈ A, φy (y) = 2 ∀y ∈ B.
Poniamo
Vy = {z ∈ X | φy (z) > 1}.
Al variare di y in B, questi insiemi formano un ricoprimento aperto di B. Possiamo
allora trovare y1 , ..., yM ∈ B tali che
M
[
B⊂ Vyj .
j=1
La funzione
ψ = (φy1 ∨ 0) ∨ ... ∨ (φyM ∨ 0)
appartiene ancora a A ed è uguale a 0 su A e > 1 su B. Allora
f = ψ∧1∈A
Consideriamo la funzione
2 M +m
g(x) = f (x) − .
M −m 2
Per il punto (f) possiamo trovare una funzione g1 ∈ A a valori in [−(1/3), 1/3] che
valga −(1/3) su A e 1/3 su B. Allora:
kg1 k ≤ 1/3
kg − g1 k ≤ 2/3.
126 VIII. SPAZI DI FUNZIONI CONTINUE
Possiamo costruire per ricorrenza una successione {gn }n≥1 di funzioni di A tali che
kgn k ≤ 2n−1 /3n
kg − g1 − ... − gn k ≤ (2/3)n .
fg ∈ I ∀f ∈ A, ∀g ∈ I.
Dim. Sia I un ideale di C(X). Dimostriamo che, se, per ogni punto x ∈ X vi è
una g ∈ I con g(x) 6= 0, allora I = C(X).
(i) I separa i punti di X.
Infatti, fissati x 6= y in X, possiamo trovare una funzione continua f ∈ C(X)
tale che f (x) = 1 e f (y) = 0. Se g ∈ I è una funzione con g(x) 6= 0, allora f g ∈ I
e f (x)g(x) 6= 0 = f (y)g(y).
(ii) I contiene le costanti.
Per ogni x ∈ X sia φx una funzione di I tale che φx (x) 6= 0. Al variare di x in
X, gli aperti
Ux = {y ∈ X | φx (y) 6= 0}
formano un ricoprimento aperto di X. Poiché X è compatto, possiamo trovare
x1 , ..., xN ∈ X tali che
N
[
X = U xj .
j=1
Allora
g = φ2x1 + ... + φ2xN ∈ I
ed è positiva in tutti i punti di X. Per il punto (b) della dimostrazione del teorema
precedente abbiamo 1/g ∈ I e quindi 1 = g · (1/g) ∈ I dimostra che I contiene le
costanti. Per il teorema di Stone-Weierstrass è allora I = C(X). La dimostrazione
è completa.
VIII. SPAZI DI FUNZIONI CONTINUE 127
C(X, C) ∋ f −
→ kf k = sup |f (x)| ∈ R.
x∈X
→ f¯ ∈ C(X, C)
C(X, C) ∋ f −
ove
f¯(x) = f (x) ∀x ∈ X.
Dal teorema di Stone-Weierstrass per le funzioni continue a valori reali si ricava
immediatamente:
Teorema 1.3 Sia X = (X, τX ) uno spazio di Hausdorff compatto. Una sotto-
C-algebra A di C(X, C) che contenga le costanti, separi i punti di X e sia chiusa
rispetto al coniugio è densa in C(X, C).
Abbiamo in particolare i teoremi:
Teorema 1.4 (Weierstrass) Sia K un compatto di Rn . Allora ogni funzione
continua f su K a valori reali su K è limite, nella topologia della convergenza
uniforme su K, di una successione {pn } di polinomi di R[x1 , ..., xn ].
Ogni funzione continua f su K a valori complessi è limite uniforme su K di una
successione {pn } di polinomi di C[x1 , ..., xn ].
§2 La topologia compatta–aperta
Siano X = (X, τX ) e Y = (Y, τY ) due spazi topologici. Indichiamo con C(X, Y )
l’insieme di tutte le applicazioni continue f : X − → Y . Se (A1 , ..., An ) è una n-upla
di sottoinsiemi di X e (Y1 , ..., Yn ) una n-upla di sottoinsiemi di Y , poniamo
C(X, A; Y, B) al variare di A in Φ e di B in τY .
è un omeomorfismo.
Teorema 2.4 Siano X, Y, Z tre spazi topologici. Data una applicazione continua
φ:X−
→Z
l’applicazione
φ∗ : C(Z, Y ) ∋ f −
→ f ◦ φ ∈ C(X, Y )
è continua per le topologie compatte-aperte.
Se X è uno spazio di Hausdorff compatto, Z di Hausdorff, e φ surgettiva, allora
∗
φ è una immersione topologica.
φ:X ×Y −
→Z
X∋x−
→ φ̌(x) ∈ C(Y, Z)
definita da
φ̌(x)(y) = φ(x, y) ∀x ∈ X, ∀y ∈ Y
è continua per la topologia compatta-aperta su C(Y, Z).
b. Supponiamo inoltre che Y sia localmente compatto e di Hausdorff. Se
ψ:X−
→ C(Y, Z)
ψ̂ : X × Y −
→Z
130 VIII. SPAZI DI FUNZIONI CONTINUE
definita da
ψ̂(x, y) = ψ(x)(y) ∀x ∈ X, ∀y ∈ Y
è continua.
φ(Wy × Vy ) ⊂ U.
W = ψ −1 (C(Y, V ; Z, U ))
◦
è aperto in X e ψ̂(W × V ) ⊂ U.
Teorema 2.6 Siano X, Y, Z tre spazi topologici. Con le notazioni del teorema
precedente:
α : C(X × Y, Z) ∋ φ −
→ φ̌ ∈ C(X, C(Y, Z))
è continua. Se Y è localmente compatto di Hausdorff, allora α è un omeomorfismo.
Questa uguaglianza dimostra che α è continua. Dimostriamo ora che anche α−1 è
continua, sotto le ulteriori ipotesi che X, Y siano di Hausdorff e Y sia localmente
compatto.
Sia Q un compatto di X × Y e sia U un aperto di Z. Sia f : X × Y − → Z
una applicazione continua tale che f (Q) ⊂ U . Per ogni punto (x, y) ∈ Q possiamo
trovare un intorno compatto Ax,y di x in πX (Q) e un intorno compatto Bx,y di y
in πY (Q) tali che
f (Ax,y × Bx,y ) ⊂ U.
Poiché Q è compatto, possiamo trovare (x1 , y1 ), ..., (xn , yn ) ∈ Q tali che
n
[
Q⊂ (Axj ,yj × Bxj ,yj ).
j=1
132 VIII. SPAZI DI FUNZIONI CONTINUE
Allora
n
\
C(X × Y, Axj ,yj × Bxj ,yj ; Z, U )
j=1
è un intorno aperto di α(f ) in C(X, C(Y, Z)). Questo dimostra che α è aperta e
quindi è un omeomorfismo.
CAPITOLO IX
GRUPPI TOPOLOGICI
§1 Definizioni principali
Sia G un gruppo. Fissato un elemento a ∈ G, indichiamo con La , Ra , ad(a) le
applicazioni bigettive di G in sè:
La : G ∋ g −
→ ag ∈ G traslazione a sinistra;
(1.1) Ra : G ∋ g −
→ ga ∈ G traslazione a destra;
→ aga−1 ∈ G
ad(a): G ∋ g − aggiunta .
Osserviamo che
La ◦ Lb = Lab
Ra ◦ Rb = Rba
(1.3)
La ◦ Rb = Rb ◦ La
ad(a) ◦ ad(b)= ad(ab)
ker ad = CG (G) = {a ∈ G | ag = ga ∀g ∈ G } .
A−1 = {g −1 | g ∈ A} e AB = {g1 g2 | g1 ∈ A , g2 ∈ B } .
(1.4) → g −1 h ∈ G
G × G ∋ (g, h) −
134 IX. GRUPPI TOPOLOGICI
G × G ∋ (g, h) −
→ gh ∈ G e → g −1 ∈ G .
G∋g−
§2 Proprietà generali
Teorema 2.1 Sia G un gruppo topologico. La componente connessa dell’identità
Ge è un sottogruppo chiuso normale di G. La componente connessa per archi
dell’identità è anch’essa un sottogruppo normale di G.
è un’applicazione aperta.
S
Dim. Se A è un aperto di G, allora il saturato π −1 (π(A)) = h∈H Ah è aperto
perché unione di aperti.
−1
Dim. L’applicazione r : G ∋ g − → g ∈ G è un omeomorfismo. Quindi, se H è
un sottogruppo di G, risulta r H = r(H) = H. Analogamente avremo Lg (H) =
Rg (H) = H per ogni g ∈ H. Queste relazioni ci danno ancora Lg (H) ∪ Rg (H) ⊂ H
per ogni g ∈ H e quindi Lg (H) ∪ Rg (H) ⊂ H per ogni g ∈ H. Ciò dimostra che H
è un sottogruppo di G.
Poiché ad(a) è per ogni a ∈ G un omeomorfismo di G, abbiamo ad(a)(H) =
ad(a)(H) per ogni a ∈ G, e quindi H è normale se lo è H.
Teorema
2.5 Sia G un gruppo topologico e H un suo sottogruppo. Il quoziente
G H è uno spazio regolare se e solo se H è chiuso. In particolare G è uno spazio
regolare se e solo se {e} è un chiuso, cioè se e solo se è uno spazio T1 .
§3 Spazi di matrici
Sia K un campo. Indichiamo con Mm,n (K) il K-spazio vettoriale delle matrici
m × n a coefficienti in K.
IX. GRUPPI TOPOLOGICI 137
p
per A, B ∈ Mm,n (C). Sia kAk = (A|A) la norma associata e d(A, B) = kA − Bk
la relativa distanza. Considereremo su Mm,n (C) la struttura di spazio metrico
definita da questa distanza.
Teorema 3.1 Siano m, n interi positivi. Le applicazioni Mm,n ∋ A − → tA ∈
Mn,m (C) e Mm,n ∋ A − → A∗ ∈ Mn,m (C) sono isometrie; la prima è C-lineare, la
seconda anti-C-lineare.
Sia k un altro intero positivo. La moltiplicazione righe per colonne: Mm,n (C) ×
Mn,k (C) ∋ (A, B) − → AB ∈ Mm,k (C) è un’applicazione bilineare continua, per cui
vale:
kABk ≤ kAk · kBk ∀A ∈ Mm,n (C), ∀B ∈ Mn,k .
Dim. La verifica delle prime due affermazioni è immediata. Per verificare l’ultima,
consideriamo
t
A1
.
A = .. e B = (B 1 , . . . , B k ) con A1 , . . . , Am , B 1 , . . . , B k ∈ Cn .
t
Am
X X
kABk2 = |(Ai |B̄ j )|2 ≤ kAi k2 kBj k2 = kAk2 · kBk2 .
i,j i,j
§4 L’esponenziale di matrici
Teorema 4.1 Per ogni matrice A ∈ Mn,n (C), la serie
∞
X 1 h
(4.1) exp(A) = A
h!
h=0
∞
X 1
Dim. La serie a termini positivi kAh k è maggiorata termine a termine dalla
h!
h=0
∞ ∞
X 1 h
X 1 h
serie convergente, a termini di segno positivo, kAk e quindi la serie A
h! h!
h=0 h=0
converge in Mn,n (C), uniformemente sui sottoinsiemi compatti. Quindi, tenuto
conto del fatto che Mn,n (C) è localmente compatto, exp : Mn,n (C) − → Mn,n (C) è
continua perché limite uniforme sui compatti di una successione di funzioni continue
(polinomi).
Per completare la dimostrazione, è utile premettere il seguente:
Lemma 4.2 Siano A, B ∈ Mn,n (C). Se AB = BA, allora
exp(A + B) = exp(A) exp(B) .
Sia λ = reiφ = r(cos φ + i sin φ), con r, φ ∈ R, r > 0. Poniamo: S ′ = (log r + iφ)I
Pm−1 (−N )h
e N ′ = − h=1 . Allora S = exp(S ′ ), (I + N ) = exp(N ′ ) e quindi, poiché
h
S ′ N ′ = N ′ S ′ , abbiamo: A = exp(S ′ + N ′ ).
In particolare otteniamo:
Teorema 4.3 Per ogni intero n ≥ 1 il gruppo topologico GL(n, C) è connesso
per archi.
§5 Matrici Hermitiane
Una matrice A ∈ Mn,n (C) si dice Hermitiana se A∗ = A. Le matrici Hermitiane
formano un sottospazio reale di dimensione n2 di Mn,n (C). Indicheremo tale spazio
vettoriale con pn .
Una matrice u ∈ GL(n, C) si dice unitaria se u∗ u = I. Le matrici unitarie sono
le matrici dei cambiamenti di base ortonormali per il prodotto scalare Hermitiano
standard di Cn . Esse formano un sottogruppo di GL(n, C), che indichiamo con
U(n).
Lemma 5.1 Ogni matrice Hermitiana è diagonalizzabile ed ha autovalori reali. Se
A ∈ pn possiamo trovare u ∈ U(n) tale che uAu−1 sia diagonale e reale.
IX. GRUPPI TOPOLOGICI 141
(5.1) pn ∋ A −
→ exp(A) ∈ Pn .
∗
Dim. Si verifica facilmente che (exp(A)) = exp(A∗ ) e quindi exp(pn ) ⊂ pn .
Inoltre, se A ∈ pn ha autovalori λ1 , ..., λn ∈ R, la matrice exp(A) ha autovalori
exp(λ1 ), ..., exp(λn ), che sono numeri reali positivi.
Dimostriamo ora che (5.1) è surgettiva. Sia p ∈ Pn . Per il Lemma 5.1 esiste
u ∈ U(n) tale che upu−1 = diag(k1 , . . . , kn ) con 0 < k1 ≤ . . . ≤ kn . Posto
Q = diag(log k1 , . . . , log kn ), con log kj ∈ R per 1 ≤ j ≤ n, otteniamo P =
u exp(Q)u−1 = exp(uQu−1 ).
Dimostriamo ora che (5.1) è iniettiva. Siano A, B ∈ pn tali che exp(A) = exp(B).
Fissiamo una base ortonormale e1 , ..., en di autovettori di A: abbiamo A(ej ) = λj ej
con λj ∈ R per j = 1, ..., n. Sia µ ∈ R un autovalore di B con autovettore
v = a1 e1 + · · · + an en . Allora:
n
X n
X
eµ v = (aj eµ ) ej = exp(B)(v) = exp(A)(v) = aj e λj e j .
j=1 j=1
e
Pn (a, b) = p ∈ Pn ea |v|2 ≤ (p(v)|v) ≤ eb |v|2
sono compatti di Hausdorff e l’applicazione esponenziale definisce tra essi una
trasformazione continua e bigettiva e quindi un omeomorfismo. Poiché tali insiemi,
al variare delle coppie di numeri reali a, b con a < b costituiscono un ricoprimento
fondamentale di pn e di Pn rispettivamente, ne segue che (5.1) è un omeomorfismo.
142 IX. GRUPPI TOPOLOGICI
Dim. Infatti ogni matrice simmetrica reale n × n ammette una base ortonormale
in Rn . Quindi exp(pn (R)) = Pn (R) e la tesi segue dal teorema precedente.
e u ∈ U(n).
Dimostriamo ora che la decomposizione è unica. Da a = up otteniamo a∗ a =
pu∗ up = p2 e quindi l’unicità è conseguensa del seguente:
→ p2 ∈ Pn è un
Lemma 6.2 Sia n un intero positivo. L’applicazione Pn ∋ p −
omeomorfismo.
è un omeomorfismo.
§7 Algebre di Lie
Sia K un campo. Un’algebra g su K si dice algebra di Lie se il prodotto
(7.1) g × g ∋ (X, Y ) −
→ [X, Y ] ∈ g
(7.2) [X, [Y, Z]] + [Y, [Z, X]] + [Z, [X, Y ]] = 0 ∀X, Y, Z ∈ g .
(7.3) [A, B] = A ◦ B − B ◦ A .
N
X
(7.4) [Xi , Xj ] = cki,j Xk ∀1 ≤ i, j ≤ N .
k=1
(7.6) R3 × R3 ∋ (v, w) −
→ v × w ∈ R3 ,
definito dall’identità:
Dim. Il fatto che DerK (A) sia un K-spazio vettoriale segue dalla bilinearità del
prodotto A × A ∋ (a, b) −
→ a · b ∈ A.
Siano ora D1 , D2 ∈ DerK (A) e dimostriamo che anche [D1 , D2 ] ∈ DerK (A). Per
ogni a, b ∈ A risulta:
La dimostrazione è completa.
(7.9) ad(X) : g ∋ Y −
→ [X, Y ] ∈ g .
Teorema 7.4 Sia g un’algebra di Lie sul campo K e sia X ∈ g. Allora ad(X) è
una derivazione di g e l’applicazione
(7.10) ad : g ∋ X −
→ ad(X) ∈ DerK (g)
è un omomorfismo di g nell’algebra di Lie delle derivazioni di g.
La (7.10) si dice la rappresentazione aggiunta di g.
Osservazione I.D.Ado (Uspiehi Math. Nauk, 1947) nel caso di algebre di Lie
su campi di caratteristica 0 e K. Iwasawa (Japan J. Math., 1948) nel caso generale
hanno dimostrato che ogni algebra di Lie g di dimensione finita su K ammette una
rappresentazione fedele φ : g −→ gl(n, K) per qualche intero positivo n.
Non sarà quindi restrittivo, nel seguito, considerare soltanto sottoalgebre di Lie
dell’algebra di Lie degli endomorfismi di uno spazio vettoriale V di dimensione finita
su K.
m
perché i due endomorfismi ad(X)(·) e X ◦ (·) commutano per la (i). Poiché h +
m
m+1
h−1 = h , otteniamo la (iii).
I − exp (−ad(A))
(8.2) d exp(A)(X) = exp(A)X ∀X ∈ gl(n, C) ,
ad(A)
∞
I − exp (−ad(A)) X (−1)h
ove = ad(A)h .
ad(A) (h + 1)!
h=0
h−1
X
h h
(A + X) = A + Ar XAh−r−1 + o(X) .
r=0
s
r s s h−j−1
X
j
A XA = (−1) A ad(A)j X .
j=0
j
Sostituendo troviamo:
h−1 s
X
r s
XX s h−j−1 j
A XA = (−1) A ad(A)j X
s=0 j=0
j
r+s=h−1
h−1 h−j−1
!
X X j + k
= (−1)j Ah−j−1 ad(A)j X
s=0
j
k=0
h−1
X
j h
= (−1) Ah−j−1 ad(A)j X .
s=0
j + 1
Otteniamo perciò:
∞
X (A + X)h
exp(A + X)=
h!
h=0
X 1 X
= Ar XAs + o(X)
h!
r+s=h−1
∞ h−1
X X Ah−j−1 (−1)j ad(A)j
= X + o(X)
(h − j − 1)! (j + 1)!
h=1 j=0
I − exp(−ad(A))
= exp(A) X
ad(A)
I − exp(−ad(A))
= exp(A) X .
ad(A)
IX. GRUPPI TOPOLOGICI 147
I − exp(−ad(A))
exp(A + X) = exp(A) + exp(A)X + o(X)
ad(A)
e quindi dφ(0) è l’identità su gl(n, K). La tesi è quindi conseguenza del teorema
dell’applicazione inversa.
Osservazione La serie
∞
X (e − x)h
log(x) = log(e + (x − e)) = −
h
h=1
148 IX. GRUPPI TOPOLOGICI
F1 : R ∋ t − exp(tY ) ∈2 GL(n,C)
→ exp(tX) e
t
→ exp t(X + Y ) + 2 [X, Y ] ∈ GL(n, C)
F2 : R ∋ t −
a una successione estratta, possiamo allora supporre che gν = exp(Xν ) exp(Yν ) con
Xν ∈ U , Yν ∈ U ′ per ogni ν ∈ N. Inoltre Xν , Yν − → 0 per ν −→ +∞. Poiché per
ipotesi Yν 6= 0 per ogni ν ∈ N, risulta definita una successione di interi non negativi
mν tali che mν ≤ kYν k−1 < µν + 1. A meno di passare a una sottosuccessione
possiamo allora supporre che limν − →∞ mν Yν = Y ∈ V \ {0}. Per ogni coppia di
interi p, q con q > 0 poniamo: pmν = qsν + rν , con 0 ≤ rν < q. Poiché rν Yν − →0
per ν −→ +∞, otteniamo:
exp pq Y = limν − →∞ exp pmν
q Y ν
sν
→∞ (exp(Yν )) ∈ G .
= limν −
Quindi G contiene gli elementi exp(tY ) per ogni t razionale. Poiché G è chiuso ne
segue che G contiene exp(tX) per ogni t reale, e questo ci dà una contraddizione
perché Y ∈/ g. Ne segue perciò che G′ è un intorno aperto di I in G e quindi
coincide con la componente connessa dell’identità in G. Inoltre, la dimostrazione
ci mostra che l’esponenziale definisce un omeomorfismo di un intorno aperto di 0
in g su un intorno aperto di I in G.
Un sottogruppo chiuso G di GL(n, C) si dice un gruppo di Lie di trasformazioni
di Cn . L’algebra di Lie reale:
(8.6) Ad : G ∋ g −
→ Ad(g) ∈ glR (g)
è un omomorfismo di gruppi.
150 IX. GRUPPI TOPOLOGICI
e l’applicazione esponenziale
(9.2) u(n) ∋ X −
→ exp(X) ∈ U(n)
è surgettiva.
ed exp(X) = u.
Osserviamo, in particolare, che U(n) è connesso per archi, in quanto immagine
di uno spazio vettoriale reale mediante un’applicazione continua.
e l’applicazione esponenziale
(10.3) su(n) ∋ X −
→ exp(X) ∈ SU(n)
è surgettiva.
Quindi se exp(tX) ∈ SU(n) per ogni numero reale t, otteniamo subito che X +X ∗ =
0 e tr(X) = 0. Il viceversa è ovvio. Infine, osserviamo che ogni elemento u ∈ SU(n)
si può scrivere nella forma
eiθ1 ... 0 0
... ..
.
..
.
..
. −1
u = a
0 iθn−1
a
... e 0
−i(θ1 +···+θn−1 )
0 ... 0 e
ed exp(X) = u.
Definiamo il gruppo speciale lineare complesso SL(n, C) come il sottogruppo di
GL(n, C) formato dalle matrici n × n a determinante 1.
Teorema 10.2 Sia n un intero positivo. Il gruppo SL(n, C) è un sottogruppo
chiuso normale di GL(n, C). La sua algebra di Lie è
L’applicazione esponenziale:
è surgettiva.
Inoltre l’applicazione:
Teorema 11.1 Sia n un intero positivo. I due gruppi O(n) e SO(n) sono
sottogruppi compatti di GL(n, R) e hanno la stessa algebra di Lie:
Questa formula dimostra che exp : o(2) − → SO(2) è surgettiva, e da questa segue
la surgettività nel caso generale.
−1 0 ... 0
0 1 ... 0
Osserviamo infine che la moltiplicazione per la matrice
... .. .. .. è un
. . .
0 0 ... 1
omeomorfismo di SO(n) sull’insieme delle matrici di O(n) con determinante uguale
a −1 e O(n) = SO(n) ∪ {a ∈ O(n) | det(a) = −1}.
CAPITOLO X
I GRUPPI CLASSICI
§1 La lista di Cartan
Diamo qui di seguito la lista di Cartan dei gruppi classici di matrici reali e
complesse. Essi sono sottogruppi chiusi del gruppo lineare e sono quindi determinati
dalle rispettive algebre di Lie. Accanto a ciascun gruppo descriviamo la rispettiva
algebra di Lie e la sua dimensione come spazio vettoriale.
Introduciamo le seguenti matrici:
1 0 ··· 0
0 1 ··· 0
In = I =
... ... .. .. è la matrice identità n × n;
. .
0 0 ··· 1
0 −In
Jn = J = è la matrice simplettica 2n × 2n;
In 0
−Ip 0 è la matrice simmetrica canonica
Ipq =
0 Iq di segnatura (p, q).
Algebra di Lie del gruppo lineare complesso: gl(n, C) = HomC (C, C).
dimC gl(n, C) = n2 .
2) Gruppo lineare speciale complesso.
dimC sl(n, C) = n2 − 1.
3) Gruppo unitario:
dimR u(n) = n2 .
4) Gruppo speciale unitario:
dimR su(n) = n2 − 1.
5) Gruppo unitario di segnatura p, q.
=
A11 A12
| A11 , A12 ∈ gl(n, C), tr(Re A11 ) = 0 .
−Ā12 Ā11
dimR su∗ (2n) = 4n2 − 1.
8) Gruppo ortogonale complesso:
t
SO(n, C) = {g ∈ SL(n, C) | gg = I}.
X. I GRUPPI CLASSICI 157
∗ Ipq 0 Ipq 0
sp(p, q; C) = A ∈ sp(n, C) | A + A=0 .
0 Ipq 0 Ipq
dimR sl(n, R) = n2 − 1.
3) Gruppo ortogonale:
t
O(n) = {g ∈ GL(n, R) | gg = I}.
con
A11 ∈ o(p), A22 ∈ o(q), A12 matrice p × q reale.
dimR o(p, q) = n(n − 1)/2 con p + q = n.
6) Gruppo simplettico:
dimR sp(n, R) = n2 + n.
XI. PROPRIETÀ DEI GRUPPI CLASSICI 161
CAPITOLO XI
dove f1 , . . . , fN sono polinomi a coefficienti reali nelle parti reali e immaginarie dei
coefficienti di g ∈ GL(n, C). I sottogruppi pseudoalgebrici sono ovviamente chiusi.
Vale il seguente
Teorema 1.1 Sia G un sottogruppo pseudoalgebrico di GL(n, C). Se vale la
proprietà:
(1.2) g ∈ G =⇒ g ∗ ∈ G
allora l’applicazione:
ℓ
X
f (t) = c j dbj t t ∈ R,
j=1
ξ ξ2 ξ3 ... ξℓ
1
ξ12 ξ22 ξ32 ... ξℓ2
3
ξ23 ξ33 ξℓ3 .
ξ1
M (ξ1 , . . . , ξℓ ) = ...
.. .. .. ..
.
..
. . . .
ξ1ℓ ξ2ℓ ξ3ℓ ... ξℓℓ
Osserviamo ancora che l’algebra di Lie del sottogruppo chiuso G ∩ U(n) è g ∩ u(n)
e che l’applicazione esponenziale
g ∩ u(n) ∋ X −
→ exp(X) ∈ G ∩ U(n)
g ∗ Ip,q = Ip,q g −1 .
a∗ a − d∗ d = Ip , a∗ c = d∗ b, b∗ b − c∗ c = Iq .
a∗ a + d∗ d = Ip , a∗ c + d∗ b = 0, b∗ b + c∗ c = Iq .
c = 0, d = 0
L’applicazione
1 δ1 (σ)a 0
SU (p) × SU (q) × S ∋ (a, b, σ) −→ ∈ SU (p, q) ∩ U (n)
0 δ1 (σ)−1 b
dove ricordiamo che P (n) è l’insieme delle matrici hermitiane definite positive.
Per il Lemma 1, è g ∗ ∈ SU (p, q) e dunque
g ∗ g = b∗ a∗ ab = b∗ b = b2 ∈ SU (p, q).
Scriviamo
b = Exp(B)
con
B11 B12
B= ∗ ,
B12 B22
B11 hermitiana p × p, B12 matrice complessa p × q, B22 hermitiana q × q. Abbiamo
allora
Exp(2B)Ip,q = Ip,q Exp(−2B).
Poiché l’esponenziale è un’applicazione bigettiva dallo spazio vettoriale reale delle
matrici hermitiane all’insieme delle matrici hermitiane definite positive, dall’ugua -
glianza:
Ip,q Exp(2B)Ip,q = Exp(−2B)
ricaviamo che
Ip,q BIp,q = −B.
XI. PROPRIETÀ DEI GRUPPI CLASSICI 165
allora b = Exp(B) ∈ SU (p, q). Le matrici della forma (2) formano uno spazio
vettoriale reale L di dimensione 2pq. Osserviamo infine che, nella decomposizione
(1), essendo b ∈ SU (p, q), è a ∈ SU (p, q) ∩ U (n).
Abbiamo ottenuto in questo modo un omeomorfismo
z + wj = z + j w̄.
jz = z̄j ∀z ∈ C
166 XI. PROPRIETÀ DEI GRUPPI CLASSICI
e
j 2 = −1.
Il coniugato di un quaternione (corrispondente all’aggiunta della matrice con cui è
definito) è dato da:
z + jw = z̄ − jw.
Indichiamo con σ l’isomorfismo:
Allora
σ −1 jσ = J
dove J è la matrice 2n × 2n:
0 −I
J= .
I 0
Ad essa risulta dunque associata una B̃ ∈ HomC (C2n , C2n ) rappresentata dalla
matrice:
C D
B̃ = .
−D̄ C̄
Le matrici di questa forma sono tutte e sole le matrici 2n × 2n complesse A che
soddisfano la:
AJ = J Ā.
Ricordiamo ora che, se g ∈ Sp(n, C), abbiamo:
t
gJg = J.
Se scriviamo le componenti uhl nella forma vlh + jwlh con vlh , wlh ∈ C per l = 1, 2,
troviamo per il prodotto scalare sui quaternioni l’espressione:
n
X n
X
(u1 |u2 )H = v1h v̄2h + w̄1h w2h +j w1h v̄2h − v̄1h w2h .
h=1 h=1
Una g ∈ U (2n) lascia invariato il primo addendo, una g ∈ Sp(n, C) lascia invariato
il secondo. Infatti il primo addendo si può scrivere:
v1 v2
w̄1 w̄2 C
Teorema 3.2 Per ogni intero n ≥ 1 i gruppi Sp(n) sono compatti e connessi.
ḡ −1 J = Jg ∗
da cui
t ∗
g Jg ∗ = J
e dunque g ∗ ∈ Sp(n, C).
Dim.. Sia g ∈ Sp(n, C). Possiamo decomporre g in modo unico nella forma:
b∗ a∗ ab = b∗ b = b2 ∈ Sp(n, C).
Abbiamo allora
2
Teorema 4.2 Il gruppo SU ∗ (2n) è omeomorfo a Sp(n) × R2n −n−1
.
Jg = ḡJ.
t
gJg = J
e dunque g ∈ Sp(n).
Si verifica immediatamente che g ∗ ∈ SU ∗ (2n) se g ∈ SU ∗ (2n) e dunque possiamo
ripetere il ragionamento fatto nella dimostrazione del teorema precedente: dopo
aver decomposto g mediante
osserviamo che
b∗ b = b2 ∈ SU ∗ (2n).
170 XI. PROPRIETÀ DEI GRUPPI CLASSICI
Dopo aver scritto b come l’esponenziale di una matrice hermitiana B, troviamo che
le B devono appartenere allo spazio vettoriale reale L di dimensione 2n2 − n − 1)
delle matrici della forma:
B11 B12
B= ∗
B12 B̄11
con B11 matrice n × n hermitiana con traccia nulla e B12 matrice n × n complessa
antisimmetrica: t B12 = −B12 . L’omeomorfismo
Ricaviamo che
e che gli elementi di SO(n, C) ∩ P (n) sono tutti e soli gli esponenziali delle matrici
dello spazio vettoriale reale L di dimensione (n2 − n)/2:
t
L = {B|B hermitiana e B = −B}
Dim.. Dimostriamo in primo luogo che il gruppo SO∗ (2n, C)∩U (2n) è isomorfo,
come gruppo topologico, a U (n). Infatti, per un elemento g di tale gruppo, valgono
le equazioni:
t
gg = I, g ∗ Jg = J, g ∗ g = I, det(g) = 1.
XI. PROPRIETÀ DEI GRUPPI CLASSICI 171
l’applicazione
§6 I gruppi Sp(p, q; C)
Teorema 6.1 Abbiamo l’omeomorfismo
Sp(p, q) ∼
= Sp(p) × Sp(q) × R4pq .
ove in questo caso L è uno spazio vettoriale reale di dimensione 4pq di matrici
hermitiane. Le matrici di L hanno la forma:
0 B12 0 B14
∗ t
B12 0 B14 0
B=
0 B̄14 0 −B̄12
∗
B14 0 −t B12 0
§7 I gruppi SO(p, q)
SO(p, q) ∩ U (n) ∼
= {−1, 1} × SO(p) × SO(q).
CAPITOLO XII
OMOTOPIA
F : X × I −→ Y
I ∋ t −→ Ft = F (·, t) ∈ C(X, Y )
I ∋ t −→ Ft ∈ C(X, Y )
X × I ∋ (x, t) −→ f (x) ∈ Y.
Se
F : X × I −→ Y
è un’omotopia tra f e g, allora
X × I ∋ (x, t) −→ F (x, 1 − t) ∈ Y
f ∼ g ⇐⇒ g ∼ f.
174 XII. OMOTOPIA
Se inoltre
G : X × I −→ Y
è un’omotopia tra g ed h, allora la
F (x, 2t) se t ∈ [0, 1/2]
H(x, t) =
F (x, 2t − 1) se t ∈ [1/2, 1]
definisce un’omotopia tra f e h. Dunque
f ∼ g e g ∼ h =⇒ f ∼ h.
f ◦ g : X −→ X
ϕ : X −→ X
f : D0 −→ X
mediante
f (D0 ) = ϕ(X)
e consideriamo l’unica applicazione
g : X −→ D0 .
F : X × I −→ Y
F (x, t) = F (x, 0) ∀x ∈ A, ∀t ∈ I.
̺ : X −→ A
(cioè un’applicazione continua a valori in A con ̺|A = idA ) tale che l’applicazione
composta:
̺ ι
X− →A− →X
sia omotopa all’identità su X.
Diciamo che A è un retratto di deformazione stretto di X se l’applicazione
composta
̺ ι
X− →A− →X
è A-omotopa a idX , se cioè possiamo trovare un’omotopia
F : X × I −→ X
f (Ai ) ⊂ Bi ∀i = 1, · · · , n.
XII. OMOTOPIA 177
π(X, A1 , · · · , An ; Y, B1 , · · · , Bn )
§6. k-connessione.
Useremo in Rn coordinate x0 , · · · , xn−1 e indicheremo con e0 , · · · , en−1 i vettori
della base canonica. Definiamo:
D0 = {0}
Dn = {x ∈ Rn | |x| ≤ 1} se n > 0,
S n = {x ∈ Rn+1 | |x| = 1} se n ≥ 0.
Abbiamo S n−1 ⊂ Dn . Considereremo S n come un sottospazio di S n+1 mediante
l’inclusione canonica
S n ∋ x −→ (x, 0) ∈ S n+1 .
Indichiamo con σ+ e σ− le immersioni canoniche:
p
σ+ : Dn ∋ x −→ (x0 , · · · , xn−1 , 1 − |x|2 ) ∈ S n
p
σ− : Dn ∋ x −→ (x0 , · · · , xn−1 , − 1 − |x|2 ) ∈ S n .
Ricordiamo ancora che l’applicazione
S n × I ∋ (x, t) −→ tx ∈ Dn+1
Sn × I
n
−→ Dn+1 .
S × {0}
Abbiamo allora:
Lemma 6.1. Sia X uno spazio topologico e
f : S n −→ X
f˜ : Dn+1 −→ X.
178 XII. OMOTOPIA
F
S n × I −−−−→ X
x
gy
˜
f .
Dn+1 −−−−−→ Dn+1
idDn+1
G : S n × I −→ X
f (S n−1 ) ⊂ A
g(Dn ) ⊂ A.
Sufficienza. Sia
G : Dn × I −→ X
una S n−1 -omotopia tra f e un’applicazione g con g(Dn ) ⊂ A. Definiamo allora
l’omotopia:
G(x, 2t) se 0 ≤ t ≤ 1/2
F (x, t) =
G(2(1 − t)x, 1) se 1/2 ≤ t ≤ 1.
Essa è un’omotopia di f con un’applicazione costante in π(Dn , S n−1 ; X, A).
La famiglia
{Q(α, N )|α ∈ Zn , N ∈ N − {0}}
è numerabile e le sue sottofamiglie formate dai cubi di lato 1/N sono ricoprimenti
chiusi localmente finiti (quadrettature) di Rm . Possiamo scrivere A come unione
numerabile di tutti i cubi Q(α, N ) in esso contenuti:
A = ∪Qν
con Qν = Q(αν , Nν ), ν ∈ N.
Abbiamo allora
f (A) = ∪f (Qν )
unione numerabile di insiemi compatti. Basterà dunque dimostrare che ciascuno di
questi insiemi f (Qν ) ha parte interna vuota.
XII. OMOTOPIA 181
Supponiamo per assurdo che ciò non sia vero. A meno di sostituire ad f la
funzione di classe C 1
f : A −→ Rn
f : A −→ Rn
∂f 1 /∂x1 ∂f 1 /∂xm
...
. ... .
df (x) =
. ... .
∂f /∂x1
n
... ∂f n /∂xm
g : V × W −→ U
f : A −→ Rn
f −1 (y) ∩ U = {x}.
Poniamo
C∞ = ∩Ck .
XII. OMOTOPIA 183
g(C(g)) ∩ B
f (C − C1 ) = ∪f (C ∩ Bl )
è di prima categoria.
Sia ora k ≥ 1 e x0 ∈ Ck − Ck+1 , che possiamo supporre essere l’origine. Indi-
chiamo con ϕ una derivata parziale di f di ordine k, per cui sia dϕ(0) 6= 0. Possiamo
supporre che f (0) = 0 e che ϕ(x) = x1 , a meno di restringerci a un intorno aperto
W di 0.
Allora Ck ∩ W è contenuto in {x1 = 0} e quindi f (Ck ∩ W ) è contenuto
nell’insieme dei valori critici dell’applicazione
U+ = {x ∈ S n | x0 > −1}
U− = {x ∈ S n | x0 < 1}
ϕ+ (x0 , x1 , ..., xn ) = (x1 /(1 + x0 ), ..., xn /(1 + x0 )) ∈ Rn
ϕ− (x0 , x1 , ..., xn ) = (x1 /(1 − x0 ), ..., xn /(1 − x0 )) ∈ Rn .
(proiezioni stereografiche di centri rispettivamente e0 e −e0 .)
4. Lo spazio proiettivo RPn è una varietà differenziabile di classe C ∞ e di
dimensione n con l’atlante
Ui = {xi 6= 0}
ϕi (x0 , ..., xi−1 , xi , xi+1 , ..., xn ) = (x0 /xi , ..., xi−1 /xi , xi+1 /xi , ..., xn /xi ) ∈ Rn .
f : A −→ Rn
186 XII. OMOTOPIA
mediante:
! !
p (x0 , ..., xn )
σf (x0 , ..., xn , xn+1 ) = 1 − (xn+1 )2 · f p , xn+1 .
1 − (xn+1 )2
F : S n+1 × I −→ S n+1
tale che
F (x, 0) = σf (x) ∀x ∈ S n+1
F (x, 1) = σg(x) ∀x ∈ S n+1 .
Osserviamo allora che
Osserviamo che
G(x, 0) = F (x, 0) = σf (x)
in quanto
(σf )n+1 (x) = xn+1
e che analogamente
Abbiamo
|Gn+1 (x, t)| < 1 ∀(x, t) ∈ S n × I
188 XII. OMOTOPIA
H : S n × I −→ S n
di f con g definendo
x′
̺ : S n+1 ∩ {|xn+1 | < 1} ∋ x −→ ∈ Sn
|x′ |
Surgettività Sia
f : S n+1 −→ S n+1
un’applicazione continua.
a) Supponiamo che, posto
n+1
S+ = {x ∈ S n+1 | xn+1 ≥ 0}
e
n+1
S− = {x ∈ S n+1 | xn+1 ≤ 0}
sia
n+1 n+1 n+1 n+1
f (S+ ) ⊂ S+ e f (S− ) ⊂ S− .
Possiamo allora costruire un’omotopia tra f e σg, dove g è l’applicazione:
g
S n ∋ (x0 , ..., xn ) −
→ f (x0 , ..., xn , 0) ∈ S n
f : S n+1 −→ S n+1
H : S n+1 × I −→ S n+1
e uguale a 0 nei punti non appartenenti a tale striscia. Essa è una funzione di classe
C ∞ . Consideriamo quindi l’omotopia:
x
se (x|N ) ∈
/ [c1 , cl ]
H(x, t) = gi (tηi (x))x se ci < (x|N ) < ci+1 , i = 1, ..., l − 1
x se (x|N ) = ci , i = 1, ..., l.
L’omotopia f (H(x, t)) trasforma f in un’applicazione g(x) = f (H(x, 1)) per cui
g −1 (N ) è un insieme finito di punti con
(x|e0 ) ≥ 0
(x|e0 ) ≤ 0.
g : S n+1 −→ S n+1
n+1
g(S+ ) ⊂ {x ∈ S n+1 |xn+1 > 2ǫ − 1},
n+1
g(S− ) ⊂ {x ∈ S n+1 |xn+1 < 1 − 2ǫ}.
Poniamo
Ψ+ (x, t) = x′ , (1/ǫ − 1)(ǫ(1 + t) − t(1 − xn+1 ) ,
Ψ− (x, t) = x′ , (1/ǫ − 1)(t(1 + xn+1 ) − ǫ(1 + t) .
XII. OMOTOPIA 191
Definiamo l’omotopia:
x se |xn+1 | ≥ 1 − ǫ
Ψ (x, t)/|Ψ (x, t)|
+ + se 1 − ǫ(1 + 1/t) ≤ xn+1 ≤ 1 − ǫ
L(x, t) =
x/|x|
se |xn+1 | ≤ 1 − ǫ(1 + 1/t)
Ψ− (x, t)/|Ψ− (x, t)| se − 1 + ǫ(1 + 1/t) ≤ xn+1 ≤ ǫ − 1.
λ({|xn+1 | ≤ 1 − 2ǫ}) ⊂ S n .
Φ −→ π(S 1 , S 1 )
è una bigezione.
Dim. Ogni applicazione continua f : S 1 −→ S 1 è omotopa a un’applicazione
continua g : S 1 −→ S 1 tale che g(1) = 1. Quindi, per il lemma 6.1,
(*) R ∋ θ −→ eiθ ∈ S 1
f : S 1 −→ S 1
con
f (1) = 1
possiamo allora trovare un’unica applicazione continua
f˜ : R −→ R
tale che
f˜(0) = 0
192 XII. OMOTOPIA
e il diagramma
f˜
R −−−−→ R
i·
ei· y ye
S 1 −−−−→ S 1
f
C(S 1 , S 1 ) ∋ f −→ σf ∈ C(S n , S n )
π(S 1 , S 1 ) −→ π(S n , S n ).
In particolare, l’applicazione
Z ∋ k ←→ ϕk ∈ Φ
Z ←→ π(S n , S n ).
Dim. La prima affermazione segue per iterazione dal lemma 10.1 e la seconda
dal teorema 10.2.
L’intero associato ad un’applicazione continua f : S n −
→ S n si dice il grado di f
e si indica con deg(f ).
194 XII. OMOTOPIA
f : Dn −→ Dn
f (x) 6= x ∀x ∈ Dn .
t −→ x + t (x − f (x)) , per t ≥ 0
L’applicazione
Dn × I ∋ (x, t) −→ (1 − t)x + tψ(x) ∈ Dn
è una S n−1 omotopia dell’identità con una retrazione di Dn su S n−1 . Ciò è assurdo
perchè S n−1 non può essere un retratto di deformazione stretto di Dn . Infatti Dn
e S n−1 non sono omotopicamente equivalenti in quanto Dn è contrattile, mentre
per il teorema 10.3 S n−1 non è (n − 1)-connesso.
Osservazione. Il teorema di Brouwer si applica ovviamente a tutti i sottoinsiemi
di Rn che sono omeomorfi a Dn ; in particolare a tutti i sottoinsiemi convessi e
compatti di uno spazio euclideo.
XIII. GRUPPI DI OMOTOPIA 195
CAPITOLO XIII
GRUPPI DI OMOTOPIA
(1.1) φ∗ : π(Sn , e0 ; X, x0 ) −
→ π(In , bIn ; X, x0 )
è bigettiva.
Dim. Definiamo:
( q
1
2|x| − 1, 2x |x| − 1 se 0 < |x| ≤ 1
ψ(x) =
0 se x = 0.
La ψ : Dn − → Sn è continua
. e definisce, per passaggio al quoziente iniettivo, un
n
omeomorfismo di D su Sn , che trasforma Sn−1 in e0 .
Sn−1
Per ottenere la φ cercata sarà quindi sufficiente comporre la ψ con un omeomor-
fismo τ di In su Dn che trasformi bIn in Sn−1 . Poniamo kvk∞ = sup1≤i≤n |vi | per
v = (v1 , . . . , vn ) ∈ Rn e sia e = (1, . . . , 1) = e1 + · · · + en . Possiamo allora definire
τ : In −
→ Dn mediante:
2x − e
k2x − ek∞ se 2x 6= e
|2x − e|
τ (x) =
0 se 2x = e.
196 XIII. GRUPPI DI OMOTOPIA
Allora φ = ψ ◦ τ : In −
→ Sn è l’applicazione continua cercata.
Per concludere, basta osservare che l’applicazione
C(Sn , e0 ; X, x0 ) ∋ f −
→ f ◦ φ ∈ C(In , bIn ; X, x0 )
|
f | g
|
Teorema 1.2 Sia X uno spazio topologico con punto di base x0 ∈ X. Per ogni
intero n ≥ 1 l’applicazione
rispetto alla quale πn (X, x0 ) è un gruppo, il cui elemento neutro corrisponde all’ap -
plicazione costante x̂0 : In ∋ s − → x0 ∈ X. Se n ≥ 2, allora πn (X, x0 ) è abeliano.
e (
2s1 2−t
f 2−t , s2 , . . . , sn se 0 ≤ s1 ≤ 2
F2 (s; t) =
2−t
x0 se 2 ≤ s1 ≤ 1.
XIII. GRUPPI DI OMOTOPIA 197
| |
F1 F2
f −→ x̂0 | f e f −→ f | x̂0
| |
b. Esistenza dell’inversa.
Data f ∈ C(In , bIn ; X, x0 ) definiamo
fˇ(s) = f (1 − s1 , s2 , . . . , sn ) ∀s = (s1 , . . . , sn ) ∈ In .
Dico che f · fˇ ∼ fˇ · f ∼ x̂0 in C(In , bIn ; X, x0 ). Osserviamo a questo scopo che
f (2ts1 , s2 , . . . , sn ) se 0 ≤ s1 ≤ 21
F (s; t) =
f (2t(1 − s1 ), s2 , . . . , sn ) se 21 ≤ s1 ≤ 1
è un’omotopia tra x̂0 e f · fˇ. Chiaramente la F (1 − s1 , s2 , . . . , sn ; t) è allora
un’omotopia tra x̂0 e fˇ · f perché fˇ = f .
c. Il prodotto è associativo
L’associatività segue da schema:
| | | |
F
f | g | h −−−−→ f | g | h
| | | |
con
1
f (2(1 + t)s1 , s2 , . . . , sn ) se 0 ≤ s1 ≤ 2(1+t)
1 1 3+2t
F (s; t) = g 2s 1 − ,
2(1+t) 2 s , . . . , s n se 2(1+t) ≤ s1 ≤ 4(1+t)
h 4(1+t)s1 −(3+2t) , s , . . . , s 3+2t
1+2t 2 n se 4(1+t) ≤ s1 ≤ 1.
| f | x̂0 f x̂0 | f
F1 F2 F3
f | g −−−−→ −− | −− −−−−→ − − − −−−−→ − − −
| x̂0 | g g g | x̂0
F
y 4
|
g | f
|
1−t 1
x0 se 0 ≤ s1 ≤ 2 , 0 ≤ s2 ≤ 2
g( 2s1 +t−1 , 2s2 , s3 , . . . , sn )
se 1−t
≤ s1 ≤ 1, 0 ≤ s2 ≤ 1
1+t 2 2
F2 (s, t) = 1
f ((2 − t)s1 , 2s2 − 1, s3 , . . . , sn ) se 0 ≤ s1 ≤ 2−t , 1/2 ≤ s2 ≤ 1
1
x0 se 2−t ≤ s1 ≤ 1, 1/2 ≤ s2 ≤ 1;
1 1
g((1 + t)s1 , 2s2 , s3 , . . . , sn ) se 0 ≤ s1 ≤ 1+t , 0 ≤ s2 ≤ 2
1
x0 se 1+t ≤ s1 ≤ 1, 0 ≤ s2 ≤ 12
F3 (s) =
x0 se 0 ≤ s1 ≤ 2t , 1
2 ≤ s2 ≤ 1
2s1 −t t 1
f ( 2−t , 2s2 − 1, s3 , . . . , sn ) se 2 ≤ s1 ≤ 1, 2 ≤ s2 ≤ 1 ;
g(2s1 , (2 − t)s2 , s3 , . . . , sn ) se 0 ≤ s1 ≤ 21 , 0 ≤ s2 ≤ 1
2−t
x0 se 0 ≤ s1 ≤ 12 , 1
2−t ≤ s2 ≤ 1
F4 (s) = 1 1−t
x0 se 2 ≤ s1 ≤ 1, 0 ≤ s2 ≤ 2
f (2s1 − 1, 2s21+t
+t−1
1 1−t
, s3 , . . . , sn ) se 2 ≤ s1 ≤ 1, 2 ≤ s2 ≤ 1 .
φ : I × I ∋ (s, t) −
→ α(s)β(t) ∈ G .
abbiamo:
α · β(s) = φ ◦ γ1 (s), β · α(s) = φ ◦ γ2 (s) .
Quindi
I × I ∋ (s, t) −
→ F (s; t) = φ(tγ2 (s) + (1 − t)γ1 (s)) ∈ G
è un’omotopia tra α · β e β · α.
Osserviamo che, se X è uno spazio topologico, x0 ∈ X ed Y è la componente
connessa per archi di X contenente x0 , abbiamo πn (Y, x0 ) = πn (X, x0 ) per ogni
n ≥ 1, mentre l’insieme π0 (X, x0 ) è in corrispondenza biunivoca con le componenti
connesse per archi di X.
§3 Insiemi convessi in Rn
Un sottoinsieme K di Rn si dice convesso se per ogni coppia di punti x0 , x1 ∈ K
il segmento [x0 , x1 ] = {x0 + t(x1 − x0 ) | 0 ≤ t ≤ 1} è tutto contenuto in K.
Un’applicazione f : Rm − → Rn si dice affine se f (x0 + t(x1 − x0 )) = f (x0 ) +
t(f (x1 ) − f (x0 )) per ogni x0 , x1 ∈ Rm e per ogni t ∈ R.
Proposizione 3.1 Immagini dirette e inverse di convessi mediante applicazioni
affini sono convesse.
Dim. Siano K e K ′ due convessi compatti con parte interna non vuota. A meno
di una traslazione possiamo supporre che 0 sia un punto interno di K ∩ K ′ . La
funzione
qk (x)
Rn \ {0} ∋ x −
→ ∈R
qK ′ (x)
è continua e positivamente omogenea di grado 0. Ammette pertanto massimo e
minimo in Rn \ {0}. Ne segue che la
(
qk (x)
qK ′ (x) ·x se x 6= 0
g(x) =
0 se x=0
è un omeomorfismo di K su K ′ .
◦
Osserviamo infine che se K è un convesso compatto con 0 ∈ K, allora il quoziente
. continua bK × I ∋ (x, t) −
iniettivo dell’applicazione → tx ∈ K definisce un omeo-
morfismo di (bK × I) (bK × {0}) su K. Se φ : bK − → bK ′ è un omeomorfismo
tra le frontiere di due convessi compatti che contengono 0 come punto interno,
φ×idI
l’omeomorfismo bK × I −−−−→ bK ′ × I induce per passaggio al quoziente un omeo-
morfismo K − → K ′ che estende φ : bK −
→ bK ′ .
In particolare ogni convesso compatto con parte interna non vuota di Rn è omeo-
morfo a Dn e ha frontiera omeomorfa a Sn−1 .
XIII. GRUPPI DI OMOTOPIA 201
§4 Fibrati di Serre
p
Un fibrato topologico E − → B è il dato di due spazi topologici E, B e di
un’applicazione continua p : E − → B.
Chiamiamo E lo spazio totale, B la base e p la proiezione sulla base del fibrato
p
E− → B.
p
Una sezione continua del fibrato E −→ B su un aperto U di B è un’applicazione
continua s : U − → E tale che p ◦ s(b) = b per ogni b ∈ U . Indichiamo con Γ(U, E)
l’insieme delle sezioni continue di E su U .
p
Sia E −
→ B un fibrato; sia Y uno spazio topologico e sia φ : Y −→ B un’applica -
zione continua. Diciamo che f : Y − → E è un rilevamento di φ se è continua e
p ◦ f = φ.
p
Un fibrato topologico E − → B è un fibrato di Serre se per ogni intero n ≥ 0 ed
ogni coppia di applicazioni continue
f : In −
→ E ed F : In × I −
→ B tali che F (y, 0) = p(f (y)) per ogni y ∈ In
p
Lemma 4.1 Supponiamo che E − → B sia un fibrato di Serre. Fissiamo un punto
ξ0 ∈ E e sia b0 = p(ξ0 ) ∈ B. Sia n un intero non negativo. Per ogni φ ∈
C(In , 0; B, b0 ) esiste una f ∈ C(In , 0; E, ξ0 ) tale che φ = p ◦ f .
Definiamo φ̃(s; t) = φ(s) per ogni (s, t) ∈ In × I. Sia ψ : In+1 − → In+1 un omeo-
morfismo di In+1 in sè che trasformi bIn+1 \ {sn = 1} in bIn+1 ∩ {t = 0}. Per la
definizione di fibrato di Serre possiamo estendere h◦ψ −1 a un’applicazione continua
h̃ ◦ ψ −1 : In+1 −
→ E tale che p ◦ h̃ ◦ ψ −1 (s; t) = φ̃ ◦ ψ −1 (s; t) per ogni (s, t) ∈ In × I.
La h̃ definisce allora l’omotopia cercata.
p
Teorema 4.3 Sia E − → B un fibrato di Serre. Fissiamo un intero n ≥ 0 e siano
φ ∈ C(In+1 , B), f0 , f1 ∈ C(In+1 , E) tali che
p ◦ f0 = p ◦ f1 = φ
f0 (s′ , 0) = f1 (s′ , 0) ∀s′ ∈ In .
φ
U × F −−−−→ E U
πU y
p
y
U U .
Vale il seguente:
Teorema 5.1 Ogni fibrato localmente banale è un fibrato di Serre.
La dimostrazione si basa sul seguente criterio:
Lemma 5.2 Siano E, B spazi topologici e sia p : E − → B continua. Condizione
p
necessaria e sufficiente affinché E −
→ B sia un fibrato di Serre è che per ogni x ∈ B
p|p−1 (U )
vi sia un intorno U di x in B tale che p−1 (U ) −−−−−→ U sia un fibrato di Serre.
ι
è una successione esatta di insiemi puntati. Per n ≥ 1 le applicazioni πn (F, ξ0 ) −→ ∗
p∗ ∆
πn (E, ξ0 ), πn (E, ξ0 ) −→ πn (B, b0 ) e πn+1 (B, b0 ) −→ πn (F, ξ0 ) sono omomorfismi di
gruppi.
Dim. Il fatto che (6.4) sia un complesso di insiemi puntati e che p∗ , ι∗ , ∆ siano
omomorfismi di gruppi quando i due insiemi tra cui agiscono hanno una struttura
di gruppo, sono facili conseguenze delle definizioni. Dimostriamo l’esattezza.
Esattezza in πn (F, ξ0 ).
Sia f ∈ C(In , bIn ; F, ξ0 ), e supponiamo che ι∗ ([f ]) = 0. Ciò significa che esiste
un’applicazione continua F : In × I − → E tale che
n
F (s, 0) = f (s) ∀s ∈ I
F (s, t) = ξ0 ∀(s, t) ∈ (bIn ) × I
∀s ∈ In .
F (s, 1) = ξ0
Osserviamo che
1
b0 se 0 ≤ sn ≤ 2
p ◦ f (s) = 1
φ(s′ , 2sn − 1) se 2 ≤ sn ≤ 1 .
§7 Esempi
Gruppi di omotopia delle sfere
Sappiamo dai risultati dei parabrafi precedenti che:
m 0 se n ≤ m − 1
(7.1) πn (S , e0 ) =
Z se n = m.
0 se n ≤ 1
Z se n = 2
Z se n = 3
Z2 se n = 4
Z2 se n = 5
(7.3) πn (S2 , e0 ) =
Z12 se n = 6
Z2 se n = 7
Z2 se n = 8
Z3 se n = 9
... ...
3 0 se n≤2
(7.4) πn (S , e0 ) = 2
πn (S , e0 ) se n ≥ 3.
206 XIII. GRUPPI DI OMOTOPIA
L’uguaglianza segue qui dalla fibrazione di Hopf: infatti S2 è omeomorfo alla retta
proiettiva complessa CP1 . Allora l’applicazione naturale
S3 ⊂ C2 \ {0} ∋ z −
→ [z] ∈ CP1
p
definisce un fibrato localmente banale S3 −
→ S2 con fibra S1 . Dalla successione
esatta del fibrato:
−−−−→ ···
e quindi:
π1 (CPm , b) = 0
(7.10)
π2 (CPm , b) ≃ Z .
Abbiamo quindi:
Z se n=1
πn (SO(2), e) =
0 se n 6= 1 .
Z2 se n = 1
0 se n = 2
πn (SO(3), e) =
Z se n = 3
3
πn (S , e0 ) se n > 3
Z2 se n = 1
0 se n = 2
πn (SO(4), e) =
Z⊕Z se n = 3
3 3
πn (S , e0 ) ⊕ πn (S , e0 ) se n > 3 .
Se n ≥ 5 l’applicazione:
→ g(e0 ) ∈ Sn−1
SO(n) ∋ g −
definisce un fibrato localmente banale con fibra omeomorfa a SO(n − 1). Abbiamo
quindi la successione esatta:
−−−−→ ···
208 XIII. GRUPPI DI OMOTOPIA
e un omomorfismo surgettivo:
In particolare
−−−−→ ···
−−−−→ ···
da cui ricaviamo che:
definisce un fibrato localmente banale con fibra Sp(m − 1). Otteniamo perciò una
successione esatta:
−−−−→ ···
Quindi:
In particolare
§8 Rivestimenti
In questo paragrafo tutti gli spazi topologici che considereremo saranno di Hau-
sdorff, connessi e localmente connessi per archi.
Chiamiamo rivestimento in senso stretto un fibrato topologico localmente banale
p
E −→ B in cui E e B sono spazi di Hausdorff connessi e localmente connessi per
archi, con fibre discrete.
Nel seguito useremo la parola rivestimento al posto della locuzione rivestimento
in senso stretto.
Osserviamo che la cardinalità delle fibre Eb = p−1 (b) di un rivestimento è local-
mente costante e quindi costante: essa si dice il numero di fogli del rivestimento.
Esempio 1
L’applicazione S1 ∋ z − → z n ∈ S1 è un rivestimento a n fogli.
L’applicazione R ∋ t − → e2πit = cos(2πt) + i sin(2πt) ∈ S1 è un rivestimento a
un’infinità numerabile di fogli.
Esempio 2
→ [x] ∈ RPn è un rivestimento a due fogli.
L’applicazione Sn ∋ x −
Esempio 3
Consideriamo la relazione di equivalenza ∼ su R2 generata dalle (x, y) ∼ (x, y+1)
e (x, y) ∼ (x+1, −y). La proiezione nel quoziente π : R2 − → R2 /∼ è un rivestimento
a infiniti fogli. (Il quoziente R /∼ è la bottiglia di Klein.)
2
Esempio 4
Sia p(z) ∈ C[z] un polinomio a coefficienti complessi di grado m ≥ 1 e sia K
l’insieme dei valori critici di C ∋ z −
→ p(z) ∈ C. Allora C \ p−1 (K) − → C \ K è un
rivestimento a m fogli.
210 XIII. GRUPPI DI OMOTOPIA
p
Teorema 8.1 (Rialzamento dei cammini) Sia E − → B un rivestimento e sia
s:I− → B un arco. Sia ξ0 ∈ E con p(ξ0 ) = s(0). Esiste un’unico arco s̃ : I −
→E
tale che
p ◦ s̃(t) = t ∀t ∈ I e s̃(0) = ξ0 .
Allora la s̃ : I −
→ E cosı́ definita è un arco che rialza s (cioè p◦s̃ = s) e s̃(0) = ξ0 . Per
dimostrare l’unicità, osserviamo che per ogni j = 1, ..., k l’immagine della [tj−1 , tj ] ∋
→ s̃(t) ∈ E è contenuta nella componente connessa φij Uij × f ij (s̃(tj−1 )) di
t −
−1
p (Uij ), su cui p definisce un omeomorfismo con Uij e quindi s̃ è univocamente
determinata su [tj−1 , tj ].
p
Teorema 8.2 (Rialzamento dell’omotopia) Sia E − → B un rivestimento.
Sia X uno spazio topologico connesso e localmente connesso per archi e siano f :
X− →E e Φ:X ×I− → B due applicazioni continue tali che p ◦ f (x) = Φ(x, 0) per
ogni x ∈ X. Allora esiste un’unica applicazione continua F : X × I − → E tale che
F (x, 0) = f (x) e p ◦ F = Φ.
(9.1) φ:G∋g−
→ {X ∋ x −
→ gx ∈ X} ∈ Sc (X) .
Dim. Sia [α] ∈ π1 (B, b0 ) con α ∈ C(I, {0, 1}; B, b0 ), sia α̃ il suo rialzamento con
punto iniziale ξ0 e sia g ∈ G l’unico elemento tale che gξ0 = α̃(1). Poiché α̃(1) è
univocamente determinato dalla classe di omotopia di α, otteniamo un’applicazione
ψ : π1 (B, b0 ) −
→ G. Essa è surgettiva perché E è connesso per archi. È un
omomorfismo di gruppi perchè, se α e α̃ sono definiti come sopra, il rialzato di α
con punto iniziale gξ0 è g α̃. Infine, il nucleo di ψ è p∗ π1 (E, ξ0 ).
e quindi
p∗ (π1 (E, ξ0 )) = ω∗ ◦ ̺∗ (π1 (E, ξ0 )) ⊳ ω∗ (π1 (E/G, ̺(ξ0 ))).
Dunque ω∗ (π1 (E/G, ̺(ξ0 ))) ⊂ N(p∗ (π1 (E, ξ0 ))) e ci resta solo da dimostrare l’in -
clusione opposta.
A questo scopo mostriamo come ad ogni elemento [α] di N(p∗ (π1 (E, ξ0 ))) si
possa associare un automorfismo f[α] del rivestimento. Sia α ∈ C(I, {0, 1}; B, b0 )
un rappresentante di [α]. Dato ξ ∈ E, sia γ ∈ C(I, 0, 1; ξ0 , ξ) e consideriamo il
rialzamento α−1 ^ · p ◦ γ di α−1 · p ◦ γ con punto iniziale ξ0 . Dico che α−1^ · p ◦ γ(1)
′
dipende solo dal punto ξ e non dall’arco γ scelto. Se infatti γ ∈ C(I, 0, 1; ξ0 , ξ)
è un altro arco con punto iniziale ξ0 e stesso punto finale ξ, abbiamo γ ′ · γ −1 ∈
C(I, {0, 1}; E, ξ0 ) e per ipotesi il rialzamento del laccetto α−1 · p ◦ γ ′ · ◦γ · α con
punto iniziale ξ0 è ancora un laccetto in ξ0 . Ma questo implica che α−1 ^ · p ◦ γ(1) =
α−1^
· p ◦ γ ′ (1).
π1 (A, x0 ) ∗ π1 (B, x0 )
(11.1) π1 (X, x0 ) ≃ .
N(A, B, x0 )
XIV. GEOMETRIA DIFFERENZIALE DELLE CURVE 215
CAPITOLO XIV
§1 Curve parametriche in Rn .
Una curva parametrica di classe C k in Rn è una applicazione differenziabile di
classe C k :
(1.1) → Rn
α:J −
α̇(t) = Dα(t) 6= 0 ∀t ∈ J.
σ : J′ −
→J
α ◦ σ : J′ −
→ Rn
è ancora una curva parametrica di classe C k , che si dice ottenuta da α per ripara-
metrizzazione. La riparametrizzazione definisce una relazione di equivalenza tra le
curve parametriche di classe C k . Le corrispondenti classi di equivalenza si dicono
curve geometriche o semplicemente curve. Si ricava immediatamente dal teorema
delle funzioni implicite:
Proposizione 1.1 Il supporto di una curva semplice regolare di classe C k è una
sottovarietà differenziabile di classe C k di dimensione 1 di Rn .
Due curve semplici, regolari, aperte, di classe C k sono equivalenti se e soltanto
se hanno lo stesso supporto.
216 XIV. GEOMETRIA DIFFERENZIALE DELLE CURVE
xy = {tx + (1 − t)y|t ∈ R}
L0 = {x − y|x ∈ L}
è un sottospazio vettoriale di Rn , che non dipende dalla scelta del punto y ∈ L usato
per definirlo. La dimensione di L0 come sottospazio vettoriale si dice dimensione
del sottospazio affine L. Un sottospazio affine di dimensione m si può descrivere in
forma parametrica mediante
→ Rn
α:J −
per ogni t ∈ J. Fissiamo un punto t0 ∈ J e sia ξ 1 , ..., ξ n−m una base dell’annullatore
del sottospazio vettoriale di Rn generato da Dα(t0 ), ..., Dm α(t0 ). Definiamo le
funzioni di classe C 1 su J:
wi,j (t) = ξ j (Di α(t))
per i = 1, ..., m, j = 1, ..., n − m. Esse sono soluzione del problema di Cauchy
omogeneo:
ẇi,j = wi+1,j
i = 1, ..., m − 1
ẇm,j = λ1 (t)w1,j + ... + λm (t)wm,j i = m
wi,j (t0 ) = 0 i = 1, ..., m
ha rango n in tutti i punti di J. Per la Proposizione 1.2 nessun arco di una curva
sghemba è contenuto in un sottospazio affine proprio di Rn . Fissato un punto
t0 ∈ J, associamo a tale punto i sottospazi affini:
e dunque
Aβk (t) = Aα σ
k (σ(t))Tk (t)
x−
→ gx + v
Rn ≃ G1 /G.
Gli ultimi due si dicono rispettivamente i gruppi delle matrici triangolari superiori
e triangolari inferiori invertibili, D(n) il gruppo delle matrici diagonali.
Data una matrice n × n
M = (mij )
indichiamo con
Mji11...j
...ih
h
1...h
Dh (M ) = M1...h
e conveniamo che
D0 (M ) = 1
per ogni matrice M .
Una matrice M si dice regolare se
Dh (M ) 6= 0 per h = 1, ..., n.
Dim. Scriviamo
M = (M1 , ..., Mn )
M z = (M1′ , ..., Mn′ ).
Allora
Mj′ = M1 z1j + ... + Mj−1,j zj−1,j + Mj
e dunque
M1′ ∧ ... ∧ Mh′ = M1 ∧ ... ∧ Mh
per ogni h = 1, ..., n, da cui segue l’asserzione sui determinanti dei minori.
Lemma 1.6 Sia t = (tij ) ∈ T− (n). Allora:
1...(h−1)r
(ii) t1...h = trh Dh−1 (t).
XIV. GEOMETRIA DIFFERENZIALE DELLE CURVE 221
Lemma 1.7 Ogni matrice regolare M si decompone in modo unico nella forma
M = tz
Questo ha una e una sola soluzione, perché il determinante della matrice dei suoi
coefficienti è Dk−1 (M ). Essa si calcola con la regola di Kramer, e dunque è funzione
razionale dei coefficienti di M . Posto xii = 1 e xij = 0 per i < j, abbiamo allora
M (xij ) = t ∈ T− (n)
1...(h−1)r 1...(h−1)r
M1...h = t1...h = trh Dh−1 (t) = trh Dh−1 (M ).
È quindi
1...(h−1)r
trh = M1...h /Dh−1 (M ).
La decomposizione di Gauss segue ora dall’osservazione che ogni matrice t ∈ T− (n)
si scrive in modo unico mediante:
t = ζδ
con ζ ∈ Z− (n) ove δ ∈ D(n) ha la stessa diagonale principale della matrice t.
222 XIV. GEOMETRIA DIFFERENZIALE DELLE CURVE
e abbiamo
t
aa = tkk.
Da questa uguaglianza segue immediatamente che
u = ak −1 ∈ O(n).
Infatti:
t
u u = tk −1 ta a k −1 = tk −1 tk k k −1 = I .
Abbiamo cosı̀ ottenuto la decomposizione di Gram a = uk. Essa è unica perché, se
a = uk
t
aI1,n a = I1,n
t
XI1,n + I1,n X = 0
a = uk
O(1, n) × K+ (n + 1) ∋ (u, k) −
→ uk ∈ GL(n + 1)
su ogni sottospazio che contenga un vettore di tipo tempo. Quindi t aI1,n a ammette
un’unica decomposizione di Gauss
t
aI1,n a = ζδz
∆ = diag(k0 , k1 , ..., kn ),
otteniamo
δ = ∆I1,n ∆.
Poniamo a questo punto
k = ∆z ∈ K+ (n + 1).
Otteniamo
t
aI1,n a =t kI1,n k.
Se poniamo
u = ak −1
risulta allora u ∈ O(1, n) e questo ci dà la decomposizione cercata. L’unicità segue
da considerazioni analoghe a quelle svolte per la decomposizione di Gram.
α−1 (t)α̇(t) ∈ g ∀t ∈ J.
(ii) Viceversa, se
A:J −
→g
è una curva differenziabile di classe C k , con k ≥ 0, t0 ∈ J, allora la soluzione del
problema di Cauchy lineare:
α̇(t) = α(t)A(t) t ∈ J
(C)
α(t0 ) = g0 ∈ G
U0 ∋ X −
→ exp(X) ∈ Ue = exp(U0 )
XIV. GEOMETRIA DIFFERENZIALE DELLE CURVE 225
J ∋t−
→g
abbiamo
d
exp(−X(t)) exp(X(t)) ∈ g
dt
per ogni t ∈ J. Più precisamente ricordando la formula di differenziazione dell’espo -
nenziale:
d
exp(−X(t)) exp(X(t)) = H(X(t))Ẋ(t)
dt
ove
I − e−Ad(X)
H(X) = exp(−X) exp(X)
Ad(X)
è un’applicazione analitica
g∋X−
→ H(X) ∈ gl(g)
con
H(0) = Idg .
Quindi il problema di Cauchy non lineare:
d
exp(−X(t)) dt exp(X(t)) = H(X(t))Ẋ(t) = A(t)
X(t0 ) = 0
ammette un’unica soluzione, che è una funzione di classe C k+1 definita su un intorno
connesso J ′ di t0 in J, a valori in g. Allora
g0 exp(X(t))
cui α(t) ∈ G è aperto J. Esso è anche chiuso perché abbiamo supposto G chiuso in
GL(n), quindi coincide con J perché è non vuoto contenendo t0 .
→ Rn
α : [t0 , t1 ] −
β̇(t) = uα̇(t)
e dunque
|β̇(t)| = |α̇(t)|
su [t0 , t1 ]. La lunghezza di una curva è dunque invariante per isometrie di Rn .
Supponiamo ora che due curve
→ Rn
αi : Ji −
per ogni t ∈ J1 .
XIV. GEOMETRIA DIFFERENZIALE DELLE CURVE 227
Sia ora
→ Rn
α:J −
una curva regolare di classe C k (k ≥ 1). Allora, fissato t0 ∈ J, la funzione
Z t
s(t) = |α̇(ξ)|dξ
t0
Ricaviamo ora dalla decomposizione di Gram gli invarianti euclidei di una curva
sghemba. Sia
α:J − → Rn
una curva sghemba. Indichiamo con A(t) la matrice di GL(n):
A(t) = E(t)K(t)
con
E(t) = (e1 (t), ..., en (t)) ∈ O(n)
e
K(t) ∈ K+ (n).
Osserviamo che, se α è di classe C k con k ≥ n, allora i coefficienti di E(t) sono
funzioni di classe C k−n+1 e quelli di K(t) sono funzioni di classe C k−n .
228 XIV. GEOMETRIA DIFFERENZIALE DELLE CURVE
e dunque avremo
E ασ (t) = E α (σ(t))
se σ̇ > 0 (la riparametrizzazione conserva il verso della curva)
−1 0 0 . . . 0
0 1 0 ... 0
E ασ (t) = E α (σ(t)) 0 0 −1 . . . 0
. .. .. .. ..
.. . . . .
0 0 0 . . . (−1)n
se σ̇ < 0 (la riparametrizzazione cambia il verso della curva). In quest’ultimo caso
sarà eα i ασ
i (σ(t)) = (−1) ei (t) per i = 1, ..., n.
Se la curva α è parametrizzata per lunghezza d’arco, allora i coefficienti sulla
diagonale principale della matrice triangolare superiore K(t) nella decomposizione
di Gram di A(t) sono degli invarianti della curva. Osserviamo che k11 = 1 e
dunque gli elementi dalla diagonale di K(t) definiscono lungo la curva n−1 funzioni
invarianti rispetto all’azione di O1 (n). Definiamo a partire da essi le curvature di
α mediante:
ki+1,i+1 (s)
ki (s) = .
kii (s)
Se non supponiamo la curva parametrizzata per lunghezza d’arco avremo
ki+1,i+1 (t)
ki (t) = .
kii (t)|α̇(t)|
Dim. Diamo una dimostrazione indipendente dal Teorema 2.4. (i) Differenziando
l’identità
t
E(t)E(t) = Id
troviamo
t
(*) E ′ (t)E(t) +t E(t)E ′ (t) = 0,
t
X(t) + X(t) = 0
Poiché M (t0 ) = Id ne segue che M (t) = Id per ogni t ∈ J e quindi E(t) ∈ O(n).
è della forma:
0 −k1 (t) 0 0 ... 0 0
k1 (t) 0 −k2 (t) 0 ... 0 0
0 k2 (t) 0 −k3 (t) ... 0 0
Ω(t) = |α̇(t)| 0 0 k3 (t) 0 ··· 0 0 .
. .. .. .. .. .. ..
. .
. . . . . .
0 0 0 0 ... 0 −kn−1 (t)
0 0 0 0 ... kn−1 (t) 0
Poiché ej (t) è combinazione lineare di Dα(t), ..., Dj α(t), ėj (t) è combinazione li-
neare di Dα(t), ..., Dj α(t), Dj+1 α(t) e dunque ortogonale a ei se i > j + 1. Essendo
Ω(t) antisimmetrica, si conclude che ωij (t) = 0 se |i − j| 6= 1.
Per calcolare i coefficienti di Ω(t), supponiamo dapprima che α sia di classe
C n+1 . Allora la A(t) e quindi anche la K(t) nella decomposizione di Gram di A(t)
è di classe C 1 . Posto
A′ (t) = A(t)M (t)
otteniamo:
Il sistema di equazioni
E ′ (t) = E(t)Ω(t)
XIV. GEOMETRIA DIFFERENZIALE DELLE CURVE 231
s−
→ ǫs + s0
è bigettiva da J2 su J1 e
kj1 (s) = kj2 (ǫs + s0 ) ∀s.
(ii) Assegnate n − 1 funzioni continue a valori positivi:
→R
kj : J −
data da
Ω(s) = (kj (s)[δi,j+1 − δj,i+1 ])i,j=1,...,n .
Allora i riferimenti di Frenet E αi (s) delle due curve soddisfano lo stesso sistema di
equazioni differenziali ordinarie:
Sia u = E α1 (0) ∈ O(n), w = E α2 (0) ∈ O(n). Allora per l’esistenza e unicità della
soluzione di (*) per una condizione iniziale E(0) = g ∈ O(n) assegnata, troviamo
che deve essere
E α2 (s) = wu−1 E α1 (s) ∀s ∈ J.
Quindi, posto g = wu−1 , avremo in particolare
da cui
α2 (s) = gα1 (s) + x0 ∀s ∈ J
per un opportuno x0 ∈ Rn . (ii) La curva cercata è l’unica soluzione delle equazioni
di Frenet e del sistema
α̇(t) = e1 (t)
con le condizioni iniziali assegnate.
Questo teorema ci dice che la lunghezza d’arco e le curvature costituiscono
un sistema completo di invarianti indipendenti per le curve sghembe dello spazio
euclideo. Dalla discussione della O1 (n) congruenza si deduce immediatamente
quella della SO1 (n) congruenza. In questo caso dobbiamo prendere in conside-
razione un altro invariante delle curve parametriche sghembe: il segno del deter-
minante della matrice A(t) = (Dα, ..., Dn α). Se questo è positivo, diciamo che la
curva parametrica α ha torsione positiva, se è negativo diciamo che la curva ha
torsione negativa. Si dice torsione della curva la n − 1-esima curvatura con il segno
+ se la torsione è positiva e con il segno − se la torsione è negativa. Osserviamo che
il segno della torsione è il determinante del riferimento di Frenet. Un cambiamento
dell’orientazione di una curva parametrica in Rn ne cambia il segno della torsione
se il numero n(n + 1)/2 è dispari, mantiene inalterato il senso della torsione se esso
è pari. Abbiamo dunque:
Teorema 2.5 Se n(n+1)/2 è dispari, due curve sghembe sono SO1 (n) congruenti
se e soltanto se sono O1 (n) congruenti. Se n(n + 1)/2 è pari, due curve sghembe
sono SO1 (n) congruenti se e soltanto se hanno torsione dello stesso segno e sono
O1 (n) congruenti.
In uno spazio euclideo di dimensione n con n(n + 1)/2 pari si usano definire
levogire le curve con torsione positiva e destrogire le curve con torsione negativa. Il
significato geometrico del segno della torsione è diverso a seconda che la dimensione
n dello spazio sia pari o dispari. Nel caso della dimensione dispari è il seguente: i
vettori e1 , ..., en−1 del riferimento di Frenet in un punto α(t) di una curva sghemba
α:J − → Rn determinano univocamente un iperpiano e su di esso un’orientazione.
Risulta cioè univocamente indviduato un vettore n tale che (e1 , ..., en−1 , n) ∈
SO(n). Diremo che i punti
arco della curva contenente α(t) sarà tutto contenuto nel semispazio superiore se
la torsione è positiva, nel semipiano inferiore se la torsione è negativa.
Riscriviamo in particolare le equazioni di Frenet per curve piane e curve nello
spazio ordinario.
In R2 , le equazioni di Frenet di una curva parametrizzata per lunghezza d’arco
sono date da:
ė1 = k(s)e2
ė2 = −k(s)e1
Esempi
1. In R2 le curve con curvatura costante sono archi di circonferenza: infatti per
R ∋ k > 0,il sistema
ė1 = ke2
ė2 = −ke2
con (e1 (s), e2 (s)) ∈ O(2) ha soluzione generale
cos(ks + s0 )
e1 (s) =
sin(ks + s0 )
− sin(ks + s0 )
e2 (s) =
cos(ks + s0 )
e dunque le curve con curvatura costante k sono descritte da:
k −1 sin(ks + s0 ) + a
α(s) =
−k −1 cos(ks + s0 ) + b
con a, b ∈ R. Osserviamo che una curva che descrive una circonferenza risulterà
avere torsione positiva o negativa a seconda che ne descriva la frontiera (per valori
crescenti del parametro) in senso antiorario o orario.
2. Consideriamo ora curve in R3 con curvature k1 , k2 > 0 costanti. Fissiamo un
angolo θ ∈ (0, π/2) tale che
tan θ = k1 /k2 .
Se (e1 (s), e2 (s), e3 (s)) è il riferimento di Frenet lungo una curva con curvature
k1 , k2 > 0 costanti, consideriamo il vettore
con
k1
h=
sin θ
e da questa ricaviamo che la curva cercata è isometrica a una curva della forma
(cos θ)s
α(s) = −h−1 (sin θ) sin(hs)
h−1 (cos θ) cos(hs)
La conclusione segue quindi dalla discussione delle curve piane a curvatura costante
dell’esempio 1.
Curve di questo tipo si dicono eliche circolari.
In generale la condizione che il rapporto tra le due curvature sia costante implica
che la tangente alla curva α in ogni punto forma un angolo costante con una
direzione assegnata w: infatti la (*) vale quando k1 /k2 = costante = tan θ. Curve
con questa proprietà si dicono eliche.
Consideriamo un’elica generale. Definiamo la curva:
Abbiamo
d
(w|β) = (e1 |w) − cos θ = 0
dt
e dunque la curva β è una curva piana su un piano affine
(w|x) = costante.
Indichiamo con
(ǫ1 , ǫ2 )
XIV. GEOMETRIA DIFFERENZIALE DELLE CURVE 235
e1 − w cos θ
ǫ1 =
sinθ
e dunque la curva β verifica le equazioni:
(
ǫ̇1 = ksin
1 (s)
θ ǫ2
(**) k1 (s)
ǫ̇2 = − sin θ ǫ1
per una curva piana β in un piano ortogonale a w, la cui forma si ricava dall’equa -
zione (**).
E:J −
→ SO(n)
tale che
A(t) = (Dα(t), ..., Dn−1 α(t), Dn α(t)) = E(t)K(t)
dove K(t) è una matrice triangolare superiore
con kii (t) > 0 per i < n, mentre knn (t) può assumere qualsiasi valore reale. Come
abbiamo osservato nel §2, il numero
−1
τ (t) = |α̇(t)|−1 kn−1,n−1 (t)knn (t)
→ S1
J−
→R
θ:J −
d
ρ(θ(t)) = ρ(θ(t))Ω(t)
dt
e, poiché
d π π
ρ(θ) = ρ θ + = ρ(θ)ρ
dθ 2 2
otteniamo π
θ̇(t)ρ (θ(t)) ρ = ρ(θ)Ω(t).
2
Ora, possiamo scrivere
π
Ω(t) = k(t)|α̇(t)|ρ( )
2
dove k(t) è la curvatura della curva orientata α in t, e dunque le equazioni di Frenet
si riducono all’unica equazione scalare:
θ̇(t) = |α̇(t)|k(t).
Esempio. Determiniamo una curva piana α con la proprietà che la sua tangente
in ogni punto α(t) formi un angolo costante φ ∈ [0, π/2] con la retta uscente
dall’origine e passante per il punto α(t).
XIV. GEOMETRIA DIFFERENZIALE DELLE CURVE 237
Dalla condizione:
|α̇|−1 |α|−1 (α̇|α) = cos φ
ricaviamo: q
ṙ(t) = cos φ ṙ2 (t) + r2 θ̇2 (t).
Calcolando i quadrati delle due espressioni otteniamo:
ṙ(t)
sin φ = ±θ̇(t) cos φ
r(t)
e dunque integrando otteniamo, a seconda della scelta del segno, le due curve:
r(θ) = r0 eaθ
Una curva di questo tipo si dice una spirale logaritmica. La sua curvatura in ogni
punto è data da
dθ dθ dα
= /| |.
ds dθ dθ
Abbiamo quindi:
|k(θ)| = r0−1 sin φe−aθ .
SU (2) ≃ S 3 ∋ u −
→ ru ∈ SO(3)
238 XIV. GEOMETRIA DIFFERENZIALE DELLE CURVE
associa al quaternione u, che scriveremo come u = cos θ11 + sin θu′ con u′ puramente
immaginario, la rotazione di angolo 2θ intorno all’asse u′ .
Sia ora E : J − → SO(3) un arco di classe C 1 . Fissato t0 ∈ J e un elemento
g0 ∈ SU (2) tale che rg0 = E(t0 ), possiamo rialzare in modo unico E a una curva
di classe C 1 g : J −
→ SU (2) in modo che il diagramma:
E
J −−−−→ SO(3)
x
J −−−−→ SU (2)
g
sia commutativo.
Differenziando la relazione ḡ · g = 1, otteniamo
ḡ · g ′ + ḡ ′ · g = 0, cioè ḡ · g ′ = −ḡ · g ′ ,
E(t)Ω(t)(v) = g(t) · (Ω(t)(v)) · ḡ(t) = g ′ (t) · v · ḡ(t) − g(t) · v · ḡ(t) · g ′ (t) · ḡ(t)
da cui
Ω(t)(v) = Ω̃(t) · v − v · Ω̃(t) = 2 Ω̃(t) × v
ove ”×” indica il prodotto esterno in R3 . Il vettore Ω̃ ha allora coordinate Euclidee
τ k τ k
2 , 0, 2 , ovvero è il quaternione 2 i + 2 k. Le equazioni di Frenet si scrivono quindi
nella forma:
′ 1 τ k
g (t) = g(t) · Ω̃(t) = g(t) · i+ k .
2 2 2
1. File: Alcuni esercizi di topologia generale
4. L’insieme D2 è connesso?
5. L’insieme D1 è compatto?
6. L’insieme D2 è compatto?
Soluzione.
1. L’insieme Cn ha un unico punto all’infinito, indipendente da n.
Infatti R2 corrisponde al piano affine di R3 dato dall’equazione z = 1.
I punti di Cn corrispondono quindi alle rette r(y, n) di R3 passanti
per i punti del tipo (n, y, 1). Per y → ±∞ la retta r(y, n) tende alla
retta per (0, 1, 0) indipendentemente da n. Per cui D1 = ∪n=1,...,10 Cn ∪
{[(0, 1, 0)]}.
2. I punti limite per che si ottengono da r(y, n) facendo tendere r
ed n all’infinito sono tutte le possibili rette passanti per punti del tipo
(a, b, 0), ovvero l’intera retta all’infinito. Quindi D2 = ∪n∈N Cn Piú la
retta all’infinito.
3. Per quando detto nel punto 1, l’insieme D1 è costituito da un’unione
finita di insiemi del tipo Cn ∪ {[(0, 1, 0)]}, ognuno dei quali è con-
nesso in quanto omeomorfo a S 1 . Tali insiemi si intersecano nel punto
{[(0, 1, 0)]} e quindi D1 risulta connesso in quanto unione di connessi
con intersezione non vuota.
4. Lo stesso argomento del punto 3 si applica al caso di D2 .
5,6. P2 (R) è compatto, ergo sia D1 che D2 sono compatti in quanto
chiusi di un compatto.
Esercizio 5. Per n = 0, 1, · · · , sia
An = {(x, y) ∈ R2 : x ≥ 0, nx ≤ y ≤ (n + 1)x},
e sia [
A= Aon ,
dove o indica la parte interna di un insieme, cioè l’insieme dei punti
interni.
S
1. An è chiuso?
2. Determinare Ao , A, (A)o , e la frontiera ∂A di A.
3. Determinare le componenti connesse di A e quelle di A.
Sia R la relazione di equivalenza su A0 definita da :
(x, y)R(x′ , y ′ ) se (x, y) = (x′ , y ′ ) oppure
(x, y), (x′ , y ′ ) ∈ ∂A0 e dR2 ((x, y), (0, 0)) = dR2 ((x′ , y ′ ), (0, 0)).
4. Dimostrare che il quoziente A0 /R è omeomorfo a R2 .
Soluzione.
1. No. I punti del tipo (0, y) stanno nella chiusura di ∪An ma non
stanno in nessuno degli An .
2. A è aperto in quanto unione di aperti e coincide quindi con la sua
parte interna. La chiusura di A è il primo quadrante chiuso, la parte
interna della chiusura di A è il primo quadrante aperto, la frontiera di
A è la differenza tra la sua chiusura e la sua parte interna ed è formato
4
quindi dall’unione dei semi assi positivi e delle semirette {y = nx, x >
0}.
3. Aon è connesso (è connesso per archi) e aperto. A è unione dis-
giunta degli Aon , ne segue che le componenti connesse di A sono esat-
tamente gli insiemi A0n .
4. A0 è il settore tra l’asse orizzontale e la semiretta a 45 gradi (che è
2π/8). Quindi un omeomorfismo siu può costruire in coordinate polari
ponendo (ρ, θ) 7→ (ρ, 8θ).
Esercizio 6. Si considerino le seguenti topologie su R2 :
S: La topologia standard
Z: La topologia di Zariski: la meno fine tra le topologie contenenti
(come aperti) gli insiemi della forma
UP = {(x, y) ∈ R2 |P (x, y) 6= 0}
con P ∈ R[x, y] polinomio.
C: La topologia su R2 = R × R prodotto della topologia cofinita su R.
D: La topologia cofinita su R2 .
1. Comparare a due a due le topologie sopra definite stabilendo quale
sia la più fine.
2. Caratterizzare la topologia indotta da Z su una qualsiasi retta
l ⊆ R2 .
3. Per ognuna delle topologie dire se lo spazio topologico è: separa-
bile, Hausdorff, connesso, quasicompatto. (quest’ultima domanda può
essere non facile per Z.)
4. Quale di queste topologie è metrizzabile (esiste cioè una metrica
che induce tale topologia)?
Soluzione. Ricordiamo che una topologia τ si dice piú fine di un’altra
τ1 se ha piú aperti (ossia se ogni di τ1 è anche aperto di τ ).
1. S è strettamente piú fine di Z che è strettamente piú fine di C
che è strettamente piú fine di D. Infatti:
• S è piú fine di Z in quando gli zeri di polinomi sono chiusi
per la topologia standard e quindi i loro complementari aperti.
D’altro canto l’unico aperto di Z limitato è il vuoto, quindi Z
non è equivalente a S.
• Z è piú fine di C. Infatti una base per C è formata dai com-
plementari degli insiemi del tipo ({a1 , . . . , an } × R) ∪ (R ×
{b1 , . . . bk }) e dati a1 , . . . , an e b1 , . . . bk , il polinomio P (x, y) =
[(x−a1 ) · · · (x−an )][(y−b1 ) · · · (y−bk )] si annulla su ({a1 , . . . , an }×
R) ∪ (R × {b1 , . . . bk }). Per dimostrare che le due topologie non
sono equivalenti basta considerare il polinomio P (x, y) = x − y.
Non esiste nessun elemento della base di C che sia contentuno
in UP (che quindi non è aperto in C).
• C è piú fine di D. Infatti una base per D è costituita dagli
insiemi che sono complementari di un punto. Tali insiemi sono
5
xRy se x = y oppure x + y = 0,
e X := R/R dotato della topologia quoziente.
1. X è Hausdorff?
2. X è omeomorfo a R?
Sia ora R la relazione di equivalenza su R2 definita da:
(x1 , x2 )R(y1 , y2 ) se x1 = y1 e x2 = y2 oppure x1 + y1 = 0 e x2 + y2 = 0,
e sia Y = R2 /R.
3. Y è Hausdorff?
4.(*) Y è omeomorfo a R2 ?
Soluzione. La classe di equivalenza di x ∈ R è data da [x] = {x, −x}.
Sia R+ = {x ∈ R : x ≥ 0} con la topologia indotta da R e sia f : X →
R+ definita da f ([x]) = |x|. Ovviamente tale funzione è ben definita.
In oltre, se F : R → R+ è definita da F (x) = |x| e se π : R → X è
la proiezione naturale, è chiaro che F = f ◦ π. Essendo F continua e
aperta (R+ è dotato della topologia indotta!!!) lo è pure f ; essendo f
biunivoca è quindi un omeomorfismo. Ne segue che:
1. X è Hausdorff in quanto R lo è ed R+ ⊂ R.
7
1.X/ ∼ è quasi-compatto?
2. X/ ∼ è connesso?
3. X/ ∼ è localmente euclideo? (Uno spazio topologico si dice
localmente euclideo se ogni suo punto ha un intorno omeomorfo a un
aperto di Rd .)
Soluzione. X è omeomorfo a una circonferenza con due “punti
doppi” quindi non è Hausdorff, è quasi-compatto ed è localmente eu-
clideo. Formalizziamo ora tale affermazione.
Siano Y1 = X0 ∪ X1 e Y2 = X2 ∪ X3 con le relazioni ∼1 e ∼2 definite
da (x, 0) ∼1 (1/x, 1) e (x, 2) ∼2 (1/x, 3). Sia Zi = Yi / ∼i e siano
S1 = [(0, 0)], N1 = [(0, 1)] ∈ Z1 e S2 = [(0, 2)], N2 = [(0, 3)] ∈ Z2 , N
ed S stanno per “polo Nord” e “polo Sud”. Andiamo a dimostrare che
Zi è una circonferenza per i = 1, 2 e che X è ottenuto indetificando i
punti di Z1 con quelli di Z2 tranne che i poli. Esaminiamo Z1 , per Z2
sará uguale.
Sia C la circonferenza di centro zero e raggio 1/2 in R2 . C è tan-
gente a X0 in P0 = (0, 0) e a X1 in P1 = (0, 1). Sia f0 la proiezione
stereografica di X1 su C con polo in (0, 0): f0 (x, 1) è il punto di in-
tersezione tra C e la retta passante per (0, 0) e (x, 1). Similmente sia
f1 la proiezione stereografica di X0 su C con polo (0, 1). Sia ora P =
(x, 1) ∈ X1 e sia Q = (y, 0) il punto definito da (y, 0) = f1−1 (f0 (x, 1)).
I triangoli P P1 P0 e P1 P0 Q sono simili e il diametro P1 P0 di C è 1. Ne
segue che y = 1/x. Sia F : Y1 → C definita da F (x, 1) = f0 (x, 1) e
F (y, 0) = f1 (y, 0). F è continua e aperta, in oltre, per il conto appena
fatto F passa al quoziente e definisce una funzione f : Z1 → C continua
8
FLAMINIO FLAMINI
Fino ad ora abbiamo introdotto gli spazi proiettivi "aggiungendo" punti agli spazi cartesiani Rn
usuali, n ≥ 1, seguendo la visione storica del punto di vista di Désargues, basato sugli studi di prospettiva
da parte di architetti e pittori del Rinascimento. Abbiamo visto che i punti "aggiunti" a Rn si considerano
come punti all'innito od impropri di Rn e che questi punti impropri hanno un'interpretazione geometrica
di direzioni in un opportuno spazio cartesiano Rn+1 piu' grande, con coordinate X0 , X1 , . . . , Xn , in cui
lo spazio cartesiano Rn di partenza si identica classicamente con l'iperpiano di equazione cartesiana
X0 = 1
e si intepreta come uno schermo su cui le varie direzioni (o rette vettoriali) uscenti dall'origine O di Rn+1
si proiettano (vedasi PARAGRAFO 13.1 del testo e Figura 1 qui sotto)
Poiche' e' del tutto naturale richiedere che i punti di una "struttura geometrica" abbiano tutti la
medesima natura, si rende necessaria una diversa introduzione alla Geometria Proiettiva, in modo tale
da renderla indipendente dalla geometria ane ed euclidea dello spazio cartesiano Rn .
1
2 FLAMINIO FLAMINI
in Denizione 1.
(ii) E' opportuno rilevare che, per costruzione, [0, 0, . . . , 0] non e' MAI denito in Pn (R). In altri termini,
per ogni punto P = [X0 , X1 , . . . , Xn ] ∈ Pn (R), esiste sempre almeno una coordinata Xi 6= 0, 0 ≤ i ≤ n.
Nei paragra seguenti reinterpretiamo le considerazioni fatte in PARAGRAFO 13.1 del testo
con questa nuova costruzione formale di Pn (R).
1.1. Retta proiettiva P1 (R). Per quanto descritto precedentemente, si ha
P1 (R) := {[X0 , X1 ] | (X0 , X1 ) 6= (0, 0), Xi ∈ R}
con l'ulteriore condizione che per (X0 , X1 ), (λX0 , λX1 ) ∈ R2 \ {0}, λ ∈ R \ {0}, si ha
[X0 , X1 ] = [λX0 , λX1 ].
Osserviamo che P1 (R) contiene come sottoinsieme
A0 := [X0 , X1 ] ∈ P1 (R) | X0 6= 0 .
Analogamente si ha
A1 := [X0 , X1 ] ∈ P1 (R) | X1 6= 0 .
Ponendo
X0
(1.6) ξ :=
X1
si ha anche
A1 := {[ξ, 1] | ξ ∈ R} = {ξ ∈ R} = R.
In altri termini anche A1 e' identicato ad un altro asse reale R con coordinata (non piu' omogenea) ξ e
l'unico punto di P1 (R) non rappresentato in A1 e' il punto [1, 0] ∈ P1 (R) \ A1 . Analogamente a prima,
A1 viene chiamato carta (o schermo) ane della retta proiettiva P1 (R) di cui [1, 0] e' punto improprio
(od all'innito) (cf. Figura 3)
Riassumendo:
• P1 (R) ha due carte ani fondamentali A0 ed A1 tali che
P1 (R) = A0 ∪ A1 ;
• ambedue le carte ani A0 ed A1 sono identicabili con una retta reale R, ciascuna con coordinata
cartesiana x e ξ , rispettivamente;
• l'origine x = [1, 0] = 0 ∈ A0 diventa punto improprio della carta ane A1 ;
• il punto improprio [0, 1] di A0 diventa origine ξ = [0, 1] = 0 della carta ane A1 ;
GEOMETRIA PROIETTIVA 5
A0 := [X0 , X1 , X2 ] ∈ P2 (R) | X0 6= 0 ,
A1 := [X0 , X1 , X2 ] ∈ P2 (R) | X1 6= 0 ,
A2 := [X0 , X1 , X2 ] ∈ P2 (R) | X2 6= 0 .
Come nel caso di P1 (R), poiche' le coordinate omogenee [X0 , X1 , X2 ] sono denite a meno di proporzio-
nalita' ed in A0 vale X0 6= 0, ponendo
X1 X2
(1.7) x := e y := ,
X0 X0
si ha anche
A0 := [1, x, y] | (x, y) ∈ R2 = (x, y) ∈ R2 = R2 .
In altri termini, A0 e' identicato all'usuale piano cartesiano R2 con coordinate (non piu' omogenee)
(x, y). I punti di P2 (R) non rappresentati in A0 sono tutti e soli i punti della forma [0, α, β], dove
[α, β] ∈ P1 (R). In altri termini sono tutti e soli i punti nel luogo geometrico di P2 (R) denito da
X0 = 0
che e' detto retta impropria (od all'innito) per la carta A0 . Il fatto che questo luogo sia eettivamente
una retta proiettiva dentro P2 (R) verra' giusticato meglio nel paragrafo 2 piu' avanti.
6 FLAMINIO FLAMINI
Quindi A1 e' identicato ad un altro piano cartesiano R2 con coordinate (non piu' omogenee) (ξ, η). I
punti di P2 (R) non rappresentati in A1 sono tutti e soli i punti della forma [α, 0, β], dove [α, β] ∈ P1 (R).
In altri termini sono tutti e soli i punti nel luogo geometrico di P2 (R) denito da
X1 = 0
che e' detto retta impropria (od all'innito) per la carta A1 (cf. paragrafo 2 piu' avanti).
Inne, in A2 dove vale X2 6= 0, poniamo
X0 X1
(1.9) z := e w := ,
X2 X2
si ha quindi
A2 := [z, w, 1] | (z, w) ∈ R2 = (z, w) ∈ R2 = R2 .
Quindi A2 e' identicato ad un altro piano cartesiano R2 con coordinate (non piu' omogenee) (z, w). I
punti di P2 (R) non rappresentati in A2 sono tutti e soli i punti della forma [α, β, 0], dove [α, β] ∈ P1 (R).
GEOMETRIA PROIETTIVA 7
In altri termini sono tutti e soli i punti nel luogo geometrico di P2 (R) denito da
X2 = 0
che e' detto retta impropria (od all'innito) per la carta A2 (cf. paragrafo 2 piu' avanti).
Riassumendo:
• P2 (R) ha tre carte ani fondamentali A0 , A1 ed A2 tali che
P2 (R) = A0 ∪ A1 ∪ A2 ;
• ciascuna delle carte ani sono identicabili ad un piano cartesiano reale R2 , con opportune
cordinate cartesiane (non omogenee);
• in A0 ∩ A1 ∩ A2 vale X0 X1 X2 6= 0.
La carta ane Ai avra' come iperpiano improprio (od all'innito) il luogo geometrico denito da
Xi = 0, 0 ≤ i ≤ n
(cf. paragrafo 2 piu' avanti per giusticazione del termine iperpiano).
1.4. Modelli per Pn (R). Come osservato in ESEMPIO 13.1.2 delle note, per descrivere un modello
di Pn (R) invece di considerare Rn+1 \ {0} ci si puo' restringere a
Sn ⊂ Rn+1 \ {0}
8 FLAMINIO FLAMINI
dove
Sn := {u ∈ Rn+1 | ||u|| = 1}
e' la sfera n-dimensionale di centro l'origine O di Rn+1 e raggio unitario. Infatti si ha un'applicazione
suriettiva
v : Rn+1 \ {0} →→ Sn
v
v −→ ||v||
dove l'applicazione v e' la versorizzazione di vettori. La relazione di equivalenza ∼ su Rn+1 \ {0} come in
Denizione 1 quando ristretta a Sn diventa la relazione antipodale (gia' menzionata in PARAGRAFO
13.2 delle note), che denoteremo con ≡, per cui si avra'
Da Denizione 2, si ha pertanto
Sn
(1.12) Pn (R) = .
≡
Per comprendere meglio l'eguaglianza in (1.12), commentiamo piu' in dettaglio i casi n = 1, 2.
Per quanto riguarda la retta proiettiva P1 (R) rappresentata via relazione antipodale ≡, consideri-
amo Figura 6. La semicirconferenza rossa si deve identicare a quella nera in gura; il punto in gura
marcato con x in nero si deve identicare al punto marcato con x in rosso. Dopo queste due identi-
cazioni, si ottiene che P1 (R) e' quindi identicabile alla circonferenza unitaria S1 come visto in FIGURA
1 delle note.
Per quanto riguarda il modello di P2 (R) ottenibile via relazione antipodale, consideriamo Figura
7. La calotta rossa della sfera S2 in gura si deve identicare alla calotta nera in gura; i punti diame-
tralmente opposti della circonferenza sezionale con il piano X2 = 0 devono essere identicati.
GEOMETRIA PROIETTIVA 9
dim(P(U )) = dimR (U ) − 1.
L'intero positivo
(2.2) c := dim(Pn (R)) − dim(P(U )) = dimR (Rn+1 ) − dimR (U )
viene chiamato la codimensione di P(U ) in Pn (R).
Notiamo che l'intero c coincide quindi con l'usuale concetto di codimensione del sottospazio U
nello spazio vettoriale Rn+1 , i.e. il numero di equazioni cartesiane omogenee (necessarie e sucienti) per
denire U in Rn+1 .
2.1. Equazioni cartesiane e parametriche di sottospazi proiettivi di Pn (R). Da Denizione 5,
ogni sottospazio proiettivo di Pn (R) e' il proietticato di un opportuno sottospazio vettoriale U dello
spazio vettoriale Rn+1 . Il sottospazio vettoriale U , in quanto tale, sara' denito da un sistema omogeneo
di equazioni cartesiane della forma:
a1,0 X0 + a1,1 X1 + · · · + a1,n Xn = 0
a2,0 X0 + a2,1 X1 + · · · + a2,n Xn = 0
(2.3) · · ·
· · ·
ac,0 X0 + ac,1 X1 + · · · + ac,n Xn = 0
10 FLAMINIO FLAMINI
con rg(A) = n + 1 − dimR (U ) = c, dove c come in Denizione 2.2. Per denizione di P(U ), le stesse
equazioni (2.3), deniscono equazioni cartesiane omogenee per P(U ) in Pn (R), visto che il sistema (2.3)
e' costituito da tutti monomi lineari e prive di termini noti.
Analogo discorso per le equazioni parametriche per P(U ) in Pn (R); queste equazioni coincideranno
con le equazioni parametriche che deniscono U come sottospazio di Rn+1 , che sono della forma:
X0 = b0,1 λ1 + · · · + b0,n+1−c λn+1−c
X1 = b1,1 λ1 + · · · + b1,n+1−c λn+1−c
(2.4) · · ·
· · ·
Xn = bn,1 λ1 + · · · + bn,n+1−c λn+1−c
P = [1, 0] ∈ P1 (R), se consideriamo la coppia (1, 0) che lo rappresenta, essa e' soluzione di X0 = 1. Ma
la coppia (2, 0), che e' un'altra coppia rappresentante lo stesso punto P , non e' soluzione di X0 = 1.
Pertanto, l'equazione X0 = 1 (che infatti non e' omogenea) non e' atta a denire luoghi geometrici in
P1 (R).
Esempio 2.2. In P1 (R) l'equazione X0 − X1 = 0 e' equazione cartesiana per il punto P = [1, 1] ∈ P1 (R).
Infatti, la medesima equazione letta nello spazio vettoriale R , denisce la retta vettoriale
2
1
Span ⊂ R2 .
1
Le equazioni parametriche della retta vettoriale in R2 sono
X0 = λ, X1 = λ, λ ∈ R.
Le stesse equazioni, ma con λ ∈ R \ {0}, sono equazioni parametriche del punto P .
Esempio 2.3. In P2 (R) l'equazione X1 − X2 = 0 e' equazione cartesiana per la retta ` = P(U ) con-
giungente i punti [1, 0, 0] e [0, 1, 1]. Infatti la stessa equazione, letta nello spazio vettoriale R3 , denisce
il piano vettoriale
1 0
U = Span 0 , 1 ⊂ R3
0 1
che, per costruzione, in P2 (R) si proietta nella retta proiettiva `. Le equazioni parametriche del piano
vettoriale U ⊂ R3 sono date da
X0 = λ1 , X1 = λ2 , X2 = λ2 (λ1 , λ2 ) ∈ R2 .
Le stesse equazioni, ma con [λ1 , λ2 ] ∈ P1 (R), sono equazioni parametriche in P2 (R) della retta ` ⊂ P2 (R).
2.2. Traccia di sottospazi proiettivi di Pn (R) nelle carte ani. Consideriamo la carta ane Ai di
Pn (R), come in (1.10), dove ricordiamo vale la condizione Xi 6= 0.
Denizione 6. Dato un sottospazio proiettivo P(U ) di Pn (R) ed un intero 0 ≤ i ≤ n, l'insieme
P(U ) ∩ Ai
viene detto traccia del sottospazio proiettivo P(U ) nella carta ane Ai .
Notiamo che se il sottospazio P(U ) e' contenuto nell'iperpiano Xi = 0 di Pn (R) allora la sua
traccia nella carta Ai e' l'insieme vuoto. Per comprendere meglio come sono fatte le tracce di sottospazi
proiettivi, discutiamo alcuni esempi.
GEOMETRIA PROIETTIVA 11
Esempio 2.4. Considerando nuovamente l'Esempio 2.3, avevamo la retta proiettiva ` ⊂ P2 (R) di
equazione cartesiana X1 − X2 = 0. Nella carta ane A0 , dove consideriamo coordinate cartesiane
(non omogenee) come in (1.7), si ha che la traccia
` ∩ A0
non e' altro che la retta del piano cartesiano R2 = A0 , con coordinate cartesiane (non omogenee) (x, y),
denita da equazione cartesiana x − y = 0. Notiamo che la retta (ane) `∩ A0 ⊂ A0 = R2 e' la retta
1
passante per l'origine O = (0, 0) = [1, 0, 0] di A0 e di vettore direttore v = . Come gia' discusso nei
1
precedenti paragra del testo, la retta proiettiva ` si puo' vedere come ottenuta dalla retta (ane) ` ∩ A0
contenuta nel piano cartesiano A0 = R2 con l' "aggiunta" del punto improprio di ` ∩ A0 . Sappiamo che
questo punto improprio deve essere collegato con la direzione (cioe' il vettore direttore) della retta ` ∩ A0 ,
i.e. esso e' [0, 1, 1]. Questo riette quanto osservato in Esempio 2.3, dove avevamo notato che la retta
proiettiva ` era la retta congiungente i punti [1, 0, 0] e [0, 1, 1] di P2 (R).
Esempio 2.5. Consideriamo in P2 (R) la retta proiettiva di equazione cartesiana X0 − X1 + X2 = 0.
Nella carta ane A0 , dove consideriamo coordinate cartesiane (non omogenee) come in (1.7), si ha che
la traccia
` ∩ A0
non e' altro che la retta del piano cartesiano R2 = A0 , con coordinate cartesiane (non omogenee) (x, y),
denita da equazione cartesiana
1 − x + y = 0.
Nella carta A1 , con coordinate cartesiane (non omogenee) come in (1.8), si ha che la traccia
` ∩ A1
non e' altro che la retta del piano cartesiano R2 = A1 , con coordinate cartesiane (non omogenee) (ξ, η),
denita da equazione cartesiana
ξ − 1 + η = 0.
Inne, nella carta A2 , con coordinate cartesiane (non omogenee) come in (1.9), si ha che la traccia
` ∩ A2
e' la retta del piano cartesiano R2 = A2 , con coordinate cartesiane (non omogenee) (z, w), denita da
equazione cartesiana
z − w + 1 = 0.
Esempio 2.6. Sempre in P2 (R) consideriamo la retta proiettiva di equazione cartesiana X1 = 0. La sua
traccia nella carta ane A0 non e' altro che l'asse delle ordinate
x = 0;
invece
` ∩ A1 = ∅.
12 FLAMINIO FLAMINI
dove
a1,1 a1,2 ··· a1,n a1,1 a1,2 ··· a1,n b1
a2,1 a2,2 ··· a2,n
a2,1 a2,2 ··· a2,n b2
rg
· · ··· · = rg
· · ··· · · =n−k
· · ··· · · · ··· · ·
an−k,1 an−k,2 ··· an−k,n an−k,1 an−k,2 ··· an−k,n bn−k
e da equazioni parametriche della forma:
x1= p1 + b1,1 t1 + · · · + b1,k tk
x2= p2 + b2,1 t1 + · · · + b2,k tk
(2.6) · · ·
· · ·
xn= pn + bn,1 t1 + · · · + bn,k tk
p1
p2
ove (t1 , . . . , tk ) ∈ Rk parametri liberi mentre P =
· ∈ L ⊂ R un punto su L.
n
·
pn
La domanda che ci poniamo e' la seguente: sia dato un luogo geometrico lineare L ⊂ Rn , denito
da equazioni cartesiane (2.5) e parametriche (2.6); se per convenzione identichiamo lo spazio cartesiano
Rn con la carta ane A0 (come in (1.10)) di Pn (R), allora di quale sottospazio proiettivo P(U ) ⊂ Pn (R)
il luogo L e' traccia nella carta A0 ? In altri termini, per quale P(U ) ⊂ Pn (R) si ha
(2.7) L = P(U ) ∩ A0 ?
Denizione 7. Il procedimento di determinare P(U ) ⊂ Pn (R) che soddis (2.7) lo diremo completamento
proiettivo di L in Pn (R).
Notiamo che si dice completamento proprio perche' determinando P(U ) andiamo ad aggiungere a L ⊂ Rn i
suoi elementi improprio (od all'innito) per la carta ane A0 = Rn , i.e. completiamo L con i suoi elementi
impropri. Per questo motivo, per maggior chiarezza notazionale, P(U ) come in (2.7) lo denoteremo anche
con
L := P(U )
come se fosse una chiusura proiettiva di L. Questa notazione ci permettera' di ricordare meglio che
L ⊆ L = P(U ).
GEOMETRIA PROIETTIVA 13
Vediamo infatti che, dato L, allora L = P(U ) e' univocamente determinato. Infatti, per denizione
di carta ane A0 , abbiamo che X0 6= 0 e che
Xi
xi = , 1 ≤ i ≤ n.
X0
Pertanto, visto che L e' per ipotesi denito da equazioni cartesiane come in (2.5), e' chiaro allora che
L = P(U ) e' denito dal sistema omogeneo:
a1,1 X1 + a1,2 X2 + · · · + a1,n Xn − b1 X0 = 0
a2,1 X1 + a2,2 X2 + · · · + a2,n Xn − b1 X0 = 0
(2.8) · · ·
· · ·
an−k,1 X1 + an−k,2 X2 + · · · + an−k,n Xn − bn−k X0 = 0
Infatti, nei punti di A0 , dove [X0 , X1 , X2 , . . . , Xn ] = [1, x1 , x2 , . . . , xn ], il sistema (2.8) fornisce tutte e sole
le soluzioni del sistema non omogeneo (2.5). Laddove X0 = 0 (che e' iperpiano improprio od all'innito
per A0 ), il sistema (2.8) fornisce
X0 = 0
a1,1 X1 + a1,2 X2 + · · · + a1,n Xn − b1 X0 = 0
a2,1 X1 + a2,2 X2 + · · · + a2,n Xn − b1 X0 = 0
(2.9)
· · ·
· · ·
an−k,1 X1 + an−k,2 X2 + · · · + an−k,n Xn − bn−k X0 = 0
che determina un sottospazio proiettivo (perche' denito da un sistema di equazioni omogenee) di Pn (R)
contenuto nell'iperpiano X0 = 0. I punti di questo sottospazio sono gli elementi di L \ L, i.e. gli elementi
impropri di L.
Se invece L e' dato da equazioni parametriche (2.6), allora ricordiamo che possiamo sempre con-
siderare Rk 3 (t1 , . . . , tk ) = [1, t1 , . . . , tk ] e porre
λi
ti := , λ0 , λi ∈ R, λ0 6= 0, 1 ≤ i ≤ k
λ0
mentre in Rn = A0 abbiamo
Xi
xi = , 1 ≤ i ≤ n.
X0
Allora il sistema (2.6) con queste sostituzioni si scrive:
p1 λ0 +b1,1 λ1 +···+b1,k λk
X1
X0 = λ0
p2 λ0 +b2,1 λ1 +···+b2,k λk
X2
=
X0 λ0
(2.10) · · ·
· · ·
Xn pn λ0 +bn,1 λ1 +···+bn,k λk
=
X0 λ0
Esempio 2.7. Nella retta reale R con coordinata cartesiana (ane) x1 = x consideriamo il luogo
L = {x ∈ R | x = 2}.
Questo e' semplicemente il punto di ascissa x = 2. Visto che identichiamo R con la carta A0 di P1 (R),
dove vale x = X
X1
0
, allora L ⊂ P1 (R) e' denito dall'equazione cartesiana omogenea
X1 − 2X0 = 0,
che fornisce il punto P = [1, 2]. In questo caso abbiamo che
L = L.
Analogamente, le equazioni parametriche di L sono date dalle soluzioni del sistema omogeneo X1 −2X0 =
0, cioe'
X0 = λ0 , X1 = 2λ0 , λ0 6= 0.
Esempio 2.8. Nel piano cartesiano R2 , con coordinate cartesiane (x1 , x2 ) = (x, y), consideriamo dap-
prima la retta L1 denita dall'equazione cartesiana
x − y = 3.
3 1
Essa e' quindi la retta passante per il punto P = ∈ R e di vettore direttore v =
2
. Identicando
0 1
R2 con la carta ane A0 di P2 (R), dove valgono le (1.7), si ha che la retta L1 ⊂ P2 (R) completamento
proiettivo di L1 e' denita dall'equazione cartesiana omogenea
X1 − X2 − 3X0 = 0.
Notiamo che il punto P ∈ L1 lo ritroviamo ovviamente come punto [1, 3, 0] ∈ L1 . L'intersezione tra la
retta proiettiva L1 e la retta proiettiva di equazione X0 = 0 (quindi impropria per A0 ) e' data dalle
soluzioni del sistema omogeneo:
X0 = 0
X1 − X2 − 3X0 = 0
Questo sistema e' equivalente al sistema omogeneo:
X0 = 0
(2.12)
X1 − X2 = 0
che fornisce come soluzione il punto [0, 1, 1] ∈ L1 \ L1 . Questo punto e' il punto improprio di L1 , collegato
con la direzione di L1 . In particolare abbiamo un esempio dove l'inclusione L1 ⊂ L1 e' stretta.
Sia ora L2 la retta di R2 denita da
x − y = 5.
Notiamo che L2 e' manifestamente parallela (ma non coincidente) a L1 . Similmente a prima, L2 ⊂ P2 (R)
e' denita da
X1 − X2 − 5X0 = 0.
L'intersezione tra la retta proiettiva L2 e la retta proiettiva di equazione X0 = 0 e' data da:
X0 = 0
X1 − X2 − 5X0 = 0.
Questo sistema e' equivalente a (2.12), pertanto
L1 ∩ L2 = [0, 1, 1]
sebbene in A0 = R sia avesse
2
L1 ∩ L2 = ∅
in quanto rette parallele ma non coincidenti. In altri termini, le rette ani L1 e L2 hanno medesimo punto
improprio, come e' giusto che sia, visto che la loro giacitura (equivalentemente il loro vettore direttore)
e' lo stesso (vedasi Figura 8)
GEOMETRIA PROIETTIVA 15
Osservazione 2.9. Il precedente esempio ci mostra una conseguenza particolarmente importante della
Geometria Proiettiva: la nozione di parallelismo sparisce in ambito proiettivo
3. Esercizi Svolti
Esercizio 1: Sia P1 (R) la retta proiettiva reale e siano dati P = [3, 2] e Q = [−6, −4].
(i) Stabilire se P = Q in P1 (R).
(ii) Trovare equazioni cartesiane e parametriche di P in P1 (R).
(iii) Determinare i punti traccia di P nelle carte ani fondamentali A0 e A1 di P1 (R).
Svolgimento. (i) Poiche' i vettori corrispondenti ai punti P e Q sono proporzionali, ne segue che P = Q.
(ii) Equazioni cartesiane per P sono date da 2X0 − 3X1 = 0 mentre equatzioni parametriche sono
X0 = 3λ, X1 = 3λ, λ 6= 0.
(iii) Nella carta A0 il punto P ha traccia x = 23 mentre nella carta A1 esso ha traccia ξ = 32 .
Svolgimento. (i) I tre punti dati saranno allineati in P2 (R) se e solo se i tre vettori corrispondenti dello
spazio vettoriale R3 (di cui P2 (R) e' immagine mediante π ) sono linearmente dipendenti. Poiche' il vettore
corrispondente al punto P non puo' essere combinazione lineare dei vettori corrispondenti ai punti Q e
R, deduciamo che i tre punti di P2 (R) non sono allineati.
(ii) L'equazione cartesiana della retta congiungente P e Q e' la stessa dell'equazione cartesiana del
sottospazio vettoriale di R3 generato dai vettori corrispondenti ai punti P e Q. Questa e' data da
X0 − X1 = 0.
(iii) Notiamo che le due rette date hanno come tracce nella carta ane A0 le rette
2 − 2x + 3y = 0 1 − 2x + 3y = 0
rispettivamente. Esse sono parallele ma non coincidenti. Pertanto l'intersezione delle due rette proiettive
date e' semplicemente il loro punto improprio comune che e' [0, 3, 2].
Esercizio 3: Nel piano cartesiano R2 , con riferimento cartesiano RC(O; x, y), sia dato il fascio F di rette
parallele
x + 2y = t,
ove t ∈ R un parametro. Identicando R con la carta ane A0 di P2 (R), determinare il fascio di rette
2
Esercizio 4: Sia dato il piano cartesiano R2 , con riferimento cartesiano RC(O; x, y). Si consideri la retta
r di equazione cartesiana 2x + 3y = 1.
(i) Considerando R2 come la carta ane (o schermo) A0 di P2 (R), determinare il punto improprio di r.
(ii) Trovare l'equazione cartesiana della retta passante in (1, 0) ∈ R2 ed avente come punto improprio
[0, 1, 2].
Svolgimento. (i) Il punto improprio di r e' dato dalle soluzioni del sistema omogeneo
2X1 + 3X2 − X0 = 0 = X0
che e' quindi [0, 3, −2].
(ii) Avere
punto improprio [0, 1, 2] per una retta ane di R equivale a dire che ha vettore direttore
2
1
v= . Pertanto si deve trovare la retta passante per (1, 0) con tale vettore direttore.
2
GEOMETRIA PROIETTIVA 17
Esercizio 5: Sia dato il piano cartesiano R2 , con coordinate cartesiane (x, y). Sia date le rette
r : x − 2y − 1 = 0,
s : x + y + 4 = 0,
t : 4y − 2x + 8 = 0.
(i) Considerando R come la carta ane A0 di P2 (R), determinare i punti impropri di s e t.
2
Esercizio 6: Nello spazio cartesiano R3 , con coordinate cartesiane (x, y, z), siano dati il piano
π :x−z =2
1 2
e la retta ` passante per il punto P = 1 e di vettore direttore v = 1. Identichiamo R3 con la
2 2
carta ane A0 di P3 (R).
(i) Determinare equazione cartesiana omogenea del completamento proiettivo π del piano π .
(ii) Determinare la retta impropria di π ed il punto improprio di `.
(iii) Dedurre che π e ` erano paralleli.
(iv) Descrivere π ∩ `.
Svolgimento. (i) L'equazione cartesiana omogenea del completamento proiettivo π e'
X1 − X3 − 2X0 = 0.
(ii) La retta impropria di π e' data dal sistema
X1 − X3 − 2X0 = 0 = X0 ,
che e' equivalente a
X1 − X3 = 0 = X0 .
Pertanto la retta impropria di π e' la retta di P3 (R) di equazioni parametriche
X0 = 0, X1 = λ0 , X2 = λ1 , X3 = λ0 , [λ0 , λ1 ] ∈ P1 (R).
Il punto improprio di ` e' direttamente individuato dalla sua direzione, i.e. [0, 2, 1, 2].
(iii) Il punto improprio di ` e' manifestamente contenuto nella retta impropria di π . Questo signica
appunto che ` era una retta paralella a π . Notare che ` non era pero' contenuta in π , visto che P non
appartiene a π .
(iv) Per quanto descritto precedentemente, ne segue che π ∩ ` = [0, 2, 1, 2].
Vericare che F ha la retta X0 = 0 come luogo sso mentre ha la retta X2 = 0 come luogo di punti ssi.
Svolgimento. (i) F ([0, α, β]) = [0, α + 2β, β], percio' X0 = 0 viene ssato da F come retta.
(ii) F ([α, β, 0]) = [α, β, 0], cioe' la retta X2 = 0 e' ssata punto per punto da F .
Esercizio 10: Nel piano proiettivo P2 (R), si consideri la trasformazione proiettiva F di P2 determinata
dalla classe di proporzionalita' di matrici λA, dove:
−1 −1 2
A= 0 1 −1 .
0 0 1
(i) Determinare quali delle rette fondamentali del riferimento standard di P2R sono rette sse per la
proiettivita' F .
(ii) Stabilire se ciascuna retta ssa determinata al punto (i) e' retta di punti ssi per F .
(iii) Determinare i punti ssi di F .
Svolgimento. (i) Le rette X0 = 0 e X1 = 0 non sono rette sse per F . Infatti, per ogni (α, β) 6= (0, 0) si
ha
F ([0, α, β]) = [2β − α, α − β, β],
e
F ([α, 0, β]) = [2β − α, −β, β].
Invece X2 = 0 e' una retta ssa per F , poiche'
F ([α, β, 0]) = [−β − α, β, 0].
(ii) Ovviamente la retta X2 = 0 non e' retta di punti ssi per F .
(iii) I punti ssi su x2 = 0 si ottengono per quei valori di α e β tali che
−α − β = λα, β = λβ.
Si ottengono i due punti
[1, −2, 0] [1, 0, 0].
Questi eettivamente sono gli unici punti ssi di F . Infatti, la matrice A ha polinomio caratteristico
PA (t) = −(t + 1)(1 − t)2 ,
che ha soluzioni t = −1, semplice, e t = 1, di molteplicita' 2. I relativi autospazi in R3 sono proprio
generati da, rispettivamente, (1, 0, 0) e (1, −2, 0).
20 FLAMINIO FLAMINI
Esercizio 11: Nello spazio cartesiano R4 , con coordinate cartesiane (x, y, z, w), si consideri il sottospazio
vettoriale
π0 : {x + y + z + w = 0}
ed il suo traslato
π : {x + y + z + w = 1}.
Si consideri inoltre
τ : {x + 2y − z = 0}.
Identichiamo R con la carta ane A0 dello spazio proiettivo P4 (R), munito di coordinate omogenee
4
[X0 , X1 , X2 , X3 , X4 ].
(i) Si determinino equazioni parametriche e cartesiane omogenee del piano improprio di π0 , di quello di
π e di quello di τ .
(ii) Scrivere equazioni parametriche e cartesiane del piano β ⊂ R4 ottenuto come intersezione di π con τ .
(iii) Determinare equazioni parametriche e cartesiane omogenee della retta impropria del piano β . Ri-
conoscere che la retta impropria determinata e' la retta di P4 (R) che e' intersezione del piano improprio
di π con il piano improprio di τ .
Svolgimento. (i) Poiche' π0 e π sono due iperpiani paralleli in R4 , il piano improprio di π0 coincide con
quello di π . L'equazione cartesiana omogenea del completamento proiettivo di π in P4 (R) è
X1 + X2 + X3 + X4 − X0 = 0.
Le equazioni cartesiane del piano improprio di π (i.e. del piano di punti impropri di π rispetto alla carta
ane A0 ) sono dunque:
X1 + X2 + X3 + X4 − X0 = 0
X0 = 0
e quindi
X1 + X2 + X3 + X4 = 0
,
X0 = 0
che in eetti coincidono con le equazioni cartesiane omogenee del piano improprio di π0 .
Le equazioni parametriche omogenee in P4 (R) di questo piano improprio sono date da
X0 = 0, X1 = α1 + α2 + α3 , X2 = −α1 , X3 = −α2 , X4 = −α3 , con [α1 , α2 , α3 ] ∈ P2 (R).
Questa rappresentazione mostra che il piano improprio di π (e di π0 ) e' il piano in P4 (R) generato dai 3
punti (non allineati)
P1 = [0, 1, −1, 0, 0], P2 = [0, 1, 0, −1, 0], P3 = [0, 1, 0, 0, −1].
In eetti il sottospazio π0 di R4 , giacitura di π , e' il sottospazio vettoriale generato dai vettori
1 1 1
−1 0
, v3 = 0 ;
v1 = , v =
0 2 −1
0
0 0 −1
in altri termini i tre punti P1 , P2 , P3 che generano il piano improprio di π (e di π0 ) si interpretano come
i vettori di giacitura di π cioe' come la base v1 , v2 , v3 di π0 sopra descritta.
Con conti analoghi, troviamo che le equazioni (omogenee) cartesiane del piano improprio di τ sono:
X1 + 2X2 − X3 = 0
.
X0 = 0
Le equazioni parametriche omogenee in P4 (R) di questo piano improprio sono date da
X0 = 0, X1 = 2β1 + β2 , X2 = −β1 , X3 = β2 , X4 = β3 , con [β1 , β2 , β3 ] ∈ P2 (R).
GEOMETRIA PROIETTIVA 21
Questa rappresentazione mostra che il piano improprio di τ e' il piano in P4 (R) generato dai 3 punti (non
allineati)
Q1 = [0, 2, −1, 0, 0], Q2 = [0, 1, 0, 1, 0], Q3 = [0, 0, 0, 0, 1].
In eetti τ e' il sottospazio vettoriale di R4 generato dai vettori
2 1 0
−1 0
, w3 = 0 ,
w1 =
0 , w2 = 1
0
0 0 1
i.e. analogamente a prima, i tre punti Q1 , Q2 , Q3 ∈ P4 (R) che generano il piano improprio di τ si
interpretano come i vettori della base di τ sopra menzionata.
(ii) Il piano β := π ∩ τ e' il piano di R4 di equazioni cartesiane
x+y+z+w = 1
.
x + 2y − z = 0
0
0
Esso e' dunque il piano passante per il punto R =
1 ∈ R e con giacitura data da
4
0
2 3
−1 −2
Span b1 = , b2 =
.
0 −1
−1 0
Questo mostra che tale retta impropria e' quindi l'intersezione del piano improprio di π (o di π0 ) e del
piano improprio di τ , come richiesto. Le equazioni parametriche omogenee della retta impropria di β in
P4 (R) sono date da:
X0 = 0, X1 = 2γ1 + 3γ2 , X2 = −γ1 − 2γ2 , X3 = −γ2 , X4 = −γ1 , dove [γ1 , γ2 ] ∈ P1 .
Con questa rappresentazione, notiamo che la retta impropria di β e' la retta generata dai due punti di
P4 (R)
B1 = [0, 3, −2, −1, 0], B2 = [0, 2, −1, 0, −1]
collegati ai vettori b1 e b2 precedentemente considerati.
ISOMETRIE ED AFFINITA’ NOTEVOLI DEL PIANO CARTESIANO R2 E DELLO
SPAZIO CARTESIANO R3
FLAMINIO FLAMINI
Alcune isometrie del piano cartesiano R2 . Cominciamo con alcune fondamentali isometrie.
p1−→
2 2
• Equazioni di traslazioni di R : se P ∈ R è un punto del piano cartesiano e P :=OP = è il
p2
corrispondente vettore, denoteremo con tP la traslazione di passo P , che è chiaramente un’isometria
quindi anche una trasformazione affine. Nelle coordinate fissate (x, y) avremo che
x x + p1
(1.1) tP = .
y y + p2
• Equazioni di rotazioni di angolo θ attorno all’origine O: poiche’ una siffatta rotazione ha O come punto
fisso, vedremo che essa sara’ identificata ad un’applicazione lineare dello spazio vettoriale R2 . Piu’ pre-
cisamente, tale trasformazione sara’ un’ isometria lineare diretta dello spazio vettoriale R2 . Ricordiamo
che questo significa avere un’applicazione lineare la cui matrice rappresentativa nella base canonica e e’
una matrice M speciale ortogonale, in simboli M M t = M t M = I2 e det(M ) = 1.
1
2 FLAMINIO FLAMINI
x
Proposizione 1.1. Sia x = ∈ R2 arbitrario. Allora
y
x cos θ − sin θ x
(1.2) Rθ = .
y sin θ cos θ y
0
0 x
In altri termini, se x = Rθ (x) = , le equazioni per la rotazione Rθ sono date da:
y0
0
x = cos θ x − sin θ y
(1.3)
y 0 = sin θ x + cos θ y.
In particolare,
• se θ = 0, allora Rθ = Id;
• se θ > 0, la rotazione di x è in senso antiorario rispetto al vettore e1 ;
• se θ < 0, la rotazione di x è in senso orario rispetto al vettore e1 .
Dimostrazione. Sia α l’angolo convesso fra il vettore x e l’asse delle x. Precisamente, se x si trova nel
I o IV quadrante, allora α è l’angolo convesso fra i vettori x ed e1 ; se x si trova invece nel II o III
quadrante, allora α è l’angolo convesso fra i vettori x e −e1 . In ogni caso, si ha che
x = ||x|| cos α, y = ||x|| sin α.
Il vettore x0 := Rθ (x) è tale che ||x0 || = ||x|| e forma con l’asse delle x un angolo pari a α + θ. Pertanto
x0 = ||x|| cos(α + θ), y 0 = ||x|| sin(α + θ).
Per le formule di addizione delle funzioni trigonometriche e per le precedenti relazioni, abbiamo quindi:
x0 = ||x||(cos α cos θ − sin α sin θ) = x cos θ − y sin θ,
y 0 = ||x||(sin α cos θ − cos α sin θ) = x sin θ + y cos θ
onde l’asserto.
Corollario 1.2. Per ogni θ ∈ R, le rotazioni Rθ attorno all’origine O sono isometrie lineari dirette dello
spazio vettoriale R2 , i.e. la matrice rappresentativa come in (1.2) è speciale ortogonale.
Dimostrazione. Il fatto che siano isometrie lineari discende direttamente dalla rappresentazione (1.2);
infatti per ogni θ le colonne della matrice rappresentativa costituiscono una base ortonormale di R2 .
Infine, il determinate della matrice rappresentativa di Rθ è dato da cos2 θ + sin2 θ = 1.
Osservazione 1.3. Osserviamo che le rotazioni Rθ attorno all’origine in particolare conservano l’orientazione
di basi dello spazio vettoriale R2 , i.e. Or(v, w) = Or(Rθ (v), Rθ (w)), per ogni coppia di vettori linear-
mente indipendenti v, w di R2 e per ogni θ ∈ R.
Notiamo che le rotazioni attorno all’origine godono inoltre delle seguenti ovvie proprietà che dis-
cendono immeditamente da (1.2).
Proposizione 1.4. (i) Per θ, ϕ ∈ R, si ha Rθ ◦ Rϕ = Rϕ ◦ Rθ = Rθ+ϕ .
(ii) Per ogni θ ∈ R, R−1
θ = R−θ .
In particolare, la composizione di rotazioni attorno all’origine è ancora una rotazione attorno all’origine
e l’inversa di una rotazione attorno all’origine è una rotazione attorno all’origine.
Concludiamo con l’osservare che, nelle notazioni dei precedenti paragrafi, la rappresentazione di
Rθ puo’ essere anche data da
cos θ − sin θ 0
sin θ cos θ 0 .
0 0 1
ISOMETRIE ED AFFINITA’ NOTEVOLI 3
p1
• Equazioni di rotazioni di angolo θ attorno ad un punto qualsiasi P : sia θ ∈ R e sia P = un
p2
punto di R2 . Denotiamo con Rθ,P l’isometria di R2 data dalla rotazione di angolo θ attorno al punto P .
Per ottenere le equazioni di tale rotazione, si procede nel modo seguente:
(i) prima si considera la traslazione t−P di passo −P , che porta quindi il punto P nell’origine O di R2 ;
(ii) poi si compie la rotazione lineare Rθ intorno ad O, come in Definizione 1;
(iii) infine si riapplica la traslazione tP di passo P che riporta cosı̀ O in P .
In definitiva, l’isometria cercata si può scrivere come:
(1.4) Rθ,P = tP ◦ Rθ ◦ t−P .
Pertanto
x x − p1 cos θ − sin θ x − p1
Rθ,P = tP ◦ R θ = tP ,
y y − p2 sin θ cos θ y − p2
che fornisce le equazioni della rotazione attorno a P :
x cos θ − sin θ x q
(1.5) Rθ,P = + 1 ,
y sin θ cos θ y q2
dove
q1 cos θ − sin θ −p1 p
:= + 1 .
q2 sin θ cos θ −p2 p2
Notiamo che l’espressione (1.5) mostra che Rθ,P è composizione di una opportuna traslazione e di
un’isometria lineare diretta.
Concludiamo con l’osservare che, nelle notazioni dei precedenti paragrafi, la rappresentazione di
Rθ,P come in (1.5) puo’ essere anche data da
cos θ − sin θ q1
sin θ cos θ q2 .
0 0 1
• Equazioni di riflessioni (o simmetrie) rispetto a rette di R2 : sia r una qualsiasi retta del piano carte-
siano R2 . Denotiamo con Sr l’isometria di R2 data dalla riflessione rispetto alla retta r. Per ottenere le
equazioni di tale riflessione, possiamo procedere come segue.
Supponiamo che, nel riferimento dato, r abbia equazione cartesiana ax + by + c = 0. Consideriamo
q1
l’equazione parametrica della retta s passante per un punto arbitrario di R2 e perpendicolare a r.
q2
Essa e’:
x q a
= 1 +t , t ∈ R.
y q2 b
q
La proiezione ortogonale di 1 su r è il punto di intersezione H = r ∩ s, ottenuto come punto su s per
q2
il valore del parametro
aq1 + bq2 + c
t0 := − .
a2 + b2
q1
Poiché si ottiene su s per t = 0, allora il suo simmetrico rispetto a r sarà determinato come punto
q2
su s per il valore del parametro
aq1 + bq2 + c
2t0 = −2 .
a2 + b2
Quindi, avremo che
q1 q1 aq1 + bq2 + c a
Sr = −2 .
q2 q2 a2 + b2 b
Sviluppando tutti i conti e scrivendola come trasformazione nelle coordinate di R2 si ha: otteniamo che
le equazioni per tale riflessione sono:
!
b2 −a2 −2ab −2ac
x a2 +b2 a2 +b2 x a2 +b2
(1.8) Sr = −2ab a2 −b2
+ −2bc .
y 2 2 2 2
y a2 +b2
a +b a +b
Dalla precedente espressione, la retta r e’ luogo di punti fissi della isometria Sr , i.e. per ogni punto Q ∈ r
si ha Sr (Q) = Q.
Osserviamo che, nelle notazioni dei precedenti paragrafi, la rappresentazione di Sr come in (1.8)
puo’ essere anche scritta come:
2 2
b −a −2ab −2ac
a2 +b2 a2 +b2 a2 +b2
−2ab a2 −b2 −2bc .
a2 +b2 a2 +b2 a2 +b2
0 0 1
Come conseguenza della (1.8), abbiamo inoltre:
Corollario 1.5. Per ogni retta vettoriale r0 : ax + by = 0, la riflessione Sr0 e’ data da
!
b2 −a2 −2ab
x 2
a +b 2 2
a +b 2 x
(1.9) Sr0 = −2ab a2 −b2
y 2 2 2 2
y
a +b a +b
ed e’ dunque una isometria lineare inversa, i.e. la matrice rappresentativa nella base canonica come in
(1.9) e’ ortogonale non speciale.
ISOMETRIE ED AFFINITA’ NOTEVOLI 5
Osservazione 1.6. Differentemente da quanto discusso in Osservazione 1.3, le riflessioni Sr0 in partico-
lare non conservano l’orientazione di basi dello spazio vettoriale R2 , i.e. Or(Sr0 (v), Sr0 (w)) = −Or(v, w),
per ogni coppia di vettori linearmente indipendenti v, w di R2 .
Notiamo infine che le riflessioni Sr0 rispetto a rette vettoriali godono delle seguenti ovvie proprietà
che discendono immeditamente da (1.9).
Proposizione
1.7. Sia data r0 : ax + by = 0, orientata in maniera tale che il suo vettore direttore
b
v= formi un angolo convesso α con e1 . Denotiamo quindi Sr0 semplicemente con Sα . Si ha:
−a
(i) la riflessione rispetto all’asse x è:
x x
S0 =
y −y
mentre la riflessione rispetto all’asse y è:
x −x
Sπ/2 = .
y y
(ii) Per ogni ϕ ∈ R, Sϕ è involutoria i.e. Sϕ ◦ Sϕ = Id. In particolare, Sϕ−1 = Sϕ .
(iii) Per ϕ 6= ψ ∈ R, si ha Sϕ ◦ Sψ = R2(ϕ−ψ) . In particolare, se ϕ = ψ + k π, k ∈ Z, allora Sϕ ◦ Sψ = Id.
In altri termini:
? a differenza delle rotazioni attorno all’origine, la composizione di riflessioni rispetto a rette vettoriali
non gode della proprietà commutativa, i.e. in generale si ha Sϕ ◦ Sψ 6= Sψ ◦ Sϕ .
? La composizione di due riflessioni rispetto a rette vettoriali distinte è una rotazione. Il fatto che una
tale composizione venga un’isometria lineare diretta (e non più inversa) è chiaro dal Teorema di Binet
e dal fatto che ogni riflessione rispetto ad una retta vettoriale r0 , essendo un’isometria lineare inversa
come osservato in Corollario 1.5, ha matrice rappresentativa in base canonica e che e’ ortogonale ed a
determinante −1.
Alcune trasfromazioni affini (non isometrie) del piano cartesiano. Le isometrie di R2 descritte preceden-
temente sono ovviamente anche affinità di R2 . Consideriamo ora le equazioni di due tipi fondamentali di
affinità lineari che non sono isometrie lineari.
• Le dilatazioni lineari:
Definizione 3. Siano λ, µ due numeri reali maggiori di od uguali ad 1, t.c. (λ, µ) 6= (1, 1). Denotiamo
con Dλ,µ l’affinità lineare definita da
x λ 0 x
(1.10) Dλ,µ = .
y 0 µ y
Una tale trasformazione viene chiamata dilatazione lineare. Notare che quando λ = µ abbiamo in
particolare un’omotetia di modulo λ. Ovviamente i casi in cui λ e µ sono o minori di 1 o negativi sono
analoghi ma non sono chiamate dilatazioni.
Quando almeno uno dei due numeri reali λ, µ e’ diverso da 1, la dilatazione lineare Dλ,µ non
conserva ne’ gli angoli ne’ le lunghezze (quindi non conserva le proprieta’ metriche). Pertanto è un
sicuro esempio di affinità lineare che non è un’isometria lineare. Se invece λ = µ, nel qual caso Dλ,λ è
un’omotetia di modulo λ > 1, allora gli angoli vengono conservati ma non viene conservata la lunghezza.
Osserviamo infine che, nelle notazioni dei precedenti paragrafi, la rappresentazione di Dλ,µ puo’
essere anche data da
λ 0 0
0 µ 0 .
0 0 1
6 FLAMINIO FLAMINI
• Le deformazioni lineari:
Una tale trasformazione viene chiamata deformazione lineare (o shear). Ovviamente, se α 6= 0, una
deformazione lineare non conserva mai nè angoli nè tantomeno lunghezze.
Nelle notazioni dei precedenti paragrafi, la rappresentazione di Tα puo’ essere anche data da
1 α 0
0 1 0 .
0 0 1
I due esempi trattati precedentemente determinano affinità lineari che non sono isometrie lineari.
Dalle matrici rappresentative si deduce che, sia le dilatazioni lineari che le deformazioni lineari conservano
l’orientazione di basi dello spazio vettoriale R2 .
• Trasformate di rette del piano cartesiano: data una retta r di R2 di equazione cartesiana ax+by+c = 0,
come trovare l’equazione cartesiana della retta s, trasformata di r mediante una qualsiasi trasformazione
affine di R2 ?
La risoluzione di questo problema è molto semplice. Basta considerare due punti arbitrari P e Q distinti
su r. Se f è l’isometria o l’affinità data dal problema, consideriamo i trasformati di questi punti mediante
f , i.e. f (P ) e f (Q). Concludiamo calcolando l’equazione cartesiana della retta per i due punti distinti
f (P ) e f (Q). Infatti, poichè f è biiettiva, P 6= Q implica f (P ) 6= f (Q). Applicheremo questa semplice
strategia nello svolgimento degli esercizi a fine del capitolo.
Quanto discusso precedentemente fornisce il seguente:
Teorema 1.8. Due qualsiasi rette del piano cartesiano R2 sono sempre fra di loro congruenti, i.e.
trasfromate l’una nell’altra da una isometria del piano cartesiano. In particolare, due qualsiasi rette del
piano cartesiano sono sempre affinemente equivalenti, i.e. trasformate l’una nell’altra da un’affinita’.
Dimostrazione. Siano r e s due rette di R2 . È sufficiente assumere che una delle due, ad esempio s, sia
l’asse delle ascisse y = 0. Infatti, se troviamo un’isometria fr di R2 che trasforma r nell’asse delle ascisse
ed analogamente un’isometria fs di R2 che trasforma s nell’asse delle ascisse, allora l’isometria fs−1 ◦ fr
sarà un’isometria che trasforma r in s.
Consideriamo allora un punto arbitrario P su r e poi la traslazione t−P di passo −P . La trasformata
di r coinciderà con la giacitura r0 della retta r. Scegliamo un’orientazione su r0 e calcoliamo l’angolo
convesso fra la retta orientata ed e1 . Sia questo θ. Se consideriamo la rotazione attorno all’origine di
angolo −θ allora tutti i punti di r0 verranno ruotati di modo che vadano a finire sull’asse delle ascisse.
L’equazione cartesiana come in Corollario 1.9 viene chiamata equazione canonica metrica (rispet-
tivamente, affine) delle rette del piano cartesiano. Il precedente corollario asserisce che, quale che sia la
retta di partenza, esiste sempre un riferimento cartesiano in cui questa retta ha un’equazione cartesiana
più semplice possibile ed identificabile con il primo asse di questo nuovo riferimento di R2 .
ISOMETRIE ED AFFINITA’ NOTEVOLI 7
Alcune isometrie fondamentali dello spazio cartesiano R3 . Iniziamo con il descrivere alcune isometrie di
R3 .
−→
• Equazioni di traslazioni dello spazio cartesiano R3 : P ∈ R3 è un punto del piano cartesiano e P :=OP =
p1
p2 è il corrispondente vettore dello spazio vettoriale R3 , denoteremo con t la traslazione di passo P ,
P
p3
che è chiaramente un’isometria dello spazio cartesiano. In coordinate avremo che
x x + p1
(2.1) tP y = y + p 2 .
z z + p3
tP ◦ tQ = tP +Q ,
• Equazioni di rotazioni attorno a rette vettoriali: come fatto per R2 , cominciamo con il considerare al-
cune isometrie lineari notevoli: le rotazioni attorno ad una retta vettoriale. La teoria è un po’ più
complicata di quella sviluppata per R2 . Diamo la seguente:
0
x x
In particolare, se x0 := y 0 = Rθ y , le equazioni per la rotazione Rθ sono date da:
z0 z
0
x = x
(2.3) y0 = cos θ y − sin θ z
0
z = sin θ y + cos θ z.
Dunque,
• se θ = 0, allora Rθ = Id;
• se θ > 0, la rotazione indotta sul piano vettoriale (y, z) è in senso antiorario rispetto al vettore e2 ;
• se θ < 0, la rotazione indotta sul piano vettoriale (y, z) è in senso orario rispetto al vettore e2 .
Dimostrazione. Osserviamo che la rotazione Rθ per costruzione fissa il vettore e1 della base e, mentre sul
piano vettoriale (y, z) si comporta come una rotazione di R2 attorno al vettore nullo. Pertanto, le formule
precedenti discendono immediatamente da questa osservazione e dalla dimostrazione di Proposizione
1.1.
Abbiamo le ovvie conseguenze della precedente proposizione, le cui dimostrazioni sono identiche a
quelle svolte per le rotazioni in R2 attorno all’orgine.
Corollario 2.2. Per ogni θ ∈ R, le rotazioni Rθ attorno al vettore e1 sono isometrie lineari dirette, i.e.
la cui matrice rappresentativa in base canonica come in (2.2) è speciale ortogonale.
Osservazione 2.3. Dal Corollario 2.2-(ii), notiamo subito che le rotazioni Rθ attorno a e1 in particolare
conservano l’orientazione di basi dello spazio vettoriale R3 , i.e. Or(u, v, w) = Or(Rθ (u), Rθ (v), Rθ (w)),
per ogni terna di vettori linearmente indipendenti u, v, w di R3 e per ogni θ ∈ R.
Proposizione 2.4. (i) Per θ, ϕ ∈ R, si ha Rθ ◦ Rϕ = Rϕ ◦ Rθ = Rθ+ϕ .
(ii) Per ogni θ ∈ R, R−1
θ = R−θ .
dal prodotto vettoriale f 3 = f 1 ∧ f 2 . Notiamo quindi che basi siffatte possono essere scelte in infiniti
modi.
(ii) In tale base, la rotazione Rθ,v è la rotazione di angolo θ attorno a f 1 . Quindi, nelle notazioni di
Proposizione 2.1, questa non è altro che la rotazione Rfθ = Rfθ,f , dove l’apice in alto sta a ricordare
1
che stiamo vedendo tutto relativamente alla base f . Da Proposizione 2.1, abbiamo
quindi che la matrice
1 0 0
Af := Mf,f (Rθ,v ) rappresentativa dell’endomorfismo Rθ,v in base f è Af = 0 cos θ − sin θ .
0 sin θ cos θ
(iii) L’obiettivo finale è quello di determinare la matrice A := Ae della rotazione cercata, espressa rispetto
alla base e di partenza, i.e.
A = Me,e (Rθ,v ).
Ricordiamo che, se M := Me f denota la matrice cambiamento di base dalla base e alla base f , allora
M e’ una matrice ortogonale i.e. M M t = M t M = I3 , visto che e ed f sono ambedue basi ortonormali.
Pertanto, si ha:
(2.4) A = M Af M t ,
che determina l’espressione della matrice di rotazione Rθ,v in base e come voluto.
Utilizzando Corollario 2.2 e Proposizione 2.4, abbiamo il seguente risultato immediato:
Corollario 2.5. Per ogni θ ∈ R, le rotazioni Rθ,v di angolo θ attorno ad una qualsiasi retta vettoriale
orientata r = Lin(v) sono isometrie lineari dirette, i.e. rappresentate da matrici ortogonali speciali.
In particolare, tali rotazioni conservano l’orientazione di basi dello spazio vettoriale R3 e godono delle
seguenti proprietà:
(i) Se θ = 0, allora R0,v = Id;
(ii) Per θ, ϕ ∈ R, si ha Rθ,v ◦ Rϕ,v = Rϕ,v ◦ Rθ,v = Rθ+ϕ,v .
(iii) Per ogni θ ∈ R, R−1θ,v = R−θ,v .
Esempio 2.6. A titolo di esempio, scriviamo le formule di rotazione R π2 ,v di angolo π2 attorno al vettore
1
v = 1 . Da quanto descritto sopra, vogliamo determinare f = f 1 , f 2 , f 3 una base ortonormale di
1
√
1/√3
R3 positivamente orientata e con f 1 = v/||v|| = 1/√3 . Per prendere un vettore w ortogonale a
1/ 3
f 1 , notiamo ad
esempioche le coordinate di f 1 sono tutte uguali; perciò una scelta possibile e naturale
1
è prendere w = −1 , almeno avremo sicuramente f 1 · w = 0. Con tale scelta, abbiamo
0
√ √
1/ √2 1/√6
f 2 = −1/ 2 e f 3 = f 1 ∧ f 2 = 1/ √6 .
0 −2/ 6
10 FLAMINIO FLAMINI
• Equazioni di rotazioni attorno a rette orientate qualsiasi: sia θ ∈ R e sia r una qualsiasi retta orien-
tata dello spazio cartesiano R3 non passante per l’origine. Sia P ∈ R un qualsiasi punto su r e sia v il
vettore direttore fissato per l’orientazione di r. In particolare, avremo che r ha equazione parametrica
vettoriale r : X = P + t v, t ∈ R. Denotiamo con Rθ,r l’isometria di R3 data dalla rotazione di angolo θ
attorno alla retta orientata r. Per ottenere le equazioni di tale rotazione, si procede nel modo seguente:
(i) prima si considera la traslazione t−P di passo −P , che porta il punto P ∈ r nell’origine O di R3 ;
(ii) poi si compie la rotazione lineare Rθ,v intorno alla giacitura r0 = Lin(v) di r, come descritto
precedentemente;
(iii) infine si riapplica la traslazione tP di passo P che riporta cosı̀ O in P .
In definitiva, l’isometria cercata si può scrivere come:
(2.5) Rθ,r = tP ◦ Rθ,v ◦ t−P .
p1
Per determinare esplicitamente le equazioni di tale isometria di R3 , sia P = p2 . Pertanto
p3
x x − p1 x − p1
Rθ,r y = tP ◦ Rθ,v y − p2 = tP A y − p2 ,
z z − p3 z − p3
con A calcolata come in (2.4). Questo fornisce le equazioni della rotazione attorno alla retta orientata r
date da:
x x q1
(2.6) Rθ,r y = A y + q2 ,
z z q3
ISOMETRIE ED AFFINITA’ NOTEVOLI 11
q1 −p1 p1
dove q2 := A −p2 + p2 . Notiamo che essa è composizione di una traslazione e di un’isometria
q3 −p3 p3
lineare diretta.
• Equazioni di riflessioni (o simmetrie) rispetto a rette vettoriali: consideriamo adesso altre isometrie
lineari fondamentali: le riflessioni (o simmetrie) rispetto a rette vettoriali.
Definizione 6. Sia r0 una retta vettoriale di R3 . Denotiamo con Sr0 l’applicazione di R3 che ad un
arbitrario punto P ∈ R3 associa il punto Q = QP , estremo libero del vettore Q ottenuto per riflessione
di P rispetto ad r0 .
Notiamo subito che la riflessione rispetto ad una retta vettoriale r0 è un particolare tipo di rotazione
lineare, precisamente è la rotazione di angolo π intorno a r0 . In questo caso, è immediato osservare che
il risultato non dipende dall’orientazione di r.
Da ultimo, per ogni retta vettoriale r0 , Sr0 è chiaramente un’isometria lineare diretta; in particolare,
conserva l’orientazione di basi di R3 .
Definizione 7. Denotiamo con SO l’applicazione di R3 in sè definita in modo che, per ogni punto P ∈ R3
si associa il punto estremo libero del vettore −P . SO è detta riflessione (o simmetria) rispetto all’origine.
Le equazioni della riflessione rispetto a O sono chiaramente:
x −1 0 0 x −x
(2.7) SO y = 0 −1 0 y = −y .
z 0 0 −1 z −z
Pertanto, SO è un’isometria lineare inversa di R3 . In particolare, essa non conserva l’orientazione di basi
dello spazio vettoriale R3 .
Nelle notazioni dei precedenti paragrafi, la rappresentazione di SO e’ anche data da
−1 0 0 0
0 −1 0 0
.
0 0 −1 0
0 0 0 1
• Equazioni di riflessioni (o simmetrie) rispetto a rette o punti arbitrari dello spazio cartesiano: per
quanto riguarda le riflessioni rispetto a rette non passanti per l’origine, si utilizza lo stesso procedi-
mento delle rotazioni sopra descritto. Se la retta r non passa per O e P ∈ r è un suo punto arbitrario,
basterà considerare che la riflessione rispetto a r è:
Sr := tP ◦ Sr0 ◦ t−P ,
dove r0 è la giacitura di r. Abbiamo già discusso precedentemente che la riflessione Sr0 non è altro che
una rotazione di angolo π.
Per quanto riguarda la riflessione rispetto ad un qualsiasi punto P ∈ R3 , basterà considerare
SP := tP ◦ SO ◦ t−P .
Un altro modo più geometrico è quello di osservare che il centro di riflessione, i.e. il punto P , è il punto
medio fra un qualsiasi punto Q di R3 ed il suo simmetrico SP (Q) rispetto a P . Di conseguenza, abbiamo
l’eguaglianza tra i vettori associati P = 12 (Q + SP (Q)). Se al posto di Q, prendiamo il vettore incognito
12 FLAMINIO FLAMINI
x p1
y e se P = p2 , otteniamo
z p3
x 2p1 − x
(2.8) SP y = 2p2 − y .
z 2p3 − z
Ne consegue che, nelle notazioni dei precedenti paragrafi, la rappresentazione di SP e’ anche data
da
−1 0 0 2p1
0 −1 0 2p2
.
0 0 −1 2p3
0 0 0 1
• Equazioni di riflessioni rispetto a piani dello spazio cartesiano: sia τ un arbitrario piano di R3 . Vogliamo
determinare le equazioni della riflessione rispetto a τ , denotata con Sτ . Un modo geometrico è analogo
alla costruzione vista per le formule di riflessione in R2 rispetto ad una retta qualsiasi di R2 . Infatti, si
considera un punto arbitrario Q di R3 ed in seguito la sua proiezione ortogonale H su τ . Il riflesso (o
simmetrico) Sτ (Q) sara’, per definizione, quell’unico punto sulla retta passante per Q e H in posizione
tale che H sia il punto medio fra Q e Sτ (Q). Vediamo in dettaglio questa costruzione.
Supponiamo che τ abbia ad esempio equazione cartesiana ax + by + cz + d = 0. Consideriamo
q1
l’equazione parametrica vettoriale della retta s passante per un punto arbitrario Q = q2 di R3 e
q3
perpendicolare a τ . Tale retta ha equazione parametrica vettoriale
x q1 a
y = q2 + t b , t ∈ R.
z q3 c
q1
La proiezione ortogonale di q2 su τ si ottiene allora come punto su s per il valore del parametro
q3
aq1 + bq2 + cq3 + d
t0 := − .
a2 + b2 + c2
q1
Poiché il punto Q = q2 si ottiene su s per t = 0, allora il suo simmetrico rispetto a τ sarà determinato
q3
come punto su s per il valore del parametro
aq1 + bq2 + cq3 + d
2t0 = −2 .
a2 + b2 + c2
Quindi, avremo che
q1 q1 a
aq1 + bq2 + cq3 + d
Sτ q2 = q2 − 2 b .
a2 + b2 + c2
q3 q3 c
Sviluppando tutti i conti e scrivendo sotto forma di trasformazione nelle coordinate di R3 , otteniamo che
le equazioni per tale riflessione sono:
b2 +c2 −a2 −2ab −2ac
−2ad
x a2 +b2 +c2 a2 +b2 +c2 a2 +b2 +c2 x a2 +b2 +c2
−2ab 2 2 2 −2bd
(2.9) Sτ y = a2 +b a +c −b −2bc y + a2 +b2 +c2 .
2 +c2 a2 +b2 +c2 a2 +b2 +c2
z −2ac −2bc 2 2
a +b −c 2
z −2cd
2 2
a +b +c 2 2 2
a +b +c 2 2 2
a +b +c2 a2 +b2 +c2
ISOMETRIE ED AFFINITA’ NOTEVOLI 13
In particolare:
Corollario 2.7. Per ogni piano vettoriale τ0 : ax + by + cz = 0, la riflessione Sτ0 e’ data da
b2 +c2 −a2 −2ab −2ac
x a2 +b2 +c2 a2 +b2 +c2 a2 +b2 +c2 x
(2.10)
−2ab
Sτ0 y = a2 +b a2 +c2 −b2 −2bc
y
2 +c2 2 2
a +b +c 2 2 2
a +b +c 2
z −2ac −2bc a2 +b2 −c2 z
2 2 2 2
a +b +c 2 2 2
a +b +c2 2 a +b +c
ed e’ dunque una isometria lineare inversa, i.e. la matrice rappresentativa nella base canonica come in
(2.10) e’ ortogonale non speciale.
Osservazione 2.8. Differentemente da quanto discusso in Corollario 2.5, le riflessioni Sτ0 in partico-
lare non conservano l’orientazione di basi dello spazio vettoriale R3 , i.e. Or(Sτ0 (u), Sτ0 (v), Sτ0 (w)) =
−Or(u, v, w), per ogni terna di vettori linearmente indipendenti u, v, w di R3 .
Notiamo infine che, nelle notazioni dei precedenti paragrafi, la rappresentazione di Sτ come in (2.9)
e’ anche data da
2 2 2
b +c −a −2ab −2ac −2ad
a2 +b2 +c2 a2 +b2 +c2 a2 +b2 +c2 a2 +b2 +c2
−2ab a +c2 −b2
2
−2bc −2bd
a2 +b2 +c2 a2 +b2 +c2 a2 +b2 +c2 a2 +b2 +c2 .
−2ac −2bc a +b2 −c2
2
−2cd
a2 +b2 +c2 a2 +b2 +c2 a2 +b2 +c2 a2 +b2 +c2
0 0 0 1
Alcune trasformazioni affini (non isometrie) dello spazio cartesiano. Le isometrie dello spazio cartesiano
R3 descritte precedentemente sono ovviamente anche affinità di R3 . Come fatto per R2 , consideriamo
ora le equazioni di due tipi fondamentali di affinità lineari che non sono isometrie lineari.
• Le dilatazioni lineari:
Definizione 8. Siano λ, µ e ν numeri reali maggiori di od uguali ad 1 t.c. (λ, µ, ν) 6= (1, 1, 1). Denotiamo
con Dλ,µ,ν l’affinità lineare definita da
x λ 0 0 x
(2.11) Dλ,µ,ν y = 0 µ 0 y .
z 0 0 ν z
Una tale trasformazione viene chiamata dilatazione lineare. Notare che quando λ = µ = ν abbiamo
in particolare un’omotetia di modulo λ ≥ 1 . Ovviamente i casi in cui λ, µ e ν siano negativi o positivi
minori di 1 sono analoghi ma la trasformazione non si chiama dilatazione.
Notare che ad esempio, per λ, µ, ν generali, la dilatazione lineare Dλ,µ,ν non conserva nè gli angoli
nè le lunghezze. Pertanto è un sicuro esempio di affinità lineare che non è un’isometria lineare. Se invece
λ = µ = ν ∈ R, nel qual caso Dλ,λ,λ è un’omotetia di modulo λ ≥ 1, allora gli angoli vengono conservati;
ciò che non viene conservata è la lunghezza.
Osserviamo infine che, nelle notazioni dei precedenti paragrafi, la rappresentazione di Dλ,µ,ν come
in (2.11) e’ anche data da
λ 0 0 0
0 µ 0 0
0 0 ν 0 .
0 0 0 1
• Le deformazioni lineari:
14 FLAMINIO FLAMINI
0 0 0 1
• Trasformati di luoghi geometrici dello spazio cartesiano R3 : data una retta r (rispettivamente, un pi-
ano π) nello spazio cartesiano R3 , come trovare l’equazione della retta s (rispettivamente, del piano τ )
ottenuti per trasformazione di r (rispettivamente di π) mediante una qualsiasi isometria od una qualsiasi
affinità di R3 ?
La risoluzione di questo problema è molto semplice. Per la trasformata di r, basta considerare
due punti arbitrari P e Q distinti su r; per il trasformato di π, basta considerare tre punti arbitrari e
non allineati su π, P1 , Q1 e R1 . Se f è l’isometria o l’affinità data dal problema, allora consideriamo i
trasformati di questi punti mediante f . Concludiamo calcolando l’equazione della retta per i due punti
distinti f (P ) e f (Q), per trovare l’equazione di s, e l’equazione del piano per i tre punti distinti e non
allineati f (P1 ), f (Q1 ) e f (R1 ), per trovare l’equazione di τ .
Come nel caso di R2 , questa semplice osservazione ha come conseguenza un fatto molto importante.
Teorema 2.9. (i) Due qualsiasi rette dello spazio cartesiano R3 sono sempre fra di loro congruenti (in
particolare, affinemente equivalenti).
(ii) Due qualsiasi piani dello spazio cartesiano R3 sono sempre fra di loro congruenti (in particolare,
affinemente equivalenti).
La dimostrazione è concettualmente uguale a quella di Teorema 1.8, pertanto è lasciata al lettore per
esercizio. In particolare, utilizzando la stessa analisi, abbiamo come conseguenza:
Corollario 2.10. Dato una qualsiasi piano π dello spazio cartesiano,
0 esiste sempre un opportuno riferi-
x
mento cartesiano di R3 , con origine O0 e coordinate cartesiane y 0 , in cui l’equazione cartesiana di
z0
0
π è z = 0.
L’equazione cartesiana come sopra viene chiamata l’equazione canonica metrica (rispettivamente,
affine) dei piani dello spazio cartesiano. Il precedente corollario asserisce che, quale che sia il piano di
partenza, esiste sempre un riferimento cartesiano in cui questo piano ha un’equazione cartesiana più
semplice possibile. Analoga conseguenza si ha per le rette.
3. Esercizi Svolti
1
Esercizio 1: Siano dati in R2 la retta r : x − 2y − 1 = 0 ed il punto P = .
2
(i) Scrivere le formule di riflessione rispetto a r e le formule di rotazione di centro P e angolo θ = π/2.
(ii) Denotati con Sr e con RP,π/2 , rispettivamente, la riflessione e larotazione trovate al punto (i),
0
determinare le coordinate del punto (Sr ◦ RP,π/2 )(P1 ), dove P1 = .
1
ISOMETRIE ED AFFINITA’ NOTEVOLI 15
Svolgimento. (i) Per trovare le equazioni della riflessione, utilizziamo il metodo geometrico esposto prece-
dentemente. Da (1.8) si ottiene che le equazioni della riflessione sono
1 1
(3x + 4y + 2), y 0 = (4x − 3y − 4).
x0 =
5 5
Le equazioni della rotazione sono invece
x0 = 3 − y, y 0 = x + 1.
12
2 2
(ii) RP,π/2 (P1 ) = , quindi (Sr ◦ RP,π/2 )(P1 ) = Sr = 5
1 .
1 1 5
Esercizio 3: Nel piano cartesiano R2 , con riferimento cartesiano standard RC(O; x, y), sia data la retta
r : x + 2y − 3 = 0.
(i) Determinare le formule di riflessione rispetto a r.
(ii) Determinare l’equazionecartesiana
della circonferenza C ottenuta per riflessione rispetto a r della
2
circonferenza di centro C = e raggio 2.
1
Svolgimento. (i) Sia P = (a, b) il punto generico di R2 . La retta perpendicolare a r passante per P ha
equazioni parametriche
x = a + t, y = b + 2t.
L’intersezione con r determina
2 4 6
t=− a− b+ .
5 5 5
Pertanto le formule di riflessione sono
x 3/5 −4/5 x 6/5
f = + .
y −4/5 −3/5 y 12/5
(ii) Poiche’ una riflessione e’ un’isometria, e sufficiente conoscere
le coordinate
del riflesso del centro C,
−36/5
visto che il raggio rimarra’ invariato. Pertanto, poiche’ f (C) = , l’equazione cartesiana della
1/5
16 FLAMINIO FLAMINI
riflessa di C e’
(x + 36/5)2 + (y − 1/5)2 = 4.
Esercizio 4: Nel piano cartesiano R2 , con riferimento cartesiano ortogonale RC(O; x, y), e’ data la
trasformazione affine
x 1 2 x 1
F = +
y −2 1 y 4
equivalentemente rappresentata dalla matrice orlata
1 2 1
−2 1 4 .
0 0 1
(i) Stabilire se F e’ un’isometria o meno di R2 .
(ii) Sia r la retta di equazione cartesiana 2x + y − 3 = 0. Determinare l’equazione cartesiana della retta
F (r) trasformata di r mediante F .
1 2
Svolgimento. (i) Poiche’ la parte lineare della trasformazione F e’ rappresentata dalla matrice
−2 1
che ha determinante 5, F e’ necessariamente un’affinita’ che non e’ un’isometria di R2 .
(ii) Per trovare equazioni cartesiane di F (r) basta scegliere due punti arbitrari su r, P e Q e determinare
l’equazione cartesiana della retta per 2 punti
Esercizio 5: Nello spazio cartesiano R3 , con riferimento cartesiano ortogonale standard RC(O, x, y, z),
sia α ⊂ R3 il piano di equazione cartesiana:
α: 2x − y + z = 4.
3
(i) Determinare l’isometria Sα di R descritta dalle formule di riflessione rispetto al piano α.
(ii) Descrivere i punti fissi di Sα .
(ii) Determinare equazioni parametriche del piano π ottenuto per riflessione rispetto ad α del piano
coordinato z = 0.
Svolgimento. (i) Sia P = (a, b, c) un punto arbitrario di R3 . Un vettore normale al piano α e’ il vettore
n = (2, −1, 1). Pertanto la retta r, passante per P e perpendicolare a α, ha equazione parametrica
vettoriale
x = P + t n,
e quindi equazioni parametriche scalari
x = a + 2t, y = b − t, z = c + t.
Se imponiamo l’intersezione di r con α, si ottiene il valore
4 + b − c − 2a
t0 = .
6
Quindi, se Sα (P ) denota il simmetrico di P rispetto a α, esso si ottiene come punto sulla retta r,
corrispondente al valore del parametro 2t0 , cioe’
4 + b − c − 2a
Sα (P ) = (a, b, c) + (2, −1, 1).
3
In definitiva, le formule di simmetria rispetto a α sono
Sα (a, b, c) = (−a/3 + 2b/3 − 2c/3 + 8/3; 2a/3 + 2b/3 + c/3 − 4/3; −2a/3 + b/3 + 2c/3 + 4/3).
(ii) Il luogo di punti fissi di Sα e’ ovviamente costituito dal piano α stesso, per definizione di riflessione.
ISOMETRIE ED AFFINITA’ NOTEVOLI 17
(iii) Prendiamo tre punti non allineati arbitrari su z = 0, siano essi (0, 0, 0), (0, 1, 0) e (1, 0, 0). I loro
riflessi sono rispettivamente A = (8/3, −4/3, 4/3), B = (10/3, −2/3, 5/3) e C = (7/3, −2/3, 2/3). Due
vettori direttori per la giacitura di π sono dati ad esempio da B − A ∼ (2, 2, 1) e C − A ∼ (1, −2, 2).
Pertanto, equazioni parametriche di π sono date da
(x, y, z) = (8/3, −4/3, 4/3) + t(2, 2, 1) + s(1, −2, 2), t, s ∈ R.
Esercizio 6: Nello spazio cartesiano R3 , con riferimento cartesiano ortogonale RC(O; x, y, z), sia Π il
piano di equazione cartesiana
x+y =1
e sia r la retta di equazioni cartesiane
x +y +2z = 0
y +z = 1
(i) Scrivere le formule di riflessione SΠ , rispetto al piano Π.
(ii) Calcolare le equazioni parametriche della retta m = SΠ (r), riflessa di r.
Svolgimento. (i)–(ii) Sia P = r ∩ Π. Percio’:
−1/2
P = 3/2 .
−1/2
−1
Sia Q = 1 ∈ r. La retta n passante per Q ed ortogonale a Π ha equazioni parametriche
0
x −1 1
y = 1 + t 1 , t ∈ R.
z 0 0
Quindi n ∩ Π si ottiene per t = 1/2. Percio’ il riflesso Q0 di Q rispetto a Π e’ per t = 1 cioe’ Q0 = (0, 2, 0).
Quindi m ha equazioni parametriche:
x 0 1
y = 2 + t 1 , t ∈ R.
z 0 1
Esercizio 7: Nello spazio cartesiano R3 , con riferimento cartesiano ortogonale RC(O; x, y, z), sia α il
piano di equazione cartesiana
x + 2y = 0.
Calcolare l’ equazione cartesiana del piano passante per i punti riflessi rispetto al piano α dei punti
O = (0, 0, 0), P = (1, 1, 0) e Q = (0, 1, 0).
Esercizio 8: Nello spazio cartesiano R3 , con riferimento cartesiano ortogonale RC(O; x, y, z), siano dati
il piano
π : x + 2y = 0
e la retta
x 1 1
` : y = 0 + t 1 , t ∈ R.
z 1 1
(i) Trovare le equazioni cartesiane della retta r ottenuta per proiezione ortogonale di ` sul piano π.
(ii) Scrivere le formule di rotazione R π2 ,` di angolo π2 attorno alla retta orientata `.
(iii) Calcolare le equazioni parametriche della retta m = R π2 ,` (r), ottenuta cioe’ per rotazione di angolo
π
2 della retta r attorno alla retta orientata `.
√ √ √ √ √ √
1 1− 3 1+ 3 2+ 3 1 1− 3 1+ 3 1− 3
3 x +√ 3 y + 3 √z − 3 3 x +√ 3 y + 3 √z + 3
1+ 3
= t 1 x + 13√y + 1−3 3 z −√ 23 = 1+ 3
x + 13√y + 1−3 3 z −√ 23
√3 √3
1− 3 1+ 3 1 3−2 1− 3 1+ 3 1 3+1
3 x+ 3 y + 3z + 3 x+ 3 y + 3z +
0
3 3
1
(iii) Il vettore direttore v della retta r e’ dato dal prodotto vettoriale dei vettori normali dei piani che
definiscono la sua equazione cartesiana. Pertanto
2 1 2
v = −1 ∧ 2 = −1 .
−1 0 5
√
2 + 2√ 3
Il ruotato del vettore v e’ A(v) = 2 − √3 . Prendiamo ora un punto arbitrario su r, ad esempio P =
2− 3
√
−2 3
0 √ 3
0 . Applichiamo le formule di rotazione del punto (ii) a questo punto, ottenendo Q = 3−3 .
√ 3
−1 3
3
Pertanto m ha equazioni parametriche
−2√3 √
x √ 3 2 + 2√ 3
y = 3−3 + t 2 − , t ∈ R.
√ 3 √3
z 3 2− 3
3
Esercizio 9: Nello spazio cartesiano R3 , con riferimento cartesiano ortonormale standard RC(O; x, y, z),
si consideri la sfera S di centro l’origine O e raggio r = 2. Sia inoltre π il piano di equazione cartesiana
x − z = 3.
x
(i) Determinare le formule di riflessione Sπ y rispetto al piano π
z
(ii) Determinare l’equazione
cartesiana della sfera S 0 ottenuta per riflessione della sfera S rispetto a π.
1
(iii) Sia P = √1 ∈ S. Sia Sπ (P ) ∈ S 0 il riflesso di P rispetto a π. Si determini l’equazione
2
cartesiana del piano tangente alla sfera S 0 nel punto Sπ (P ).
(iv) Sia α il piano di equazione cartesiana z + 2 = 0. Dopo aver verificato che α passa per Sπ (P ),
determinare l’equazione cartesiana della retta tangente nel punto Sπ (P ) alla circonferenza C 0 = S 0 ∩ α.
a
Svolgimento. (i) Prendiamo un punto arbitrario di R3 , sia esso K = b . Le equazioni parametriche
c
della retta h, passante per K e perpendicolare a π, sono
x = a + t, y = b, z = c − t t ∈ R.
Considerare h ∩ π equivale ad imporre
a+t−c+t−3=0
che fornisce
1
t= (−a + c + 3).
2
20 FLAMINIO FLAMINI
Visto che il punto K corrisponde al valore del parametro t = 0, allora il simmetrico di K si ottiene per
il valore di
t = −a + c + 3.
Sostituendo nelle equazioni parametriche di h questo valore di t, otteniamo quindi
x = c + 3, y = b, z = a − 3.
In altre parole, le formule di riflessione rispetto a π sono
x z+3
Sπ y = y .
z x−3
(ii) Il centro C 0 di S 0 e’
0 3
C 0 = Sπ 0 = 0 .
0 −3
Poiche’ Sπ e’ un’isometria, il raggio di S e’ sempre r = 2. Pertanto, l’equazione cartesiana di S 0 e’:
0
(x − 3)2 + y 2 + (z + 3)2 = 4.
(iii) Si ha √
3+ 2
Sπ (P ) = 1
−2
e basta sostituire le sue coordinate nell’equazione di S 0 per verificare che esso appartiene a S 0 . Un vettore
normale al piano tangente a S 0 in Sπ (P ) e’ dato da
√
−→ −→ − 2
OC 0 − OSπ (P )= −1 .
−1
Pertanto, l’equazione del piano tangente a S 0 in Sπ (P ) e’ della forma
√
2x + y + z + d = 0,
√
con d parametro da determinare. Il passaggio per Sπ (P ) fornisce d = −1 − 3 2. Quindi il piano tangente
cercato e’ √ √
2x + y + z − 1 − 3 2 = 0.
(iv) L’equazione di C e’
(x − 3)2 + y 2 + (z + 3)2 − 4 = z + 2 = 0
i.e.
(x − 3)2 + y 2 − 3 = z + 2 = 0,
e la retta tangente cercata ha quindi equazione
√ √
2x + y + z − 1 − 3 2 = z + 2 = 0.
Esercizio 10: Nello spazio cartesiano R3 , con riferimento cartesiano standard RC(O; x, y, z), siano date
le due coppie di punti
1 0 1 3
P1 = 1 , P2 = 2 e Q1 = 2 , Q2 = 4 .
1 −1 0 3
(i) Determinare equazioni parametriche della retta `, congiungente i punti P1 e P2 , e della retta m,
congiungente i punti Q1 e Q2 .
ISOMETRIE ED AFFINITA’ NOTEVOLI 21
Prof. F. Flamini
iii
iv PRODOTTI SCALARI E SPAZI VETTORIALI EUCLIDEI
è rappresentato dal segmento orientato OC, dove C è la proiezione perpendicolare del punto B
sulla retta OA. La trigonometria ci dice infatti che
a•b
|a|
n=b−p
Definizione 0.1.2. Due vettori geometrici u e v si dicono perpendicolari se sono non nulli e
hanno direzioni perpendicolari oppure se uno di essi è nullo.
G : V × V → R,
c
G(a, b) =| a || b | cos (ab).
Ogni proprieta’ del prodotto scalare di vettori geometrici può dunque essere descritta nei termini
di una corrispondente proprieta’ della funzione G. Esaminiamo da entrambi i punti di vista le
proprieta’ che ci interessano:
Proprietà commutativa ∀ a, b ∈ V,
a • b = b • a,
ovvero
G(a, b) = G(b, a).
c = ba.
La proprietà segue subito dalla definizione di prodotto scalare geometrico e dal fatto che ab c
0.1. PRODOTTO SCALARE GEOMETRICO v
a • (b + c) = a • b + a • c,
ovvero
G(a, b + c) = G(a, b) + G(a, c).
Si noti che, essendo valida la proprieta’ commutativa, vale anche G(b+c, a) = G(b, a)+G(c, a).
Proprietà di bilinearità ∀ a, b ∈ V e ∀ λ ∈ R
ovvero
G(λa, b) = λG(a, b) = G(a, λb).
\ = a(λb)
La proprietà segue osservando che (λa)b \ e che | λv |=| λ | | v |, dove | λ | è il valore
assoluto del numero reale λ.
(4) Proprietà di positività ∀ a ∈ V, a 6= 0,
a • a > 0.
i, j, k
di V costituita da vettori di lunghezza 1 e a due a due perpendicolari. Questo significa che i tre
vettori della base sono rappresentati rispettivamente dai segmenti orientati OI, OJ, OK, dove i
punti O, I, J, K sono vertici di uno stesso cubo e OI, OJ, OK sono lati questo cubo. Poiché i
vettori sono a due a due perpendicolari abbiamo
i • j = i • k = j • k = 0,
i • i = j • j = k • k = 1.
(a1 i + a2 j + a3 k) • (b1 i + b2 j + b3 k) = a1 b1 + a2 b2 + a3 b3 .
vi PRODOTTI SCALARI E SPAZI VETTORIALI EUCLIDEI
Definizione 0.1.3. Una base ortonormale di V è una base di V costituita da tre vettori i, j, k
che sono a due a due perpendicolari e di lungezza 1.
Sulla base delle ultime osservazioni svolte possiamo concludere questa sezione con la proprietà
seguente:
Proposizione 0.1.1. Se i, j, k è una base ortonormale di V e se a = a1 i + a2 j + a3 k e b =
b1 i+b2 j+b3 k, allora il prodotto scalare geometrico a•b è la somma dei prodotti delle coordinate
dello stesso indice, i.e.
a • b = a1 b1 + a2 b2 + a3 b3 .
h, i:V ×V →R
hx, yi = hy, xi
h , i : R[T ] × R[T ] → R
la funzione che alla coppia di polinomi (P (T ), Q(T )) = (P, Q) ∈ R[T ]×R[T ] associa l’integrale
Z 1
P Q dT.
0
0.2. PRODOTTI SCALARI vii
D’altra parte X X
yj hx, uj i = yj h xi ui , uj i = yj xi hui , uj i
i=1,...,n i=1,...,n
e quindi X X X
hx, yi = yj xi hui , uj i = xi yj bij .
j=1,...,n i=1,...,n i,j=1,...,n
Calcolando infine x1 , . . . , xn Bu (h , i) si ottiene
y1 y1
.. .
x1 , . . . , xn Bu (h , i) . = x1 b11 + · · · + xn bn1 . . . x1 b1n + · · · + xn bnn .. .
yn yn
Esercizi 0.3.1. (1) Sia h , i il prodotto scalare standard su R2 e sia u = u1 , u2 una delle seguenti
basi:
- u1 = (1, 0), u2 = (0, 1)
−1
- u1 = ( √12 , √12 ), u2 = ( √12 , √ 2
)
- u1 = (1, −1), u2 = (1, −1)
x PRODOTTI SCALARI E SPAZI VETTORIALI EUCLIDEI
h , i : V × V → R,
scelto tra gli infiniti prodotti scalari definiti su V . Lavoreremo quindi avendo assegnato la coppia
(V, h , i) e non solo lo spazio vettoriale V .
Definizione 0.4.1. Uno spazio vettoriale euclideo è una coppia (V, h , i) dove V è uno spazio
vettoriale e h , i è un prodotto scalare su V .
Dato (V, h , i) uno spazio vettoriale euclideo, vogliamo discutere alcune proprietà geometriche
notevoli di tale spazio. Abbiamo bisogno prima di alcuni preliminari.
Norma di un vettore
In uno spazio vettoriale euclideo si può introdurre la nozione di lunghezza di vettori. Infatti abbi-
amo:
Definizione 0.4.2. Sia V uno spazio vettoriale euclideo e sia v ∈ V un qualsiasi vettore. La
norma (o lunghezza) di v è il numero reale non negativo
p
|| v ||:= hv, vi.
Notare che se invece v non e’ un versore, si puo’ sempre considerare un generatore di Span(v)
che sia un versore, i.e.
v
f= .
|| v ||
La precedente formula si dice, versorizzazione del vettore v
Disuguaglianza di Cauchy-Schwarz
Teorema 0.4.1. Sia V uno spazio vettoriale euclideo. Qualunque siano i vettori u, v ∈ V si ha
htu + v, tu + vi ≥ 0
dove
a = hu, ui, b = hu, vi, c = hv, vi.
Se a = 0 allora u = 0 e la disuguaglianza diventa l’uguaglianza 0 = 0: in tal caso non c’è altro
da dimostrare. Consideriamo allora il caso rimanente e cioè a > 0: per il polinomio di secondo
grado at2 + 2bt + c sappiamo che vale
at2 + 2bt + c ≥ 0
qualunque sia t. Equivalentemente il discriminante 4(b2 − ac) di tale polinomio deve essere ≤ 0.
Ma allora abbiamo
b2 − ac = hu, vi2 − hu, ui hv, vi ≤ 0;
utilizzando la definizione di norma, ciò prova la prima parte del teorema.
Si noti infine che l’ultima disuguaglianza è un’uguaglianza se, e solo se, b2 − ac = 0 e cioè
se, e solo se, l’equazione at2 + 2bt + c = 0 ha un’unica radice t0 = − ab . Ciò avviene se, e solo
se,
ht0 u + v, t0 u + vi = 0
ovvero se, e solo se, t0 u + v = 0. Essendo u 6= 0 la condizione t0 u + v = 0 equivale alla
condizione che u e v siano linearmente dipendenti.
di vettori geometrici (cf. § 0.1). Siano u e v due vettori non nulli di V . È immediato verificare
che la diseguaglianza di Schwarz è equivalente a:
|hu, vi| ≤ ||u|| ||v||. (1)
Da (1) segue immediatamente che
hu, vi
−1 ≤ ≤ 1, (2)
||u|| ||v||
per ogni u e v come sopra. Grazie al fatto che la funzione coseno e’ monotona strettamente
decrescente (quindi invertibile) nell’intervallo reale [0, π], abbiamo:
Definizione 0.4.4. Dati due vettori non nulli u e v in uno spazio vettoriale euclideo V , definiamo
l’angolo convesso θ = θ(u, v) da essi formato quell’unico numero reale θ ∈ [0, π] tale che
hu, vi
cos θ := . (3)
||u|| ||v||
In altre parole, denotata con
arccos : [−1, 1] → [0, π]
la funzione inversa della funzione coseno nell’intervallo in questione, abbiamo che
hu, vi
θ := arccos( ).
||u|| · ||v||
Vettori ortogonali.
La nozione di perpendicolarità tra vettori di uno spazio vettoriale euclideo può essere agevolmente
introdotta imitando il caso del prodotto scalare geometrico:
Definizione 0.4.5. Due vettori u e v di uno spazio vettoriale euclideo V si dicono perpendicolari
(equivalentemente, ortogonali) se
hu, vi = 0.
Osservazione 0.4.1. Come semplici conseguenze della precedente definizione, ritroviamo che u
e v sono ortogonali se, e solo se, l’angolo convesso da essi formato è θ = π/2. Inoltre, da (3),
otteniamo una semplice relazione che lega il prodotto scalare tra i due vettori, l’angolo convesso
da essi formato e le loro norme:
hu, vi = ||u|| ||v|| cos θ(u, v). (4)
Riguardo alla perpendicolarita’ di vettori, più in generale vale la seguente
Definizione 0.4.6. Un sistema di vettori v = v 1 , . . . , v r si dice un sistema di vettori ortogonali
se i suoi elementi sono a due a due ortogonali, cioè se
i 6= j ⇒ hv i , v j i = 0, ∀ i, j ∈ {1, . . . , r}.
Una base ortogonale è una base di V formata da un sistema di vettori ortogonali.
0.4. SPAZI EUCLIDEI xiii
I sistemi di vettori ortogonali sono spesso più facili da studiare e più convenienti nelle applicazioni.
Si consideri ad esempio la seguente:
Proposizione 0.4.2. Sia v = v 1 , . . . , v r un sistema di vettori ortogonali. Se v i 6= 0 per ogni
i = 1, . . . , r, allora i vettori v 1 , . . . , v r sono linearmente indipendenti.
Infine, essendo v i 6= 0, si ha hv i , v i i =
6 0 e quindi λi = 0, (i = 1, . . . , r).
Ciò implica hn, wj i = hv, wj i − hv, wj i = 0 e pertanto n è ortogonale ad ogni wj . Per provare la
seconda parte dell’enunciato osserviamo innanzitutto che
Span(w1 , . . . , ws , n) ⊆ S.
Per rendere piu familiare la formula che appare nell’enunciato del precedente lemma, il lettore
osservi che per due vettori v, w si ha
hw, vi
n=v− w.
hw, wi
La formula generale che appare nell’enunciato del lemma viene utilizzata, nella dimostrazione
del successivo teorema, per costruire un sistema di vettori ortogonali che generi lo stesso spazio
generato da un sistema di vettori assegnato. Tale costruzione è nota come procedimento di Gram-
Schmidt.
Teorema 0.4.4. Sia v = v 1 , . . . , v n un sistema di vettori non tutti nulli di uno spazio vettoriale
euclideo e sia S = Span(v 1 , . . . , v n ). Allora esiste una base ortogonale w = w1 , . . . , ws di S.
S = Span(w1 , . . . , wt , v n ).
La cosa importante è applicare la dimostrazione, o il lemma che la precede, in modo concreto tutte
le volte che sia assegnato un sistema di vettori
v = v1 , . . . , vn .
Supporremo non tutti nulli i vettori di v e, a meno di riassegnare gli indici, v 1 6= 0. Indichiamo i
passi da compiere:
0.4. SPAZI EUCLIDEI xv
(1) Porre w1 = v 1 .
hw1 ,v 2 i
(2) Porre w2 = v 2 − hw1 ,w1 i w 1 .
..
.
(k) Porre
X hwi , v k i
wk = v k − w
hwi , wi i i
i=1,...,k−1, wi 6=0
..
.
(n) Dopo n passi il procedimento termina avendo costruito un sistema di vettori
w = w1 , . . . , wn .
Span(v 1 , . . . , v k ) = Span(w1 , . . . , wk ).
Sottospazio ortogonale
Definizione 0.4.7. Sia V uno spazio vettoriale euclideo e sia S ⊂ V un sottoinsieme non vuoto.
L’insieme
S ⊥ := {v ∈ V | hv, wi = 0, ∀ u ∈ S}
è un sottospazio vettoriale di V detto sottospazio ortogonale a S.
In altri termini, anche se S è solo un sottoinsieme, S ⊥ ha sempre una struttura di sottospazio
vettoriale di V . Se in particolare S = {u}, per qualche u ∈ V , allora scriveremo u⊥ invece di
{u}⊥ ; in particolare, vale
u⊥ = Span(u)⊥ .
È facile verificare che, se S ⊂ V è anch’esso un sottospazio vettoriale, allora S ∩ S ⊥ = {0}.
Inoltre, se u = u1 , . . . , un è una base per S, risulta
S ⊥ = u⊥ ⊥
1 ∩ · · · ∩ un .
Proposizione 0.4.5. Sia V uno spazio vettoriale euclideo di dimensione n. Sia S ⊂ V un sot-
tospazio vettoriale s dimensionale di V . Allora,
V = S ⊕ S⊥.
In particolare, dim S ⊥ = n − s.
xvi PRODOTTI SCALARI E SPAZI VETTORIALI EUCLIDEI
Dimostrazione. Sia u = u1 , . . . , us una base per S. A meno di applicare Teorema 0.4.4, possiamo
supporre che u sia una base ortogonale. Dal Teorema di estensione ad una base e dal Teorema
0.4.4, u si estende ad una base ortogonale v = u1 , . . . , us , us+1 , . . . , un per V . Per definizione
di base ortogonale, us+1 , . . . , un ∈ S ⊥ . Pertanto, V = S + S ⊥ ed i vettori us+1 , . . . , un ∈ S ⊥
sono linearmente indipendenti in S ⊥ perché lo sono in V . Da quanto osservato precedentemente,
poiché si ha S ∩ S ⊥ = {0}, allora V = S ⊕ S ⊥ ed il sistema di vettori linearmente indipendenti
w = us+1 , . . . , un è una base per S ⊥ .
Definizione 0.4.8. Dato S un sottospazio vettoriale di uno spazio vettoriale euclideo V , S ⊥ viene
detto il complemento (o supplemento) ortogonale di S.
Definizione 0.5.1. Sia V uno spazio vettoriale euclideo di dimensione n. Diremo che una base
v = v 1 , . . . , v n è ortonormale se
hv i , v j i = δij
Si noti che una base ortonormale v = v 1 , . . . , v n è certamente una base ortogonale, segue infatti
dalla definizione che hv i , v j i = 0 se i 6= j. La proprietà in più che caratterizza le basi ortonormali
tra tutte le basi ortogonali è che
hv i , v i i = 1, i = 1, . . . , n,
w = w1 , . . . , wn
di V con il procedimento di Gram-Schmidt. Infatti, una volta costruita una base ortogonale w
come sopra, e’ sufficiente versorizzare i vettori di w ponendo, per ogni i = 1, . . . , n,
1
ui = p wi
hwi , wi i
0.5. BASI ORTONORMALI E MATRICI ORTOGONALI xvii
In particolare i vettori u1 , . . . , un sono non nulli, a due a due perpendicolari e tali che hui , ui i = 1.
Le prime due proprietà implicano che tali vettori sono linearmente indipendenti. Quindi, essendo
in numero uguale alla dimensione di V , essi formano una base ortogonale. L’ultima proprietà ci
dice che tale base è ortonormale.
Una buona proprietà delle basi ortonormali è la seguente: siano x, y ∈ V due vettori e sia
u = u1 , . . . , un
una base ortonormale di V e sia Bu := Bu (h , i) la matrice del prodotto scalare rispetto aalla
base u. Allora sappiamo che:
y1
..
hx, yi = x1 , . . . , xn Bu . .
yn
Poiché u è per ipotesi ortonormale, si ha che Bu è la matrice identità In quindi
y1 y1
. . X
hx, yi = x1 , . . . , xn In .. = x1 , . . . , xn .. = xi yi .
yn yn i=1,...,n
(P1) Se u è una base ortonormale il prodotto scalare hx, yi è la somma dei prodotti delle coordi-
nate omonime di x e y rispetto a u.
In (P1) la terminologia ”coordinate omonime” vuol dire coordinate di x e di y aventi indice uguale
e cioè xi e yi , 1 ≤ i ≤ n.
Una ulteriore buona proprietà di una base ortonormale è che le coordinate di un vettore v ∈ V
sono determinate dal prodotto scalare:
xviii PRODOTTI SCALARI E SPAZI VETTORIALI EUCLIDEI
Proposizione 0.5.2. Sia V uno spazio vettoriale euclideo e sia u = u1 , . . . , un una sua base
ortonormale. Per ogni vettore v ∈ V la componente j-esima di v rispetto alla base u è il prodotto
scalare
hv, uj i.
det(M ) = 1,
det(M ) = −1.
Perché interessarsi alle matrici ortogonali? Il fatto e’ che le matrici ortogonali sono, come
vedremo tra poco, esattamente le matrici del cambiamento di base tra due basi ortonormali.
0.5. BASI ORTONORMALI E MATRICI ORTOGONALI xix
Teorema 0.5.3. Sia V uno spazio vettoriale di dimensione finita e siano u e v due sue basi qual-
siasi. Sia poi h , i un prodotto scalare su V e siano Bu := Bu (h , i) e Bv := Bv (h , i)
rispettivamente le matrici di tale prodotto scalare rispetto alle basi u e v. Allora la relazione tra
le matrici Bu e Bv dei prodotti scalari in queste due basi è la seguente:
x = x1 v 1 + · · · + xn v n e y = y1 v 1 + · · · + yn v n ,
espressi mediante le loro coordinate rispetto alla base v. Dalla formula del cambiamento di coor-
dinate, le colonne delle coordinate di x e y rispetto alla base u sono, rispettivamente,
x1 y1
.. ..
Muv . e Muv . .
xn yn
Si osservi inoltre che la trasposta del primo prodotto è
x1 , . . . , xn tMuv .
Bv = tMuv Bu Muv .
Si osservi infatti che le coordinate di v i (rispettivamente, di v j ) rispetto a v sono nulle salvo quella
i-esima (rispettivamente, la j-esima), che vale 1. La penultima eguaglianza implica allora
0
..
.
t
hv i , v j i = 0 . . . 1i . . . 0 Muv Bu Muv
1j .
..
.
0
L’espressione a destra di quest’ultima uguaglianza è esattamente il termine di posto i, j della
matrice prodotto
t
Muv Bu Muv .
xx PRODOTTI SCALARI E SPAZI VETTORIALI EUCLIDEI
D’altra parte Bv è, per definizione di matrice associata ad un prodotto scalare rispetto ad una base,
esattamente la matrice il cui termine di posto i, j è hv i , v j i. Per ogni i, j, tMuv Bu Muv e Bv hanno
dunque lo stesso termine i, j. Quindi sono matrici uguali.
La relazione (5) tra le matrici Bu e Bv è molto importante e svolgerà un ruolo fondamentale anche
in altri argomenti che affronteremo in seguito (cf. e.g. Capitolo 0.9). Abbiamo infatti la seguente
situazione più generale:
Definizione 0.5.4. Due matrici A e B, n×n, si dicono congruenti se esiste una matrice invertibile
M , n × n, tale che valga
B = tM AM. (6)
Se A è B soddisfano la relazione (6), esse si dicono congruenti per mezzo di M .
Da Teorema 0.5.3 abbiamo quindi che, dato uno spazio vettoriale euclideo V , le matrici di un
prodotto scalare rispetto a due qualsiasi basi di V sono congruenti.
Nelle stesse notazioni di Definizione 0.5.4, abbiamo inoltre:
Lemma 0.5.4. Sia M una matrice ortogonale n × n. Allora, per ogni matrice A n × n, si ha la
seguente identità:
M −1 AM = t M AM. (7)
In particolare, se M e’ ortogonale, due matici A e B sono simili (o coniugate) se e solo se sono
congruenti.
Pertanto, se su uno spazio vettoriale euclideo (V, h, i) prendiamo due basi ortonormali (rispetto
a h, i) si ha:
Teorema 0.5.5. Sia V uno spazio vettoriale e siano u e v due sue basi ortonormali rispetto ad
uno stesso prodotto scalare h , i su V . Allora la matrice del cambiamento di base Muv è una
matrice ortogonale.
Definizione 0.5.5. Dati due vettori non nulli u e v in uno spazio vettoriale euclideo V , definiamo
la proiezione ortogonale di u lungo la direzione determinata da v (i.e. sul sottospazio Span(v))
il vettore
πv (u)
definito dalla condizione
hu − πv (u), vi = 0. (8)
L’applicazione lineare πv sopra definita si chiama proiettore ortogonale sul sottospazio Span(v).
Ovviamente se u e v sono linearmente dipendenti, allora chiaramente πv (u) = u. Pertanto, la
precedente definizione è di interessante utilizzo principalmente quando u e v sono linearmente
indipendenti. Utilizzando (3) e (4), abbiamo il seguente semplice risultato.
Proposizione 0.5.6. Dati due vettori non nulli u e v, linearmente indipendenti, in uno spazio
vettoriale euclideo V , allora:
(ii) la proiezione ortogonale (8) determina una decomposizione ortogonale del vettore u in
un vettore parallelo a v, i.e. πv (u) come in (i), e di un vettore perpendicolare a v, i.e.
nv (u) := u − πv (u) = u − λu v. In altri termini, u si esprime in modo unico come
u = πv (u) + nv (u),
che fornisce la prima eguaglianza in (9). La seconda eguaglianza è chiaramente conseguenza della
prima e di (4).
(ii) È ovvia conseguenza di (i) e di (8).
v = v U + v U ⊥ , con v U ∈ U, v U ⊥ ∈ U ⊥ ; (10)
Definizione 0.5.6. Dato un vettore v ed un sottospazio vettoriale U non nulli in uno spazio vetto-
riale euclideo V , definiamo le proiezioni ortogonali di v sui sottospazi U e U ⊥ , rispettivamente, i
vettori
πU (v) := v U e πU ⊥ (v) := v U ⊥
come in (10).
Proposizione 0.5.7. Siano U e v come sopra. Sia dim U = k < n = dim(V ). Sia u =
u1 , u2 , . . . , uk una qualsiasi base ortogonale per U . La proiezione ortogonale di v su U è il
vettore
hv, u1 i hv, u2 i hv, uk i
πU (v) = u1 + u2 + . . . + u . (11)
hu1 , u1 i hu2 , u2 i huk , uk i k
Equivalentemente, πU (v) è il vettore la cui i-esima componente rispetto alla base u di U è:
hv, ui i
, 1 ≤ i ≤ k.
hui , ui i
v = u1 , u2 , . . . , uk , uk+1 , . . . , un
hv, ui i
, 1 ≤ i ≤ n.
hui , ui i
Testi di esercizi riepilogativi 0.1. (1) Nello spazio vettoriale euclideo R2 , munito di base canon-
ica e e di prodotto scalare standard, si consideri il vettore u = (−1, 1) espresso nelle sue coor-
dinate rispetto ad e. Determinare tutti i vettori x che sono ortogonali ad u e con norma uguale a
2.
(2) Sia R3 lo spazio vettoriale euclideo, munito di prodotto scalare standard e di base canonica e.
Sia U ⊂ R3 il sottoinsieme delle soluzioni del sistema lineare x + y + 2z = x − y + z = 0.
(i) Giustificare che U è un sottospazio vettoriale di R3 .
(ii) Determinare una base ortonormale di U .
(iii) Denotato con U ⊥ il complemento ortogonale di U in R3 , determinare un’equazione lineare
in x, y e z che rappresenti U ⊥ .
(iv) Utilizzando il procedimento di ortonormalizzazione di Gram-Schmidt, estendere la base ortonor-
male di U determinata nel punto (ii) ad una base ortonormale di R3 .
(3) Sia F : R2 × R2 → R la funzione sullo spazio vettoriale R2 definita da: ∀ x, y ∈ R2 ,
F (x, y) := 2x1 y1 + x2 y1 + x1 y2 + x2 y2 , dove x = (x1 , x2 ) e y = (y1 , y2 ) denotano le coordinate
dei vettori dati rispetto alla base canonica e.
(i) Verificare che F è un prodotto scalare su R2 e determinare la matrice Be (F ) di F in base e.
(ii) Considerata la base b data dai vettori v 1 := e1 + e2 , v 2 := 2e1 − e2 di R2 , determinare la
matrice Bb (F ) di F in base b.
(4) Nello spazio vettoriale euclideo R3 , munito del prodotto scalare standard, siano dati i vettori
v 1 = (1, 2, −1), v 2 = (1, 0, 1), v 3 = (1, 2, 0) espressi rispetto alla base canonica e.
(i) Determinare ||v 1 ||, il prodotto scalare hv 1 , v 2 i ed il coseno dell’angolo formato da v 2 e v 3 .
(5) Nello spazio vettoriale euclideo R3 , munito del prodotto scalare standard, determinare il vet-
tore proiezione ortogonale del vettore v 1 = (1, 1, 0) sul vettore v 2 = (1, 0, 1), dove ambedue i
vettori sono espressi rispetto alla base canonica e.
(6) Sia R3 lo spazio vettoriale euclideo, munito di base canonica e e prodotto scalare standard.
(i) Determinare una base ortonormale f di R3 costruita a partire dalla base b := v 1 , v 2 , v 3 , dove
v 1 = (1, 0, 1), v 2 = (0, 1, 1), v 3 = (0, 1, −1).
(ii) Verificare che la matrice cambiamento di base Mef è ortogonale.
(7) Nello spazio vettoriale euclideo R3 , munito del prodotto scalare standard, determinare la
proiezione ortogonale del vettore v = (0, 1, 2) sul sottospazio W generato dai vettori v 1 =
(1, 1, 0) e v 2 = (0, 0, 1).
Matrici ed operatori ortogonali.
Orientazione in uno spazio vettoriale
In questo capitolo studiamo alcune proprietà fondamentali delle matrici ortogonali su uno spazio
vettoriale euclideo V . Assoceremo a tali matrici degli opportuni operatori lineari su V , detti oper-
atori ortogonali. Considereremo poi esempi concreti di operatori ortogonali negli spazi vettoriali
euclidei R2 o R3 , muniti di prodotto scalare standard, che hanno importanti risvolti dal punto di
vista della geometria euclidea.
Come in § 0.4, per tutto il capitolo sarà notazionalmente più conveniente considerare la n-upla di
coordinate di un vettore rispetto ad una base data come una matrice colonna.
Proposizione 0.6.1. Sia (V, h , i) uno spazio vettoriale euclideo di dimensione n. Un operatore
F è ortogonale se, e solo se, è un operatore invertibile (i.e. esiste l’inverso F −1 ) e se, in ciascuna
base ortonormale f di V , la matrice rappresentativa B := Mf (F ) di F è una matrice ortogonale,
i.e. B −1 = t B.
xn yn
f è per ipotesi ortonormale, la matrice del prodotto scalare Bf (h , i) è la matrice identità (cf.
xxv
xxvi MATRICI ORTOGONALI
y1
·
Proposizione 0.5.1). Pertanto, in base f , hF (x), F (y)i = (x1 . . . xn ) t BIn B
· . Poiché, per
yn
y1
·
ipotesi, quest’ultimo deve essere uguale a hx, yi = (x1 . . . xn )In · , per ogni scelta di x e y
yn
in V , otteniamo l’identità tra matrici t BB = In .
⇐) F è per ipotesi invertibile. Sia f una qualsiasi base ortonormale di V e sia B = Mf (F ).
La matrice di F −1 in base f è quindi B −1 = t B, per le ipotesi su B. Per ogni x e y in V ,
con coordinate rispetto a f come nel punto precedente, dalle ipotesi su F e su B si ha hx, yi =
y1 y1
· t ·
· = (x1 . . . xn ) BB · = hF (x), F (y)i, cioè F è ortogonale.
(x1 . . . xn )In
yn yn
Notiamo inoltre
Corollario 0.6.2. Date due matrici A e B, n × n, esse sono congruenti per mezzo di una matrice
ortogonale M , n × n, se e solo se sono simili per mezzo di M .
Dimostrazione. Discende direttamente da Lemma 0.5.4 e dalle nozioni di congruenza (cf. Definizione
0.5.4) e di matrici simili o coniugate.
Osservazione 0.6.1. (a) Dalla condizione (12), osserviamo che un operatore ortogonale conserva
il prodotto scalare tra vettori. Quindi conserva la norma di un vettore e conserva l’angolo convesso
tra due vettori non nulli. In particolare, un operatore ortogonale trasforma basi ortonormali in basi
ortonormali (cf. Teorema 0.5.5).
(b) Se un operatore ortogonale ha autovalori reali, allora essi sono solamente ±1. Infatti, sia λ
un autovalore reale di F e sia x un relativo autovettore, i.e. F (x) = λx. Allora, poiché da (a)
abbiamo ||F (x)|| = ||λx|| = |λ|||x|| = ||x||, si ha che |λ| = 1.
(c) Tuttavia, possono esistere operatori ortogonali che non hanno mai autovalori reali (e pertanto
sono sicuramente non diagonalizzabili). Ad esempio, prendiamo R2 con prodotto scalare stan-
dard e fissiamo
la base canonica e come base di riferimento. Consideriamo la matrice A =
0 −1
. Essa è ortogonale: oltre alla verifica diretta, nei prossimi paragrafi troveremo che A
1 0
rappresenta, in base e, la rotazione di angolo π/2 attorno all’origine di R2 . Per Proposizione 0.6.1,
A definisce un operatore ortogonale F = FA su R2 . Però tale operatore F è privo di autovalori
reali, infatti il polinomio caratteristico di A e’ PA (T ) = T 2 + 1 che non ha soluzioni reali.
0.7. ORIENTAZIONE DI SPAZI VETTORIALI xxvii
Definizione 0.7.1. Con notazioni come sopra si definisce l’orientazione del sistema ordinato di
vettori v = v 1 , v 2 , . . . , v n rispetto alla base e, denotata con Or(v 1 , v 2 , . . . , v n ), il segno del
determinante della matrice A, n × n, delle coordinate di v rispetto ad e.
allora:
(i) Or(v 1 , v 2 , . . . , v n ) = 0, se v non è una base;
(ii) se invece v è una base, la matrice A := (aij ), 1 ≤ i, j ≤ n, ha per i-esima colonna le
coordinate di v i come in (13). Pertanto essa non è altro che la matrice cambiamento di base Mev .
Denotato con
det A
ǫA := = ±1
|det A|
il segno del determinante di A, allora
Or(v 1 , v 2 , . . . , v n ) = ǫA . (14)
Or(v 1 , v 2 , . . . , v i , . . . , v j , . . . , v n ) = − Or(v 1 , v 2 , . . . , v j , . . . , v i , . . . , v n )
per ciascun 1 ≤ i 6= j ≤ n. Pertanto, ogni volta che scambiamo di posto a due vettori della base,
bisogna moltiplicare per −1 il precedente valore di orientazione.
In particolare, abbiamo anche:
(i) 1, la base v si dirà orientata positivamente (od equiorientata con la base e);
(ii) −1, la base v si dirà orientata negativamente (o non equiorientata con la base e);
xxviii MATRICI ORTOGONALI
Date ora due basi v e w di V , se sia v che w sono (rispettivamente, non sono) equiorientata con e,
allora diremo che v e w sono equiorientate fra loro. In effetti, questa definizione è naturale dato
che è compatibile con il fatto che, in tale situazione, si ha:
Esempio 0.7.1. Nei capitoli successivi, utilizzeremo queste nozioni principalmente nel caso V =
Rn ed e la base canonica. Se ad esempio v = v 1 , v 2 , . . . , v n è una qualsiasi base ortonormale di
Rn , rispetto al prodotto scalare standard, se A = Mev allora
Or(v 1 , v 2 , . . . , v n ) = det A
dato che in tal caso A è una matrice ortogonale, quindi il suo determinante è ±1. Il fatto che
v stia in B+
Rn o meno dipenderà dal fatto che A sia una matrice ortogonale speciale o meno (cf.
Definizione 0.5.3).
Vediamo ora come varia la proprietà di orientazione rispetto alla base e quando applichiamo
delle trasfromazioni lineari ai vettori della base v. Il seguente risultato è immediata conseguenza
del Teorema di Binet e di Definizione 0.7.1.
Proposizione 0.7.1. Siano V , e e v come sopra. Sia B una qualsiasi matrice n × n invertibile.
det B
Allora, detto ǫB = |det B| = ±1 il segno del determinante di B, si ha:
Il precedente risultato in altri termini stabilisce il fatto che se abbiamo una base v di uno spazio
vettoriale e consideriamo i trasformati dei vettori della base v per mezzo di un’affinità lineare B
che opera su V , allora si ottiene una nuova base w = Bv 1 , . . . , Bvn che sarà equiorientata a v o
meno a seconda che il determinante di B sia positivo o negativo.
√ ! √ !
2 2
−
Esempio 0.7.2. Siano dati v 1 = √22 e v 2 = √2
2
due vettori di R2 espressi rispetto
2 2 √ √ !
2 2
−
alla base canonica e = e1 , e2 di R2 . Notiamo che det √2
2
√2
2
= 1 > 0; pertanto
2 2
anche Or(v 1 , v 2 ) = 1. In altri termini, v = v 1 , v 2 è una base ortonormale equiorientata con
0.8. TRASFORMAZIONI ORTOGONALI DI R2 xxix
e. Anticipando alcune cose che verranno discusse in dettaglio nei paragrafi successivi, possiamo
dare una giustificazione geometrica di quanto asserito. In effetti, la base v e’ ottenuta da e facendo
ruotare sia e1 che e2 di 45 gradi (i.e. π/4) in modo antiorario attorno a 0. Se R è la matrice che
rappresenta in base e questa rotazione (cf. Proposizione 0.8.1) abbiamo che det R = 1 (come
ogni rotazione, cf. Corollario 0.8.2).
√ ! √ ! √ √ !
2 2 2 2
Se invece prendiamo w1 = √2 e w2 = 2√ abbiamo che det √2 2√ =
2
2 − 22 2
− 22
2
Or(w1 , w2 ) = −1, cioè w = w1 , w2 è una base ortonormale non equiorientata con e. In effetti,
come otteniamo la base w dalla base canonica e, per mezzo di un’isometria lineare? Ad esempio,
compiamo prima la rotazione R in senso antiorario di angolo π/4 portando la base canonica e
nella base v, come sopra. Poi, alla base v applichiamo la trasformazione S di riflessione rispetto
al vettore v 1 . In particolare avremo w1 = S(v 1 ) = v 1 mentre w2 = S(v 2 ) = −v 1 . Perciò
w è ottenuta da e prima per mezzo della rotazione R e poi applicando alla base intermedia v la
riflessione S. È facile verificare che det S = −1 (come ogni riflessione ha, cf. Corollario 0.8.5).
Pertanto la trasformazione composta che porta e in w è la trasformazione S ◦R che, per il Teorema
di Binet, ha determinate −1.
Osservazione 0.7.1. Abbiamo una visualizzazione geometrica del concetto di orientazione. Per
semplicita’ ci focalizziamo sui casi di R2 e di R3 .
• Se abbiamo una base ortonormale v 1 , v 2 di R2 , facendo ruotare v 1 , in direzione di v 2 , fino a
farlo arrivare sulla retta vettoriale Span(v 2 ), se su tale retta vettoriale il vettore cosı̀ ottenuto da
v 1 ed il vettore v 2 hanno lo stesso verso, allora vuol dire che Or(v 1 , v 2 ) = 1, se invece hanno
verso opposto, allora Or(v 1 , v 2 ) = −1.
• Se abbiamo una base ortonormale v 1 , v 2 , v 3 di R3 , allora:
(a) Or(v 1 , v 2 , v 3 ) = 1 si ha quando i vettori della base sono disposti in maniera tale da poter
identificare v 1 con il dito medio, v 2 con il dito pollice e v 3 con il dito indice della mano destra;
(b) Or(v 1 , v 2 , v 3 ) = −1 si ha quando i vettori della base sono disposti in maniera tale da poter
identificare v 1 con il dito medio, v 2 con il dito pollice e v 3 con il dito indice della mano sinistra.
In particolare,
• se θ = 0, allora Rθ = Id;
• se θ > 0, la rotazione di x è in senso antiorario rispetto al vettore e1 ;
• se θ < 0, la rotazione di x è in senso orario rispetto al vettore e1 .
Il vettore y = Rθ (x) è tale che ||y|| = ||x|| e forma con l’asse delle x1 un angolo pari a α + θ.
Pertanto
y1 = ||x|| cos(α + θ), y2 = ||x|| sin(α + θ).
Per le formule di addizione delle funzioni trigonometriche e per le precedenti relazioni, abbiamo
quindi:
y1 = ||x||(cos α cos θ − sin α sin θ) = x1 cos θ − x2 sin θ,
y2 = ||x||(sin α cos θ − cos α sin θ) = x1 sin θ + x2 cos θ
onde l’asserto.
Corollario 0.8.2. Per ogni θ ∈ R, le rotazioni Rθ attorno al vettore nullo sono traformazioni la
cui matrice rappresentativa come in (15) è speciale ortogonale.
Osservazione 0.8.1. Da quanto dimostrato in Proposizione 0.7.1 e dal Corollario 0.8.2-(ii), no-
tiamo subito che le rotazioni Rθ attorno all’origine in particolare conservano l’orientazione di
basi dello spazio vettoriale R2 , i.e. Or(v, w) = Or(Rθ (v), Rθ (w)), per ogni coppia di vettori
linearmente indipendenti v, w di R2 e per ogni θ ∈ R.
0.8. TRASFORMAZIONI ORTOGONALI DI R2 xxxi
Concludiamo osservando che le rotazioni attorno all’origine godono delle seguenti ovvie pro-
prietà che discendono immeditamente da (15).
Definizione 0.8.2. Sia r una retta vettoriale di R2 orientata in modo tale che formi con il vettore
e1 un angolo convesso 0 ≤ ϕ ≤ π/2. Denotiamo con Sϕ = Sϕ,0 l’applicazione di R2 in sè che
ad un arbitrario vettore x ∈ R2 associa il vettore y ottenuto per riflessione di x rispetto ad r. Sϕ
viene detta riflessione (o simmetria) definita dalla retta vettoriale (orientata) r.
x1
Proposizione 0.8.4. Sia x = ∈ R2 arbitrario. Allora
x2
x1 cos 2ϕ sin 2ϕ x1
Sϕ = . (17)
x2 sin 2ϕ − cos 2ϕ x2
y1
In particolare, se y = Sϕ (x) = , le equazioni per la riflessione rispetto alla retta vettoriale
y2
r sono:
y1 = cos 2ϕ x1 + sin 2ϕ x2
(18)
y2 = sin 2ϕ x1 − cos 2ϕ x2 .
Corollario 0.8.5. Per ogni ϕ ∈ R, le riflessioni Sϕ rispetto a rette vettoriali sono trasfromazioni
la cui matrice rappresentativa come in (17) è ortogonale non speciale.
Le riflessioni rispetto a rette vettoriali godono di ovvie proprietà che discendono immedita-
mente da (17).
Proposizione 0.8.6. (i) S0 è la riflessione rispetto all’asse x1 mentre Sπ/2 è la riflessione rispetto
x1 x1 x1 −x1
all’asse x2 . In altri termini S0 = e Sπ/2 = .
x2 −x2 x2 x2
(ii) Per ogni ϕ ∈ R, Sϕ è involutoria i.e. Sϕ ◦ Sϕ = Id. In particolare, S−1
ϕ = Sϕ .
(iii) Per ϕ 6= ψ ∈ R, si ha Sϕ ◦ Sψ = R2(ϕ−ψ) . In particolare, se ϕ = ψ + k π, k ∈ Z, allora
Sϕ ◦ Sψ = Id.
In altri termini:
• a differenza delle rotazioni attorno all’origine, la composizione di riflessioni non gode della
proprietà commutativa, i.e. in generale si ha Sϕ ◦ Sψ 6= Sψ ◦ Sϕ .
• La composizione di due riflessioni rispetto a rette vettoriali distinte è una rotazione. Il fatto che
una tale composizione venga un’isometria lineare diretta (e non più inversa) è chiaro dal Teorema
di Binet e dal fatto che ogni riflessione rispetto ad una retta vettoriale, essendo un’isometria lineare
inversa, ha determinante −1.
Riflessioni rispetto all’origine: questo sarà un caso particolare di quanto discusso prima.
È chiaro dalla definizione che S0 non è altro che la rotazione attorno al vettore nullo, di angolo
θ = π. Pertanto, S0 è una trasformazione ortogonale speciale (come tutte le rotazioni), quindi
0.9. TRASFORMAZIONI ORTOGONALI DI R3 xxxiii
conserva l’orientazione di basi dello spazio vettoriale R2 , come ciascuna rotazione fa. Inoltre, le
sue equazioni sono chiaramente:
x1 −1 0 x1
S0 = . (21)
x2 0 −1 x2
Equazioni di rotazioni attorno a rette vettoriali: come fatto per R2 , cominciamo con il le
rotazioni attorno ad una retta vettoriale. Diamo la seguente:
In particolare,
• se θ = 0, allora Rθ = Id;
• se θ > 0, la rotazione indotta sul piano vettoriale (x2 , x3 ) è in senso antiorario rispetto al
vettore e2 ;
• se θ < 0, la rotazione indotta sul piano vettoriale (x2 , x3 ) è in senso orario rispetto al vettore
e2 .
xxxiv MATRICI ORTOGONALI
Dimostrazione. Osserviamo che la rotazione Rθ per costruzione fissa il vettore e1 della base e,
mentre sul piano vettoriale (x2 , x3 ) si comporta come una rotazione di R2 attorno al vettore nullo.
Pertanto, le formule precedenti discendono immediatamente da questa osservazione e dalla di-
mostrazione di Proposizione 0.8.1.
Abbiamo le ovvie conseguenze della precedente proposizione, le cui dimostrazioni sono iden-
tiche a quelle svolte per le rotazioni in R2 attorno all’orgine.
Corollario 0.9.2. Per ogni θ ∈ R, le rotazioni Rθ attorno al vettore e1 sono trasformazioni (od
operatori)di angolo θ la cui matrice rappresentativa come in (22) è speciale ortogonale.
Osservazione 0.9.1. Da quanto dimostrato in Proposizione 0.7.1 e dal Corollario 0.9.2-(ii), noti-
amo subito che le rotazioni Rθ attorno a e1 in particolare conservano l’orientazione di basi dello
spazio vettoriale R3 , i.e. Or(u, v, w) = Or(Rθ (u), Rθ (v), Rθ (w)), per ogni terna di vettori lin-
earmente indipendenti u, v, w di R3 e per ogni θ ∈ R.
Proposizione 0.9.3. (i) Per θ, ϕ ∈ R, si ha Rθ ◦ Rϕ = Rϕ ◦ Rθ = Rθ+ϕ .
(ii) Per ogni θ ∈ R, R−1
θ = R−θ .
Non tutte le rotazioni lineari coinvolte in possibili problemi di geometria in R3 saranno neces-
sariamente attorno al vettore e1 . Vogliamo quindi determinare le formule di rotazione attorno ad
una retta vettoriale qualsiasi utilizzando quanto dimostrato in Proposizione 0.9.1.
Supponiamo dunque di avere una retta vettoriale r di R3 ; vogliamo determinare le formule
della rotazione di angolo θ attorno a r. Prima di tutto, affinchè il problema sia ben posto, dobbiamo
avere un’orientazione di retta r: se r non è orientata, non è chiaro in quale direzione si deve fare la
rotazione nel piano vettoriale r⊥ . Pertanto, fissiamo su r un vettore direttore v. Per fissare il senso
della rotazione parleremo quindi di rotazione di angolo θ attorno al vettore v e la denoteremo
con Rθ,v . Un modo naturale per ottenere le formule di una tale rotazione è descritta nel seguente
procedimento.
v
(1) In primo luogo, sia f 1 il versore direttore di r associato a v, i.e. f 1 = ||v|| . Scegliamo poi due
altri versori f 2 e f 3 , di modo che f := f 1 , f 2 , f 3 sia una base ortonormale di R3 ed equiorientata
con la base canonica e (cf. Definizione 0.7.2-(i)). Trovare una tale base f è molto semplice:
• il secondo versore f 2 di f si determina prendendo un qualsiasi vettore non nullo w scelto ad
arbitrio tra tutti quei vettori di R3 ortogonali a v e poi si considera il versore associato a w, i.e.
w
f 2 = ||w|| ;
• il terzo ed ultimo versore di f è dato direttamente da f 3 = f 1 ∧f 2 , ove ∧ e’ il prodotto vettoriale
in R3 . Notiamo quindi che basi siffatte possono essere scelte in infiniti modi.
y1
(2) Siano ora y2 le coordinate di un arbitrario vettore x di R3 espresse rispetto alla base f
y3
precedentemente determinata. In tale base, la rotazione Rθ,v è la rotazione di angolo θ attorno a
0.9. TRASFORMAZIONI ORTOGONALI DI R3 xxxv
f 1 . Quindi, nelle notazioni di Proposizione 0.9.1, questa non è altro che la rotazione Rfθ = Rfθ,f ,
1
dove l’apice in alto sta a ricordare che stiamo vedendo tutto relativamente alla base f . Abbiamo
quindi da Proposizione 0.9.1:
y1 1 0 0 y1
f
Rθ y2 = 0 cos θ − sin θ y2 . (24)
y3 0 sin θ cos θ y3
1 0 0
In altre parole, la matrice rappresentativa di Rθ,v in base f è Af := 0 cos θ − sin θ .
0 sin θ cos θ
(3) L’obiettivo finale è quello di determinare la matrice A := Ae della rotazione cercata, espressa
rispetto alla base e di partenza. Per fare questo, sia M := Me f la matrice cambiamento di base
dalla base e alla base f . Poiché e ed f sono ambedue basi ortonormali, da Teorema 0.5.5, M è
una matrice 3 × 3 ortogonale, i.e. t M M = I3 (cf. Definizione 0.5.2). Sia
x1 y1
x = (e1 e2 e3 ) x2 = (f 1 f 2 f 3 ) y2
x3 y3
un vettore arbitrario di R3 espresso nelle sue coordinate sia rispetto alla base e che alla base f , e
sia
x1 y1
z = Rθ,v (x) = (e1 e2 e3 )(A x2 ) = (f 1 f 2 f 3 )(Af y2 )
x3 y3
il vettore trasformato mediante la rotazione considerata, espresso nei diversi sistemi di coordinate.
Ricordiamo che, per definizione di M = Me f si ha
(e1 e2 e3 )M = (f 1 f 2 f 3 ).
valida per ogni x ∈ R3 . Pertanto, (26) induce la seguente equaglianza fra matrici:
A = M Af tM, (27)
che determina l’espressione della matrice di rotazione Rθ,v in base e come voluto.
Osservazione 0.9.2. La relazione 27 dipende anche dal fatto che rappresentiamo l’operatore ro-
tazione in due basi differenti entrambi ortogonali
Utilizzando Corollario 0.9.2 e Proposizione 0.9.3, abbiamo il seguente risultato immediato:
Corollario 0.9.4. Per ogni θ ∈ R, le rotazioni Rθ,v di angolo θ attorno ad una qualsiasi retta
vettoriale orientata r = Span(v) sono operatori la cui matrice rappresentativa e’ ortogonale
speciale. In particolare, tali rotazioni conservano l’orientazione di basi dello spazio vettoriale R3
e godono delle seguenti proprietà:
(i) Se θ = 0, allora R0,v = Id;
(ii) Per θ, ϕ ∈ R, si ha Rθ,v ◦ Rϕ,v = Rϕ,v ◦ Rθ,v = Rθ+ϕ,v .
(iii) Per ogni θ ∈ R, R−1
θ,v = R−θ,v .
dove la penultima eguaglianza discende direttamente dal fatto che M è ortogonale e dalla proprietà
del determinante della matrice inversa. Pertanto, per concludere basta applicare Corollario 0.9.2,
Osservazione 0.9.1 e Proposizione 0.9.3.
In questo capitolo studiamo alcune proprietà fondamentali delle matrici simmetriche definite su
uno spazio vettoriale euclideo V . Assoceremo a tali matrici degli opportuni operatori lineari su
V , detti operatori autoaggiunti. Questo permetterà di dimostrare due risultati fondamentali (cf.
Teoremi 0.11.1 e 0.12.2): il primo stabilisce che le matrici simmetriche ammettono sempre spettro
reale, il secondo assicura che tali matrici sono sempre diagonalizzabili su R e che la diagonaliz-
zazione avviene in una base ortonormale per V .
xxxix
xl MATRICI SIMMETRICHE
hF (f j ), f i i = haij f i , f i i = aij , ∀ 1 ≤ i, j ≤ n.
D’altra parte, sempre da (30) dove utilizziamo l’indice i al posto dell’indice j, abbiamo
hf j , F (f i )i = hf j , aji f j i = aji ∀ 1 ≤ i, j ≤ n.
Dalla condizione (29) che stabilisce che F è autoaggiunto, abbiamo quindi che aij = aji , ∀ 1 ≤
i, j ≤ n. Pertanto A è simmetrica.
(ii) Poiché la base f ′ è ortonormale, per (i) B = Mf ′ (F ) è simmetrica. Ora, dato che A e B sono
due matrici (simmetriche) che rappresentano lo stesso operatore F in due basi diverse, allora esse
sono coniugate mediante la matrice cambiamento di base M := Mf f ′ , i.e. vale B = M −1 AM .
Poiché f e f ′ sono inoltre ortonormali, da Teorema 0.5.5 M è una matrice ortogonale. Pertanto,
da Corollario 0.6.2, B = t M AM , i.e. A e B sono congruenti per mezzo di M .
Osservazione 0.10.1. Notiamo che il fatto che B sia simmetrica discende automaticamente dalla
relazione di congruenza tra A e B e dal fatto che A è simmetrica; infatti abbiamo:
t
B = t ( t M AM ) = t M t A t ( t M ) = t M t A t ( t M ) = t M AM = B. (31)
hS(g 1 ), g 2 i = hg 1 , g 2 i + hg 2 , g 2 i, e hg 1 , S(g 2 )i = hg 1 , g 1 i − hg 1 , g 2 i;
che una qualsiasi matrice simmetrica n × n ha esclusivamente autovalori reali. Questo avrà con-
seguenze fondamentali sugli operatori autoaggiunti in uno spazio vettoriale euclideo (cf. § 0.12).
Una breve nota su come sarà organizzato questo paragrafo. Per le conseguenze sugli opera-
tori autoaggiunti in uno spazio euclideo di dimensione n, avremo bisogno di dimostrare che una
qualsiasi matrice simmetrica n × n ammette esclusivamente autovalori reali, per ogni n ≥ 1. Il
modo più breve per dimostrare questo risultato utilizza i numeri complessi (cf. Teorema 0.11.1).
Invece, per n ≤ 3 intero positivo, si possono utilizzare tecniche più elementari, che non ricorrono
ad i numeri complessi. Pertanto, per facilitare il lettore eventualmente poco avvezzo ad i numeri
complessi, in Teorema 0.11.2 tratteremo per via elementare i casi particolari con n ≤ 3.
Teorema 0.11.1. Sia n ≥ 1 un intero. Sia A una matrice simmetrica n × n. Allora A ha
esclusivamente autovalori reali.
Dimostrazione. Se n = 1, non c’è nulla da dimostrare. Pertanto, assumiamo d’ora in poi n >
1. Se A è la matrice nulla, essa ha tutti gli autovalori uguali a zero, i.e. 0 è un autovalore di
molteplicità algebrica n. Assumiamo quindi che A sia una matrice non identicamente nulla.
Sia T un’indeterminata e sia
P (T ) = PA (T ) = an T n + an−1 T n−1 + · · · + a1 T + a0
zn
0.11. AUTOVALORI DI UNA MATRICE SIMMETRICA xliii
allora
n
X n
X
t
z z= z j zj = (a2j + b2j ) ∈ R \ {0},
j=1 j=1
dove l’ultima eguaglianza discende dal fatto che, essendo t zAz uno scalare, l’operazione di
trasposizione opera come l’identità.
Pertanto, PA (T ) ha n radici distinte se, e solo se, tutti gli autovalori di A sono semplici.
Esempio 0.11.1. Consideriamo la matrice simmetrica
0 0 2
A = 0 2 0 .
2 0 0
• Vediamo prima
il cason = 2. Dalle ipotesi su A, esistono a, b, c ∈ R, con (a, b, c) 6= (0, 0, 0),
a b
tali che A = . Il polinomio caratteristico è PA (T ) = T 2 − (a + c)T − (b2 − ac).
b c
Notiamo subito che, il discriminante dell’equazione di secondo grado data da PA (t) = 0 e’
Ricordiamo che il polinomio caratteristico di una matrice è invariante per la relazione di simili-
tudine (equiv. coniugio). Poiché e e g sono basi ortonormali, da Corollario 0.6.2, in tal caso il
polinomio caratteristico è invariante pure rispetto alla congruenza tra A e B, quindi
Dalla fattorizzazione precedente del polinomio, vediamo che il fattore lineare (λ − T ) fornisce la
radice λ ∈ R considerata in precedenza, per il fattore quadratico si ragiona esattamente come nel
caso n = 2, discusso in precedenza. In particolare, anche per n = 3, tutti gli autovalori di A sono
reali.
0.12. TEOREMA SPETTRALE DEGLI OPERATORI AUTOAGGIUNTI xlv
F (u⊥ ) ⊆ u⊥ . (32)
Corollario 0.12.3. Sia f una base di V come nella dimostrazione di Teorema 0.12.2. Allora
Mf (F ) è una matrice diagonale D, i cui elementi diagonali sono tutti gli autovalori distinti
λ1 , . . . , λk di F , k ≤ n, e dove ciascun λi comparirà sulla diagonale principale di D tante volte
quanto è la sua molteplicità algebrica (equiv. geometrica), 1 ≤ i ≤ k.
Definizione 0.12.1. Una siffatta base f di V viene chiamata base ortonormale diagonalizzante
F.
Osservazione 0.12.2. (a) Osserviamo che, nella dimostrazione di Teorema 0.12.2, A e D sono
simili per mezzo della matrice cambiamento di base M = Me f . Poiché però le basi e ed f sono
ortonormali, allora M è ortogonale. In particolare, da Lemma 0.5.4, A e D sono congruenti; in
altri termini la diagonalizzazione di A si ha in una base ortonormale di V ed avviene per mezzo
di una matrice ortogonale M . Per cui, al livello computazionale, per passare da A a D basta
calcolare solo la trasposta di una matrice, che è un calcolo molto più rapido di quello necessario
per determinare una matrice inversa.
(b) Non esiste un Teorema spettrale per gli operatori ortogonali. Ricordiamo infatti che ad esempio
in Osservazione 0.6.1-(c) abbiamo visto operatori ortogonali non diagonalizzabili, poiché privi di
autovalori reali.
Abbiamo diverse formulazioni equivalenti del Teorema spettrale degli operatori autoaggiunti.
Precisamente:
Teorema 0.12.4. (i) Per ogni matrice simmetrica reale A, n × n, esiste una matrice ortogonale
M , n × n, tale che t M AM è diagonale.
(ii) Il rango della matrice simmetrica A come in (i) è uguale al numero di elementi λi non nulli
che sono sulla diagonale principale della matrice D come in Corollario 0.12.3.
Concludiamo osservando che, come diretta conseguenza della dimostrazione di Teorema 0.12.2,
abbiamo il seguente risultato che suggerirà una procedura operativa per determinare una base
ortonormale diagonalizzante come nel Teorema spettrale e quindi la forma precisa della matrice
diagonale D.
Proposizione 0.12.5. Sia (V, h , i) uno spazio vettoriale euclideo di dimensione n ≥ 1 e sia F un
operatore autoaggiunto su V . Se x e y sono due autovettori di F relativi a due autovalori distinti
di F allora x e y sono ortogonali. Ne segue che, gli autospazi di F sono a due a due ortogonali.
Dimostrazione. Sia F (x) = λx e F (y) = µy, con λ 6= µ i relativi autovalori reali. Ora
hF (x), yi = λhx, yi e hx, F (y)i = µhx, yi. Poiché F è autoaggiunto, allora deve valere λhx, yi =
µhx, yi. Dal fatto che λ 6= µ, segue che hx, yi = 0.
Osservazione 0.12.3. Data una matrice simmetrica A n × n (equivalentemente, una forma qua-
dratica Q di ordine n), il precedente risultato fornisce un metodo operativo per calcolare la base f
ortonormale che diagonalizza A e la matrice M che rende A congruente ad una matrice diagonale
D. Questo permetterà inoltre di precisare ulteriormente quanto dimostrato in Corollario 0.12.3. Si
procede nel modo seguente:
(a) Si calcola il polinomio caratteristico di A e tutte le sue radici reali, contate con la relativa
molteplicità algebrica;
(b) Si sceglie una fra queste radici come primo autovalore di A; sia esso λ1 e sia a(λ1 ) la sua
molteplicità algebrica. L’autospazio Vλ1 ha anche esso dimensione a(λ1 ) (cf. Osservazione
0.12.1). Determiniamo le equazioni che rappresentano Vλ1 considerando le equazioni che rap-
presentano il sottospazio Ker (A − λ1 In ), i.e. risolviamo il sistema lineare omogeneo scritto in
forma vettoriale (A − λ1 In )X = 0.
(c) Scegliamo una qualsiasi base per Vλ1 e la ortonormalizziamo mediante il procedimento di
Gram-Schmidt applicato nel sottospazio Vλ1 (cf. Teorema 0.4.4). Otteniamo una base ortonormale
per Vλ1 della forma f λ1 1 , . . . , f λa(λ
1
)
.
1
(d) Tra gli autovalori residui di A (i.e. distinti da λ1 ) ne prendiamo un secondo, sia esso λ2 di
molteplicità algebrica a(λ2 ). Per esso, ripercorriamo i punti (b) e (c). Alla fine, otteniamo una
base ortonormale per Vλ2 della forma f λ1 2 , . . . , f λa(λ
2
2)
(e) Procedendo cosı̀ come in (b), (c) e (d) per tutti gli autovalori distinti di A, esauriamo il calcolo
di tutti gli autospazi di A, Vλ1 , Vλ2 , . . ., Vλk , per qualche k ≤ n, e di tutte le loro rispettive basi
ortonormali calcolate come nel punto (c).
(f) L’unione della base ortonormale di Vλ1 , di quella di Vλ2 , . . ., di quella di Vλk determina una
base ortonormale
f := f λ1 1 , . . . , f λa(λ
1
, f λ2 , . . . , f λa(λ
) 1
2
)
, . . . , f λ1 k , . . . , f λa(λ
k
1 2 k)
come nel Teorema spettrale. Infatti, n = ki=1 a(λi ), quindi f è una base di Rn . Tale base è, per
P
costruzione, di autovettori di A ed inoltre è ortonormale, dato che gli autospazi determinati sono
a due a due ortogonali fra loro (cf. Proposizione 0.12.5) e dato che in ciascun autospazio abbiamo
xlviii MATRICI SIMMETRICHE
usato nel punto (c) il procedimento di Gram-Schmidt per avere una base ortonormale in ciascuno
degli autospazi.
(g) Per costruzione e dalla teoria generale, senza dover quindi fare alcun calcolo, sappiamo che la
matrice A nella base f diventa la matrice D.
(h) Da ultimo, la matrice M che determina la congruenza tra la matrice A e la matrice D come in
(g), i.e. D = tM AM , è la matrice M = Me f cambiamento di base dalla base canonica e alla
base (ordinata) f come nel punto (f).
Esempio 0.12.1. Sia data la matrice simmetrica
√
7√ −5 3
A= .
−5 3 −3
Vogliamo determinare esplicitamente una base ortonormale di autovettori di A data dal Teorema
spettrale per portare A in forma diagonale. Notiamo che il polinomio caratteristico di A è
PA (T ) = det (A − T I) = T 2 − 4T − 96.
FLAMINIO FLAMINI
1. Esercizi Svolti
Esercizio 1 Sia V := R[x]≤3 lo spazio vettoriale dei polinomi a coefficienti reali, nell’indeterminata x, di
grado al piu’ 3. Sia h(x) = x3 + x2 ∈ V e si consideri il sottospazio
U := Span{h(x)} ⊂ V.
(i) Calcolare dim(V /U ).
(ii) Dati p(x) = 2x3 − x + 3, q(x) = 9x3 + 5x2 − 2x + 6 ∈ V , determinare
dim (Span{p(x), q(x)}) .
(iii) Detta π : V → V /U la proiezione canonica associata al sottospazio U , siano [p(x)] := π(p(x)) e
[q(x)] := π(q(x)) le classi in V /U corrispondenti ai polinomi p(x) e q(x) in (ii); stabilire se
[q(x)] ∈ Span{[p(x)]}
in V /U .
(iv) Dedurre che
dim (π(Span{p(x), q(x)})) = dim (Span{p(x), q(x)}) − 1
e che
U ⊂ Span{p(x), q(x)}.
Svolgimento. (i) Notiamo che dim(V ) = 4; la proiezione canonica π : V → V /U associata al sottospazio
U e’ un’applicazione lineare di spazi vettoriali; inoltre e’ suriettiva. Per definizione di proiezione canonica
associata ad U , si ha inoltre
Ker(π) = U.
Dal Teorema di Nullita’ piu’ Rango si ha dunque
dim(V /U ) = dim(Im(π)) = dim(V ) − dim(Ker(π)) = dim(V ) − dim(U ) = 4 − 1 = 3.
(ii) Poiche’ i due polinomi non sono proporzionali, si ha
dim (Span{p(x), q(x)}) = 2.
(iii) Notiamo che, in V si ha
q(x) − 2p(x) = 5x3 + 5x2 = 5(x3 + x2 ) ∈ U.
Pertanto, in V /U si ha
[q(x)] = [2p(x)] = 2[p(x)],
i.e. [q(x)] ∈ Span{[p(x)]} ⊂ V /U .
(iv) Da (ii) e (iii) otteniamo immediatamente che π contrae il piano vettoriale Span{p(x), q(x)} ad una
retta vettoriale in V /U . Notiamo inoltre che
1 2
q(x) − p(x) = x3 + x2 ∈ Span{p(x), q(x)},
5 5
quindi U ⊂ Span{p(x), q(x)}.
1
2 FLAMINIO FLAMINI
x4
W := Ker(Φ).
4
(i) Verificare che dim R /W = 2.
(ii) Posti
u1 = −e1 + e2 , u2 = e1 + 2e3 ∈ R4
stabilire se in R4 /W si ha
[u1 ] = [u2 ],
ove [ui ] = π(ui ), 1 ≤ i ≤ 2, con
π : R4 → R4 /W
la proiezione canonica associata a W .
(iii) Determinare una base per R4 /W .
(iv) Detto U = Span{u1 , u2 }, stabilire se
π|U : U → R4 /W
e’ un isomorfismo.
Svolgimento. (i) L’applicazione lineare Φ ha matrice rappresentativa (nelle basi canoniche di dominio e
codominio)
−2 0 0 1
A :=
1 0 0 0
che ha manifestamente rango 2. Per il Teorema
di Nullita’ piu’ Rango, si ha dunque dim(W ) = 2. Come
nel punto (i) di Esercizio 1, dim R4 /W = 2.
(ii) Notiamo che
u1 − u2 = −2e1 + e2 − 2e3 ∈ / W.
Dunque in V /W si ha [u1 ] 6= [u2 ].
(iii) Una base per W e’ data da
{w1 = e2 , w2 = e3 }.
Essa ovviamente si completa ad esempio alla base per R4 data da
{w1 = e2 , w2 = e3 , w3 = e1 , w4 = e4 }.
Posto
W 0 := Span{w3 , w4 }
si ha che
R4 = W ⊕ W 0 .
Visto che R4 /W ∼
= W 0 , una base per R4 /W e’ data da
{[w3 ], [w4 ]}.
(iv) Notiamo che la matrice che ha per colonne i vettori
w1 , w2 , u1 , u2 ,
SPAZI VETTORIALI QUOZIENTI. DUALI 3
Esercizio 3 Si consideri V := (R3 , h, i) spazio vettoriale euclideo, munito di base canonica e = {e1 , e2 , e3 }
e prodotto scalare standard h, i. Sia V 0 ilo spazio vettoriale duale di V e sia
e0 = {Fe1 , Fe2 , Fe3 }
la base duale della base e (e’ per definizione la base di V 0 per cui
Fei (ej ) = δij , 1 ≤ i, j ≤ 3,
dove δi,j il delta di Kronecher). Siano dati i vettori
v1 = e1 + e3 , v2 = e3 , v3 = e1 − e2 ∈ V.
(i) Preso φ := 2Fe1 + Fe2 + 3Fe3 ∈ V 0 , determinare φ(v3 ).
(ii) Verificare che v = {v1 , v2 , v3 } costituisce una base per V .
(iii) Determinare
v 0 = {Fv1 , Fv2 , Fv3 }
la base duale della base v, esprimendo i vettori Fv1 , Fv2 , Fv3 come combinazioni lineari dei vettori della
base duale e0 .
(iv) Scrivere i funzionali lineari Fv1 , Fv2 , Fv3 secondo la rappresentazione di Riesz.
Svolgimento. (i) Si ha φ(v3 ) = 2 − 1 = 1 6= 0.
(ii) La matrice rappresentativa dei vettori v1 , v2 , v3 in base canonica e ha manifestamente rango
massimo, pertanto v e’ una base per V .
(iii) Poniamo Fv1 = α1 Fe1 + β1 Fe2 + γ1 Fe3 . Imponiamo ora la condizione che Fv1 sia il primo vettore
della base duale della base v. Questa condizione e’ equivalente ad imporre
Fv1 (v1 ) = 1 ⇔ α1 + γ1 = 1
Fv1 (v2 ) = 0 ⇔ γ1 = 0
Fv1 (v3 ) = 0 ⇔ α1 − β1 = 0.
Il precedente sistema non omogeneo di tre equazioni e tre indeterminate e’ compatibile, con unica soluzione
α1 = β1 = 1, γ1 = 0.
In altri termini
Fv1 = Fe1 + Fe2 .
Con conti esattamente analoghi ai precedenti, si trova
Fv2 = −Fe1 + Fe2 + Fe3 e Fv3 = −Fe2 .
(iv) Utilizzando il teorema della rappresentazione di Reisz, si ottiene
Fv1 = he1 + e2 , i
Fv2 = h−e1 + e2 + e3 , i
Fv3 = h−e2 , i
4 FLAMINIO FLAMINI
Esercizio 4 Sia V := R[x]≤4 lo spazio vettoriale dei polinomi a coefficienti reali, nell’indeterminata x, di
grado al piu’ 4. Sia
U := {p(x) ∈ V | p(1) = p(2) = 0} ⊂ V.
(i) Verificare che U e’ un sottospazio di V . Calcolarne la dimensione.
(ii) Stabilire se puo’ esistere un’applicazione lineare suriettiva
φ : V /U → R3 .
(iii) Detta π : V → V /U la proiezione canonica associata ad U , siano
[x] := π(x), [x2 + 2] := π(x2 + 2).
Stabilire se le classi [x] e [x2 + 2] di V /U sono linearmente indipendenti.
Svolgimento. (i) U soddisfa gli assiomi di sottospazio. Inoltre
p(x) ∈ U ⇔ p(x) = (x − 1)(x − 2)(b0 + b1 x + b2 x2 ).
Pertanto dim(U ) = 3.
(ii) Come nel punto (i) di Esercizio 1, si ha dim(V /U ) = dim(V ) − dim(U ) = 5 − 3 = 2. Pertanto non
puo’ esistere alcuna applicazione lineare φ come richiesta.
(iii) Notiamo che, in V /U si ha
α[x] + β[x2 + 2] = [0]
se e solo se
αx + β(x2 + 2) ∈ U.
Il polinomio
2 α + β + 2β = 0
αx + βx + 2β ∈ U ⇔
2α + 4β + 2β = 0
Il sistema e’ compatibile, e.g. α = 3, β = −1. Pertanto le due classi [x] e [x2 + 2] di V /U sono linearmente
dipendenti.
ESERCIZIO 1 S
1 1
Per ogni n ∈ N, n > 0 sia Bn = ( 2n+1 , 2n ) e sia A = n Bn . Sia X il sottoinsieme di R2
ottenuto facendo il cono di A × {1} sull’origine; ossia
X = {(x, y) ∈ R2 : x = ay, a ∈ A}
(1) Determinare la parte interna di X.
(2) Determinare la chiusura X̄ di X in R2 .
(3) Determinare la frontiera di X.
(4) Si dica se X è connesso.
(5) Si dica se X̄ è localmente connesso.
(6) Si dica se lo spazio Y ottenuto da R2 collassando X a un punto è Hausdorff.
(7) Si dica se lo spazio Z ottenuto da R2 collassando X̄ a un punto è Hausdorff.
SOLUZIONE
(1) Sia f : R2 \ (R × {0}) → R data da f (x, y) = x/y. La f è continua perché stiamo
considerando punti con y 6= 0. D’altronde, l’unico punto di X con la y = 0 è
l’origine. Per definizione X \ {0} = f −1 (A). Siccome A è aperto in quanto unione
di intervalli aperti, X \{0} è aperto. Dunque la parte interna di X contiene X \{0}.
D’altronde l’origine non è un punto interno di X perchè ogni intorno dell’origine
contiene punti del tipo (0, y), che non stanno in X. Ne segue che la parte interna
di X è esattamente X \ {0}.
(2) Sia f come sopra. Se Ā indica la chiusura di A in R, posto W = f −1 (Ā) si ha che W
è un chiuso di R2 \(R×{0}). Se (x, y) è un punto di W allora a = x/y ∈ Ā e dunque
ogni intorno di (x, y) contiene punti (p, q) tali che p/q sta in A. Quindi W ⊂ X̄.
Siccome A ⊂ (0, 1), X è contenuto in C = {(x, y) : x ≥ 0} ∩ {(x, y) : x ≤ y},
che è intersezione di chiusi e quindi chiuso. Quindi X̄ ⊂ C. Siccome W ⊂ C e
C ∩ (R × {0}) contiene solo l’origine resta da vedere se l’origine stia in X̄ e ció è
vero perché per definizione si ha (0, 0) ∈ X ⊂ X̄. In conclusione X̄ è costituito da
W ∪ {(0, 0)}.
(3) La frontiera di X è data dalla differenza tra chiusura e parte interna, quindi è
l’unione delle rette {y = nx, n ∈ N, n > 0} ∪ {x = 0}
(4) X è connesso per archi in quanto è unione di rette per l’origine. Quindi è connesso.
(5) X̄ non è localmente connesso. Infatti, sia p = (0, 1) ∈ X̄ e sia U = X̄ ∩ {(x, y) : y ∈
(1/2, 3/2)}. Per ogni intorno V ⊂ U di p, la restrizione di f a V ha immagine in un
intorno di zero di Ā, che non è mai connesso. Quindi V non può essere connesso.
(6) In un Hausdorff i punti son chiusi, siccome X non è chiuso, Y non è Hausdorff.
(7) Siccome X̄ è chiuso, se x ∈ / X̄ allora esiste ε > 0 tale che B(x, ε) ∈
/ X. Ne segue
2
che B(x, ε/3) e R \ B(x, ε/2) sono aperti disgiunti, l’uno che contiene x le l’altro
X̄. Dunque sono due aperti saturi le cui immagini sono aperti disgiunti in Z, l’uno
che contiene [x] e l’altro [X]. Dunque Z è Hausdorff.
1
2
SOLUZIONE Siccome v2 − v3 = (1, 0), il gruppo G è generato dai soli v2 , v3 , oppure dai
soli v1 , v2 . Sia π : R2 → X la proiezione naturale.
(1) X è connesso perché immagine di R2 , che è connesso, tramite la proiezione naturale
che è continua. √
(2) Le tralsazioni lungo (1, 0) = v1 e (0, 3) = v2 + v3 appartengono a G. Ne segue
che ogni punto di R2 può essere traslato tramite √ elementi di G sino ad avere la
componente
√ x in [0, 1] e la componente
√ y in [0, 3]. Ne segue che X = π([0, 1] ×
[0, 3]). Siccome [0, 1] × [0, 3] è compatto in quanto prodotto di compatti e
siccome π è continua, X è compatto.
(3) Siccome G è generato dalle traslazioni lungo v2 e v3 , le ascisse degli √ elementi di
[(0, 0)] sono multipli di 1/2, mentre le ordinate sono multipli di 3/2. Ne segue
che [(0, 0)] è costituita da punti isolati.
(4) Se (x, y) ∼ (x′ , y ′ ) allora (x − x′ , y − y ′ ) ∼ (0, 0). Ne segue che [(x, y)] = (x, y) +
[(0, 0)] e quindi per il punto precedente è il traslato di un insieme di punti isolati e
quindi ha solo punti isolati.
(5) Come detto sopra, G è generato da v2 e v3 . Sia F l’isomorfismo lineare di R2
che manda v2 in (1, 0) e v3 in (0, 1). Tale isomorfismo esiste perchè v2 e v3 sono
linearmente indipendenti. Sia T = R2 /Z2 il toro ottenuto come quoziente di R2 per
la relazione x ∼′ y ⇔ x − y ∈ Z2 e sia π ′ : R2 → T la proiezione naturale. Per
definizione di F , la mappa π ′ ◦F : R2 → T è costante sulle classi di equivalenza. Per
la proprietà universale del quoziente discende a una mappa continua f : X → T .
Allo stesso modo, l’inversa di F produce l’inversa di f che quindi risulta essere un
omeomorfismo.
3
SOLUZIONE
(1) Vera. La restrizione di f a X c è continua. Siccome f è iniettiva, anche la sua
restrizione a X c lo è. In oltre, sempre per l’iniettività, f (X c ) = f (X)c . Lo stesso
ragionamento applicato a f −1 fornisce l’inversa di f |X c che quindi risulta essere un
omeomorfismo tra X c e f (X)c .
(2) Vera. Basta prendere X = {(x, y) ∈ R2 : x ∈ [2n, 2n + 1), n ∈ Z}, la traslazione
(x, y) → (x + 1, y) fornisce l’omeomorfismo tra X e X c .
(3) Falsa. Sia X un semipiano aperto e Y = R2 . X e Y sono omeomorfi ma il
complementare di Y è vuoto mentre quello di X no.
(4) Falsa. Basta prendere X c e Y c con X e Y come sopra.
ESAME DI GEOMETRIA 2. 11-02-2013,
Soluzioni
{x ≃ y se y = 2n x per qualche n ∈ Z}
Dire se:
1. X è di Hausdorff
2. X è connesso
3. X è compatto
Sia ora Y lo spazio topologico che si ottiene da R \ {0} mediante la stessa relazione di
equivalenza
Dire se:
1. Y è di Hausdorff
2. Y è connesso
3. Y è compatto
1
2. x ∼ y implica xy > 0 per cui R+ ed R− sono aperti saturi non vuoti e disgiunti e
quindi A = π(R+ ) e B = π(R− ) sono aperti disgiunti e non vuoti. Chiaramente
Y = A ∪ B quindi Y non è connesso.
3. Per ogni x > 0 esiste y ∈ [1, 2] tale che x ∼ y. Per ogni x < 0 esiste y ∈ [−2, −1]
tale che x ∼ y. Quindi Y = π([−2, −1] ∪ [1, 2]). [1, 2] e [−2, −1] sono entrambi
compatti e l’unione finita di compatti è compatta, quindi [−2, −1]∪[1, 2] è compatto.
L’immagine di un compatto tramite una funzione continua è compatto quindi Y è
compatto.
Si noti che usando il logaritmo si dimostra agilmente che Y è omeomorfo a l’unione
disgiunta di due cerchi, mentre X è costituito da due cerchi piú un punto che ha come
unico intorno X stesso.
2
1. Determinare chiusura, frontiera e parte interna di A in X.
SOLUZIONE
2. Ā NON è compatto. Sia {an }n∈N una successione monotona crescente che tende a π.
Sia Un = {(x, y) ∈ X : x2 + y 2 < an }. Un è aperto e per ogni (x, y) ∈ Ā esiste n tale
che x2 + y 2 < an perchè an → π e π non è razionale. Quindi {Un } è un ricoprimento
di aperti di Ā. Sia ora Ui1 , . . . , UiN una sotto famiglia finita e sia m = max{in }.
Allora l’unione degli Uin è esattamente Um . Siccome Q è denso in R esiste xm ∈ Q
√ √
appartenente all’intervallo (− π, − am ). Il pundo (xm , 0) sta quindi in Ā ma non
in Um . Ne segue che nessuna sottofamiglia finita di {Un } è un ricoprimento di Ā.
3
Mostriamo adesso che Y è omeomorfo a Q2 ed avremo finito. Sia g(x) =
p
π − f (x)2 ,
cosı́ che
Y = {(x, y) ∈ Q2 : −g(x) < y < g(x)}
Adesso sia {αn }n∈Z una successione di funzioni αn : R → R con le seguenti proprietà.
(a) {αn } è strettamente monotona crescente (∀x, αn (x) < αn+1 (x));
(b) per ogni n ∈ Z, αn (Q) ⊂ Q;
(c) αn (x) tende a g(x) per n → ∞;
(d) αn (x) tende a −g(x) per n → ∞;
4
Complementi di Geometria Proiettiva
Questa breve nota è rivolta agli studenti del II modulo del corso di Geometria per Scienze
dei Media. Affianca [6] (si veda la pagina web del corso) ed è divisa in 4 brevi paragrafi:
§ 1. Richiami sugli spazi proiettivi;
§ 2. Una conica nel piano proiettivo;
§ 3. Qualche osservazione sui sottospazi di uno spazio proiettivo;
§ 4. Proiettività.
P(W ) ⊆ P(V ) , ~ ] 7→ [ w
[w ~]
Definizione 1.5. Un sottospazio proiettivo di uno spazio proiettivo P(V ) è uno spazio
proiettivo P(W ) dove W è un sottospazio vettoriale di V .
Avvertenza 1.6. Per indicare i punti di uno spazio proiettivo si usano i vettori che li
rappresentano, quando si scrive una definizione o anche una qualsiasi formula che li coinvolge
si deve sempre controllare che quello che si sta scrivendo abbia senso, cioè che non dipenda
2
scrivere p + q = [~v ] + [ w
~ ] := [~v + w
~] è semplicemente privo di senso.
Questo perché cambiando il rappresentate usato per indicare il punto p, ad esempio usando
il vettore 2~v (essendo ~v e 2~v proporzionali, le corrispondenti classi [~v ] e [2~v ] coincidono,
sono entrambe il punto p, lo ribadiamo, sono lo stesso identico punto), la formula in corsivo
darebbe p + q = [2~v ] + [ w ~ ] = [2~v + w
~ ] che, in generale, non è il punto [~v + w~ ] ottenuto
usando i rappresentati considerati inizialmente. Infatti, per l’esercizio 1.8 proposto sotto, se
p 6= q i vettori 2~v + w
~ e ~v + w~ non sono proporzionali, quindi rappresentano punti distinti
del nostro spazio proiettivo, detto in formule risulta [2~v + w ~ ] 6= [~v + w
~ ].
Nota 1.7. Gli spazi proiettivi non sono dotati di una operazione di somma.
Definizione 1.9. Dato uno spazio proiettivo P = P(V ) e dei punti p1 , ..., pk diremo che
i) p1 , ..., pk sono allineati se esiste una retta r ⊆ P che li contiene;
ii) p1 , ..., pk sono complanari se esiste un piano H ⊆ P che li contiene.
Dimostrazione. Siano p = [~v ], q = [~u ] ∈ P(V ) due punti. Vista la Definizione 1.1, dire
che p e q sono distinti equivale a dire che i due vettori che li rappresentano ~v e ~u sono
indipendenti. Dire che c’è un’unica retta contenente p e q è come dire che c’è un unico
sottospazio vettoriale W ⊆ V tale che
dim W = 2 e ~v , ~u ∈ W .
Ciò riduce la prima affermazione alla seguente affermazione concernente gli spazi vettoriali:
dato uno spazio vettoriale e due suoi vettori indipendenti, c’è un unico sottospazio
vettoriale di dimensione 2 che li contiene
(affermazione che assumiamo ben nota a chi ha studiato gli spazi vettoriali).
La seconda affermazione può essere dimostrata in modo simile: dire che tre punti p = [~v ],
q = [~u ], m = [~z ], non sono allineati equivale a dire che i loro rappresentanti ~v , ~u, ~z
sono indipendenti. Dire che c’è un unico piano contenente p, q , m è come dire che c’è
unico sottospazio vettoriale W ⊆ V tale che
dimW = 3 e ~v , ~u, ~z ∈ W .
Di nuovo, ciò riduce la nostra affermazione ad una affermazione sugli spazi vettoriali:
dato uno spazio vettoriale e tre vettori indipendenti, c’è un unico sottospazio
vettoriale di dimensione 3 che li contiene
(affermazione, di nuovo, ben nota).
Proposizione 1.10 bis . Sia P = P(V ) uno spazio proiettivo. Dati k + 1 punti non con-
tenuti in alcun sottospazio proiettivo di dimensione k − 1 , si ha che c’è un unico sottospazio
proiettivo di dimensione k che li contiene.
3
Dimostrazione. Dire che i punti p1 = [~v1 ] , ... , pk+1 = [~vk+1 ] non sono contenuti in alcun
sottospazio proiettivo di P(V ) di dimensione k−1 equivale a dire che i vettori ~v1 , ... , ~vk+1
non sono contenuti in alcun sottospazio vettoriale di V di dimensione k , ovvero che sono
indipendenti. Da ciò che abbiamo imparato studiando gli spazi vettoriali, il sottospazio
Span{~v1 , ... , ~vk+1 } è l’unico sottospazio vettoriale di V , di dimensione k + 1 , contenente
i nostri vettori. Di conseguenza, lo spazio proiettivo
P Span {~v1 , ... , ~vk+1 }
è l’unico sottospazio proiettivo di P(V ) contenente i nostri punti.
n t
Notazione 1.11. Il punto di PR rappresentato dal vettore ( X0 , . . . , Xn ) ∈ Rn+1
viene denotato
X0 , . . . , Xn .
Inoltre, X0 , . . . , Xn vengono chiamate coordinate proiettive.
Nota 1.12. Vista la Definizione 1.1, le coordinate proiettive sono definite a meno di un
fattore di proporzionalità non nullo, infatti
[ X0 , . . . , Xn ] = λX0′ , . . . , λXn′ ] (λ 6= 0) .
Carte Affini
n
Consideriamo lo spazio proiettivo PR = P Rn+1 . L’uso delle coordinate proiettive
consente una visione “ globale” del nostro spazio proiettivo (usiamo il termine globale per
sottolineare il fatto che ogni punto ha le sue coordinate proiettive), questo è utile. D’altro
canto il fatto che le coordinate proiettive siano definite a meno di un fattore di proporzio-
nalità le rende meno comode e intuitive. Per questa ragione, ma non solo, si introducono le
carte affini (dette anche locali). Queste hanno il vantaggio di identificarsi con Rn , oggetto
a noi familiare. Il prezzo da pagare è lo svantaggio di non essere definite globalmente ma
solo su un aperto del nostro spazio proiettivo (cosı̀ come, per fare un’analogia, una carta
geografica rappresenta solo una porzione della nostra terra), precisamente ognuna di esse è
definita sul complementare di un iperpiano (l’iperpiano di equazione Xi = 0, cfr. sotto).
n
Proposizione 1.14. Consideriamo PR , fissiamo un indice 0 ≤ i ≤ n. La funzione
ϕi : Ai := [X0 , ..., Xn ] Xi 6= 0 −−−−→ Rn
X0 Xn
[X0 , ..., Xn ] 7→ Xi , ..., Xi =: (y1 , ..., yn )
| {z }
qui saltiamo l’indice i
n
Definizione 1.15. Consideriamo lo spazio proiettivo PR .
• Le varie funzioni
ϕi : Ai := [X0 , ..., Xn ] Xi 6= 0 −−−−→ Rn
X0 Xi−1 Xi+1 Xn
[X0 , ..., Xn ] 7→ Xi , ..., Xi , Xi , ..., Xi
Esempio 1.16. Nel caso della retta proiettiva P1R := P(R2 ) abbiamo due carte affini:
ϕ0 : A0 := [X0 , X1 ] X0 6= 0 } −−−−→ R
X1
[X0 , X1 ] 7→ X0 =: z
ϕ1 : A1 := [X0 , X1 ] X1 6= 0 } −−−−→ R
X0
[X0 , X1 ] 7→ X1 =: w
Esempio 1.17. Nel caso del piano proiettivo P2R := P(R3 ) abbiamo tre carte affini:
ϕ0 : A0 := [X0 , X1 , X2 ] X0 6= 0 } −−−−→ R2
X1 X2
[X0 , X1 , X2 ] 7→ X0 , X0 =: (x, y)
ϕ1 : A1 := [X0 , X1 , X2 ] X1 6= 0 } −−−−→ R2
X0 X2
[X0 , X1 , X2 ] 7→ X1 , X1 =: (h, k)
ϕ2 : A2 := [X0 , X1 , X2 ] X2 6= 0 } −−−−→ R2
X0 X1
[X0 , X1 , X2 ] 7→ X2 , X2 =: (z, w)
caso n = 2
Consideriamo R3 , con coordinate X0 , x, y .
Il piano R2 lo identifichiamo col piano X0 = 1 (il
asse X0 nostro piano proiettivo è l’ampliamento proiettivo di
piano X0 = 1 questo piano, lo chiameremo P).
Ad ogni retta di R3 (passante per l’origine) vogliamo
1 • p = (1, a, b) associare un punto di P, distinguiamo due possibilità:
i) alla retta r generata dal vettore t (1, a, b) asso-
r ciamo la sua intersezione con il piano X0 = 1 (il punto
p della figura);
asse y
ii) alla retta r generata dal vettore t (0, α, β) (con
0•
α, β non entrambi nulli), che è una retta parallela al
piano X0 = 1 (non lo interseca), associamo la sua
asse x
“ direzione”, cioè la classe di proporzionalità [α, β ]
(che è un elemento di P, cfr. Inciso sopra).
In termini di coordinate omogenee di P2R , abbiamo la seguente chiave di lettura (e, forse
semplificazione) di quanto detto. Il punto
Pλ := 1 , a + λα , b + λβ ∈ P2R ,
che nel piano A0 ∼ = R2 ha coordinate (a + λα , b + λβ ), coincide (per λ 6= 0) con il
punto 1 a
Pλ = b
λ , λ + α, λ + β ∈ P2R
e, per λ che va all’infinito, converge al punto
P∞ = 0 , α , β ∈ P2R
(va detto che fare un limite usando dei rappresentanti di una classe di proporzionalità è un po’ nascondere
la polvere sotto il tappeto, ma lo accettiamo).
1 Giustifichiamo l’affermazione secondo la quale lim rλ = “ retta per o e (0, α, β) ”. La retta rλ è la
λ→∞
retta di equazioni parametriche
( X0 , x , y ) = t , t · ( a + λ α) , t · (b + λ β)
e, almeno per λ 6= 0 , è la retta di equazioni parametriche
τ τa τb
(♣) ( X0 , x , y ) = λ
, λ
+ τ α, λ
+τβ
τ
(abbiamo sostituito il parametro t col parametro λ ). Dall’equazione (♣) si evince che per λ che va
all’infinito la retta rλ converge alla retta r∞ di equazioni parametriche
( X0 , x , y ) = 0, τ α, τ β
che è esattamente la retta passante per o e (0, α, β) .
7
n
Secondo la Definizione 1.5, i sottospazi proiettivi di PR := P(Rn+1 ) sono i proiettificati
P(W ) dei sottospazi vettoriali di W ⊆ Rn+1 . Questi ultimi possono essere descritti da
equazioni cartesiane o parametriche:
a X + ... + a X = 0
0, 0 0 0, n n
..
(1.18) . (equazioni cartesiane)
am, 0 X0 + ... + am, n Xn = 0
X0 = c0, 0 t0 + ... + c0, k tk
.
(1.18′ ) .. (equazioni parametriche)
X
n = cn, 0 t0 + ... + cn, k tk
n
Interpretando le coordinate X0 , ..., Xn di Rn+1 come coordinate omogenee di PR ,
abbiamo quanto segue:
equazioni del tipo indicato, descrivendo un sottospazio vettoriale di W di Rn+1 ,
descrivono il corrispondente proiettificato P(W ).
Sottolineiamo che un vettore non nullo X~ = t(X , ..., X ) soddisfa le equazioni cartesiane,
0 n
ovvero quelle parametriche (per opportuni valori dei parametri), se e solo se le soddisfa
ogni suo multiplo. Ciò segue dal fatto che le equazioni sono omogenee. Detto in termini
~ appartiene a W se e solo se ogni suo multiplo vi
equivalenti, ciò segue dal fatto che X
appartiene.
L’esempio della retta in P2R non ha nulla di speciale, potremmo considerare un sottospazio
n
proiettivo arbitrario di PR . Giusto per dare un altro esempio, il piano in P4R di equazioni
2 X0 − 3 X1 + 5 X2 − 4 X3 + X4 = 0
X0 − 7 X1 − 2 X2 + 3 X3 − X4 = 0
interseca la carta A0 (identificato con R4 con coordinate y1 , y2 , y3 , y4 ) nel piano dato
dal sistema
2 − 3 y1 + 5 y2 − 4 y3 + y4 = 0
1 − 7 y1 − 2 y2 + 3 y3 − y4 = 0
e valgono considerazioni analoghe a quelle viste nel caso della retta.
8
Di seguito, discutiamo il caso generale (più che altro per fissare degli enunciati precisi).
n
Sia P(W ) un sottospazio proiettivo di PR . Assumiamo che sia definito dalle equazioni
cartesiane (1.18). Vogliamo vederlo in una carta locale Ai , ovvero intersecarlo con Ai
(che, lo ricordiamo, è un oggetto a noi familiare: si identifica con Rn ), ciò significa imporre
la condizione Xi 6= 0 . Per comodità di notazione trattiamo il caso i = 0 (la nostra carta
affine è la carta A0 ). Vista la definizione di A0 abbiamo
P(W ) ∩ A0 = [X0 , X1 , ..., Xn ] X0 6= 0 , “ valgono le equazioni (1.18)”
= [1, y1 , ..., yn ] “ (1, y1 , ..., yn ) soddisfa le equazioni (1.18)”
D’altro canto sostituendo (1, y1 , ..., yn ) nelle equazioni (1.18) si ottengono le equazioni
a
0, 0 + a1, n y1 + ... + a0, n yn = 0
.
(♠) ..
am, 0 + a1, n y1 + ... + am, n yn = 0
che sono le equazioni del generico sottospazio affine di A0 (ogni sottospazio affine di A0 è
descritto da equazioni di tale tipo e viceversa). Questo dimostra quanto segue.
n
Lemma 1.19. Le intersezioni dei sottospazi proiettivi di PR con una carta affine fissata
sono (tutti e soli) i sottospazi affini di quella carta affine.
Tornando al sistema (♠), osserviamo che la sua matrice completa ha lo stesso rango della
matrice del sistema (1.18), di conseguenza, se è compatibile, si deve avere2
(1.20) dim P(W ) ∩ A0 = dim P(W )
Può anche accadere che non sia compatibile, dire ciò equivale a dire che il sistema (1.18)
non ha soluzioni del tipo “ (1, y1 , ..., yn )”, ovvero non ha soluzioni in A0 , ovvero che
P(W ) ∩ A0 è l’insieme vuoto. Riassumiamo quanto appena stabilito:
n n
Lemma 1.21. Se Ai è una carta affine fissata di PR e P(W ) ⊆ PR è un sottospazio
proiettivo, abbiamo la seguente dicotomia:
i) P(W ) ∩ Ai = ∅ (l’insieme vuoto);
ii) P(W ) ∩ Ai è un sottospazio affine di Ai della stessa dimensione di P(W ).
Il caso i) si verifica se P(W ) è contenuto nell’iperpiano all’infinito per la carta Ai , cioè
nell’iperpiano {Xi = 0}.
Corollario 1.22. Dato un sottospazio affine non vuoto L di Ai , esiste un unico sottospazio
n
proiettivo L ⊆ PR tale che
L ∩ Ai = L .
Dimostrazione. Poter passare dal sistema (♠) al sistema (1.18) garantisce l’esistenza di
n
un sottospazio proiettivo L ⊆ PR che interseca A0 esattamente in L . Due sottospazi
n
proiettivi L , L ′ ⊆ PR che incontrano A0 in L hanno la stessa dimensione di L (per il
Lemma 1.21), d’altro canto l’intersezione L ∩ L ′ incontra anch’essa A0 in L e, anch’essa,
deve avere la stessa dimensione di L . Ciò consente di concludere:
dim L = dim L ′ = dim L ∩ L ′ =⇒ L = L ′ .
n
Definizione 1.23. Dato L ⊆ Ai (sottospazio affine), il sottospazio proiettivo L ⊆ PR
indicato nel Corollario 1.22 si chiama
chiusura proiettiva di L .
2 Nella (1.20) “ dim ” ha due significati differenti: a sinistra indica la dimensione di un sottospazio affine di
n
A0 ∼= Rn , a destra indica la dimensione di un sottospazio proiettivo di PR (cfr. Definizione 1.3).
9
questo significa che C è il luogo dei punti p = [X0 , X1 , X2 ] ∈ P2R per i quali la terna
(X0 , X1 , X2 ) soddisfa l’equazione indicata.
Va osservato che per l’omogeneità dell’equazione che definisce C , che di seguito denotiamo con f , se
′ ′ ′
due terne (X0 , X1 , X2 ) e (X0 , X1 , X2 ) rappresentano lo stesso punto p , ovvero (X0 , X1 , X2 ) =
′ ′ ′ ′ ′ ′
λ · (X0 , X1 , X2 ) , si ha f (X0 , X1 , X2 ) = λ2 · f (X0 , X1 , X2 ) (si verifichi quanto appena affermato). Di
conseguenza, essendo λ 6= 0 , risulta
′ ′ ′
f (X0 , X1 , X2 ) = 0 ⇐⇒ f (X0 , X1 , X2 ) = 0 ,
sebbene non abbia senso scrivere “f (p)” (perché dipende dalla terna scelta per rappresentare il punto p ),
l’annullarsi o meno di f in p ha perfettamente senso.
2
(l’aver diviso tutta l’equazione per X0 è una scelta arbitraria, avremmo potuto dividere per 75318 o
2
per qualsiasi espressione mai nulla, dividiamo per X0 per ragioni di convenienza: al fine di ottenere
X1 X2
un’equazione in e , che sono le coordinate della nostra carta locale A0 ).
X0 X0
equivalentemente
A0 ∩ C = [1, x, y ] (x − 1)2 + y 2 = 1 , x, y ∈ R2 .
Analogamente otteniamo
n 2 2 o
X1 − 2 X0 X1 + X2
A1 ∩ C = [X0 , X1 , X2 ] ∈ P2R X1 6= 0 , 2 = 0
X1
10
e, di conseguenza,
ϕ1 A1 ∩ C = (h, k) ∈ R2 1 − 2 h + k 2 = 0 ,
equivalentemente
A1 ∩ C = [h, 1, k ] 1 − 2 h + k 2 = 0 , h, k ∈ R2 .
Infine
n 2 2 o
X1 − 2 X0 X1 + X2
A2 ∩ C = [X0 , X1 , X2 ] ∈ P2R X2 6= 0 , 2 = 0
X2
e, di conseguenza,
ϕ2 A2 ∩ C = (z, w) ∈ R2 w2 − 2 z w + 1 = 0 .
equivalentemente
A2 ∩ C = [z, w, 1 ] w2 − 2 z w + 1 = 0 , z , w ∈ R2 .
Osserviamo che le equazioni che rappresentano C nelle tre carte affini sono rispettivamente
(x − 1)2 + y 2 = 1 che è l’equazione di una ellisse,
1 − 2 h + k 2 = 0 che è l’equazione di una parabola,
w2 − 2 z w + 1 = 0 che è l’equazione di una iperbole
(ciò non deve sorprendere troppo, in fin dei conti si tratta di tre oggetti diversi, le tre
intersezioni A0 ∩ C , A1 ∩ C e A2 ∩ C , ognuna delle quali peraltro espressa nelle
coordinate della carta locale che la riguarda). La ragione di quanto accade si può spiegare
con una figura, disegnando C nella carta affine A0 , e disegnando i punti dove X0 = 0
come punti all’infinito di questa carta affine (retta tratteggiata), abbiamo la seguente figura
Per k 6= 0 abbiamo
2
[ 12 k 2 + 12 , 1 , k ] = [ k2 k+1
2 ,
1
k2 , 1
k ]
Questo dovrebbe convincervi, al di là dei conti formali, quelli fatti sopra nelle varie carte locali per intenderci,
che la parabola che vediamo nella carta A1 si richiude all’infinito nel punto o (si riguardi la figura tenendo
presente che l’asse verticale, cioè la retta X1 = 0 , è la retta all’infinito per la carta A1 ).
Analogamente
A2 ∩ C = [z, w, 1 ] w2 − 2 z w + 1 = 0 , z , w ∈ R2 ,
√
da questa ricaviamo3 w = z ± z 2 − 1 , ovvero abbiamo i punti del tipo
√
[ z , z ± z2 − 1 , 1 ] , z ∈ R ,
Per z che va all’infinito quanto scritto ci restituisce (si calcolino i due limiti) i punti che già
conoscevamo:
p = [1, 2, 0] e o = [1, 0, 0] .
Terminiamo con un’ultima osservazione che ci sembra interessante. Nella carta A0 , le rette
tangenti a C nei punti o e p sono rispettivamente le rette r ed s di equazioni
r : {x = 0} e s : {x = 2}
(nella figura, sono le due rette verticali passanti per o e p). In coordinate omogenee, queste
due rette hanno equazioni
X X
r : { X1 = 0 } e s : { X1 = 2 }
0 0
2
pertanto corrispondono alle rette in P di equazioni
r : { X1 = 0 } e s : { X1 = 2 X0 } .
Queste, nella carta A2 hanno equazioni
X X X
r : { X1 = 0 } e s : { X1 = 2 X0 } .
2 2 2
ovvero equazioni
r : {w = 0} e s : { w − 2z = 0 } .
Questi sono esattamente gli asintoti dell’iperbole di equazione
w2 − 2 z w + 1 = 0 ,
infatti w2 − 2 z w = w · (w − 2z ). I punti o e p (che non appartengono ad A2 ) sono
i punti all’infinito dell’iperbole ed i due asintoti sono le tangenti all’iperbole nei suoi due
punti all’infinito.
2
3 Potremmo ricavare z = w2 w +1
, ma ciò ci costringerebbe ad assumere w 6= 0 , cosa che non vogliamo fare
per “ non perderci per strada” il punto o !
12
P = P(V )
Sintetizzando: sappiamo che l’intersezione di sottospazi vettoriali è un sottospazio vettoriale, cioè che la
prerogativa di essere un sottospazio vettoriale è “ stabile rispetto all’intersezione”, se si cava l’origine e si
quozienta con la relazione di proporzionalità ciò continua a valere (quindi vale in ambito proiettivo).
Nota. Naturalmente può accadere che l’intersezione degli Si sia vuota, equivalentemente
che l’intersezione dei Wi sia il sottospazio costituito esclusivamente dal vettore nullo.
Un altro risultato che possiamo mutuare immediatamente dai risultati di algebra lineare
è la formula di Grassmann:
Poiché, in generale,
dim P(W ) = dim W − 1 ,
(cfr. Def. § 1, 3) i quattro valori tra parentesi quadre sono le dimensioni che compaiono nella formula (♣).
Praticamente, la formula di Grassmann in ambito proiettivo segue da quella nota nel caso degli spazi
vettoriali e dalla Definizione 1.3. Se W ha dimensione 0 (cioè W è costituito solamente dal vettore nullo),
allora P(W ) è l’insieme vuoto. Vista la centralità della Definizione 1.3 nella dimostrazione precedente, se
si vuole che la Proposizione (3.7) valga anche quando S1 ed S2 sono sghembi, cioè non hanno punti in
comune, si deve assumere (e si assume) la seguente convenzione:
Convenzione 3.8. L’insieme vuoto ha dimensione −1 .
Nota 3.9. Come sappiamo, l’unione di due sottospazi vettoriali di V è un sottospazio vettoriale di V se
e solo se uno dei due sottospazi contiene l’altro. Lo stesso risultato vale in ambito proiettivo: l’unione di due
sottospazi proiettivi di P è un sottospazio proiettivo di P se e solo se uno dei due sottospazi contiene l’altro.
(Giusto per ribadire il concetto, sia in ambito vettoriale che proiettivo abbiamo che l’unione di sottospazi
14
non è mai un sottospazio, eccetto che nel caso banale dove “ uno dei due contiene l’altro”).
Esercizio 3.10. Si determinino dimensioni e equazioni sia parametriche che cartesiane dei sottospazi
proiettivi, dello spazio proiettivo P, generati dall’insieme Ω nei seguenti casi:
3
a) P = PR , Ω = { [ 3, 0, 2, 1 ] , [ 0, 0, 0, 1 ] } ;
3
b) P = PR , Ω = { [ 1, 0, 1, 0 ] , [ 2, 0, 2, 1 ] , [ 1, 0, 1, 1 ] } ;
3
c) P = PR , Ω = { [ 1, 1, 0, 1 ]} ∪ r , dove r è la retta x0 + x2 = x0 + x1 − x3 = 0 ;
4
d) P = PR , Ω = { r ∪s } , dove r è la retta x0 = x1 = x2 = x4 ed s è la retta x0 = x2 = x0 +x1 = x3 .
9
e) P = PR , Ω = {p} ∪ H , dove p è un punto della carta locale A0 , H è l’iperpiano all’infinito di A0 .
Proiettività.
n n
Consideriamo lo spazio proiettivo PR = P(Rn+1 ), ricordiamo che un punto in PR è
una classe di equivalenza
A = X0 , . . . , Xn
di vettori non nulli
t
X0 , . . . , Xn ∈ Rn+1 r {~0} ,
dove due tali vettori t ( X0 , . . . , Xn ) e t ( X0′ , . . . , Xn′ ) sono equivalenti se sono pro-
porzionali, cioè se esiste una costante λ ∈ R tale che
t t
X0 , . . . , Xn = λ X0′ , . . . , Xn′
(essendo i due vettori non nulli, la costante λ sarà anch’essa necessariamente non nulla).
Avvertenza. In algebra lineare i vettori di Rk vengono sempre indicati per colonna, noi rispettiamo
questa regola (la piccola t a sinistra di una matrice riga indica la trasposizione, cosa che la rende una
matrice colonna). D’altro canto, cosı̀ come abbiamo sempre fatto e com’è consuetudine, i punti dello spazio
n
proiettivo PR li indichiamo per riga (e tra parentesi quadre). Va da sé che, per convenzione, “ le parentesi
quadre di un vettore in Rk ” includono questo passaggio, per intenderci
[2, 3] = [ 23 ] = “ classe di equivalenza del vettore 23 ” .
Per l’Osservazione 4.1, data una matrice invertibile M ∈ Mn+1, n+1 (R) , la funzione
n n
f : PR −−−−→ PR
(4.2)
A 7→ M · ~v
è ben definita, essendo A come sopra e ~v il vettore t(X0 , . . . , Xn ) ∈ Rn+1 .
Naturalmente la definizione si può dare più in generale, per spazi proiettivi astratti (e
non serve che dominio e codominio coincidano):
16
Definizione 4.6bis . Siano P(V ) e P(W ) due spazi proiettivi, una funzione
[L] : P(V ) −−−−→ P(W ) , [~v ] 7→ [L(~v )]
indotta da un’applicazione lineare iniettiva L : V −→ W si chiama trasformazione proiettiva.
Avvertenza. Se L non è iniettiva, per ~v ∈ ker L abbiamo che [L(~ v )] non ha senso, di conseguenza,
almeno cosı̀ come l’abbiamo scritta, la stessa [L] non ha senso. In realtà la funzione [L] ha senso, ma a
condizione di escludere dal dominio il proiettificato del nucleo di L , cioè abbiamo una funzione
[L] : P(V ) r K −−−−−→ P(W ) , [~
v ] 7→ [L(~
v )]
dove K = P(ker L) , insieme che sappiamo essere un sottospazio proiettivo del nostro P(V ) .
Sottolineiamo che per l’osservazione (4.3) due matrici sono nella stessa classe di proporzionalità (cfr. Def. 4.5)
n
se e solo se definiscono la stessa proiettività di PR .
A questo punto si potrebbe pensare che la strada sia in discesa, che la risoluzione di
problemi concernenti le proiettività sia una mera applicazione di ciò che si conosce sulle
applicazioni lineari tra spazi vettoriali. Ad esempio si potrebbe erroneamente credere che,
essendo un’applicazione lineare determinata dalle immagini dei vettori di una base del do-
n
minio, per dare una proiettività di PR basta dare le immagini di n+1 punti “ indipendenti”.
Purtroppo non è cosı̀. Per illustrare il problema diamo un esempio.
A = [1 , 3 ] , B = [2 , −1 ] , C = [1 , 1 ] , D = [−1 , 2 ] .
Le funzioni
f: P1R −−−−→ P1R g: P1R −−−−→ P1R
h i h i
1 9 X0 5 −4 X0
[X0 , X1 ] 7→ [X0 , X1 ] 7→
10 6 X1 −13 2 X1
5 Chi non avesse studiato algebra astratta non si spaventi, non utilizzeremo nulla di teoria dei gruppi, neanche
la definizione di gruppo! ...vi basti sapere che si tratta di un insieme i cui elementi possono essere moltiplicati
tra loro (e, ai nostri fini, ciò che conoscete sul prodotto tra matrici è più che sufficiente).
17
~a = 13 , ~b = −1 2
, ~c = 11 , d~ = −1
2
soddisfa le condizioni
L(~a) = ~c e L(~b) = d~
che naturalmente ci dà anch’essa una proiettività l : P1R −→ P1R soddisfacente l(A) = C , l(B) = D .
Il problema che abbiamo nel caso proiettivo nasce dal fatto che dare una condizione sui rappresentanti è più
forte che darla sui punti dello spazio proiettivo.
dove s denota il numero di punti di S (detto in altri termini, la dimensione del più piccolo
sottospazio contenente S deve essere la massima possibile, che è min { n , s−1 } ).
Osservazione 4.9. Stiamo considerando punti in uno spazio di dimensione n (il nostro ambiente).
D’altro canto, cosı̀ come due punti stanno sempre su una retta, tre punti in un piano, abbiamo che s punti
stanno sempre in uno spazio di dimensione s−1 . Quindi s dei nostri punti (il sottoinsieme S di cui sopra)
sono sicuramente contenuti in uno spazio di dimensione δ = min { n , s−1 } , noi richiediamo che non siano
contenuti in uno spazio più piccolo (si confronti con ♣).
Detto in termini più vaghi, l’idea di fondo è che dei punti presi a caso siano in posizione generale, vediamo
nel dettaglio cosa ci dice la definizione in alcuni casi:
P1R due o più punti sono in posizione generale se e solo se sono distinti;
n
Teorema 4.12 (Fondamentale sulle Proiettività). Si considerino nello spazio proiettivo PR
due insiemi ordinati
A1 , ... , An+2 e B1 , ... , Bn+2
ciascuno costituito da n+2 punti in posizione generale. Si ha che
n n
esiste un’unica proiettività f : PR −−−−→ PR tale che f (Ai ) = Bi , ∀ i .
n
Il teorema, che abbiamo voluto enunciare per PR , naturalmente vale anche nel caso astratto, ed in effetti
non è nemmeno necessario che dominio e codominio coincidano :
Teorema 4.12bis . Dati P e P ′ , spazi proiettivi di dimensione n , dati inoltre due insiemi ordinati
A1 , ... , An+2 ⊆ P e B1 , ... , Bn+2 ⊆ P′
ciascuno costituito da n+2 punti in posizione generale. Si ha che
esiste un’unica trasformazione proiettiva f : P −→ P ′ tale che f (Ai ) = Bi , ∀ i .
Questo Teorema lo dimostriamo più avanti (subito dopo l’inciso 4.16). Intanto vediamo
due sue importanti conseguenze, la prima delle due è che il Teorema giustifica la definizione
(4.13) che segue.
La ragione per la quale il Teorema precedente giustifica questa definizione è presto detta:
essendo un riferimento proiettivo costituito da n+2 punti in posizione generale, ci consente
n
di identificare il nostro spazio astratto P con lo spazio PR , l’identificazione sarà data dalla
trasformazione proiettiva
n
f : P −−−−→ PR
la cui esistenza e unicità sono garantite dal Teorema 4.12bis . Naturalmente si deve fissare
n n
un riferimento proiettivo anche su PR , è stato deciso una volta per tutte che su PR si
considera il riferimento proiettivo dove
Ei = [ 0, ..., 1 , ..., 0 ] , U = [ 1 , ... , 1 ]
(posto i ) (tutti 1 )
n
(che viene chiamato riferimento canonico di PR ).
19
Nota 4.14. Visto l’esercizio (4.10) e le definizioni appena date, abbiamo che
• un sistema di riferimento su una retta proiettiva è dato da 3 punti distinti, il riferimento
canonico di P1R è
RCan (P1R ) = [1, 0 ] , [0, 1 ] , [1, 1 ] ;
• un sistema di riferimento su un piano proiettivo è dato da 4 punti tra i quali non ci
sono terne di punti allineati, il riferimento canonico di P2R è
RCan (P2R ) = [1, 0, 0 ] , [0, 1, 0 ] , [0, 0, 1 ] , [1, 1, 1 ] ;
• un sistema di riferimento su uno spazio tridimensionale proiettivo è dato da 5 punti
senza quaterne di punti su uno stesso piano, il riferimento canonico di P3R è
RCan (P3R ) = [1, 0, 0, 0 ] , [0, 1, 0, 0 ] , [0, 0, 1, 0 ] , [0, 0, 0, 1 ] , [1, 1, 1, 1 ] .
Esercizio 4.15. Disegnare la retta proiettiva P1R come completamento proiettivo della retta affine R e
individuare i punti del riferimento canonico. Disegnare il piano proiettivo P2R come completamento proiettivo
del piano affine R2 e individuare i punti del riferimento canonico.
(In entrambi i casi ci saranno sia dei punti al finito che dei punti all’infinito).
Passo 1. fissiamo dei vettori ~a1 , ... , ~an+2 ∈ Rn+1 che rappresentano gli Ai ;
Pn+1
Passo 2. scriviamo ~an+2 come combinazione lineare dei precedenti i = 1 ci~
ai
(osserviamo che essendo gli Ai in posizione generale, i vettori ~a1 , ... , ~an+1 costituiscono
una base di Rn+1 ed inoltre i coefficienti ci sono tutti diversi da zero);
Passo 3. sostituiamo ~ai con ci~ai (per i = 1, ..., n+1);
Passo 4. ripetiamo i passi precedenti per l’insieme dei punti Bi .
Osserviamo che a questo punto abbiamo dei rappresentanti ~a1 , ... , ~an+2 e ~b1 , ... , ~bn+2
per i quali risulta
~an+2 = ~a1 + ... + ~an+1 e ~bn+2 = ~b1 + ... + ~bn+1
Passo 5. Troviamo una matrice M di ordine n+1 che manda i vettori ~a1 + ... + ~an+1 nei
vettori ~b1 + ... + ~bn+1 .
| | | |
Osserviamo che dovendo risultare M · ~a1 . . . ~an+1 = ~b1 . . . ~bn+1 si ha
| | | |
−1
| | | |
M = ~b ~
. . . bn+1 · ~
a 1 . . . ~an+1
1
| | | |
(la notazione è quella solita: le due matrici che abbiamo introdotto hanno per colonne i
vettori indicati al loro interno. Ricordiamo che sono matrici invertibili, essendo i vettori
~a1 + ... + ~an+1 , come pure i vettori ~b1 + ... + ~bn+1 , indipendenti).
Dimostrazione. Per costruzione risulta M ~ai = ~bi per i = 1, ..., n+1 . D’altro canto
Pn+1 Pn+1 Pn+1 ~ ~
M ~an+2 = M i=1~ai = i=1 M~ ai = i = 1 bi = bn+2 .
Di conseguenza la proiettività
n n
f : PR −−−−→ PR , f (~v ) = [M~v ]
soddisfa la condizione richiesta f (Ai ) = Bi , i = 1, ..., n+2 . Ribadiamo che l’unicità di
una proiettività che mandi gli Ai nei Bi è assicurata dal Teorema 4.12.
Per provare l’unicità, come spesso accade in questo tipo di situazioni, possiamo ridurci al
caso dove sia gli Ai che i Bi sono i punti del riferimento canonico (in particolare coincidono),
ovvero a provare che l’identità Id è l’unica proiettività che manda i punti del riferimento
n
canonico di PR in se stessi. Infatti, indicando con α la proiettività che manda i punti del
riferimento canonico negli Ai , se g è un’altra proiettività che manda gli Ai nei Bi . la
composizione
n α n f n g−1 n α−1 n
h : PR −−−−→ PR −−−−→ PR −−−−→ PR −−−−→ PR ,
manda i punti del riferimento canonico in se stessi e, naturalmente,
h = Id =⇒ α−1 ◦ h ◦ α ◦ g = α−1 ◦ Id ◦ α ◦ g .
| {z } | {z }
(da provare)
(= f ) (= g)
Dunque, proviamo che l’identità Id è l’unica proiettività che manda i punti del riferi-
mento canonico in se stessi. Una matrice che rappresenti una tale proiettività h, essendo
h(Ei ) = Ei , deve mandare i vari vettori della base canonica di Rn+1 in loro multipli,
quindi deve essere una matrice diagonale non degenere, cioè deve essere una matrice del tipo
∆ = diag {λ1 , ..., λn } con i λi non nulli. D’altro canto posto ~u = t (1, ..., 1), vettore che
rappresenta il punto unità U del riferimento canonico, si deve avere h(U ) = U , ovvero
∆ ~u = λ~u per un qualche λ 6= 0 . Da questa relazione segue che i vari λi sono tutti uguali
a λ, in particolare sono uguali tra loro. Di conseguenza h = [∆] = Id .
21
Vale la pena sottolineare che il punto unità ha un suo ruolo, ad esempio la stessa retta
r parametrizzata dalle equazioni
X0 1 2
X1 5 0
= t0 + t1
X2 −1 2
X3 3 2
3
è la retta in PR data dal riferimento
R(r) = [1, 5, −1, 3] , [1, 0, 1, 1] , [3, 5, 1, 5]
(= E0 ) (= E1 ) (= U ′ )
(n.b.: [2, 0, 2, 2] = [1, 0, 1, 1]) ...è cambiato solamente il punto unità ! (In un qualche
senso, fissati i punti fondamentali E0 , . . . , En di un riferimento, scegliere il punto unità è
un po’ come scegliere “q.b.”, quanto basta, vettori che rappresentano gli Ei ).
22
Torniamo alla Definizione 4.6bis e diamola in una forma leggermente più in generale. Dati
due spazi vettoriali V e V ′ , posto P = P(V ) e P′ = P(V ′ ) , un’applicazione lineare
L : V −−−−→ V ′ ,
induce una funzione
F := [L] : P r K −−−−→ P′
[~v ] 7→ [L(~v )]
dove K := P(kerL) è il proiettificato del nucleo di L (come già osservato nell’avvertenza
che segue l’osservazione 4bis siamo costretti a escludere K dal dominio di definizione perché
altrimenti come immagine di un punto in K otterremmo “ [~0 ′ ]” che non ha alcun senso).
[~v ] 7 → [L(~v )]
Diciamo che
• A ∈ P è un punto fisso di F se risulta F (A) = A ;
• Ω ⊆ P è un insieme invariante per F se risulta F (Ω) = Ω .
Avvertenza : un sottoinsieme di punti fissi è ovviamente invariante, il viceversa in generale non è vero :
possiamo avere una retta r che viene mandata in se stessa, quindi invariante, ma i cui punti vengono
spostati da F (pur rimanendo sempre in r ).
Osservazione 4.20.
• se S = P(W ) è un sottospazio proiettivo di P, allora S è invariante se e solo se W è
invariante per L , cioè risulta L(W ) = W ;
• la nostra F , come L del resto, è biunivoca;
• A = [~v ] è un punto fisso se e solo se [L(~v )] = [~v ], cioè se e solo se i vettori L(~v ) e
~v sono proporzionali. Detto in altri termini,
A = [~v ] è un punto fisso di F ⇐⇒ ~v è un autovettore per L
(di autovalore automaticamente non nullo).
Esercizio 4.21. Nelle ipotesi della Definizione 4.19 provare che se S è un sottospazio proiettivo di P
allora
F (S) = S se e solo se F (S) ⊆ S
(ovviamente il risultato non vale per sottoinsiemi arbitrari, ad esempio se F è la proiettività di P1R data
dalla matrice 10 02 ed Ω = {[t, 1] | t < 1} si ha F (Ω) ⊆ Ω , ma non vale l’uguaglianza).
Esercizio 4.22. Sempre nelle ipotesi della Definizione 4.19, provare che
i) se U1 e U2 sono due autospazi per L (distinti), allora P(U1 ) e P(U2 ) sono sottospazi
sghembi di P;
ii) l’insieme dei punti fissi per F è una unione finita di sottospazi proiettivi di P sghembi
tra loro.
Dalla ii), dedurre che se S1 ed S2 sono sottospazi di punti fissi per F aventi intersezione
non vuota, allora anche h S1 ∪ S2 i è un sottospazio di punti fissi.
Suggerimenti : ci si ricordi del fatto che autospazi distinti sono indipendenti; si usi l’Osservazione (4.20).
Esercizio 4.23. Sempre nelle ipotesi della Definizione 4.19, provare che
i) se A e B sono due punti fissi (distinti), allora la retta passante per essi è invariante;
ii) se A, B, C sono tre punti fissi allineati (distinti), la retta passante per essi è costituita
da punti fissi;
iii) se r ed s sono due rette invarianti (distinte), il loro eventuale punto di intersezione è
un punto fisso.
Suggerimenti : ci si ricordi del fatto basilare che una proiettività porta rette in rette;
per la domanda ii), si consideri la restrizione di F alla retta in questione, diciamo r = P(H) quindi ci si
interroghi su cosa significa avere tre autovettori per una trasformazione lineare del piano H in se.
In alternativa, sempre per provare la ii) , si usi il Teorema Fondamentale 4.12 (ricordandosi che, se lo spazio
ambiente è una retta, tre punti distinti sono in posizione generale).
0 0 0 2
ha due rette (sghembe) di punti fissi, le rette
r1 = { X2 = X3 = 0 } e r2 = { X0 = X1 = 0 } .
La prima è l’asse “ x ”, la seconda è la retta all’infinito del piano “ y, z ” (la notazione è quella solita:
consideriamo P3R come completamento proiettivo di R3 via [1, x, y, z] ↔ (x, y, z) ).
Infatti, gli autospazi della matrice M sono i due piani vettoriali rispettivamente di equazioni cartesiane
X2 = X3 = 0 e X0 = X1 = 0 (attenzione: qui vediamo M come trasformazione lineare dello spazio
vettoriale R4 , questo con coordinate X0 , X1 , X2 , X3 ). Proiettivizzando questi due piani si ottengono le
rette r1 ed r2 che, come dicevamo, sono pertanto costituite da punti fissi.
Come abbiamo visto, i punti fissi di una proiettività sono rappresentati da autovettori, per cui il problema
di determinarli è un problema di calcolo di autospazi. Quanto ai sottospazi invarianti, nella maggior parte
dei casi possono essere determinati da considerazioni concernenti i punti fissi. Vediamo qualche esempio.
Esempio 4.27. Sia f è una proiettività del piano P2R con 3 punti fissi isolati A, B, C . Le rette invarianti
per f sono le tre rette rA, B , rA, C , rB, C (ognuna passante per due dei nostri punti).
Dimostrazione. Tre punti fissi isolati non sono allineati, infatti una retta che li contenesse sarebbe una retta
di punti fissi (cfr. eser. 4.23, ii); le tre rette indicate sono rette invarianti (cfr. eser. 4.23, i); non possono
esserci altri punti fissi perché una matrice 3×3 non può avere più di 3 autospazi; non possono esserci altre
rette invarianti perché un’eventuale altra retta invariante s incontrerebbe rA, B in un quarto punto fisso.
Naturalmente il risultato visto si generalizza:
Esempio 4.28. Se f è una proiettività dello spazio P3R con 4 punti fissi isolati, allora i punti fissi sono
in posizione generale ed f ha esattamente 4 piani invarianti (i piani per le 4 terne di punti fissi) e 6 rette
invarianti (le rette per le 6 coppie di punti fissi).
Esempio 4.29. Una proiettività f del piano P2R ha sicuramente almeno un punto fisso.
Dimostrazione. Una matrice 3×3 ha almeno un autovalore, ovvero ha almeno un autovettore.
Esempio 4.30. Sia f è una proiettività (diversa dall’identità) del piano P2R con una retta r di punti fissi
ed un punto fisso p 6∈ r . Le rette invarianti sono r e tutte le rette passanti per p .
Dimostrazione. Di nuovo per l’esercizio (4.23, i), le rette per p ed un punto di r sono invarianti (cioè tutte
le rette passanti per p ). D’altro canto per ragioni di autospazi non ci possono essere altri punti fissi e, di
conseguenza, non ci possono essere altre rette invarianti (un’eventuale retta invariante s non passante per
p incontrerebbe una generica7 retta m passante per p in un punto q 6∈ r distinto da p , ma un tale punto
sarebbe un punto fisso).
Esempio 4.31. Una rotazione di R2 di angolo θ 6= 0, π definisce su P1R = P(R2 ) una proiettività senza
punti fissi.
7 Il termine “generica” significa “qualsiasi, ma con qualche eccezione”, nello specifico ci basta prendere come
retta m una qualsiasi retta che non incontri r proprio nel punto r ∩ s .
GeoSup 2013. Schizzi degli argomenti di alcune dimostrazioni.
3.1. Fibrato tangente. (Meglio tardi che mai) Data una varietà M
con atlante differenziabile (Uα , ϕα ) il fibrato tangente T M si costrui-
sce/definisce come segue. In carte locali, lo spazio tangente a Rn nel
punto x è Rn :
T Rnx = Rn .
Su un aperto coordinato Vα = ϕα (Uα ) si definisce il fibrato tangente
come V × Rn con (T Vα )x identificato con {x} × Rn . A questo punto un
atlante per T M è formato da aperti Vα × Rn e i cambi di carta sono
dati da
T Vα ∋ (x, v) 7→ (ϕβ ◦ (ϕα )−1 (x), d(ϕβ ◦ (ϕα )−1 )(x)[v]) ∈ T Vβ .
Lo spazio definito in questo modo è una famiglia continua di spazi
vettoriali (Rn ) parametrizzati con punti di M : T M = {T Mx , x ∈ M }.
M si chiama base e T Mx fibra. La proiezione naturale (x, v) → x da
T M → M che dimentica v e si ricorda solo del punto base si indica di
solito con π.
Questa definizione si generalizza alla definizione/costruzione di fi-
brato vettoriale qualsiasi ove invece di Rn si usa uno spazio vettoriale
qualsiasi e al posto dei differenziali dei cambi di carta si usano delle
opportune funzioni di transizione che di fatto caratterizzano il fibrato.
Una sezione di un fibrato è una mappa s : M → T M tale che
π(s(x)) = x. Cioè s(x) = (x, v(x)) con v ∈ T Mx .
Le sezioni del fibrato tangente si chiamano campi di vettori e so-
no identificate col modulo delle derivazioni sull’anello delle funzioni
differenziabili. In coordinate, {∂/∂xi } è una base di T Mx .
df (JV ) = idf (V )
Se V = (Vx , Vy ) allora JV = (−Vy , Vx ) da cui
∂f ∂f ∂f ∂f
− Vy + Vx = i( Vx + Vy )
∂x ∂y ∂x ∂y
da cui
∂f ∂f
+i =0
∂x ∂y
Le cui componenti reale e immaginaria non sono altro che le solite
equazioni di Cauchy-Riemann.
Nel nostro formalismo ∂f∂y
= i ∂f
∂x
ci dice che df = ∂f
∂x
(dx + idy) = adz
con a = ∂f /∂x. Cioè f è olomorfa, o meglio J-olomorfa, se e solo se
df è un multiplo di dz.
Una forma olomorfa su R2 è il differenziale di una funzione olomorfa.
In particolare, le forme olomorfe vivono nel modulo generato da dz.
(Equivalentemente, una forma ω su R2 è olomorfa se esiste f olomorfa
tale che ω = f dz.)
Si definiscono quindi i moduli Ω1 (S), Ω(1,0) (S), Ω(0,1) (S) delle forme
complesse, su S e sono ben definiti gli operatori ∂, ∂,¯ d.
∗ ′
Se ω = a(w)dw quindi, φ ω = a(ϕ(z))ϕ dz e quindi in pratica quindi
una 1-forma olomorfa ω su S è il dato di un altante olomorfo (Uα , ϕα )
per S e, per ogni α, una 1-forma olomorfa fα dz con la proprietà che
fα /fβ = (ϕβ ◦ (ϕα )−1 )′ sull’intersezione. “Fisicamente” se w = ϕ allora
adw = adϕ = aϕ′ dz.
Si noti che la forma dz è ben definita nelle carte locali ma non in
tutta S. Questo sarà ancora più esplicito nella prossima sezione.
Si noti infine che le forme olomorfe non sono un modulo sull’anello
delle funzioni complesse perchè, localmente, se moltiplico una forma
olomorfa f dz per una funzione g, per ottenere una forma olomorfa
bisogna che g sia pure olomorfa. Quindi le forme olomorfe sono un
modulo sull’anello delle funzioni olomorfe. Se S è compatta, di funzioni
olomorfe globali c’è solo le costanti. Ne segue che le forme olomorfe
su S sono in realtà (solo) uno spazio vettoriale, che risulterà però — a
differenza del caso reale — di dimensione finita (si veda il seguito).
pz dz + pw dw = 0 |pz | + |pw | 6= 0
14
il suo omogeneizzato è
d
X X
P = ( anm X0n X1m )X2d−k
k=0 n+m=k
4. La prime-degree conjecture
Sia π : X → Y una funzione olomorfa di grado topologico d tra
due superfici di Riemann compatte senza bordo. Abbiamo visto come
la formula di Riemann-Hurwiz lega le molteplicitá locali dei punti di
ramificazione e le caratteristiche di X e Y .
Infatti una applicazione olomorfa è sempre un rivestimento ramifica-
to, i punti di ramificazione sono dove il differenziale si annulla, e quello
16
che avevamo chiamato ram(x) non è altro che l’ordine con cui si an-
nulla dπ meno uno. La formula quindi si applica e nel contesto delle
mappe olomorfe si legge
X
χ(X) = dχ(Y ) − mp − 1
p
Bibliografia:
Qui http://arxiv.org/abs/1010.2888 ci si trova una buona intro-
duzione al problema.
¯ allora α ∧ β ′ = α ∧ (β + ∂ϕ)
che è ben definito perché se β ′R= β + ∂ϕ ¯
¯ ¯
R
e α ∧ ∂ϕ = −d(ϕα) e quindi S α ∧ ∂ϕ = ∂S ϕα = 0; e la mappa di
inclusione
ν : H 1,1 → H 2 (S)
data dal fatto che tutte le 2-forme su una superficie son chiuse e
(Imm(∂)¯ : Ω1,0 → Ω1,1 ) ⊆ (Imm(d) : Ω1 → Ω2 ) (perché ∂¯ = d su
Ω1,0 )
Fatto (corollario del teorema e del fatto di cui sopra).
(1) σ è un isomorfismo
(2) i è un immersione
(3) H 0,1 = (H 1,0 )∗
(4) H 0,1 ⊕ H 1,0 = H 1 (S)
(5) dim(H 1,0 ) = dim(H 0,1 ) = g
(6) ν è un isomorfismo
2Si ¯ = ∂u
noti che ∆g = ∆u non implica che ∂g ¯ ma solo che ∂g
¯ = ∂u
¯ + α con
1,0
∂α = 0 ossia α ∈ H
20
(5) Per il punto (3) H 1,0 e H 0,1 hanno la stessa dimensione. La tesi
segue da punto (4) e dal fatto che dim(H 1 (S)) = 2g.
(6) La surgettività è immediata per definizione. Sia [ω] ∈ H 1,1 tale che
ω = dα con α ∈ Ω1 . Per Stokes S ω = 0 e per il main theorem esiste
R
¯ = ω. Ponendo β = ∂f si ha quindi ω = ∂β
f tale che ∂∂f ¯ e dunque
1,1
[ω] = 0 ∈ H .
Corollario. Una superficie di Riemann S che è omeomorfa a S 2 è
biolomorfa a CP1 .
Dimostrazione. dim(H 0,1 ) = 0 quindi per ogni punto p di S esiste una
funzione meromorfa su S con un solo polo di ordine 1 in p e nient’altro
(vedi discussione a inizio sezione). Una tale funzione non è altro che
una funzione olomorfa da S a CP1 di grado 1, cioè iniettiva. Quindi è
un biolomorfismo.
Corollario. Una superficie di Riemann S che è omeomorfa a un toro
è biolomorfa a C/Λ ove Λ è un sotto gruppo discreto di C isomorfo a
Z2 .
Dimostrazione. Siccome dim(H 1,0 ) = 1 esiste una forma olomorfa ω
non nulla su S. Per la formula delle molteplicità, ω non può avere zeri.
Integrando ω su cammini a partire da un punto base si ottiene una
funzione olomorfa iniettiva a valori in C modulo il gruppo generato dai
periodi.
Corollario. Sia S una superficie di Riemann di genere g e siano {pi }
almeno g + 1 punti distinti su S. Allora esiste una funzione meromorfa
su S i cui poli stanno su qualcuno dei pi .
Dimostrazione. Viene direttamente dalla discussione a inizio sezione e
dal fatto che dim(H 0,1 ) = g.
6. Periodi e Jacobiana
Testo di riferimento per questa sezione: J. Jost Compact Riemann
Surfaces, third edition Springer Universitext. (In biblioteca c’è.)
Sia S una superficie di genere g > 0. Fissiamo una volta per tutte
un modello topologico di S come segue.
22
a1 b1 a−1 −1 −1 −1
1 b1 a2 b2 a2 b2 ... i = 1, . . . , g
Poniamo Z Z
αi = ω βi = ω
ai bi
Sia ora η una 1-forma su S. Ci restringeremo ai casi in cui η sia
antiolomorfa oppure meromorfa. Andiamo a calcolare
Z
f (z)η.
∂P
′
Su ai abbiamo η(z) = η(z ) perché η è una forma definita su S.
Mentre per f abbiamo le relazioni appena dimostrate. Da cui
Z Z Z Z Z
fη + fη = f η − (f + βi )η = −βi η
ai a−1
i ai ai ai
e similmente otteniamo
Z Z Z
fη + f η = αi η.
bi b−1
i bi
R R
Se poniamo αi
η = γi e βi
η = δi abbiamo le relazioni di Riemann
Z X
fη = αi δi − βi γi
∂P i
ergo non può succedere che gli αi siano tutti nulli a meno che ω non
sia la forma nulla. Ma è chiaro che, se chiamiamo A la matrice g × g a
coefficienti
P complessi ottenuta trasponendo le prime g colonne di M e
se ω = xi ωi allora si ha
α1 x1
... = A ...
αg xg
Siccome le ωi sono una base di H 1,0 e le relazioni valgono per ogni forma
olomorfa, abbiamo ottenuto che il sistema AX = 0 ha come unica
soluzione X = 0, ossia A è invertibile e le sue righe sono linearmente
indipendenti su C.
Corollario. Due forme olomorfe sono uguali se e solo se hanno gli
stessi periodi sugli ai .
Corollario. L’integrazione sugli ai fornisce delle coordinate per H 1,0 .
Corollario. Esiste una base ω1 , . . . , ωg di H 1,0 tale che ai ωj = δij .
R
Adesso fissiamo una volta per tutte, e ciò sarà valido anche per la
prossima sezione, delle pallette intorno ai poli di η disgiunte tra loro
e delle coordinate locali intorno in tali pallette in modo che il polo in
questione sia lo zero.
Vicino al polo p, la ω avrà espansione locale ( k≥0 cpk z k )dz, ove
P
l’apice p è per ricordarsi che stiamo sviluppando vicino a p, per cui la
f sarà Z p X p 1
f (z) = ω+ ck−1 z k
z0 k≥1
k
Rp
(il fatto che z0 ω si porta dietro l’indeterminazione dei periodi sparirà
perché η non ha termini di ordine 1/z.) Chiamiamo epi i coefficienti
dello sviluppo di η vicino al punto p, per cui se il polo p è di ordine
mP , X
η=( epk z k )dz.
k≥mp ,k6=1
I residui di f η sono i coefficienti del termine 1/z nel prodotto. Local-
mente, il termine 1/z nel prodotto è dato dalla somma dei prodotti di
termini di tipo 1/z h+1 con termini di ordine z h . Quindi
|mp |
X 1
Resp (f η) = epk cpk−2
k=2
k−1
e dunque la formulazza
g |mp |
X X X X 1
αi δi − βi γi = Resp (f η) = epk cpk−2 .
i=1 p p polo di η k=2
k−1
7. Il teorema di Riemann-Roch
Questo è uno dei teoremi toghi della matematica. Per enunciarlo
servono un po’ di preliminari. Il testo di riferimento è il Jost.
Sia S una superficie di Riemann chiusa di genere g.
7.1. Divisori. Per i divisori ci sono due notazioni, quella additiva
(forse più standard) e quella moltiplicativa (che useremo nel seguito).
Definizione moltiplicativa. Il gruppo dei divisori di S è l’insieme dei
prodotti formali
Πpmp
con p ∈ S e mp ∈ Z con la convenzione che p0 = 1 e che mp 6= 0 solo
per un numero finito di punti. L’operazione di gruppo è quella indotta
dalla notazione moltiplicativa (Πpmp )(Πpnp ) = Πpmp +np . L’elemento
neutro si indica con 1.
27
Una funzione f ∈ L(1/A) è una funzione meromorfa con poli nei punti
p di ordine al piú mp . Il suo differenziale df ha le seguenti proprietà
(1) df non ha residui;
(2) l’integrale di df lungo ogni cammino chiuso è nullo;
(3) df è una 1-forma meromorfa con poli nei punti p di ordine al
piú mp + 1.
Siano quindi B = Πp−mp −1 , ai e bi le curve derivanti dalla descrizione
di S come 4g-agono coi lati incollati e V lo spazio vettoriale
Z
V = {ω ∈ Ω(B) senza residui e tale che ω = 0 ∀i = 1, . . . , g}
ai
Quindi per il main theorem esiste una funzione h liscia su S tale che
¯ = ∂∂ψ
∂∂h ¯
e ponendo η = ∂h si ha la tesi.
Corollario. Per ogni n ≥ 2 e per ogni pi esiste una 1-forma meromorfa
θi,n su S con un solo polo nel punto pi di ordine
R esattamente n. In oltre,
tali forme possono essere scelte in modo che aj θi,n = 0 per ogni j, i, n.
Dimostrazione. Basta usare come ψ la funzione −ϕ/z n−1 con ϕ funzio-
ne di taglio opportuna che vale 1 vicino a pi . Se η è la (1, 0)-forma data
dal lemma allora la forma θi,n = η − ∂ψ soddisfa l’equazione ∂¯ = 0 e
quindi è meromorfa su S. L’unico polo è di ordine n per costruzione.
Si noti che per usare il lemma serve n ≥ 2 perché 1/z non è il dif-
ferenziale di nessuna funzione meromorfa. A questo punto dobbiamo R
ammazzare i periodi. Prendiamo una forma θ = θi,n e sia αj = aj θ.
Per
R le relazioni di Riemann esiste unica una forma olomorfa τ tale che
aj
τ = αj per j = 1, . . . , g. La forma θ − τ è meromorfa, ha i periodi
lungo gli aj nulli e gli stessi poli di θ, con gli stessi ordini.
Corollario. dim(V ) = deg(A).
Dimostrazione. Chiaramente le forme θi,n con n = 2, . . . , mpi +1 stanno
in V e sono linearmente indipendenti tra loro (hanno poli di ordini
diversi in ognuno dei vari pi ). D’altronde, se ω ∈ V allora ha poli di
ordine al piú mpi + 1 in pi per cui sommando una combinazione lineare
delle θi,n si può cancellare
P il polo. Esistono quindi numeri complessi
λi,n tali che ω − λi,n θi,n sia una 1-forma olomorfa. Per P costruzione,
l’integrale di tale forma lungo ogni ai è nullo e quindi ω− i λi,n θi,n = 0
32
HX = 0
33
ove
λ1,2
..
.
λ
1,m1 +1
λ
2,2
.
..
X=
λ2,m2 +1
..
.
λs,2
.
..
λs,ms +1
e H è la matrice deg(A) × g formata dai coefficienti cpn−2
i ,j
.
p ,1 p1 ,1
c0 1 . . . cm 1 −1
c0p2 ,1 . . . p2 ,1
cm 2 −1
... c0ps ,1 ... ps ,1
cm s −1
cp1 ,2 . . . cp1 ,2 p2 ,2 p2 ,2
c0ps ,2 ps ,2
m1 −1 c0 ... cm ... ... cm
H = 0. 2 −1 s −1
.. .
.. .
.. .. .. ..
... ... . ... . ... .
p1 ,g p1 ,g p2 ,g
c0 . . . cm1 −1 c0 ... cpm22,g−1 ... cp0s ,g ... ps ,g
cms −1
Per cui
dim(Imm(d)) = dim(ker H) = deg(A) − rango(H).
Sia T la trasposta di H, chiaramente rango(T ) = rango(H) e si ha
g = rango(T ) + dim(ker T ).
Adesso basta osservare che ker(T ) non è altro che lo spazio Ω(A).
Da cui
rango(H) = g − dim(Ω(A))
e
dim(L(1/A)) = 1 + dim(Imm(d)) = 1 + deg(A) − g + dim(Ω(A))
e il primo passo è fatto. Gli altri casi seguono facilmente. Vediamoli.
da cui
dim(Ω(A)) = deg(K) − deg(A) − g + 1 + dim(L(1/A))
e la tesi segue da deg(K) = 2g − 2.
Caso finale: Quando né A né K/A sono equivalenti a un Divi-
sore B > 1.
Lemma. L(1/A) = 0
Dimostrazione. Se ci fosse f ∈ L(1/A) allora div(f ) > 1/A, ma allora
A div(f ) > 1 per cui A è equivalente a B = A div(f ) e B > 1.
Lemma. Ω(A) = 0
Dimostrazione. Se ci fosse ω ∈ Ω(A) allora div(ω) > A ergo B =
div(ω)/A > 1 e per ogni η ∈ H 1,0 si ha che ω/η = f è una funzione
olomorfa e
div(ω) div(η)
div(f )K/A = =B>1
div(η) A
Corollario. In questo caso Riemann-Roch si riduce a dimostrare che
deg(A) = g − 1.
Sia A = A+ /A− con A+ > 1 e A− > 1. Per loro possiamo appli-
care Riemann-Roch del primo passo e otteniamo, tenendo conto che
deg(A) = deg(A+ ) − deg(A− ),
MatematicaMente
Pubblicazione mensile della sezione veronese della MATHESIS – Società Italiana di Scienze Matematiche e
Fisiche – Fondata nel 1895 – Autorizzazione del Tribunale di Verona n. 1360 del 15 – 03 – 1999 – I diritti
d’autore sono riservati. Direttore: Luciano Corso – Redazione: Alberto Burato, Fabrizio Giugni, Michele Picotti,
Sisto Baldo – Via IV Novembre, 11/b – 37126 Verona – tel e fax (045) 8344785 – 338 6416432 – e-mail:
lcorso@iol.it – Stampa in proprio – Numero 197 – Pubblicato il 01 – 02 – 2015
f: X Y
è continua GY TY , f 1 GY G X TX (1.1)
}; mentre con g –1, a partire da {y, z, w} si arriva a {c, d}; questo in-
sieme, però, non appartiene a TX (non è un aperto nella topologia
TX). Perciò g non è continua in {{X, TX}, {Y, TY}, g}. Insomma, la
Sulla base di questa definizione, la continuità di una funzione è sem-
continuità di una funzione non dipende solo dalla funzione (non è
pre relativa a TX e TY. Perciò essa dipende da una terna di oggetti
cioè solo una proprietà della funzione), ma da una terna di enti ma-
matematici: {{X, TX}, {Y, TY}, f } ed è una proprietà globale del si-
tematici: lo spazio topologico del dominio, quello del codominio e
stema (la terna).
la funzione. Per quanto qui detto, se dovessimo cambiare la topolo-
Verifichiamo il significato di quanto espresso dalla definizione pri-
gia TX, potrebbe succedere che la stessa funzione f non sia più conti-
ma su uno spazio topologico con insiemi generatori X e Y costituiti
nua. A riprova di ciò, si consideri una diversa topologia di TY. Sia
da pochi punti (insiemi discreti e finiti) e poi su {R, TR}, cioè su R e
essa
la sua topologia usuale. Notiamo che
1) X e Y possono essere insiemi di natura qualsiasi e possono essere TY* = {, {x}, {z}, {x, z}, {x, z, w}, Y}.
In tal caso f –1({x, z}) = {b, c} che non è un aperto di TX. Perciò in
composti dagli stessi elementi; in tal caso X = Y. Anche TX e TY pos-
questa nuova topologia f non è più continua.
sono essere uguali.
2) La continuità di f va valutata sempre con riferimento alle due to-
2. Sulla continuità di una funzione in un punto
pologie (peraltro arbitrarie), TX e TY, prese in considerazione.
3) R ha una sua topologia, TR, che deve sempre essere presa in Ora valutiamo quando una funzione è continua in un punto x0.
considerazione, anche se spesso viene sottointesa. Una base per la Per quanto detto, non ha senso valutare la continuità di una funzione
topologia usuale TR è formata dagli intervalli aperti (, ), con < in un punto in cui essa non è definita. Perciò, in x0 la funzione deve
. In altre parole, ogni insieme aperto G TR è unione di intervalli esistere: altrimenti non è né continua, né discontinua; semplicemen-
te non c’è, non è definita.
aperti [B.4].
Occorre ora partire considerando, per analogia ristretta, quanto fin
Prendendo lo spunto da [B.3], sia {X, TX} uno spazio topologico
qui detto. Dalla (1.1) si può dedurre che per ogni y = f(x) Y, f è
in cui X = {a, b, c, d} e TX = {, {a}, {a, b}, {a, b, c}, X}; sia, inol-
continua se ogni aperto GY TY tale che y GY ha come controim-
tre, {Y, TY} un secondo spazio topologico in cui Y = {x, y, z, w} e TY
magine f- –1( GY) aperti di TX che abbiano x X come elemento. Allo-
= {, {x}, {y}, {x, y}, {y, z, w}, Y}. Poiché | X | = 4 e | Y | = 4, il nu- ra si può dire che una funzione f : X Y è continua in x0 X sse
mero di funzioni possibili da un 4-insieme a un 4-insieme è 44 = per ogni aperto GY di TY, tale che f(x0) GY, la sua controimmagine,
256. Di queste, consideriamo le due funzioni da X a Y: f e g (Grafico f –1(GY), in X genera aperti GX TX che abbiano x0 come elemento. In
1). simboli:
( f : X Y è continua in x0 )
( GY TY , f(x0) GY, f –1(GY) = GX TX, x0 GX) (2.1)
La funzione è discontinua in x0 sse esiste un aperto GY a cui f(x0)
appartiene la cui controimmagine f –1(GY), non è un aperto GX di TX
che abbia x0 come elemento.
Osserviamo che la (2.1) corrisponde esattamente alla definizione
classica, del tipo -, di continuità di una funzione in un punto x0 co-
sì come è riportata in (B.1) e altri autori; ma in questo nostro caso
essa risulta più generale. Infatti, implicitamente, in (B.1) si dà per
Grafico 1: le funzioni f e g da X a Y. scontato che x0 sia un punto di accumulazione.
Con riferimento al nostro esempio verifichiamo se x0 = c è un
punto di continuità per f e per g, negli spazi topologici TX e TY presi
in considerazione.
Per f, f(c) = w. L’elemento w, in TY, ammette solo due aperti che lo
contengono: {y, z, w} e Y. Peraltro, all’aperto {y, z, w} di TY corri-
sponde in TX l’unico aperto X che contiene c (inoltre f –1(Y) = X).
Perciò la funzione f è continua in x0 = c. Così si può dimostrare la
continuità di f in ogni altro punto di X. Se una funzione ha come
proprietà globale la continuità, allora essa vale anche come proprietà
puntuale. D’altra parte, se prendiamo la funzione g, c ha la sua im-
magine g(c) = z che appartiene all’aperto {y, z, w} e a Y di TY. Gli
insiemi corrispondenti in TX di questi due aperti sono {c, d} e X.
Grafico 3. La funzione (2.3) realizzata con Mathematica 5.1 e con BitMap
Quest’ultimo è un aperto cui appartiene c, ma {c, d} non è un insie-
me aperto appartenente a TX. Perciò in c la funzione g, secondo la
Analizziamo ora la funzione (2.4). La funzione è definita su tut-
terna {{X, TX}, {Y, TY}, g}, non è continua.
to R\{0}.
Quanto fin qui esposto è un metodo generale di studio della con-
tinuità di una funzione. Abbiamo preso insiemi discreti e finiti, cioè
sconnessi e irti di ostacoli, proprio per verificare la proprietà di con-
tinuità su funzioni con domini e codomini strani, certamente non u-
suali negli studi di analisi. Ora, sulla base di quanto qui espresso, sin x
verifichiamo l’utilità di questi metodi nel valutare la continuità delle g:x (2.4)
x
funzioni e delle funzioni in un punto quando lo spazio topologico è
R dotato dell’usuale topologia. Per ciò che abbiamo detto finora, la
terna che dobbiamo prendere in considerazione in questo caso è
{{XR, TR}, {YR, TR}, f }, dove f è una funzione generica, e analizzia-
mo la continuità (o la discontinuità) di f nella terna considerata, an- Grafico 4. Realizzato con Mathematica 5.1
che rispetto a un suo punto x0.
Cominciamo ad analizzare la funzione (2.2). Poiché in x = 0 la funzione non è definita, non ha senso valutare la
La funzione è definita su R\{0} e assume solo due valori: –1, +1. La continuità (o la discontinuità) in quel punto. Il codominio di g è an-
funzione per x0 = 0 non è definita e quindi non ha senso parlare di cora R esteso, anche se in realtà essa dà valori in un intervallo
continuità (o discontinuità) della funzione in questo punto. Per ogni limitato. Consideriamo la topologia usuale di R e verifichiamo se,
altro valore di R essa è definita. Perciò, in condizioni prive di vinco- data la terna {{XR, TXR}, {YR, TYR}, g}, la nostra g è continua. Per
li particolari, f ha dominio: XR = R\{0}. Scegliamo ora la topologia ogni x XR, g(x) = y YR, in TYR esiste una famiglia di aperti GY la
di XR, TXR che conviene che sia la topologia usuale di R\{0}. Essa è cui controimmagine g–1(GY) = GX TXR contiene x. Perciò g è conti-
la topologia indotta data dalla classe di tutte le intersezioni di R\{0} nua su tutto XR. La variante a (2.4), che per x = 0 pone g(x) = 3, per
con sottoinsiemi aperti di R. Consideriamo, poi, il codominio di f, analogia di metodo, non è continua; il punto di discontinuità è pro-
YR. Ci conviene scegliere tutto R e la sua topologia usuale TYR. No- prio x = 0 (punto in cui la funzione è definita ed è uguale a 3). Se
tiamo che f manda da R\{0} a {–1, +1}. Ora abbiamo la terna {{XR, consideriamo, invece, la variante di (2.4) dove s’impone che per x =
TXR}, {YR, TYR}, f } che ci permette di verificare se f è continua. Ap- 0 la funzione sin(x) / x = 1, allora la funzione è continua in quel pun-
plichiamo la regola. Prendiamo un generico punto x di XR. La sua to. Infatti, per ogni aperto GY del codominio tale che g(x) = 1 GY,
immagine è f(x) e può essere solo o –1 o +1. In ogni caso, la contro- corrisponde, come controimmagine, un aperto GX del dominio cui x
immagine di ogni aperto GY, cui y = f(x) appartiene, è un aperto di = 0 appartiene.
TXR. Per esempio, se x = π, f(x) = +1. Nella topologia usuale di R, o- Riassumendo, sulla base di questo nostro punto di vista, definita
gni aperto cui f(x) = +1 appartiene, ha controimmagine R+\{0} op- la terna {{X,TX}, {Y,TY}, f }, f può essere solo o continua o discon-
pure R\{0}, entrambi aperti di TXR che contengono . Perciò la fun- tinua. Se prendiamo un’estensione X* del dominio di una funzione,
zione f è continua in ogni suo punto. con X X*, in quei punti di X* in cui f non è definita, essa è sempli-
cemente non definita e si esclude così la possibilità di valutare sia la
continuità sia la discontinuità della funzione in quei punti.
Per completare il quadro dei diversi punti di vista sulla continuità si
considerino anche le tesi degli autori riportati nei riferimenti biblio-
grafici [B.3], [B.4], [B.5], [B.6], [B.7], [B.8], [B.9], [B.10], [B.11],
x
f :x (2.2) [B.12], [B.13], [B.14], [B.15].
x
Riferimenti bibliografici: [B.1] Robert A. Adams e Christopher Essex, Cal-
colo differenziale 1, Casa editrice Ambrosiana. [B.2] Tom Apostol, Analisi
matematica, Calcolo vol. 1, Boringhieri. [B.3] Lipschutz Seymour, Teoria e
problemi di TOPOLOGIA, collana SCHAUM, ETAS – Fabbri – Bompiani,
Sonzogno, 1979. [B.4] Zamansky Marc, Itroduzione all’algebra e all’analisi
moderna, Feltrinelli ed., Milano, 1976. [B.5] Rudin Walter, Principi di ana-
Grafico 2. Realizzato con Mathematica 5.1 e con Bitmap lisi matematica, McGraw-Hill, Milano, 1991. [B.6] Barozzi G. C., Matarasso
S., Analisi Matematica 1, Zanichelli, Bologna, 1990. [B.7] De Fabritiis C.,
Il grafico 2 fa notare che le fasce d’intervalli aperti GY di TYR gene- Petronio C., Esercizi svolti e complementi di topologia e geometria, Bollati
rano, con f –1, in TXR o il o R+\{0} o R–\{0} o R\{0} e ciò confer- Boringhieri, Torino, 1997. [B.8] Smirnov V. I., Corso di matematica superio-
ma quanto sopra detto. La funzione (2.2) è continua. re I, Editori Riuniti, Mosca-Roma, 1976. [B.9] Keisler H. J., Elementi di ana-
La funzione (2.3) (Grafico 3) è la funzione segno e differisce da lisi matematica, Piccin Editore, Padova, 1982. [B.10] Giusti E., Analisi Ma-
(2.2) per essere definita su tutto R. tematica 1, Bollati-Boringhieri ed., Torino, 1983. [B.11] Prodi G., Analisi
Matematica, Bollati-Boringhieri, Torino, 1982. [B.12] Canuto C., Tabacco
x / | x |
sign x
x x R \ 0 (2.3)
A., Analisi Matematica I, Springer, Milano, 2008. [B.13] James R. C., The
Mathematics Dictionary (Fifth Edition). [B.14] Murray Spiegel, Analisi Ma-
0 x0 tematica, Schaum – Etas Libri, Milano, 1990. [B.15] Corso L., Laforgia A.,
A proposito della definizione di funzione continua e di proprietà lineare del-
In questo caso, la funzione presenta un punto di discontinuità. Infat- l’integrale, Periodico di Matematiche n. 3 Set-Dic 2014 Vol. 6 Serie XI An-
ti, applicando la (2.1) si osserva che la controimmagine di alcuni no CXXIV, edizioni Mathesis. [B.16] MATHEMATICA 5.1, S. Wolfram
Research Inc., University of Cambridge, 2010
aperti, cui f (x = 0) appartiene, è {x = 0} che, essendo complementare
di R\{0} in R, è un chiuso e quindi non appartiene a TXR. [1] Consigliere nazionale Mathesis, di Verona, e-mail: lcorso@iol.it
Quaternioni e Rotazioni nello Spazio
§1. Quaternioni.
Definizione 1. Lo spazio dei quaternioni è lo spazio vettoriale reale H avente come base
B = i, j, k, 1 ,
dotato del prodotto “ · ” definito dalle regole che seguono:
i) “ · ” è bilineare;
ii) 1· q = q , ∀ q ∈ H;
iii) i2 = j2 = k2 = − 1 ;
iv) i · j = k = − j · i , i · k = − j = − k · i , j · k = i = −k· j .
αi + βj + γk + δ1, α, β, γ, δ ∈ R ,
Si ha che
i) il prodotto di quaternioni è associativo (per esercizio).
ii) il prodotto di quaternioni non è commutativo. Infatti, ad esempio, i · j = − j · i .
Notazione 3. I numeri reali vengono visti (anche) come quaternioni tramite l’inclusione
naturale
R −−−−→ H , λ 7→ λ 1
Per abuso di notazione, scriveremo λ invece di λ 1 .
Im q := α i + β j + γ k , Re q := δ .
q∗ := −α i − β j − γ k + δ = Re q − Im q (coniugato di q );
q∗
q −1 := (se q 6= 0) (inverso di q ).
||q || 2
I quaternioni aventi norma 1 vengono detti unitari.
1 Un quaternione reale è un numero reale visto come quaternione tramite l’inclusione R ֒→ H (cfr. Notazione 3).
3
Dimostrazione # 1. In un certo senso non c’è nulla da dimostrare, come direbbero gli
americani la questione è straightforward: si scrivono
q = α i + β j+ γ k + δ e p = a i + b j + c k + d,
quindi si calcolano le espressioni indicate nelle varie uguaglianze.
Dimostrazione # 2. La (i) segue dal fatto che “ le costanti si possono portare fuori”:
ϕλ q (p) = (λq) · p · (λq)−1 = λλ−1 q · p · q −1 = q · p · q −1 = ϕq (p) .
Il fatto che ϕq conserva la norma segue dal fatto che la norma di un prodotto è uguale al
prodotto delle norme (cfr. Lemma 10), infatti:
|| ϕq (p) || = || q · p · q −1 || = ||q || · ||p|| · ||q −1 || = ||q || · ||p|| · ||q || −1 = ||p||
(il prodotto di norme, in quanto prodotto di numeri reali, commuta).
Proviamo che ϕq conserva la parte reale. Poiché q ha norma 1, si ha q −1 = q ∗ . D’altro
canto, dato un qualsiasi quaternione x si ha
(♠) Re x = 12 x + x∗ .
Abbiamo
∗
Re ϕq (p) = Re q · p · q ∗ = 21 q · p · q ∗ + q · p · q ∗ =
1 ∗
2 q·p·q +q
∗∗
· p∗ · q ∗ = q · 21 p + p∗ · q ∗ = q · Re p · q ∗ = Re (p)
Le prime due uguaglianze e la quinta seguono dalle definizioni e da (♠). Terza e quarta
uguaglianza seguono dal Lemma 10. Quanto alla sesta e ultima uguaglianza, si ha che Re p
commuta con q (in quanto reale), d’altro canto q · q ∗ = 1 .
Poiché ϕq conserva sia la norma che la parte reale, per la prima uguaglianza del Lemma 10
deve conservare anche la norma della parte immaginaria.
La proprietà (iii) segue dalla (ii), infatti Re ϕq ( v) = Re ( v) = 0 .
5
§2. Rotazioni in R3 .
Si vuole determinare la formula che esprime la rotazione di angolo θ intorno ad una retta
orientata passante per l’origine.
Rn, θ : R3 −−−−→ R3
la rotazione di angolo θ intorno alla retta orientata, passante per l’origine, avente versore
direttore n . Allora
Rn, θ (~v ) = (1 − cosθ) ~v// + cosθ · ~v + senθ · n ∧ ~v
è, per definizione, la matrice di rotazione di angolo θ relativa ad una base ortonormale positivamente
orientata il cui primo vettore è l’asse di rotazione orientato.
(la definizione data ha senso solo se ||~v⊥ || = v⊥ 6= ~0 , volendo scrivere dei conti che
6 0 , equivalentemente ~
siano formalmente corretti per ogni scelta di ~v stabiliamo la seguente convenzione :
se ~v⊥ = ~0 , definiamo ~b2 := “ un qualsiasi versore ortogonale ad n ”,
naturalmente anche in questo caso definiamo ~b3 := ~b1 ∧ ~b2 ).
Inoltre poniamo
B = {~b1 , ~b2 , ~b3 }
(5) Rn, θ (~v// ) = ~v// , Rn, θ (~v⊥ ) = cosθ · ~v⊥ + senθ · n ∧ ~v⊥
La prima uguaglianza è immediata : il vettore ~v// non viene spostato affatto in quanto si
trova sull’asse di rotazione.
Verifichiamo la seconda uguaglianza : assumendo ~v⊥ 6= ~0 (se è n ∧ ~v⊥
nullo l’uguaglianza in esame è banale) i due vettori
~v⊥ = ||~v⊥ || ~b2 e n ∧ ~v⊥ = ||~v⊥ || ~b3 R(~v⊥ )
hanno la stessa norma di ~v⊥ e costituiscono una base ortogonale
del piano ortogonale ad n , la rotazione su questo piano (orien- θ
tato da questa coppia di vettori) avviene in senso antiorario, ~v⊥
questo perché {~b2 , ~b3 , ~b1 } è orientata come B , cioè positiva-
mente, da tutto ciò segue la seconda uguaglianza (cfr. figura).
D’altro canto Rn, θ è lineare ed inoltre n ∧ ~v⊥ = n ∧ ~v (questo perché n ∧ ~v// = ~0 ). Di
conseguenza:
Rn, θ (~v ) = ~v// + cosθ · ~v⊥ + senθ · n ∧ ~v⊥
Abbiamo visto che la rotazione dello spazio Euclideo R3 di angolo θ intorno alla retta
orientata, passante per l’origine, avente versore direttore n è data dalla formula
= R n, 2 θ (v)
cfr. (1)
R t
π
n = (1 , 0 , 0) , θ = 3
π t
di angolo θ = 3 intorno al versore n = (1 , 0 , 0) . A tal fine consideriamo il quaternione
√
π π 1 3
q = sen 6 · n + cos 6 = 2 i+ 2
R t
n = ( 13 , 2
3 , 2
3 ), θ= π
3
π t 1 2 2
di angolo θ = 3 intorno al versore n = 3 , 3 , 3 . A tal fine consideriamo il
quaternione
√
π π 1 1 1 3
q = sen 6 · n + cos 6 = 6 i+ 3 j+ 3 k+ 2
q · j · q∗ = ...
∗
q· k·q = ...
5/9 ... ...
Di conseguenza la matrice cercata è la matrice (1+3√3)/9 ... ... .
√
(1−3 3)/9 ... ...
Nota 4.3. Naturalmente gli stessi conti consentono di scrivere la matrice rappresentativa
di una rotazione generica R n, θ (cfr. [6], 15.4.2, p. 312).
10
Ulteriori considerazioni.
ϕq : R3 ≡ ImH −−−−→ R3 ≡ Im H
v 7→ q· v·q ∗ = R 2θ ( v)
ϕq (p) = ϕq ( v + λ) = ϕq ( v) + ϕq (λ) = ϕq ( v) + λ
(5)
= q· v·q ∗ + λ
D’altro canto
la somma v+λ ∈ H vista in R3 × R è l’elemento (v, λ)
e, naturalmente,
la somma q· v·q ∗ + λ ∈ H vista in R3 × R è l’elemento (q vq ∗ , λ) ,
di conseguenza possiamo riformulare il Teorema 3 nella forma seguente:
ϕq : H −−−−→ H
p 7→ ϕq (p) := q p q ∗
coincide con la funzione
ϕq : R3 × R −−−−→ R3 × R
(♠)
( v , λ) 7→ (R2θ ( v) , λ)
[p] 7→ [ ϕq (p) ]
2 N.b.: la nostra carta A in quanto identificata con R3 , ha una naturale struttura di spazio Euclideo.
11
Chi ha svolto gli esercizi (4.1) e (4.2), o trattato il caso generale (cfr. nota 4.3), avrà
notato che i conti sono abbastanza pesanti. Fortunatamente questi conti possono essere
scritti in termini di prodotti di matrici. Vediamo come. Tornando alla nostra convenzione,
l’identificazione di H con R3 × R , o meglio con R4 , è l’identificazione data dal sistema di
coordinate associato alla base canonica B = { i, j, k, 1 } dello spazio dei quaternioni:
Coord : H −−−−→ R4
p 7→ Coord (p)
∗
D’altro canto la funzione che a p associa q · p · q è lineare e, in quanto tale, nel sistema
di coordinate associato alla base canonica B è rappresentata da una matrice. Conviene
scomporre la coniugazione per q come composizione di due applicazioni (anch’esse lineari),
la moltiplicazione a sinistra per q e la moltiplicazione a destra per q ∗ . Se
Coord (q) = t (a, b, c, d) e Coord (p) = t (x, y, z, w)
cioè q = a i + b j + c k + d e p = x i + y j + z k + w , si ha
Esercizio 7. Scriviamo p~ al posto di Coord (p) e ~q al posto di Coord (q) per comodità
notazione. Verificare che risulta
Osserviamo che a prescindere dal calcolo esplicito, il fatto che le matrici Lq e Rq∗ commu-
tano segue dalla proprietà associativa del prodotto di quaternioni, infatti:
Lq Rq∗ p~ = Coord q · (p · q ∗ ) = Coord (q · p) · q ∗ = Rq∗ Lq p~
(uguaglianza che dovendo valere per ogni scelta di p implica quanto affermato).
SPAZI METRICI
Uno spazio metrico X con metrica d si indica con il simbolo (X, d).
Esercizio. Verificare che:
|d(x, y) − d(y, z)| ≤ d(x, z)
METRICI – 1
Esempi. Rn con la distanza euclidea:
d2(x, y) = |y − x| =
v
u n
uX
= t (yk − xk )2,
k=1
ove x = (x1, . . . , xn) e y = (y1, . . . , yn).
È difficile verificare la disuguaglianza triangolare.
R2 con la metrica del reticolato (o di Manhattan):
d1(x, y) = |x1 − y1| + |x2 − y2|, ove x = (x1, x2) e y = (y1, y2).
y
s
|x2 − y2 |
s
x (y1 , x2 )
|x1 − y1 |
d(u, v) = arccos(u · v)
Si tratta della lunghezza del minore fra i due archi di cerchio massimo di
estremi u e v.
METRICI – 2
R2 con la distanza delle valli.
Se x = (x1, x2) e y = (y1, y2):
½
|y2 − x2| se x1 = y1
d(x, y) =
|x2| + |x1 − y1| + |y2| se x1 6= y1
6 6
xs
y x2
y2 s
y
y2 s
- -
x1 x1 y1
x2 s
x
METRICI – 3
Metrica discreta su un insieme E.
Si fissa una costante α > 0 e si definisce per x 6= y:
d(x, y) = un qualsiasi numero ≥ α in modo che valga (D3)
Ad esempio: d(x, y) = α ∀ x 6= y.
METRICI – 4
Esercizio. Disegnare le palle in R2 con le metriche d2, d1 e d∞.
metrica d1 ¡@ metrica d∞
¡ @ r
¡ @
B(a, r] ¡ p @ p B(a, r]
@ a ¡ a
@ ¡
@ ¡
@¡
METRICI – 5
Spazi di funzioni.
METRICI – 6
Consideriamo lo spazio X = C([a, b], K) delle funzioni continue su [a, b] con
valori in K.
Si ha X ⊆ B([a, b], K) per il teorema di Weierstrass.
Quindi X può essere munito della metrica d∞.
Esercizio. Siano f e g in C([0, 4], R) cosı̀ definite:
f (x) = x log x se x > 0, f(0)=0, g(x) = x
Calcolare d∞(f, g).
Un’altra distanza su X = C([a, b], K) è quella della media di ordine 1:
Z
d1(f, g) = kg − f k1 = |g(t) − f (t)| dt
[a,b]
METRICI – 7
Spazi vettoriali normati
METRICI – 8
Definizione 5 Se (X, k · k) è uno spazio vettoriale normato, si chiama
palla unitaria (chiusa) la palla chiusa di centro il vettore nullo e di
raggio 1:
BX = B(0, 1] = {x ∈ X : kxk ≤ 1}
La sfera unitaria è l’insieme dei versori:
SX = {x ∈ X : kxk = 1}
Esercizio. Siano (X, k · k) uno spazio vettoriale normato, a ∈ X e r > 0.
Dimostrare che B(a, r] = a + rBX .
Le distanze dp, con p ≥ 1, e d∞ definite precedentemente su R2 (oppure su
Rn o su Cn), sono indotte dalle seguenti norme:
à n ! p1
X
kxkp = |xk |p , ∀x ∈ Kn
k=1
kxk∞ = max{|xk | : k = 1, . . . , n}, ∀x ∈ Kn
La verifica della subadditività per k · kp per p > 1 è difficile. Comunque per
p = 2, se
Xn
(x|y) = xk yk è l’usuale prodotto scalare di Kn,
k=1
1
allora kxk2 = (x|x) 2 è una norma indotta da un prodotto scalare e quindi
soddisfa (N3) (ricordare le disuguaglianze di Schwarz e di Minkowski).
Su B(T, K) = l∞(T, K) la distanza d∞ è indotta dalla norma:
kf k∞ = sup{|f (t)| : t ∈ T }
Sottospazi vettoriali interessanti di B([a, b], K) sono:
C([a, b], K), C 1([a, b], K)
Su di essi si può ancora considerare la norma k · k∞.
Su X = C([a, b], K) la metrica della media di ordine p è indotta dalla norma:
Z
1
kf kp = ( |f |p) p
[a,b]
METRICI – 9
Esercizio. Sia l1 = l1(N, K) l’insieme delle successioni a valori in K che
formano serie assolutamente convergenti; cioè una successione x : N → K sta
in l1 se e solo se:
+∞
X
kxk1 = |xk | < +∞.
k=0
Dimostrare che l1 è spazio vettoriale e che k · k1 è una norma su di esso.
METRICI – 10
Definizione 8 Siano (X, d) e (Y, ρ) spazi metrici.
Una funzione f : X → Y si dice lipschitziana se esiste una costante
l ≥ 0 tale che:
ρ(f (x), f (y)) ≤ l · d(x, y), ∀ x, y ∈ X
l è detta costante di Lipschitz.
Proposizione 10 Si ha:
|d(x, A) − d(y, A)| ≤ d(x, y)
METRICI – 11
Definizione 11 Il diametro di un sottoinsieme A 6= ∅ di uno spazio
metrico (X, d) è:
diam A = sup{d(x, y) : x, y ∈ A}, dove il sup può essere anche +∞
Si pone diam ∅ = 0.
Un sottoinsieme si dice limitato se ha diametro finito (cioè ∈ R).
Esercizi.
• Il diametro di una palla di raggio r > 0 è ≤ 2r.
Dare un esempio in cui il diametro è strettamente < 2r.
Dimostrare che in uno spazio vettoriale normato tale diametro è esatta-
mente 2r.
• Un sottoinsieme è limitato ⇐⇒ è contenuto in una palla.
• Un’unione finita di sottoinsiemi limitati è un sottoinsieme limitato.
• Sia A = [a, b] × [c, d] ⊂ R2.
Trovare il diametro di A in d2, d1, d∞.
Sia E = {x ∈ R2 : |x| = kxk2 = r}.
Chi è il diametro di E in d∞? E in d1?
METRICI – 12
Esercizio. Se p ∈ B(a, r[ e s ≤ r − d(p, a), allora B(p, s[⊆ B(a, r[.
Se q 6∈ B(a, r] e t ≤ d(q, a) − r, allora B(q, t[∩B(a, r] = ∅.
Prima conseguenza: ogni palla chiusa è un insieme chiuso.
pppppppppp
pp ppppp ppp p p p p p p p ppp p p p p p p p p p p p p p p p p p p p p
ppp p
p p p p p pppp pppppp pp p p p p p p p p p p p p pp
pp p p ppp p p p p p pp p p p p pp p ppp
pp p p p p p p p p pp p p p p q pp
pp p ppp p qXq ppp p p p pppp pp p pppp pp ©q q ppp P
p p¶ p p pp ppp p ppp © pp
p p p pp pp
ppp ¶ pp pp
pp pp p ©©ppppp p p p p
pp ¶ © © pppp
pp p
pp
a¶q pp pppp a q ©
© ppp
pp
pp pp p
ppp
p pp
ppp p
pp
pp pp
p ppp
ppp p ppp
pp p p p pp pp
pp p p pp p p p p pp
pp pp pp p p p p
p p ppp
p p p
pp
ppp p pp p pp p p p p p
pppp p p p p p p p p p p p p p p p pp
ppp pp p p p p p p p p pp p p p p p p p p p p p p p p p p p p p p p p
pppppppppppppppp
Meditazione:
un insieme è aperto se e solo se è intorno di ogni suo punto
METRICI – 14
La famiglia Ip di tutti gli intorni di p si chiama filtro degli intorni di p.
Proprietà di Ip:
(I1) ∀ U ∈ Ip si ha p ∈ U ;
(I2) se U ∈ Ip e U ⊆ V ⊆ X, allora V ∈ Ip;
(I3) se U, V ∈ Ip, allora U ∩ V ∈ Ip;
(I4) se U ∈ Ip allora esiste A ⊆ U con p ∈ A e tale che A ∈ Ix per ogni
x ∈ A.
METRICI – 15
Sia A ⊆ X. Si dice chiusura di A in X, e si indica con A o con clX (A), il
seguente insieme:
\
A = {C : C ⊇ A, C chiuso in X}
È il più piccolo chiuso che contiene A.
Proprietà:
(Cl1) ∀ A ⊆ X si ha A ⊆ A;
(Cl2) se A, B ⊆ X allora A ∪ B = A ∪ B;
(Cl3) per ogni A ⊆ X si ha (A) = A.
Esercizio. Dopo aver osservato che in R ogni intervallo aperto non vuoto
contiene numeri razionali,
dedurre che Q = R.
È vero che R \ Q = R ?
Esercizio. Dimostrare che A ∩ B ⊆ A ∩ B,
e che l’inclusione può essere stretta.
Proposizione 18 Siano p ∈ X e A ⊆ X. Allora:
p ∈ A se e solo se per ogni intorno U di p si ha U ∩ A 6= ∅.
Importante Siano d la metrica che induce la topologia di X e A ⊆ X,
A 6= ∅. Allora:
A = {x ∈ X : d(x, A) = 0}
◦
Si dice interno di A, indicato con A oppure intX (A):
◦ [
A= {U : U ⊆ A, U aperto in X}
È il massimo sottoinsieme aperto contenuto in A.
◦
Se p ∈A, allora p si dice interno ad A.
Fatto: X \ A = int(X \ A).
Un punto p si dice di frontiera per A se p non è interno né ad A né a X \ A,
cioè se ogni intorno di p contiene punti di A e punti di X \ A.
Si chiama frontiera di A e si indica con frX (A) o ∂A l’insieme dei punti di
frontiera per A.
METRICI – 16
Fatti:
• fr(A) = A ∩ X \ A = fr(X \ A).
• A = A ∪ fr A.
• p ∈ fr A ⇐⇒ ∀ U ∈ Ip si ha U ∩ A 6= ∅ e U ∩ (X \ A) 6= ∅.
• fr A è un insieme chiuso.
• Un insieme è chiuso se e solo se contiene la propria frontiera.
Fatti:
• L’insieme dei punti di accumulazione per A si chiama derivato di A e
si indica con A0. Si ha:
A = A ∪ A0
• Il punto p è di accumulazione per A se e solo se ogni intorno di p contiene
infiniti punti di A.
Esercizio. Trovare la chiusura, l’interno, la frontiera, il derivato e l’insieme
dei punti isolati dei seguenti insiemi:
A⊆R A = Q∩]0, 1[∪{2}
A⊆R A =] − ∞, 0[∪{1}
A ⊆ R2 A = Q2 ∩ ([0, 1] × [0, 1])
A⊆R A = {m + n1 : m ∈ Z, n ≥ 1, n ∈ N}
A⊆R×R A = Q × Q con la topologia della metrica del riccio
METRICI – 17
Definizione 20 Un sottoinsieme D ⊆ X si dice denso in X se una
delle seguenti condizioni equivalenti è soddisfatta:
1) D = X.
2) Ogni aperto non vuoto contiene punti di D.
Ad esempio, Q e R \ Q sono entrambi densi in R.
Esercizio. L’intersezione di due aperti densi è aperto e denso.
Definizione 21 Sia (xj )j∈N una successione di punti di X e sia p ∈ X.
Si dice che lim xj = p se per ogni intorno U di p esiste j̄ ∈ N tale che
xj ∈ U per ogni j ≥ j̄
cioè se la successione (xj )j∈N sta definitivamente in ogni intorno di p.
Osservazione. In B(X, R) con la norma della convergenza uniforme si con-
sideri una successione (fj )j∈N di funzioni.
Se lim fj = f ∈ B(X, R), allora per ogni x ∈ X si ha lim fj (x) = f (x) ∈ R.
Il viceversa non è vero.
6 6
1 1 p
ppp
¢A ppp ppp ¤C
¢ A pp pp ¤ C
¢ A ppp ppp¤ C
A f0 pp pp
¢ pp ¤ ppp C f1
p
¢ A p p
pp ¤ pp C
¢ A ppp ¤ ppp C
p p
¢ A
ppp ¤ ppp C
¢ A p
pp ¤ pp C
pp
0 ¢ A 1 0 p¤p p C 1
1 1
2 4
Morale:
la convergenza uniforme implica la convergenza puntuale, ma non viceversa.
Teorema 22 Sia (X, τ ) spazio metrizzabile e siano p ∈ X e A ⊆ X.
Allora:
• p ∈ A ⇐⇒ esiste una successione (xj )j∈N con xj ∈ A ∀ j tale che
lim xj = p.
• p ∈ A0 ⇐⇒ esiste una successione (xj )j∈N con xj ∈ A \ {p} ∀ j
tale che lim xj = p.
In questo caso la successione si può prendere iniettiva.
METRICI – 18
ESEMPI ed ESERCIZI
Le notazioni utilizzate sono quelle delle note.
1 Rivestimenti.
Esercizio 1. Provare le proprieta della nota (§1, 14.1) ̺: Xe −→ X un rivestimento, U ⊆ X :
i) se U è un aperto ben rivestito, allora ogni U e;
ei è aperto in X
ii) ̺ è un omeomorfismo locale, i.e.
∀x e, ∃U
e∈X e (intorno di x e → ̺(U
e) tale che ̺|Ue : U e ) è un omeomorfismo;
e −→ X è aperta, i.e. manda aperti in aperti;
iii) ̺ : X
e;
iv) ogni fibra ̺−1 (x) è un sottospazio discreto di X
v) la cardinalità di ̺−1 (x) è localmente costante.
Esercizio 7.2. Sia p(x) = xn + an−1 xn−1 + . . . + a1 x + a0 un polinomio complesso di grado n, sia
d
E := { x ∈ C dx p(x) = 0 } , D := p(E) .
Provare che la restrizione
p |Crp−1 (D) : C r p−1 (D) −−−→ C r D
Esercizio 10 ([Hat], esercizio 9, pag. 79). Sia Y uno spazio connesso per archi e l.c.a.. Provare che
se il gruppo π1 (Y ) è finito, allora ogni funzione f : Y −→ S 1 è omotopicamente equivalente ad una
funzione costante. Suggerimento. Si usi il Teorema 21.
2 CW-Complessi.
Esercizio 1. Sia X un` CW-complesso finito, X 0 ⊆ X 1 ⊆ X 2 ⊆ X 3 ... la sua deconposizione
n n−1 n n n 0
cellulare, X = X φ Dα (i Dα sono copie del disco D ), x0 ∈ X
α α
un punto.
Stabilire quali delle seguenti affermazioni sono vere e quali false, dimostrare quelle vere
(di seguito, #(...) denota il numero delle componenti connesse dello spazio indicato, eventualmente infinito).
i.e., passando dallo 0-scheletro allo 1-scheletro il numero delle compo-
(1.1) #(X 0 ) ≥ #(X 1 )
nenti connesse non può aumentare, nei passi successivi resta necessa-
(1.2) #(X 1 ) = #(X k ) , ∀ k ≥ 1 riamente costante.
(1.3) Le componenti connesse di X coincidono con le componenti connesse per archi ed esiste una iden-
tificazione naturale di tali componenti con X 0 / ∼ dove ∼ è la relazione d’equivalenza generata
da p ∼ q se ∃ Dα1 | φα ({−1, 1}) = {p, q};
(1.4) π1 (X 0 , x0 ) = 0 ;
(1.5) i⋆ : π1 (X 1 , x0 ) −→ π1 (X k , x0 ) è suriettiva per ogni k ≥ 1 ;
(1.6) i⋆ : π1 (X 2 , x0 ) −→ π1 (X k , x0 ) è un isomorfismo per ogni k ≥ 2 ;
(1.7) ogni cammino γ in X , con estremi nello 0-scheletro, è omotopo ad un cammino in X 1 che
percorre 1-celle (in numero finito) a velocità costante, precisamente:
1
2t − 1
∃ γ1 , ..., γn | γ ∼{0, 1} γ1 ∗ ... ∗ γn , γi : I −→ Dα , γi (t) = oppure
1 − 2t
copia del disco
D1 = [−1, 1]
(dove i vari Dα1 sono copie del disco D 1 = [−1, 1], naturalmente sono ammesse ripetizioni: i
1
codomini Dα(i) dei vari γi possono essere non-distinti);
(1.8) X è uno spazio di Hausdorff.
Nota: alcuni autori definiscono i CW-complessi come spazi topologici soddisfacenti certe proprietà, inserendo tra queste
la richiesta di essere di Hausdorff. Noi, seguendo [Hatcher], abbiamo dato una definizione “costruttiva”, nel nostro caso
la separazione di Hausdorff non è tra le ipotesi, è una conseguenza della costruzione, va dimostrata.
(∗)
Esercizio 2. Sia X un CW-complesso (non necessariamente finito). Stabilire quali delle seguenti
affermazioni sono vere e quali false, dimostrare quelle vere.
(2.0) per ogni cammino γ esiste un sottocomplesso finito Z di X tale che Im γ ⊆ Z ;
(2.1) , (2.2) , (2.3) , (2.4) , (2.5) , (2.6) , (2.7) , (2.8) come nell’esercizio 1.
dove S(...) denota il poligono con i lati identificati a coppie secondo l’etichettatura indicata tra le
parentesi. Per ognuna di esse, stabilire:
(3.1) di quale superficie si tratta calcolandone il gruppo fondamentale (o meglio il suo abelianizzato);
(3.2) di quale superficie si tratta utilizzando la tecnica del “cut & paste”.
3
Suggerimento (♣): per il calcolo del gruppo fondamentale si applichi il teorema di Seifert-Van Kampen
alla coppia di aperti
U = “2-cella aperta”, V = S r {o} , o ∈ U .
Esercizio 4. Sia, come al solito, S(...) il poligono con i lati identificati secondo l’etichettatura indicata
tra le parentesi.
(4.1) Si determini il gruppo fondamentale degli spazi topologici che seguono (n.b.: non sono superfici
topologiche):
S(aaa), S(aaaa), S(aaaaa), S(aaaaab), S(aaaaabbb);
(4.2) stabilire quale degli spazi che seguono è il cilindro e qual è il nastro di Möbius (con bordo):
S(abac), S(aba−1 c)
Inoltre, utilizzando il suggerimento (♣), ritrovare che entrambi hanno Z come gruppo fondamen-
tale.
4
3 Teorema di Hurewicz.
Esempio 1. Consideriamo il poligono in figura e la proiezione f sulla superficie C2 (somma connessa
di due tori), quest’ultina ottenuta identificando i lati dell’ottagono nella maniera indicata
τ e
̺ µ
d
τ
γ λ
f γ = C2
c
̺ µ
a b
λ
I cammini γ, λ, µ li vediamo in C2 via f , continuiamo a chiamarli usando gli stessi nomi. Nella
notazione fondamentale (Note §2, Notazione 13.1) abbiamo
(2) γ = [e, a]f , λ = [a, b]f = [d, c]f , µ = [b, c]f = [e, d]f
(ribadiamo che sono cammini in C2 ).
La classe di omotopia di γ non è nulla (cfr. nota 5 sotto), ciononostante risulta Υ(γ) = 0
dove Υ : π1 (X, x0 ) −→ H1 (X) denota il morfismo di Hurewicz .
= γ
cfr. (2)
Seguendo quello che ci dice la parte finale della dimostrazione del teorema di Hurewicz (cfr. Note §2,
Teorema 21), cioè scrivendo i cammini corrispondenti ai perimetri dei tre 2-simplessi indicati, otteniamo1
(4) 0 ∼omotopo λ ∗ µ ∗ α− ∗ α ∗ λ− ∗ β − ∗ β ∗ µ− ∗ γ ,
dove α = [a, c]f , β = [a, d]f (cfr. figura, ottagono, tratteggio leggero). In definitiva, scopriamo
quello che già sapevamo dal disegno:
(4′ ) il cammino ω := λ ∗ µ ∗ λ− ∗ µ − ∗ γ è omotopicamente banale.
Come diciamo subito dopo la (21.1, Note §2):
i) il cammino ω è omotopo al cammino costante x0 ;
ii) l’espressione a destra in (4′ ), a meno di un riordino dei termini, è omotopa al cammino γ .
Infatti, la i) segue dal fatto l’espressione a destra della (4), ovvero della (4′ ), “percorre dei perimetri”,
la ii) segue dal fatto che i vari termini che vi compaiono, se non si tiene conto dell’ordine, si devono
semplificare come nella (3).
(Naturalmente possiamo decidere in che ordine scrivere i triangoli, ad esempio scambiando gli ultimi
due troviamo il cammino ω ′ = λ ∗ µ ∗ α− ∗ β ∗ µ− ∗ γ ∗ α ∗ λ− ∗ β − , anche questo è omotopicamente
banale e, sempre a meno di un riordino dei termini, è omotopo al cammino γ ).
1
Ogni parentesi graffa è un’espressione ξλ (0)
∗ λi ∗ ξλ− (1) ∗ ξµ (0)
∗ µi ∗ ξµ− (1) ∗ ξν (0)
∗ νi ∗ ξν−(1) della (§2, 21.1) nelle
i i i i i i
Note. Nel nostro caso i vari ξ sono sempre il cammino costante x0 = [a, a]f = [b, b]f = [c, c]f = [d, d]f = [e, e]f ;
visto che sono superflui, anzi dannosi in quanto appesantiscono la notazione, non li abbiamo scritti.
5
Esercizio 1. Verificare che i morfismi indicati negli esempi (1.1), (1.2) e (1.3) sono effettivamente
morfismi di complessi di catene. Per ognuno degli esempi, provare le affermazioni indicate.
Esempio (1.1).
·2
A• := 0 −−−−→ Z −−−−→ Z −−−−→ 0
π
fy y y
C• := 0 −−−−→ 0 −−−−→ Z 2 −−−−→ 0
(grado 0)
Esempio (1.2).
0• := 0 −−→ 0
−−→ 0
−−→ 0
−−→ 0
y y y
·2
E• := 0 −−→ Z −−→ Z −−→ Z 2 −−→ 0
(grado 0)
Esempio (1.3).
·2
A• := 0 −−−−→ Z −−−−→ Z −−−−→ 0
η
y
Id
y
y
C• := 0 −−−−→ Z −−−−→ 0 −−−−→ 0
(grado 0)
Suggerimento: la domanda più difficile è l’ultima: ragionando per assurdo si dovrebbe avere
Id = η1 = J0 ◦ (·2) + 0 ◦ J1 = “pari”
(J denota l’eventuale omotopia di complessi di catene).
0 −−→ −−→
B −−→
C −−→
D 0
β γ
y y yδ
0 −−→ B′ −−→ C′ −−→ D ′ −−→ 0
(le righe sono esatte ed il diagramma commuta). Provare che
i) se γ è suriettiva e δ è iniettiva, allora β è suriettiva;
ii) se β è suriettiva e γ è iniettiva, allora δ è iniettiva.
7
Esercizio 3. Sia λ µ
A −−→ B −−→ C −−→ D −−→ E
una successione esatta di gruppi abeliani. Provare che c’è una successione esatta corta naturale
0 −−→ cokerλ −−→ C −−→ kerµ −−→ 0 .
Dedurre che λ è suriettiva e µ è iniettiva, allora risulta C = 0.
Proponiamo ora come esercizio guidato il caso particolare dove B• = 0 dell’esercizio delle Note (14.1, §A2).
Esercizio 4. Sia C• un complesso di catene libero aciclico (i.e. Hn (C• ) = 0, ∀ n). Si provi che
l’inclusione di complessi
0• −−−→ C• (0• denota il complesso nullo)
è un’equivalenza omotopica.
Innanzi tutto ricordiamo la notazione: dato un complesso, per ogni n ∈ Z, denotiamo con Zn il
sottogruppo degli n-cicli, i.e. Zn := ker∂n , e con Bn il sottogruppo degli n-bordi, i.e. Bn := Im∂n+1 .
(Essendo, nel nostro caso, C• aciclico si avrà Zn = Bn , ∀ n).
Suggerimento:
Passo 0. Stabilire che il nostro problema è equivalente al problema di trovare un’omotopia
IdC• ∼ 0 : C• −−−→ C• .
Passo 1. Si provi che esiste un’inversa destra dell’operatore di bordo, i.e. una funzione
sn−1 ∂n
sn−1 : Zn−1 −→ Cn la composizione Zn−1 −−−→ Cn −−− → Zn−1 è l’identità
(a tal fine, si utilizzi il fatto che ogni sottogruppo di un gruppo abeliano libero è anch’esso un gruppo
abeliano libero).
Esercizio 2. Per ciascuno degli spazi che seguono, si calcolino i gruppi di omologia utilizzando
• la successione di Mayer-Vietoris; • la successione esatta della coppia; • l’omologia cellulare.
i) S 1 ∨ S 3 (wedge sum); ii) S 2 ∨ S 2 ;
iii) T2 = R2 /Z2 ; iv) K = “bottiglia di Klein” v) Cg (superficie compatta di genere g).
vi) T3 = R3 /Z3 .
(Va da sé che tecniche e strumenti differenti devono condurre al medesimo risultato!)
Esercizio 6 “poligoni modulo identificazioni”. Calcolare i gruppi di omologia dello spazio S(λn )
(spazio ottenuto da un poligono di n-lati, identificandone i lati di secondo la parola λn )
i) usando l’omologia cellulare (avendolo realizzato come CW-complesso con una sola 2-cella);
ii) usando i teoremi di Seifert-Van Kampen e Hurewicz (per l’H1 );
iii) usando una (opportuna) struttura di ∆-complesso.
2 Se X è l’insieme vuoto, la sua omologia ridotta è Z in grado −1 e banele negli altri gradi (il risultato continua a valere).
versione preliminare
(20 - 12 - 2016)
§ 1. Generalità.
In queste pagine propongo alcuni esercizi di topologia generale. Per ragioni di comodità e per fis-
sare linguaggio e notazioni sporadicamente inserisco definizioni e risultati teorici (questi inserti sono
contrassegnati da due barre alla loro sinistra).
Importante. Ci sono esercizi di tipi molto diversi tra loro, di conseguenza rivolti a pubblici distinti: alcuni esercizi
concernono proprietà elementari e/o riguardano questioni più complesse, comunque sono rivolti a studenti che seguono il
loro primo corso di topologia; altri, contrassegnati con un asterisco, sono di approfondimento e sono rivolti esclusivamente
a chi abbia già una buona confidenza con i concetti fondamentali. (Generalmente, ma non necessariamente, i secondi sono
più difficili dei primi, comunque possono -o meglio devono- essere saltati da chi rientra nella prima categoria di pubblico).
Def. 5. Una funzione f : X −→ Y si dice
(5.1) continua ⇐⇒ la preimmagine (:= immagine inversa) di ogni aperto è un aperto;
(5.2) continua in x ⇐⇒ f −1 (M ) è un intorno di x, per ogni intorno M di f (x) .
Naturalmente, affinché abbia senso parlare di continuità della restrizione f |N , l’insieme N è da intendersi dotato della
topologia di sottospazio di X (cfr. def. 2).
2
Proposizione 9. f : X −→ Y è continua ⇐⇒ è continua in ogni punto x ∈ X ;
Dimostrazione. Proviamo “=⇒”: se x ∈ X e V è un intorno aperto di f (x), si ha che f −1 (V ), in quanto aperto
contenente x, è un intorno di x;
Proviamo “⇐=”: se V ⊆ Y è aperto ed x ∈ f −1 (V ), essendo f continua in x e V un intorno di f (x), si ha che
−1
f (V ) deve essere un intorno di x. Poiché ciò vale per ogni x ∈ f −1 (V ), lo stesso f −1 (V ) deve essere un intorno
di ogni suo punto. Ne segue che f −1 (V ) è aperto (cfr. esercizio 3).
Per quel che riguarda l’implicazione “⇐=”, andando al punto dell’argomento senza invocare l’esercizio (3), possiamo
scrivere:
f −1 (V ) = ∪ Ux , Ux aperto soddisfacente la condizione x ∈ Ux ⊆ f −1 (V )
x ∈ f −1 (V )
(V ⊆ Y è un aperto). Di conseguenza, in quanto unione di aperti, f −1 (V ) è anch’esso aperto.
Prop. 11. Sia X = ∪ U un ricoprimento aperto, X = S n
Ci un ricoprimento finito chiuso.
α
i=1
Allora
f : X −→ Y è continua ⇐⇒ le restrizioni fα := f |Uα sono continue
⇐⇒ le restrizioni fi := f |C sono continue.
i
Un ricoprimento aperto è un ricoprimento in insiemi aperti. Un ricoprimento chiuso è un ricoprimento in insiemi
chiusi. L’aggettivo finito indica che gli insiemi del ricoprimento in questione sono in numero finito.
Dimostrazione. Se f è continua, le varie restrizioni sono tutte continue (cfr, esercizio 10).
Assumendo che le restrizioni f |Uα siano continue e che V ⊆ Y sia aperto, si ha che f −1 (V ) = ∪ fα−1 (V ) è aperto.
Infatti, per ogni α, si ha che fα−1 (V ) è aperto in Uα per la continuità di fα e, essendo Uα stesso aperto, è aperto in
X (ciò segue dall’esercizio 4.b). n
Analogamente, se le restrizioni f | sono continue e W ⊆ Y è chiuso, abbiamo che f −1 (W ) = S fi−1 (W ) è chiuso
Ci
i=1
(i vari f −1 (W ) sono chiusi nei rispettivi Ci , che siano chiusi in X segue dall’esercizio 4.c).
i
Per quel che riguarda il primo dei due “⇐⇒”, una dimostrazione alternativa a quella appena vista è la seguente:
f è continua ⇐⇒ f è continua in x , ∀ x ∈ X ⇐⇒ fα è continua in x , ∀ x ∈ Uα , ∀ α ⇐⇒ fα è continua, ∀ α
(Prop. 9) (Eser. 7) (Prop. 9)
(si osservi che l’argomento proposto non funziona per il ricoprimento chiuso: nell’esercizio 7, utilizzato al centro, l’insieme
N deve essere un intorno di x, ovvero deve contenere un aperto contenente x).
3
Come corollario immediato della proposizione (11) si deduce il cosiddetto lemma di incollamento :
Lemma 12 (di incollamento). Se X = ∪ Uα è un ricoprimento aperto, fα : Uα → Y è una
collezione di funzioni che si raccordano bene, allora
∃ ! funzione continua f : X −→ Y f | Uα = fα , ∀ α .
Inoltre, un risultato analogo vale per i ricoprimenti finiti chiusi.
Nota. Richiedere che le funzioni si raccordino bene significa richiedere che risulti fα |U = fβ |U , ∀ α, β .
α ∩Uβ α ∩Uβ
Esercizio 13. Si provi, dando un controesempio, che la tesi del lemma di incollamento non vale per
ricoprimenti chiusi arbitrari.
Suggerimento: Si pensi ad un qualsiasi spazio infinito i cui punti sono chiusi.
Def. 14. Dato un sottoinsieme W ⊆ X si definiscono
T ◦ S
W = “chiusura di W ” = K , W = “interno di W ” = U .
Kchiuso U aperto
K⊇W U ⊆W
∂ W = “frontiera di W ” = W ∩ X r W
= W
z }| {
◦ S· S· ◦
(♣) X = W ∂W (X rW )
| {z }
= X rW
dove scrivere “... ∪· ... ∪· ... ” significa dire che l’unione è disgiunta, i.e. che gli insiemi indicati hanno
a due a due intersezione vuota (n.b. c’è un piccolo abuso di notazione e linguaggio!)
Nota. Come accennato, c’è un abuso di notazione nel nostro uso in (♣) del simbolo di unione disgiunta (che in genere
ha un significato differente: presi due insiemi A e B, con A ∪· B si intende l’insieme costituito da una copia di A −i cui
elementi saranno per questo etichettati− ed una copia di B, per cui, ad esempio, A ∪· A è l’insieme costituito da due
copie di A). ...d’altronde l’abuso concerne solo l’uso del simbolo (per definizione, diciamo che una unione è disgiunta se
l’unione usuale si identifica con l’unione disgiunta) ed il rischio di un’interpretazione errata della formula (♣) è nullo!
Nota 15.1. Questo esercizio è importante perché caratterizza la continuità in termini che a mio avviso
combaciano con l’idea intuitiva di continuità. Infatti, ci dice che la continuità di una funzione f è
caratterizzata dalla proprietà che segue:
se x è vicino a W , allora f (x) è vicino a f (W ) , ∀W ⊆ X
dove il significato formale di “è vicino a” è “appartiene alla chiusura di”.
4
Esercizio 15.2. Sia f : X −→ Y una funzione. Provare, sia dandone dimostrazioni dirette che
utilizzando l’esercizio (15), le affermazioni che seguono
• se X ha la topologia banale, allora f è continua se e solo se {y} ⊇ Imf , ∀ y ∈ Imf ;
• se X ha la topologia discreta, allora f è necessariamente continua;
• se Y ha la topologia banale, allora f è necessariamente continua;
• se Y ha la topologia discreta, allora f è continua se e solo se le sue fibre sono sia aperte che chiuse.
Ricordiamo che la topologia banale è quella dove gli unici aperti sono il vuoto e tutto lo spazio, la topologia discreta è
quella dove ogni sottoinsieme è aperto. Le fibre di una funzione sono le immagini inverse dei punti del codominio.
(i.e., nel linguaggio della nota 15.1, “f (x) è vicino a f (W ), ∀ W vicino ad x”).
Suggerimento: “=⇒”. Fissato un insieme W la cui chiusura contiene x, si consideri l’insieme I := Y r f (W ) (il
complementare della chiusura dell’immagine di W ). Se, per assurdo, f (x) 6∈ f (W ), si ha che I è un intorno di f (x)
e, essendo f continua in x per ipotesi, la sua immagine inversa dovrà essere un intorno di x. Da ciò si deduca una
contraddizione.
“⇐=”. Fissato un intorno aperto I di f (x), si ponga W := X r f −1 (I). A questo punto, se per assurdo f −1 (I)
non fosse un intorno di x, si avrebbe x ∈ W . Applicando l’ipotesi si deduca la condizione f (x) ∈ Y rI , condizione
incompatibile col fatto che I è un intorno di f (x).
Esercizio 17. Sia J un insieme e P(J) l’insieme delle parti di J . Si considerino funzioni
ι : P(J) −→ P(J)
Verificare che dare una funzione ι come sopra equivale a dare una topologia su J, precisamente:
i) la collezione τ := A ι(A) = A è la collezione degli aperti di una topologia su J ;
◦
ii) se J è uno spazio topologico, l’operatore di interno ι(A) := A, ∀ A soddisfa le proprietà 0, 1, 2, 3;
iii) le funzioni “a ι si associa τ ” e “ad una topologia si associa l’operatore di interno” sono l’una
l’inversa dell’altra.
Nota. La i) può essere provata senza utilizzare la 2: data una funzione ι che soddisfi le proprietà 0, 1, 3, gli elementi
che sono fissati da ι cioè gli A ∈ P(J) per i quali risulta ι(A) = A sono gli aperti di una topologia. Ciononostante
la 2 non è ridondante, un esempio di funzione che soddisfa le proprietà 0, 1, 3 ma non soddisfa la 2 è il seguente:
J = {a, b, c}, ι(∅) = ∅, ι({a}) = ι({b}) = ∅, ι({a, b}) = {a}, ι({c}) = ι({a, c}) = ι({b, c}) = {c}, ι(J) = J
Gli insiemi fissati da ι, cioè gli aperti della topologia τ associata a ι, sono gli insiemi ∅, {c}, J. Naturalmente, l’operatore
di interno per questa topologia, che chiameremo ι̃, soddisfa anche la proprietà 2; pertanto ι ed ι̃ sono operatori distinti
(che definiscono la stessa topologia), in effetti ι({a, b}) = {a} mentre ι̃({a, b}) = ∅ (su tutti gli altri sottoinsiemi di J
coincidono). N.b.: schematizzando ι τ ι̃ 6= ι (“ ” := “associamo”), i.e. senza usare la 2 non vale la iii).
Esercizio 17.1. Provare quanto affermato nella nota, cioè provare la i) senza utilizzare la 2 e verificare che l’esempio
fornito soddisfa le proprietà 0, 1, 3 ma non soddisfa la 2.
Esercizio 17.2. Si provi un risultato analogo per l’operatore di chiusura: dare una topologia su un insieme J equivale
a dare una funzione
κ : P(J) −→ P(J)
soddisfacente le proprietà che seguono:
0. κ(∅) = ∅; 1. κ(A) ⊇ A, ∀ A ∈ P(J) ; 2. κ ◦ κ = κ ; 3. κ(A ∪ B) = κ(A) ∪ κ(B) , ∀ A, B ∈ P(J) .
5
Def. 18. Sia X uno spazio topologico, B una collezione di aperti. Diciamo che B è una base per
la topologia se ogni aperto di X è unione di aperti in B.
Esercizio 18.1. Sia J un insieme, B una collezione di sottoinsiemi. Provare che B è una base per
una qualche topologia su J se e solo se
B è un ricoprimento di J , ogni intersezione B1 ∩ B2 di elementi in B è unione di elementi in B.
Esercizio 18.2. Sia X uno spazio topologico, B una collezione di sottoinsiemi aperti. Provare che
B è una base per la topologia su X
per ogni aperto U e ogni punto x ∈ U , esiste B ∈ B tale che x ∈ U ⊆ B .
Def. 18.3. Sia X uno spazio topologico, p ∈ X un punto. Diciamo che
X è primo numerabile in p se p ammette un sistema di intorni numerabile, i.e.
∃ F = Vi i∈N tale che ∀ U ∃ i con Vi ⊆ U ;
famiglia di intorni di p
intorno di p
X è primo numerabile se è primo numerabile in ogni punto;
X è secondo numerabile se ammette una base numerabile.
Osserviamo che se X è secondo numerabile, è automaticamente anche primo numerabile. Il viceversa è
chiaramente falso: un qualsiasi spazio non numerabile avente la topologia discreta, è primo numerabile
ma non è secondo numerabile.
Esercizio 18.4. Sia X uno spazio topologico, p ∈ X un punto. Provare che sostituendo “intorno”
con “intorno aperto” la definizione rimane immutata, precisamente:
X è primo numerabile in p se e solo se
∃ F = Vi i∈N tale che ∀ U ∃ i con Vi ⊆ U ;
intorno aperto di p
famiglia di intorni aperti di p
6
§ 2. Spazi Metrici.
Assumiamo che lo studente abbia un minimo di familiarità con le nozioni di spazio metrico e di spazio vettoriale reale
normato. Per comodità e per fissare le notazioni facciamo un breve richiamo. Uno spazio metrico è un insieme X sul
quale è definita una distanza d, quest’ultima è una funzione che ad ogni coppia di punti di X associa un numero reale,
si richiede che sia simmetrica, assuma valori non negativi, che risulti d(a, b) = 0 se e solo se a = b ed infine che
valga la disuguaglianza triangolare d(a, b) + d(b, c) ≥ d(a, c), ∀ a, b, c ∈ X . Uno spazio vettoriale reale normato
è uno spazio vettoriale reale X sul quale è definita una norma, ovvero una funzione X −→ R, x 7→ ||x|| che sia
definita-positiva (||x|| ≥ 0, ||x|| = 0 ⇔ x = 0), omogenea (||λx|| = |λ|||x||, ∀ λ ∈ R, x ∈ X ), soddisfacente la
disuguaglianza triangolare (||x|| + ||y|| ≥ ||x + y|| , ∀ x, y ∈ X). Si ha che gli spazi vettoriali normati sono spazi metrici:
si pone d(x, y) = ||x − y|| (questa risulta essere una distanza, lo si verifichi per esercizio).
Per uno spazio metrico (X, d) usiamo le seguenti notazioni standard
Bo, r = “disco aperto di centro o e raggio r” := { x ∈ X | d(x, o) < r } (o ∈ X, r ∈ R) ;
Do, r = “disco (chiuso) di centro o e raggio r” := { x ∈ X | d(x, o) ≤ r } (o ∈ X, r ∈ R) ;
So, r = “sfera di centro o e raggio r” := { x ∈ X | d(x, o) = r } (o ∈ X, r ∈ R) .
In ambito metrico si danno le seguenti definizioni di continuità: dati due spazi metrici (X, d) e (Y, d′ )
f : X −→ Y si dice continua in x x0 ∈ X se ∀ ǫ > 0 ∃ δ | d(x, x0 ) < δ =⇒ d′ (y, y0 ) < ǫ
(dove y = f (x), y0 = f (x0 );
f : X −→ Y si dice continua se è continua in ogni punto.
Gli spazi metrici sono spazi topologici: se (X, d) è uno spazio metrico, lo si considera dotato della
topologia definita dall’affermazione che segue:
gli aperti di X sono le unioni di dischi aperti
(i.e. i dischi aperti costituiscono una base per la topologia).
Esercizio 21. Verificare che quella introdotta è effettivamente una topologia (i.e. soddisfa gli assiomi
di spazio topologico).
Esercizio 22. Provare che le definizioni di continuità e continuità in un punto date in ambito metrico
coincidono con le corrispondenti definizioni date in ambito topologico (def. 5.1 e def. 5.2).
Suggerimento: Alla luce della Proposizione (9) è sufficiente verificare che la definizione metrica di continuità in un punto
coincide con quella topologica (cfr. Def. 5.2).
Lo spazio Rn con la distanza Euclidea
p
d(x, y) := (x1 −y1 )2 + ... + (xn −yn )2 , x = (x1 , ..., xn ), y = (y1 , ..., yn )
è uno spazio metrico, la corrispondente topologia viene detta topologia naturale.
q
Nota. In effetti Rn è uno spazio vettoriale reale normato: si pone ||x|| = x2 + ... + x2 .
1 n
b. In generale, i.e. per uno spazio metrico (X, d) arbitrario, quali delle sei possibili inclusioni
So, r ⊆ ∂ Do, r , So, r ⊇ ∂ Do, r , So, r ⊆ ∂ Bo, r , So, r ⊇ ∂ Bo, r , ∂ Do, r ⊆ ∂ Bo, r , ∂ Do, r ⊇ ∂ Bo, r
si verificano sempre?
7
Chi ha svolto l’esercizio precedente avrà provato che le inclusioni ∂ Do, r ⊆ So, r e ∂ Bo, r ⊆ So, r sono le “uniche
che si verificano sempre”; inoltre, le due frontiere indicate sono sicuramente chiuse nel cerchio So, r . Dunque, in un certo
senso l’esercizio (23.1) seguente ci dice che fatte salve le condizioni menzionate, prendendo sottospazi del piano (cioè senza
scomodare spazi metrici strani), i tre insiemi So, r , ∂ Bo, r , ∂ Do, r possono essere “scelti” in modo del tutto arbitrario.
Esercizio 24. Sia (X, d) uno spazio metrico. Dati due sottoinsiemi A, B ⊆ X ed un punto x ∈ X ,
poniamo
dist(A, x) := inf d(a, x) , dist(A, B) := inf d(a, b)
a ∈ A (a, b) ∈ A×B
Stabiliamo per convenzione che l’estremo inferiore su un insieme di valori vuoto sia uguale a +∞; in questo
modo le distanze introdotte sopra sono definite anche quando qualcuno dei nostri insiemi è vuoto.
Esercizio 25. Sia X uno spazio topologico, f , g : X −→ R due funzioni continue (R dotato della
topologia naturale). Provare che il luogo dei punti
f >g
L := x ∈ X f (x) > g(x)
f 6= g f ≥g f =g
è aperto in X . Definiti i luoghi L , L , L in modo analogo, dedurre che il primo di essi è
aperto in X , secondo e terzo sono chiusi in X . Infine, verificare l’inclusione
f ≥g
L ⊇ Lf > g
e dare un controesempio per il quale non vale “=”.
f 6= g f =g
Nota. I luoghi L e L hanno perfettamente senso anche quando il codominio delle nostre funzioni è uno spazio
topologico Y arbitrario.
Esercizio 27. Esibire esempi di funzioni continue f , g : X −→ Y (tra spazi topologici) tali che
f =g
• L è aperto ma non è chiuso;
f =g
• L non è né aperto né chiuso.
Nell’ipotesi che i punti di Y siano chiusi, stabilire se sia possibile dare analoghi esempi.
1 Cioè aventi intersezione vuota.
8
§ 3. Spazi Quozienti.
Ricordiamo brevemente un fatto di insiemistica. Dato un insieme S , le tre nozioni che seguono
• relazioni d’equivalenza su S , • funzioni suriettive S −→ Z • partizioni di S ,
sono sostanzialmente la stessa cosa (di seguito, il simbolo ∪· denota che l’unione è disgiunta):
ad una relazione d’equivalenza ∼ si associa la proiezione π : S → S/ ∼ (S/ ∼ denota l’insieme delle classi d’equivalenza);
ad una funzione suriettiva f : S −→ Z si associa la partizione delle fibre di f (si scrive S = ∪· f −1 (z), z ∈ Z );
ad una partizione S = ∪· Ai si associa la relazione d’equivalenza ∼ definita dalla condizione a ∼ b ⇐⇒ ∃ i | a, b ∈ Ai .
Def. 31. Sia X uno spazio topologico, ∼ una relazione d’equivalenza su X , π : X −→ X/ ∼ la
proiezione naturale. Lo spazio topologico quoziente, denotato con X/ ∼, è l’insieme quoziente dotato
della topologia definita dalle proprietà che segue:
U ⊆ X/ ∼ è aperto ⇐⇒ π −1 (U ) è aperto in X
Nota 31.1. La topologia quoziente coincide con la topologia coindotta dalla proiezione (nozione più generale che verrà
introdotta in seguito).
Esercizio 32.2. Si verifichi che X/ ∼ è dotato della topologia più fine (:= “più ricca di aperti”) per
la quale la proiezione π è continua.
Notazione 33. Sia A un sottospazio di uno spazio topologico X . Denotiamo con X/A lo spazio
ottenuto identificando tra loro i punti di A:
X/A := X/ ∼ , dove ∼ è la relazione d’equivalenza “p ∼ q ⇐⇒ p = q oppure p, q ∈ A”.
Esercizio 34. Verificare che gli aperti di X/A sono le immagini tramite la proiezione naturale
π : X → X/A degli aperti di X che non incontrano oppure contengono A, cioè verificare che
V V ⊆ X/A è aperto = π(B) B ⊆ X è aperto, B ∩ A = ∅ oppure B ⊇ A
Esercizio 35. Provare che i seguenti spazi topologici sono omeomorfi tra loro
• Cerchio Unitario S 1 := x ∈ R2 ||x|| = 1 ;
• [0, 1]/{0, 1} (dove [0, 1] = {x ∈ R | 0 ≤ x ≤ 1});
• Retta Proiettiva reale P1R := R2 r{o} ∼ (o denota l’origine di R2 e ∼ la relazione di proporzionalità);
Naturalmente, i vari R ed R2 si intendono dotati della topologia naturale, i loro sottoinsiemi della topologia indotta.
Attenzione! Il Toro reale T1 non va confuso col quoziente R/Z nel senso della notazione (33), spazio
che risulta essere omeomorfo ad un bouquet numerabile di cerchi (cfr. definizione 38 seguente).
9
Def. 36. Se {Xi } è una famiglia di spazi topologici, l’unione disgiunta X = ∪· Xi viene dotata
della topologia unione disgiunta, definita dalla proprietà che segue:
U ⊆ X è aperto se e solo se interseca ognuno degli Xi in un aperto di τi
(τi denota la collezione degli aperti di Xi ).
Esercizio 37. Siano {Xi } ed X come nella definizione (36). Si verifichino le proprietà che seguono:
i) quella introdotta è effettivamente una topologia su X ;
ii) gli Xi sono sia aperti che chiusi (come sottoinsiemi di X );
iii) ogni inclusione Xi ֒→ X è un omeomorfismo sull’immagine;
iv) X è dotato della topologia più fine per la quale le inclusioni Xi ֒→ X sono continue.
Esercizio 37.1. Verificare che la proprietà “ii) + iii)” caratterizza la topologia unione disgiunta.
Def. 38. Il bouquet di spazi topologici puntati {(Xi , xi )} è lo spazio topologico
W
∪· Xi
i (Xi , xi ) :=
∪ {xi }
(cfr. definizione 36 e notazione 33). Lo spazio introdotto si chiama anche “wedge sum”.
Uno spazio topologico puntato è una coppia “spazio topologico X, punto x ∈ X”. Nei casi in cui la scelta di xi ∈ Xi
è sostanzialmente ininfluente, ad esempio se X = S 1 (per ogni coppia di punti p, q ∈ S 1 esiste un omeomorfismo
i
di S 1 in se che manda il punto p nel punto q), per abuso di notazione il punto non viene indicato affatto (per cui,
ad esempio, S 1 ∨ S 1 è lo spazio ottenuto da due copie disgiunte di S 1 , identificando un punto dell’una con un punto
dell’altra).
Esercizio 38.1. Provare che il bouquet di due cerchi S 1 ∨ S 1 (cfr. sopra) è omeomorfo al sottospazio
di R2 costituito dall’unione di due cerchi che si toccano in un punto.
(∗) W
Esercizio 38.2. Provare che il bouquet di una famiglia numerabile di cerchi X = i∈N S 1 non è
omeomorfo ad alcun sottospazio di Rn .
Suggerimento: Si provi che X non è primo numerabile (cfr. def.;18.3) nel vertice2 del bouquet, mentre gli spazi metrici
sono primo numerabili (cfr. esercizio 24.f).
Esercizio 39. Provare che i seguenti spazi topologici sono omeomorfi tra loro
Naturalmente, i vari C, C2 , R3 si intendono dotati della topologia naturale, i loro sottoinsiemi della topologia indotta.
2 Nella notazione della definizione (38), il vertice del bouquet è il punto cui si contrae ∪{xi } .
10
Esercizio 42. Sia X come sopra. Verificare che i sottoinsiemi del tipo
(♣) × Uj × × Xα con gli Uj aperti dei corrispondenti Xj
j ∈ J α ∈ SrJ
(finito)
(∗)
Esercizio 43. Sia X come nella def. (41). Provare che nel caso di un prodotto “davvero infinito, non banale” (cfr. sotto),
esistono prodotti di sottoinsiemi aperti che non sono aperti per la topologia prodotto. Dedurre che, in particolare, la
topologia generata dai prodotti di aperti non coincide con la topologia prodotto (naturalmente, la prima è sempre più fine
della seconda, pertanto nel caso in questione è strettamente più fine).
(Con la locuzione “davvero infinito, non banale” intendiamo “dove l’insieme degli α per i quali Xα non ha la topologia
banale è un insieme infinito”; n.b. ogni Xα che non ha la topologia banale deve contenere almeno due punti).
11
Esercizio 44. Verificare che la topologia naturale di Rn coincide con la topologia prodotto.
Esercizio 47.2. Si consideri l’unione disgiunta R1 ∪· R2 di due copie di R (che abbiamo etichettato
al fine di distinguerle). Verificare che la funzione
· f (x) = x , se x ∈ R1
f : R1 ∪ R2 −→ R definita ponendo
f (x) = 0 , se x ∈ R2
è chiusa, ma la funzione prodotto f × f non lo è.
Nota. Naturalmente possiamo sostituire il dominio R1∪· R2 con (1, 2)∪(3, 4) (sottospazio di R, omeomorfo ad R1 ∪· R2 ),
il codominio R con l’intervallo (1, 2) ed infine definire f (x) = x, se x < 2 , f (x) = 3/2, se x > 3.
Modificando un po’ l’esempio della nota si ottiene l’esempio dell’esercizio che segue.
f (x) = x , se x ≤ 1
Esercizio 47.3. Verificare che la funzione f : (0, 2) −→ (0, 1] , è chiusa,
f (x) = 1 , se x ≥ 1
ma la funzione prodotto f × f non lo è.
12
Esercizio 53. Provare che uno spazio topologico X è compatto se e solo se ogni ricoprimento aperto
ammette un raffinamento aperto dal quale è possibile estrarre un sottoricoprimento finito.
Esercizio 53.1. Usando il risultato dell’esercizio precedente, si provi la (51.4) secondo la linea indicata:
• modulo raffinamento, ci si riduca ad un ricoprimento U = {Aα × Bα }α ∈ S in rettangoli aperti;
• si passi al raffinamento U ′ = A(α, y) × B(α, y) A(α, y) := Aα , B(α, y) := Bα ;
(α, y) ∈ S×Y
• si passi ad un raffinamento V di U ′ dove i rettangoli con etichetta (∗, y) ricoprono X × {y}, sono
in numero finito (qui si usi la compattezza di X) e, per y fissato, hanno tutti la “stessa altezza” (si
intende “medesima proiezione su Y ”);
• si concluda la dimostrazione usando il fatto che le “altezze” ricoprono Y (che è compatto).
Esercizio 54. Sia Y uno spazio topologico, f : [0, 1] −→ Y una funzione (arbitraria). Provare che
Spesso può essere utile, ancorché non necessario, lavorare con ricoprimenti aperti numerabili (o meglio,
parametrizzati da N) e, all’occorrenza, nidificati (dove ogni aperto contiene i precedenti).
Esercizio 55. Sia X uno spazio topologico. Si provi che se X è 2o -numerabile (def. 18.3), allora
da ogni ricoprimento aperto è possibile estrarre un sottoricoprimento numerabile
Si osservi che ad un ricoprimento numerabile U = {Uα }α ∈ N si può associare il ricoprimento V = {Vα }α ∈ N dove i Vα
sono definiti ponendo Vα = U0 ∪ U1 ∪ ... ∪ Uα . Chiaramente V risulta nidificato (ed eredita molte proprietà di U , ad
esempio ammette un sottoricoprimento finito se e solo se ciò accade per U ).
Esercizio 56. Si verifichi che Rn (e, di conseguenza, ogni suo sottospazio) è 2o -numerabile.
3 Diciamo che una famiglia di insiemi ha intersezione vuota se l’intersezione di tutti gli insiemi della famiglia è vuota.
13
Ricordiamo gli assiomi di separazione T1 e T2 (meglio noto come “di Hausdorff ”).
Def. 57. Uno spazio topologico X si dice
• T1 se ∀ p, q ∈ X ∃ intorni Up di p e Uq di q tali che q 6∈ Up e p 6∈ Uq .
• di Hausdorff (o T2) se è possibile separare i punti, i.e.:
∀ p, q ∈ X ∃ intorni Up di p e Uq di q aventi intersezione vuota (i.e. con Up ∩ Uq = ∅).
Esercizio 58. Siano X, Y ed f come nella notazione. Si verifichino le relazioni che seguono
a. ∆X = ∆IdX ; ∆f = (f × f )−1 ∆Y ; ∆X ⊆ ∆f ; (f × f ) ∆f ⊆ ∆Y ;
! !
vale “=” ⇐⇒ vale “=” ⇐⇒
f è iniettiva f è suriettiva
Esercizio 59. Sia X uno spazio topologico. Provare le proprietà che seguono:
Nei punti che seguono, assumiamo che f : X −→ Y sia una funzione continua.
c. se Y è di Hausdorff =⇒ ∆f è chiuso;
d. se f è suriettiva ed aperta, ∆f è chiuso =⇒ Y è di Hausdorff;
e. se X è compatto e di Hausdorff, f è suriettiva, Y ha la topologia quoziente, allora
Y è di Hausdorff ⇐⇒ ∆f è chiuso ⇐⇒ f è chiusa
(dicendo che Y ha la topologia quoziente intendiamo che l’identificazione insiemistica naturale Y = X/ ∼ è un
omeomorfismo, dove ∼ denota la relazione d’equivalenza associata alla funzione suriettiva f ).
L’implicazione “f chiusa =⇒ Y di Hausdorff ” (nelle ipotesi del punto 59.e), è una proposizione che desideriamo
enunciare separatamente.
Proposizione 60. Sia X uno spazio topologico compatto di Hausdorff, ∼ una relazione d’equivalenza.
Se π : X −→ X/ ∼ è chiusa, allora X/ ∼ è di Hausdorff.
Più avanti vedremo che gli spazi compatti di Hausdorff sono T 4 (cfr. esercizio 68.3), i.e. soddisfano
la proprietà che segue:
(♣) ∀ C1 e C2 chiusi disgiunti, ∃ U1 e U2 aperti disgiunti Ui ⊇ Ci , i = 1, 2 .
Esercizio 60.1. Si dimostri la proposizione (60) utilizzando il risultato (♣) appena enunciato.
14
Def. 61. Uno spazio topologico X si dice connesso se non è unione disgiunta non banale4 di aperti
(equivalentemente, non ha sottoinsiemi sia aperti che chiusi eccetto l’insieme vuoto ed X stesso).
Valgono le proprietà seguenti:
(61.1) X è connesso ⇐⇒ E discreto, f : X −→ E continua =⇒ f è costante ;
(61.2) l’immagine continua di un connesso è connessa;
(61.3) il prodotto X × Y di spazi connessi è connesso
Nota. Analogamente al caso della (51.4), la (61.2) ci dice che la (61.3) si inverte (a meno che uno dei due sia vuoto):
X, Y non vuoti, X × Y connesso =⇒ X, Y connessi (in quanto immagini continue delle proiezioni).
Naturalmente, se S è un sottoinsieme di uno spazio ambiente X , allora S stesso è uno spazio topologico (con la topologia
indotta) ed ha senso parlare di connessione secondo la definizione data. In questo caso è utile avere una caratterizzazione
della connessione in termini degli aperti dell’ambiente. Una tale caratterizzazione ce la fornisce l’esercizio che segue.
Esercizio 63.1. Sia X uno spazio topologico, A e B suoi sottospazi. Provare quanto segue
a. se A è connesso, A ⊆ B ⊆ A =⇒ B è connesso;
b. se A è connesso, {Bi } è un ricoprimento aperto disgiunto5 di A =⇒ ∃ i | A ⊆ Bi ;
c. se A e B sono connessi, A ∩ B 6= ∅ =⇒ A ∪ B è connesso;
d. assumendo che A e B siano connessi non vuoti, si ha che
A ∪ B non è connesso ⇐⇒ A∩B = ∅ e A∩B = ∅
(si osservi che l’implicazione “=⇒” è più forte della proprietà c).
Suggerimento (per d, “=⇒”): dire che A e B sono connessi ma A ∪ B non è connesso, equivale a dire che esistono
CA ed CB chiusi in X tali che CA ⊇ A, CB ⊇ B , CA ∩ CB ∩ (A ∪ B) = ∅ (ci si convinca di ciò); a questo punto si
provi che si deve avere A ∩ B ⊆ CA ∩ B = ∅ e, analogamente, anche A ∩ B = ∅ .
(∗)
Esercizio 66. Sia Q •• la retta razionale con due origini o ed o′ .
(∗)
Esercizio 67. Trovare l’errore nel ragionamento che segue:
“sia X uno spazio topologico e p ∈ X un punto. Denotiamo con Γp la componente connessa conte-
nente p e con Θp l’intersezione di tutti i clopen (sottoinsiemi sia aperti che chiusi) contenenti p. Se
A è un clopen contenente p e C è un sottospazio connesso contenente p, allora si deve avere C ⊆ A.
D’altro canto (se A è un clopen contenente p), B è un clopen in A contenente p, se e solo se B è un
clopen in X contenente p. Di conseguenza, per un clopen W contenente p vale la seguente dicotomia:
o W è connesso, ed in questo caso W = Γp , oppure W non è un clopen minimale (se non è connesso
è unione disgiunta non banale di clopen, cfr. def. 14). Questo dimostra che un clopen minimale deve
coincidere con Γp . D’altro canto Θp è contenuto in ogni clopen, quindi si deve avere Γp = Θp .”
Def. 68. Uno spazio topologico X si dice
• T3 se è T1 (i punti sono chiusi) e separa i punti dai chiusi, i.e. per ogni punto p e chiuso C non
contenente p, è possibile trovare due aperti disgiunti U e V tali che p ∈ U , C ⊆ V .
• T4 se è T1 (i punti sono chiusi) e separa i chiusi, i.e. per ogni coppia chiusi disgiunti C1 e C2 è
possibile trovare due aperti disgiunti U1 e U2 tali che C1 ⊆ U1 , C2 ⊆ U2 .
Nota 68.1. Si osservi che T 4 =⇒ T 3 , T 3 =⇒ T 2 , T 2 =⇒ T 1 .
Proposizione 68.2. Gli spazi metrici sono T 4 .
Dimostrazione. I punti sono chiusi (esercizio 24.a) ed X separa i chiusi (esercizio 24.g).
(∗)
Esercizio 70. Si consideri R2Sorg := RSorg × RSorg . Si provi che
a. R2Sorg è T3.
Con i punti successivi si vuole stabilire, tra altre cose, che R2Sorg non è T4. Fissiamo le notazioni:
• r := “retta di equazione x + y = 0”,
• R p = (x, y) := “rettangolo aperto del tipo [x, x + δ) × [y, y + δ) , δ > 0”,
• rraz := { (x, −x) ∈ r | x ∈ Q } , rirr := r r rraz (n.b. rraz e rirr sono disgiunti),
7
• ralg := { (x, −x) ∈ r | x è algebrico } , rirr&alg := rirr ∩ ralg (= ralg r rraz ).
b. R2Sorg induce su r la topologia discreta (in particolare, ogni sottoinsieme di r è chiuso in R2Sorg );
c. un aperto U contenente un sottoinsieme C ⊆ R2Sorg può essere “ricondotto” ad un aperto del tipo
S
(♠) U′ = Rp ,
p∈C
g. non esistono due aperti disgiunti U, V ⊆ R2Sorg tali che U ⊇ rraz , V ⊇ rirr
(quindi, essendo rraz e rirr chiusi per (b.), R2Sorg non è T4).
Indicazioni: per provare (g.), come suggeriscono (e.) ed (f.), il fatto che rirr non sia numerabile è
cruciale e deve essere usato (suggerisco di ragionare per assurdo e pensare all’insieme dei δRp dell’aperto
contenente rirr ). Comunque, onestamente provare (g.) mi sembra abbastanza difficile ...anche chi non
dovesse riuscire a rispondere resta in corsa per la lode all’esame! Come passo preliminare conviene fare
pratica con le difficoltà che si incontrano, per questa ragione ho inserito la richiesta di provare le già
citate affermazioni (e.) ed (f.). Dunque, passando a queste due affermazioni, si osservi che la (f.) è
molto più forte, ciononostante paradossalmente più facile da provare, della (e.) :
• assumendo di aver già acquisito la (f.), posto C = rraz ∪ rirr&alg = ralg , fissata una collezione di
aperti disgiunti {R p }p ∈ C , è sufficiente definire
S S
U = Rp e V = Rp .
p ∈ rraz p ∈ rirr&alg
√ √
7 Cioè, esiste un polinomio P a coefficienti interi tale che P (x) = 0 . Ad esempio, ( 2 − 3 7 5) 3/19 è algebrico.
17
§ 6. Varie.
Notazione. Salvo diversamente specificato, i vari R, Rn , C sono dotati della topologia naturale.
Esercizio 81. Sia X un sottospazio di Rn (dotato della topologia naturale). Provare che
a. se X è discreto8 , allora è al più numerabile;
b. se X è infinito, allora ammette sottospazi discreti infiniti (per a, al più numerabili);
c. se X è discreto infinito e limitato, allora non è chiuso;
d. X non è compatto se e solo se ammette sottospazi chiusi discreti infiniti.
Def. 82. Sia X uno spazio topologico, poniamo I = [0, 1] ⊆ R .
Il cono astratto su X è lo spazio quoziente
Ca (X) = X ×I X ×{0} ,
il punto v ∈ Ca (X) corrispondente allo spazio che contraiamo lo chiameremo vertice.
Se X ⊆ Rn , il cono geometrico su X è lo spazio
Cgeom (X) := “luogo in Rn+1 dei segmenti x o , x = ξ(x), x ∈ X ” ,
dove ξ : Rn ֒→ Rn+1 è un’immersione iperpiana ed o ∈ Rn+1 r ξ(Rn ) è un punto fissato.
Esercizio 83. Sia X ⊆ Rn , consideriamo notazioni come nella definizione (82). Provare che
a. la funzione
ω : Ca (X) −−−−→ Cgeom (X)
(x, t) 7→ t x + (1−t) o
è biunivoca (come nella definizione 82, x denota l’immagine di x in Rn+1 );
b. ω è una funzione continua;
c. ω(v) = o , la restrizione ω ′ : Ca (X)r{v} −−→ Cgeom (X)r{o} è un omeomorfismo;
d. se X è compatto, allora ω è un omeomorfismo;
e. se X non è compatto, allora ω non è un omeomorfismo;
(∗)
f. se X non è compatto, allora Ca (X) non è metrizzabile quindi non è omeomorfo a Cgeom (X) .
Suggerimento (per la domanda f, sicuramente la più difficile): denotiamo con
π : X ×I −−−→ Ca (X) := X ×I X ×{0}
la proiezione naturale. Per definizione di topologia quoziente, gli intorni aperti di v , vertice del cono astratto, corrispon-
dono via π −1 agli aperti, nel prodotto X × I , contenenti X × {0}. Di conseguenza, dire che Ca (X) non è primo
numerabile (def. 18.3) nel vertice v , equivale a dire (convincersene) quanto segue:
non è possibile trovare una collezione numerabile di aperti in X ×I (che è un sottospazio di Rn+1 ) tale che:
(♣) i) ogni aperto della collezione contiene X ×{0} ;
ii) per ogni aperto U contenente X ×{0} c’è un aperto della collezione contenuto in U .
Si provi (♣) procedendo per assurdo: fissata una collezione come sopra, in particolare numerabile, si scelga un sottoin-
sieme discreto numerabile Z = {pi }i∈N ⊆ X , con Z chiuso in X (l’esistenza di un tale sottoinsieme segue dalla non
compattezza di X , cfr. esercizio 81.d), quindi, guardando come gli aperti della collezione intersecano Z×I , si costruisca
un aperto U contenente X ×{0} ma non contenuto in alcun aperto della collezione (cosa che dà un assurdo).
8 Diciamo che uno spazio è discreto se la sua topologia coincide con la topologia discreta.
18
Inciso 84. Consideriamo il cerchio unitario S 1 := x ∈ R2 ||x|| = 1 . Ad una funzione continua
f : S 1 −→ S 1
si associa un numero, detto grado di f e denotato con deg f che sostanzialmente misura il numero
di volte che il dominio si “avvolge” sul codominio. La teoria dell’omotopia ci dice che il grado soddisfa
le proprietà che seguono:
i) deg n = n , dove n denota, per n ∈ Z, la funzione n(cos θ, sen θ) = (cos nθ, sen nθ) ;
ii) se F : S 1 × I −→ S 1 è continua, allora F⋆ : I −→ Z , t 7→ deg F |S 1 ×{t} è continua
(dove I denota l’intervallo [0, 1], Z è dotato della topologia discreta).
La i) ci dice qual è il grado di alcune funzioni elementari, ad esempio ci dice che l’identità ha grado
uno, mentre la ii) ci dice che “deformando” f il grado non cambia.
Esercizio 85. Utilizzando i due risultati dell’inciso (84) e le indicazioni fornite sotto provare che
Indicazioni.
a. Dato q ∈ S 1 si definisca una funzione F : S 1 × I −→ S 1 tale che F |S 1×{0} = o , F |S 1×{1} = q (dove o denota il
punto (1, 0) ∈ S 1 ) e si osservi che, per la i), la prima ha grado zero.
b. Segue immediatamente dalla a e dalla proprietà ii).
c. Se, per assurdo, esistesse una tale funzione r, si potrebbe considerare la composizione
ω r
F : S1 × I ֒→ D2 × I −−→ D2 −−−→ S1 (con o ∈ S 1 punto fissato)
(p, t) 7→ tp + (1− t)o
L’esistenza di F contraddice quanto asserito al punto b.
d. Se per assurdo f non avesse punti fissi sarebbe possibile definire una funzione r come in c: per ogni x ∈ D2 , la
semiretta sx avente origine in f (x) passante per x sarebbe ben definita e intersecherebbe S 1 esattamente in un punto,
la funzione r : D2 −→ S 1 , x 7→ sx ∩ S 1 , sarebbe continua (lo si dimostri) e si avrebbe r|S 1 = “Identità”.
e. Naturalmente possiamo assumere che p sia un polinomio monico, sia p(z) = z n + an−1 xn−1 + ... + a1 z + a0 .
• Come passo preliminare si verifichi che esiste R > 0 tale che
per ||z|| ≥ R, il segmento di estremi z n e p(z) non contiene l’origine 0 ∈ C ;
• si assuma, per assurdo, che p(z) non abbia zeri e si consideri la funzione
π
F : S 1 × [0, R + 1] −−−−−→ C r {0} −−−−−→ S 1
Esercizio 15 (Soluzione).
Esercizio 16 (Soluzione).
Proviamo “=⇒”. Seguiamo il suggerimento. Fissato W soddisfacente x ∈ W , consideriamo I := Y r f (W ).
Dire, per assurdo, che f (x) 6∈ f (W ) significa dire che f (x) ∈ I . D’altro canto I è aperto in quanto comple-
mentare di un chiuso. Pertanto I è un intorno di f (x). Essendo f continua in x per ipotesi, f −1 (I) è un
intorno di x. Poiché I ed f (W ) hanno intersezione vuota, anche le loro immagini inverse hanno intersezione
vuota, quindi: f −1 (I) ∩ W ⊆ f −1 (I) ∩ f −1 (f (W )) = ∅. Infine, poiché f −1 (I) è un inorno di x avente
intersezione vuota con W , si deve avere x 6∈ W , ma questo contraddice l’ipotesi iniziale.
Proviamo “⇐=”. Seguiamo il suggerimento. Fissato un intorno aperto I di f (x), poniamo W := Xr f −1 (I).
Se per assurdo f −1 (I) non fosse un intorno di x, si avrebbe1 x ∈ W e, per l’ipotesi iniziale, si avrebbe
f (x) ∈ f (W ). Di conseguenza,
f (x) ∈ f (W ) = f X r f −1 (I) = f f −1 (Y r I) ⊆ Y rI
Questo è incompatibile col fatto che I sia un intorno di f (x).
Premesso che C ⊆ D =⇒ ι(C) ⊆ ι(D), infatti ι(C) = ι(C ∩ D) = ι(C) ∩ ι(D) ⊆ ι(D), si ha
(per la 3)
1 Se un punto non appartiene alla chiusura del complementare di un insieme, quell’insieme è un intorno di quel punto. Nel nostro
caso W è il complementare di f −1 (I), quindi: se per assurdo x 6∈ W , allora f −1 (I) è un intorno di x.
2
(Id sta per “identità”). Verificare la prima uguaglianza significa provare che, data una topologia, gli insiemi che
coincidono con il proprio interno sono esattamente gli insiemi aperti (cosa che è evidente). Per quel che concerne
la seconda si deve provare che, data ι ∈ I 0, 1, 2, 3 (X) (i.e. come nel testo dell’esercizio), si ha
S
(♠) ι(W ) = A.
A ⊆ W | ι(A) = A
L’inclusione “⊇” segue dalla premessa (cfr. sopra): ι(W ) ⊇ ι(A) = A, ∀ A come in (♠). Per provare l’inclusione
“⊆” finalmente usiamo la proprietà 2 “ι ◦ ι = ι” : posto U := ι(W ), risulta U ⊆ W (per la 1) e ι(U ) = U (per
la 2), ovvero ι(W ) è uno degli insiemi che compaiono nell’unione a destra.
Passiamo ai commenti.
Come visto nella nota, la proprietà 2 non è ridondante (i.e. esistono funzioni ι che soddisfano le proprietà 0, 1, 3 e,
come tali, definiscono una topologia2 , ma non soddisfano la 2). In altri termini, risulta I 0, 1, 2, 3 (X) 6= I 0, 1, 3 (X).
Alla luce del diagramma indicato sopra e di quanto abbiamo già provato, data una tale funzione ι si dovrà avere
ι 6= ι̃ := ξ ◦ π(ι) , π(ι) = π(ι̃) .
Si ha ι 6= ι̃ perché ι non soddisfa la 2 mentre ι̃ la soddisfa (in quanto nell’immagine di ξ) e risulta π(ι) = π(ι̃)
perché π ◦ ξ = Id T op(X) .
L’esempio della nota è un esempio di una tale funzione. Come ci aspettiamo alla luce dell’ultimo passaggio della
dimostrazione vista, si ha S
ι({a, b}) = {a} = 6 A = ∅
A ⊆ {a, b} | ι(A) = A
La parte dell’esercizio concernente Rn segue da considerazioni generali che, per questa ragione, vediamo prima.
Se (X, d) è uno spazio metrico e o ∈ X un punto, si ha che Bo, r è aperto (per definizione di topologia associata
alla metrica) e Do, r è chiuso (X rDo, r contiene un intorno di ogni suo punto: se x 6∈ Do, r , i.e. δ = d(x, o) > r,
X r Do, r contiene il disco aperto di centro x e raggio δ − r). Poiché Bo, r ⊆ Do, r si ha che
(♠) ∂ Bo, r ⊆ Do, r r Bo, r = So, r e ∂ Do, r ⊆ Do, r r Bo, r = So, r
Infatti, in generale, per A aperto ⊆ C chiuso, si ha quanto segue:
∂ A := A ∩ X r A = A ∩ (X rA) ⊆ C rA e ∂ C := C ∩ X rC = C ∩ X rC ⊆ C rA.
Le inclusioni in (♠) sono le uniche due inclusioni fra le sei dell’esercizio che valgono per ogni spazio metrico.
Iniziamo con un’osservazione banale:
se d è la metrica discreta, cioè d(x, y) = 1, ∀ x, y ∈ X, allora ∂ Bo, r = ∂ Do, r = ∅, ma So, 1 = X r{o}.
Volendo investigare più a fondo come possono essere fatti ∂ Bo, r e ∂ Do, r osserviamo quanto segue:
(⋆) ∂ Bo, r = x ∈ So, r | Ux ∩ Bo, r 6= ∅, ∀ Ux e ∂ Do, r = x ∈ So, r | Ux ∩ (XrDo, r ) 6= ∅, ∀ Ux
(intorno di x) (intorno di x)
Da ciò si evince che sono indipendenti: se pensiamo ad So, r come a un confine, ∂ Bo, r dipende solo da quello
che c’è dentro il confine, mentre ∂ Do, r dipende solo da quello che c’è fuori (in termini formali, vale (⋆) ). Per
esempio, se fissiamo H, K ⊆ A ⊆ So, 1 ⊆ R2 (con H e K chiusi in A), quindi definiamo
X = {o} ∪ A ∪ x ∈ R2 λx ∈ H per qualche λ ≥ 1 oppure µx ∈ K per qualche µ ≤ 1
(o = origine di R2 ), abbiamo So, 1 = A, ∂ Bo, 1 = H e ∂ Do, 1 = K . Questo perché i punti di H (ovvero i
punti di K ) sono esattamente i punti della descrizione (⋆) di ∂ Bo, r (ovvero quella di ∂ Do, r ).
H
X1 X := {o} ∪ A ∪ X1 ∪ X2
K X2
o
So, 1 = A , ∂ Bo, 1 = H , ∂ Do, 1 = K
Nota. Nell’esempio descritto, se H non fossse chiuso in A, si avrebbe ∂ Bo, 1 = H (A può essere non-chiuso
in R2 , comuqnue è chiuso in X, il nostro ambiente, per cui le chiusure di H in A ed in X coincidono).
Esercizio 24 (Soluzione).
1
Posto r = q), i dischi aperti3 Up := Bp, r e Uq := Bq, r hanno intersezione vuota. Ciò prova b e, a
2 d(p,
maggior ragione, prova a (per p fissato, ogni punto q è interno a X r{p}).
Fissato A ⊆ X ed un punto p ∈ X , si ha che p è interno ad X r A se e solo se esiste un disco aperto
Bp, r (dove r > 0) interamente contenuto in X rA, ovvero se e solo se dist(A, p) ≥ r > 0. Cio prova la d e,
in particolare, prova anche la c.
Quanto alla e, l’iperbole xy −1 = 0 e l’asse y = 0 sono chiusi ed hanno distanza nulla.
Ai fini della f, dato x ∈ X, è sufficiente considerare i dischi aperti Bx, r con r ∈ Q (r > 0).
Proviamo la g (seguiamo il suggerimento). La i) è ovvia. Se x ∈ C , allora dist{x, C} = 0 e dist{x, D} > 0
(punto c), quindi x ∈ UC (analogamente, se x ∈ D, allora x ∈ UD ); ciò prova la ii). Se x ∈ UD , i.e.
c := dist{x, C} > d := dist{x, D}, allora il disco aperto centrato in x e raggio 21 (c − d) è interamente
contenuto in UD , di conseguenza UD è aperto (analogamente, anche UC è aperto).
Esercizio 25 (Soluzione).
f >g
Dato x ∈ L , scelto y0 soddisfacente la condizione f (x) > y0 > g(x), si ha che g −1 (−∞, y0 ) ∩ f −1 (y0 , +∞)
f >g
è un intorno aperto di x contenuto in L . Di conseguenza questo luogo è aperto.
f≥g g>f f >g
Il luogo L è chiuso (in quanto complementare del luogo L , che è aperto), poiché contiene L , ne
contiene anche la chiusura.
Per dare il controesempio richiesto basta prendere f = g (o due qualsiasi funzioni che coincidono in un insieme
contenente un aperto non vuoto).
Esercizio 26 (Soluzione).
Se f (x) 6= g(x), i dischi aperti Bf (x), r e Bg(x), r sono loro intorni disgiunti per r = 21 d(f (x), g(x)). Le funzioni
f e g assumono valori distinti nell’intersezione f −1 Bf (x), r ∩ g −1 Bg(x), r . Questo è un intorno aperto x e,
f 6= g f =g
di conseguenza, il luogo L è un insieme aperto ed il suo complementare L è chiuso.
Esercizio 27 (Soluzione).
Se dotiamo Y della topologia banale, ogni funzione che ha Y come codominio è continua. Avendo effettuato
una tale scelta (con Y contenente almeno due punti) possiamo ottenere qualsiasi cosa: possiamo prendere un
f =g
qualsiasi spazio X ed un qualsiasi sottoinsieme A ⊆ X e fare in modo che risulti L = A.
Si, è possibile esibire gli esempi richiesti con Y avente punti chiusi, ma è più complicato. A tale fine, si può
••
prendere X = R (con la topologia naturale) ed Y = R “la retta con due origini” (introdotta più avanti nelle
•, • f =g
note). Per le due inclusioni naturali R ֒→ R si ha L = R r {0} (che è aperto ma non è chiuso), a
f =g
questo punto per dare un esempio dove L non è né aperto né chiuso la strada è in discesa: basterà modificare
un poco una delle due inclusioni, ad esempio, sostituendola con la funzione x2 nella semiretta x ≥ 1 si avrà
f =g
L = (−∞, 0) ∪ (0, 1].
Esercizio 34 (Soluzione).
Il sottoinsieme A viene contratto ad un punto. Quindi, se B ∩ A = ∅ si ha π −1 π(B) = B, se ciò non accade
si ha π −1 π(B) = A ∪ B. Questa considerazione implica le affermazioni dell’esercizio.
Esercizio 35 (Suggerimento).
Gli insiemi indicati nel testo dell’esercizio sono in corrispondenza biunivoca:
[0, 1]/{0, 1} ←−−→ R/Z −−−→ S1 ←−−→ P1R := R2 r{o}
∼
t 7→ cos(2πt), sin(2πt)
(la prima e la terza funzione sono quelle ovvie: ad un punto associano la sua classe di equivalenza). A questo
punto è sufficiente osservare che tramite queste funzioni gli aperti dei vari spazi si corrispondono.
Esercizio 39 (Soluzione).
Proviamo che P1C ∼ b Consideriamo la proiezione naturale π e la funzione ϕ come nel diagramma indicato
= C.
π
C2 r {o} −−−−→ P1C ∋ xy
ϕy ↓
b
C ∋ x/y (∞ se y = 0)
x
2
x
dove y ∈ C r{o} e y ne denota la classe d’equivalenza in P1C . La funzione ϕ è biunivoca:
la sua inversa è la funzione che manda t in 1t , ovvero in 10 se t = ∞.
In quanto funzione biunivoca, provare che è un omeomorfismo significa provare che fa corrispondere gli aperti
dei due spazi P1C e C b . D’altro canto, per definizione di spazio quoziente, un sottoinsieme A ⊆ P1 è aperto
C
se e solo se la sua immagine inversa π −1 (A) ∈ C2 r{o} è aperta. Pertanto, provare che ϕ è un omeomorfismo
equivale a provare quanto segue:
(♣) b
U ⊆C è aperto se e solo se la sua immagine inversa (ϕ ◦ π)−1 (U ) ∈ C2 r{o} è aperta.
Poniamo M := C2 r{o} e V := (ϕ ◦ π)−1 (U ). Ci sono due possibilità:
x
i) ∞ 6∈ U (i.e. U ⊆ C), in questo caso V = y 6= 0, x/y ∈ U ;
y ∈ M
x
ii) ∞ ∈ U , in questo caso V = y 6= 0, x/y ∈ U ∩ C ∪ t ∈ M t 6= 0 .
y ∈ M 0
In ogni caso, V è un cono4 privato del vertice o (ricordiamo che siamo in M ) ed interseca il piano di equazione
y = 1 (che via C × {1} ∼ = C identifichiamo con C) in U ∩ C. Pertanto, denotando con M0 l’aperto {y 6= 0},
abbiamo quanto segue
V0 := V ∩ M0 è il cono (sempre privato del vertice o) su U ′ ×{1} , dove U ′ denota U ∩ C .
Di conseguenza,
(1) U ∩ C è aperto se e solo se V0 è aperto.
Ciò prova (♣) nel caso i) e, relativamente al caso ii), riduce il problema ad una questione locale nel punto
sarà sufficiente provare che U è un intorno di ∞ se e solo se V è un
all’inifinito, precisamente ci dice che
intorno dei punti di M del tipo 0t , t 6= 0. (Questo perché un insieme è aperto se e solo se è un intorno di ogni
suo punto e, alla luce dell’osservazione (1), già sappiamo che U è un intorno di tutti i suoi punti in C se e solo
se V è un intorno di tutti i suoi punti in M0 ).
b
Vista com’è definita
la topologia di C, dire che U è un intorno di ∞ equivale a dire che contiene l’insieme
I∞, r := {∞} ∪ t ∈ C |t| > r (per un qualche valore r > 0). D’altro canto, per r > 0,
x
(ϕ ◦ π)−1 (I∞, r ) = x > 0, | y | < 1
y x r
Poiché questo è il cono sul disco {1} × {y | |y| < 1/r} e V è un intorno dei punti di M del tipo 0t , t 6= 0,
se e solo se contiene un tale cono, abbiamo concluso.
Un omeomorfismo C b ∼= S 2 è dato dalla proiezione stereografica: si fissa un punto N ∈ S 2 ed un piano H ⊆ R3
(con H 6∋ N ), quindi si definisce φ : S 2 −→ H b ∼
=C b (H b definito via H ∼ = R2 ∼
= C) come proiezione su H sui
punti in S 2 r{N } e ponendo φ(N ) = ∞. La proiezione in questione è un omeomorfismo, che lo sia anche φ
segue dal fatto che gli intorni di N corrispondo a sottoinsiemi di H ∼ = C avente complementare limitato.
Esercizio 42 (Soluzione).
T
L’insieme descritto in (♣) è l’intersezione πj−1 (Uj ) . Tenendo presente che J è finito, le intersezioni di
j∈J
questo tipo costituiscono una base per la topologia prodotto, cfr. nota (41.1).
Esercizio 43 (Soluzione).
Gli elementi non vuoti in (♣) suriettano su Xα quasi per ogni5 indice α, questa proprietà continua a valere
per le loro unioni, quindi per ogni aperto non vuoto della topologia prodotto. Di conseguenza, un prodotto di
aperti (non vuoti) che non soddisfi tale proprietà non è aperto per la topologia prodotto. Infine, esiste almeno
un tale prodotto di aperti esattamente quando ci sono infiniti Xα con la topologia non banale.
4 Se contiene un punto contiene tutti i suoi multipli.
5 Dicendo “quasi per ogni” intendiamo “per ogni, eccetto che per una quantità finita di”.
6
Esercizi 44 e 45 (Soluzioni).
Che la topologia naturale di Rn coincida con la topologia prodotto segue dal fatto elementare che ogni disco
n
aperto è unione di plurirettangoli aperti e viceversa. I due spazi Rn /Zn e (T 1 ) = (R/Z)n si identificano in
modo naturale come insiemi, pertanto il fatto che siano o meno omeomorfi è una questione di topologia locale,
d’altro canto che siano localmente omeomorfi (via l’identificazione) segue dal risultato già acquisito (44).
Esercizio 54 (Suggerimenti).
Innanzi tutto si consideri il diagramma
γ i
[0, 1] −−−−→ Γf ֒→ [0, 1] × Y
t 7→ (t, f (t))
π[0, 1] πY
ւ ց
[0, 1] Y
e si verifichi che f è continua ⇐⇒ γ è continua. (Per l’implicazione “⇐=” si osservi che f = πY ◦ i ◦ γ ).
Da quanto sopra si deduca che se f è continua, allora Γf è compatto (si usi la 51.2).
• Per provare che “ Γf compatto =⇒ f continua” si può procedere in diversi modi:
I metodo. Si proceda per assurdo: se f non è continua, esiste un chiuso Z ⊆ Y la cui preimmagine non è chiusa,
quindi non compatta (in [0, 1] i compatti coincidono con i chiusi). Sia U = {Uα } un ricoprimento aperto di
f −1 (Z) dal quale non è possibile estrarre un sottoricoprimento finito. A questo punto sarà sufficiente verificare
che, posto A = Y r Z ,
{ [0, 1] × A , Uα × Y }
è un ricoprimento aperto di Γf dal quale non è possibile estrarre un sottoricoprimento finito. (l’insieme [0, 1]×A
non intercetta nessun punto del tipo (t, f (t)) con t ∈ f −1 (Z), per cui volendo ricoprire Γf siamo costretti, in
particolare, a prendere una sottocollezione degli Uα × Y in modo che la corrispondente sottocollezione degli Uα
ricopra f −1 (Z)).
II metodo. Sempre per assurdo, devono esistere τ ∈ [0, 1] e W ⊆ [0, 1] tali che τ ∈ W , f (τ ) 6∈ f (W )
(esercizio 8). A questo punto si consideri la famiglia
[0, 1] × f (W ), [τ − n1 , τ + n1 ] × Y n ≥ 1
e si verifichi che questa è una famiglia chiusa avente intersezione vuota in Γf (i.e. l’intersezione con Γf degli
insiemi della famiglia è vuota).
III metodo. La composizione ω := π[0, 1] ◦ i è continua (sempre! ...convincersene). Se Γf è compatto, allora ω
è anche chiusa (per la 51.2 e 51.3). D’altro canto ω è biunivoca, quindi è un omeomorfismo. A questo punto è
sufficiente osservare che l’inversa di ω è la funzione γ (la cui continuità equivale alla continuità di f ).
7
Esercizio 55 (Soluzione).
Sia B = {Bi }i∈N una base numerabile della topologia di X ed U = {Uα }α∈A un ricoprimento aperto. Le
coppie (Bi , Uα ) soddisfacenti Bi ⊆ Uα definiscono una corrispondenza Γ ⊆ N × A. Prendendo, per ogni i
nell’immagine della proiezione Γ −→ N, un Uα (uno solo) corrispondente, si ottiene una sottofamiglia numer-
abile di U che ricoprire X perché per ogni punto x ∈ X esistono due indici i ed α tali che x ∈ Bi ⊆ Uα .
Esercizio 56 (Soluzione).
La famiglia dei cerchi di centro razionale (= avente coordinate razionali) e raggio razionale è una base per la
topologia naturale di Rn .
Esercizio 59 (Suggerimenti).
a. dopo aver provato il primo “⇐⇒” (che è facile), nell’ipotesi che X sia T1, dato A ⊆ X si consideri
l’intersezione degli aperti del tipo X r {q}, q 6∈ A ;
b. si usi l’esercizio (58.b) ed il fatto che la topologia prodotto è generata dai prodotti di aperti;
La (1) è stata già provata: è un caso particolare del punto c. La (3) è la proposizione (60) e verrà provata
più avanti, cfr. soluzione dell’esercizio (60.1).
Proviamo la (2). Si vuole provare che dato C chiuso in X, anche f (C) è chiuso. Poiché Y ha la topologia
quoziente, un suo sottoinsieme è chiuso se e solo se lo è la sua immagine inversa. Pertanto il nostro problema
è quello di provare che f −1 f (C) è chiuso. Si verifica facilmente che risulta
f −1 f (C) = π2 ∆f ∩ (C × X)
(dove π2 : X × X −→ X denota la proiezione sul secondo fattore). Poniamo K := ∆f ∩ (C × X).
Si ha che K è chiuso in quanto intersezione di due chiusi. D’altro canto X × X compatto (perché X è
compatto, cfr. 51.4). A questo punto possiamo concludere:
K chiuso =⇒ K compatto =⇒ π2 (K) compatto =⇒ π2 (K) chiuso
segue dalla (51.3) segue dalla (51.2)
(l’ultima implicazione segue dal fatto che un compatto in uno spazio di Hausdorff è chiuso).
Esercizio 65 (Soluzione).
Per l’esercizio (63.1, c), le componenti connesse, in quanto connessi massimali, sono disgiunte. La (63.1, c) vale
anche per unioni arbitrarie ∪ i Ci di sottospazi connessi aventi un punto p in comunue (nella dimostrazione data
sopra, l’aperto U contenente p deve contenere Ci per ogni Ci dell’unione), di conseguenza Γx è connesso.
D’altro canto Γx è massimale per ragioni tautologiche: un connesso che lo contenesse conterrebbe anche x e
sarebbe un membro dell’unione indicata. Questo prova sia l’affermazione b che la a (per l’arbitrarietà di x). La
c segue direttamente dalla (63.1, a). Proviamo la d: se W è sia aperto che chiuso e x ∈ W , allora W ∩ Γx è
non-vuoto, sia aperto che chiuso in Γx . Essendo Γx connesso si deve avere W ∩ Γx = Γx , i.e. Γx ⊆ W .
Esercizio 66 (Soluzione).
L’unico connesso contenente il punto o è l’insieme {o} , quindi Γo = {o}.
Iniziamo con un’osservazione preliminare riguardante la topologia dei razionali: si ha (a, b) ∩ Q = [a, b] ∩ Q, per
a e b non razionali (naturalmente, analoghe considerazioni valgono per il nostro spazio Q •• ).
In Q •• , ogni clopen contenente il punto o deve, in particolare, contenere un intorno di o e la sua chiusura, quindi
deve contenere un intervallo del tipo (−ǫ, ǫ), ǫ > 0, intervallo dei razionali compresi tra −ǫ ed ǫ comprensivo
di entrambe le origini o ed o′ (che nella chiusura di ogni intorno di o vi sia anche o′ è un fatto cruciale!).
D’altro
√ canto, per l’osservazione preliminare, gli intervalli di tale tipo sono clopen per ǫ non razionale (e.g. del
′
tipo 2/n, n intero positivo). Pertanto, intersecando tutti i clopen contenenti o si ottiene Θo = {o, o }.
Esercizio 67 (Soluzione).
È tutto corretto, eccetto la conclusione! Si può concludere che vale l’uguaglianza Γp = Θp a condizione che
esista davvero un clopen minimale contenente p. Nel caso dell’esempio Q •• (esercizio 34), per p = o un tale
clopen minimale non esiste affatto (a dirla tutta non esistono clopen minimali contenenti p per alcun p ∈ Q •• ,
però se p non è una delle due origini si ha comunque Γp = Θp = {p}).
Esercizio 69 (Soluzione).
S
La prima affermazione è immediata: (a, b) = [x, b) .
x ∈ (a, b)
S S
Proviamo la seconda. Dati due chiusi disgiunti C e K , consideriamo U = [c, c′ ), V = [k, k ′ ) dove
c∈C k∈K
ogni [c, c′ ) è un aperto di Sorgenfrey che non interseca K ed ogni [k, k ′ ) è un aperto di Sorgenfrey che non
interseca C . Gli aperti U e V risultano automaticamente disgiunti: se si avesse [c, c′ ) ∩ [k, k ′ ) 6= ∅, allora
[c, c′ ) intersecherebbe K (nel caso c < k), oppure [k, k ′ ) intersecherebbe C (nel caso k < c).
9
Esercizio 70 (Soluzione).
Dati un punto p = (x, y) ed un chiuso C ⊆ R2Sorg , con p 6∈ C , esiste un aperto del tipo [x, x+2δ)×[y, y+2δ) che
non interseca C . A questo punto basta considerare U = [x, x+δ)×[y, y +δ) e V = R2Sorgr[x, x+δ]×[y, y +δ]
(sono aperti disgiunti, il primo contiene il punto p, il secondo il chiuso C ). Ciò prova l’affermazione (a.).
Le affermazioni (b.), (c.) e (d.) sono osservazioni evidenti.
Proviamo la (f.) (che, come stabilito nelle indicazioni che seguono il testo dell’esercizio, implica la (e.)). Si
fissi una numerazione dei punti di C , per il primo punto p1 si prenda un qualsiasi Rp1 , quindi si proceda
induttivamente prendendo un Rpn disgiunto dai precedenti (che sono in numero finito).
Chiaramente, l’argomento precedente non funziona con un insieme C non numerabile! ...dunque possiamo ancora
sperare di riuscire a provare la (g.).
Proviamo la (g.). Iniziamo con una premessa: vista la (c.), ricordando che r ha equazione x+y = 0, è sufficiente
provare che non esiste una collezione di retangoli R p = (x, −x) = [x, x + δ) × [−x, −x + δ) (con δ che dipende
da p) tali che
S S
(⋆) U ∩ V = ∅ , dove U := R p e V := Rp .
p ∈ rraz p ∈ rirr
Ribadiamo un aspetto, per quanto questa affermazione possa sembrare intuitivamente evidente, se si sostituisce
r
irr con rirr&alg , non solo risulta falsa, ma vale un risultato molto più forte (l’affermazione f) che va
esattamente nella direzione opposta!
L’affermazione (♣) è equivalente alla (g.). Ciò segue dal fatto che due rettangoli R p = [x, x + α) × [−x, −x + α)
ed R q = [z, z + β) × [−z, −z + β) hanno intersezione vuota se e solo se min{α, β} ≤ |x − z| .
Non c’è una ragione “matematica” che mi ha spinto a scrivere la traduzione (♣) della (g.), ma il bisogno di
alleggerire la notazione. L’insieme R in (♣) corrisponde ad r tramite la funzione x 7→ (x, −x) ∈ r ⊆ R2 .
Sorg
Per provare (♣) ragioniamo per assurdo, assumiamo che esista una tale funzione δ. A questo punto
scegliamo x0 ∈ Q,
scegliamo z1 ∈ x0 , x0 + 21 δ(x0 ) ∩ (R r Q) (automaticamente, si avrà δ(z1 ) ≤ z1 − x0 < 12 δ(x0 )),
scegliamo x2 ∈ z1 − 12 δ(z1 ), z1 ) ∩ Q (si avrà δ(x2 ) ≤ z1 − x2 < 12 δ(z1 )),
1
scegliamo z3 ∈ x2 , x2 + 2 δ(x2 ) ∩ (R r Q) (si avrà δ(z3 ) ≤ z3 − x2 < 21 δ(x2 )),
scegliamo x4 ∈ z3 − 12 δ(z3 ), z3 ) ∩ Q (si avrà δ(x4 ) ≤ z3 − x4 < 12 δ(z3 )),
...
In termini del vecchio problema (g.), al passo n + 1 si prende un punto p
n+1 nella proiezione ortogonale su r
del rettangolo Rp relativo al punto p scelto al passo precedente, si effettuano le scelte alternando punti in
n n
Q e punti in R r Q, questo affinché ogni rettangolo R non possa intersecare il precedente (cfr. ⋆), inoltre
p
al passo n + 1 si sceglie p
n+1 a destra di pn per n pari (ovvero a sinistra, per n dispari).
Gli xi crescono (i pari) ed i zj decrescono (j dispari), ad ogni passo la distanza che separa un punto dal
successivo si dimezza (almeno). Per questa ragione la successione dei punti scelti deve convergere ad un punto ω.
A questo punto siamo pronti a concludere: il punto ω non può appartenere né a Q né ad RrQ. Infatti, se ω
10
fosse razionale, per i sufficientemente alto si avrebbe δ(zi ) < δ(ω) e, di conseguenza, l’assurdo
1
δ(zi ) = min{δ(zi ), δ(ω)} ≤ zi − ω < zi − xi+1 < 2 δ(zi ) .
1
Analogamente, se ω ∈ RrQ , allora δ(xi ) = min{δ(xi ), δ(ω)} ≤ ω − xi < zi+1 − xi < 2 δ(xi ) (sempre
per i sufficientemente alto, precisamente che soddisfi δ(xi ) < δ(ω)).
Nota. Questa dimostrazione nasconde un po’ la questione cruciale della cardinalità (che in realtà viene usata
nella completezza di R). Gli insiemi Mξ := { p ∈ RrQ | δ(p) > ξ} non possono avere punti di accumulazione
in Q: se q ∈ Q fosse di accumulazione per Mξ , ci sarebbero degli Rp (p ∈ RrQ) aventi intersezione non vuota
con Rq . D’altro canto gli Mξ crescono al decrescere di ξ, risultano non numerabili per ξ minore di un qualche
valore ξ0 ed infine la loro unione è RrQ . Per quanto possa sorprendere tutte queste proprietà non costituiscono
una contraddizione (e gli Nξ := { q ∈ Q | δ(q) > ξ} ci aiutano ancora meno)!
Sembrerebbe che ragionare come nella nota non ci aiuti, comunque è possibile dare una dimostrazione alternativa
e per certi versi più generale, il fatto che R2Sorg non è T 4 segue dal lemma di F. B. Jones:
Lemma (di Jones). Sia X uno spazio topologico T 4. Se D ⊆ X è un sottoinsieme denso (i.e. D = X) ed E
è un sottospazio chiuso discreto, allora
(♠) cardinalità P(E) ≤ cardinalità P(D)
dove P(...) denota l’insieme delle parti dell’insieme tra parentesi.
L’idea della dimostrazione è la seguente: ad ogni sottoinsieme A di E si associa un aperto UA di X tale che
UA ⊇ A ed è disgiunto da un qualche aperto WA contenente E rA, qui si usa l’ipotesi che X è T 4 ed E è
chiuso e discreto (ogni suo sottoinsieme è chiuso in X), quindi vi si associa UA ∩ D. Questa funzione risulta
iniettiva e, di conseguenza, prova la disuguaglianza (♠).
Esercizio 81 (Soluzione).
a. Fissiamo una base B numerabile di Rn (cfr. esercizio 56). Se X è discreto, ad ogni x ∈ X possiamo associare
un elemento B ∈ B che ha interseca X esattamente in {x}. La funzione f : X −→ B cosı̀ definita è iniettiva,
ne segue che X è numerabile.
b. È sufficiente che sia possibile scegliere un punto x ∈ X ed un intorno U di x in modo che XrU sia ancora
infinito (si itera questa operazione con l’insieme che resta scartando U ). Ciò è possibile perché X è T 2: presi
due punti e loro intorni separati il complementare di uno dei due intorni è necessariaamente infinito.
c. Se fosse chiuso, in quanto limitato sarebbe anche compatto, quindi non potrebbe essere infinito e discreto.
d. L’implicazione “⇐=” segue da c (i compatti sono limitati). Proviamo la “=⇒”: se X non è compatto, o non
è limitato o non è chiuso, nel primo caso, per n ∈ N, si scelga un punto pn esterno al disco chiuso di raggio n,
1
nel secondo si fissi w ∈ XrX e si scelga un punto pn nel disco aperto di centro w e raggio n+1 . Si osservi che
in entrambi i casi l’insieme dei pn è discreto, ma anche chiuso in X .
11
Esercizio 83 (Soluzione).
Per ragioni esclusivamente grafiche consideriamo i coni astratto e geometrico sull’intervallo [−1, 1] per il caso
compatto, quelli sull’intervallo (−1, 1) per il caso non compatto (cfr. domande d ed e ).
Cominciamo col primo caso. Consideriamo dunque il cono astratto Ca (X) sull’intervallo X = [−1, 1]:
X = [−1, 1] , Ca (X) = X ×I X ×{0} (cono astratto)
Inoltre, consideriamo il cono geometrico:
0
Cgeom (X) := “ luogo (in R2 ) ottenuto unendo i punti di [−1, 1] × {1} con l’origine o = 0 ”.
1
Si osservi che quello descritto è il triangolo di vertici 00 , −1
1 , 1 .
C’è una corrispondenza biunivoca naturale tra questi due oggetti, corrispondenza che illustriamo in figura
X ×I = x
∋ t
ω◦π
π
Osserviamo che la funzione ω è la stessa indicata nel testo dell’esercizio: xtt = t x1 + (1−t) 00 .
La corrispondenza ω è un omeomorfismo. Infatti, per t 6= 0 , i.e. fuori dal vertice, ω è un omeomorfismo perché
la funzione (x, t) 7→ (xt, t) si inverte. D’altro canto ω ◦ π è continua, quindi basterà provare che gli intorni
aperti di v vanno in intorni di o. Dunque, U è un aperto contenente v se e solo se, per definizione di topologia
quoziente, π −1 (U ) è un aperto contenente la base π −1 (v) = X × {0}, ma un tale insieme, essendo [−1, 1]
compatto, deve necessariamente contenere tutta una fascia del tipo [−1, 1] × [0, ǫ) il suo complementare avrà
distanza ǫ > 0 dalla nostra base X ×{0} e pertanto la sua immagine tramite ω è un intorno di o.
Quanto visto sopra di fatto utilizza esclusivamente la compattezza di X . In definitiva:
• se X ⊆ R
n
è compatto, allora ω è un omeomorfismo, in particolare Ca (X) ∼ = Cgeom (X) .
Nel caso del cono su un intervallo aperto X = (−1, 1) le cose vanno in maniera diversa, sebbene la figura sia
simile:
X ×I = γ x
∋ t
U
ω◦π
π
In X ×I , la regione U che si trova sotto la curva γ è un aperto contenente X ×{0}, la base che contraiamo.
Pertanto π(U ) (costituita dalla regione interna al cappio α e dal vertice v) è un aperto del cono astratto Ca (X).
D’altro canto l’immagine ω ◦ π(R) (costituita dalla regione interna al cappio σ e dal vertice o) non è un intorno
di o (nella topologia del cono geometrico, che è la topologia indotta da R2 ).
Quanto sopra in realtà non prova molto7 , ci dice solamente che l’identificazione insiemistica naturale ω non è
7 Naturalmente, l’argomento esposto ci dà una buona evidenza del fatto che il cono astratto su un intervallo aperto non è omeomorfo
al corrispondente cono geometrico: un eventuale omeomorfsmo ω̃ dovrà portare v in o (provarlo non è difficile) e sembrerebbe
ragionevole dire che la figura non può cambiare molto e ω̃ ◦ π (U ) non può essere un intorno di o.
12
un omeomorfismo (domanda e). In effetti, ci suggerisce anche qualcosa: che il cono astratto su un intervallo
aperto X abbia molti più aperti. Ciò accade davvero:
(♣) Ca (X) non è primo numerabile nel vertice v , in particolare non è metrizzabile
(cfr. def. 18.3 e def. 28), mentre il cono geometrico è uno spazio metrico in quanto sottospazio di R2 . Questo
prova che il cono astratto Ca (X) ed il cono geometrico Cgeom (X) non possono essere omeomorfi.
Ora proviamo (♣). Per cominciare, osserviamo che la seconda condizione segue dalla prima: ogni spazio metrico
è primo numerabile (cfr. eser. 28.1). Proviamo che Ca (X) non è primo numerabile nel vertice v (cfr. eser. 18.4).
Per come è definita la topologia quoziente, gli aperti V di Ca (X) contenenti il vertice v sono in corrispondenza
biunivoca via π con gli aperti U di X ×I contenenti X ×{0}, pertanto sarà sufficiente provare quanto segue:
(
nel prodotto X ×I non esiste una famiglia numerabile di aperti F := Ui i∈N tale che
(♠)
a. X ×{0} ⊆ Ui , ∀ i b. ∀ aperto U ⊇ X ×{0} , ∃ i Ui ⊆ U
Poiché X non è compatto, ammette un sottoinsieme discreto numerabile Z = pi i∈N , con Z chiuso in X
(cfr. esercizio 81.d). Fissata una famiglia F come in (♠.a), si ha che
∀ i , ∃ ǫi > 0 Ui ⊇ {pi }×[0, ǫi ) .
A questo punto, ragionando per assurdo, sarà sufficiente trovare un aperto U ⊆ X×I con le proprietà seguenti:
(⋆) X ×{0} ⊆ U , U ∩ {pi }×I = {pi }×[0, 12 ǫi )
(n.b.: nessuno degli Ui è contenuto in U , questo per come Ui ed U intersecano {pi }×I ). L’esistenza di un
tale aperto U segue dal fatto che Z è discreto e chiuso in X . Ad esempio, basterà prendere
S
U := X × I r {pi } × [ 12 ǫi , 1]
i∈N
Proviamo che U è aperto: poiché Z è chiuso in X , i punti del tipo (x, t) con x ∈ X rZ sono interni ad U ;
poiché Z è discreto, anche i punti del tipo (pi , t) con t < 21 ǫi sono interni ad U . Essendo i punti di U di uno
dei due tipi considerati, U è aperto in quanto intorno di ogni suo punto. Ciò conclude la dimostrazione.
Questa volta di fatto abbiamo utilizzato esclusivamente la non compattezza di X . In definitiva:
• se X ⊆ R
n
non è compatto, allora Ca (X) non è metrizzabile.
Nota. Quanto all’esistenza di un aperto U soddisfacente la condizione (⋆) ci sono varie alternative alla soluzione
proposta, una di queste è quella di prendere una funzione continua
1
f : X −→ I soddisfacente f (pi ) = 2 ǫi , f (x) > 0 , ∀ x ∈ X ,
quindi prenderne il sottografico, i.e. il luogo dei punti (x, t) ∈ X ×I | f (x) < t (ai fini dell’esistenza di una
tale funzione è cruciale il fatto che Z sia discreto e chiuso in X , questo perché sono assegnati i valori di f su
Z e vogliamo estendere la definizione a tutto X ).
TOPOLOGIA
ALBERTO SARACCO
Contents
1. Definizioni di base 1
1.1. Definizione di spazio topologico 2
1.2. Spazi metrici 3
1.3. Definizioni alternative di spazio topologico 5
1.4. Funzioni continue 6
1.5. Sottospazi, unioni disgiunte e prodotti di spazi topologici 8
1.6. Basi e sottobasi 10
2. Compattezza 11
2.1. Un’utile proprietà 15
2.2. La compattificazione di Alexandrov 16
3. Assiomi di separazione 17
4. Costruzione di funzioni continue su spazi topologici 22
4.1. Il lemma di Urysohn 22
4.2. Lemma di estensione di Tietze 23
4.3. Partizioni dell’unità e paracompattezza 24
5. Proprietà di connessione 27
5.1. Connessione 27
5.2. Connessione per archi 28
5.3. Versioni locali delle proprietà di connessione 30
6. Omotopia 30
7. Il gruppo fondamentale 32
7.1. Cammini 32
7.2. Il gruppo fondamentale 34
8. Rivestimenti 34
9. Il teorema di Seifert-Van Kampen 34
References 34
1. Definizioni di base
La nozione di spazio topologico è una naturale estensione di R, Rn , C,
Cn e del concetto di spazio metrico. È utile per dare in tutta generalità la
Date: February 4, 2012.
1
2 A. SARACCO
La metrica d1 :
n
X
d1 (x, y) = |xi − yi |, x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ,
i=1
la metrica d∞ :
d(x, y)
d0 (x, y) =
1 + d(x, y)
Esempio 1.5. Sia (X, D) uno spazio dotato della topologia discreta. Allora
X è metrizzabile. Definendo infatti d(x, y) = 1 se x 6= y e d(x, x) = 0 si
ottiene che {x} = B 1 (x) è un insieme aperto. Tutti i singoletti sono aperti,
2
quindi (per l’assioma A1) tutti i sottoinsiemi di X sono aperti. Pertanto
Od = D.
Esempio 1.6. Sia (X, B) uno spazio con almeno due punti dotato della
topologia banale. Allora X non è metrizzabile. Siano infatti x 6= y ∈ X due
punti distinti e supponiamo che d sia una metrica su X. Allora d(x, y) =
δ > 0 e Bδ (x) contiene x ma non y. Pertanto la topologia indotta da d ha
almeno un aperto non vuoto diverso da tutto lo spazio. Quindi Od 6= B.
Definizione 1.6 (Assiomi per chiusi). Uno spazio topologico è una coppia
(X, C), dove X è un insieme e C è una famiglia di sottoinsiemi di X (i chiusi)
che verificano i seguenti assiomi:
C1 Un’intersezione qualsiasi di chiusi è un chiuso;
C2 L’unione di due (e quindi di un numero finito) apertichiusi è un
chiuso;
C3 ∅ e X sono chiusi.
Definizione 1.7 (Assiomi per intorni). Uno spazio topologico è una coppia
(X, U), dove X è un insieme e U = {Ux }x∈X è una famiglia di insiemi Ux di
sottoinsiemi di X (gli intorni di x) che verificano i seguenti assiomi:
I1 L’intersezione di due intorni di x è un intorno di x;
I2 Un insieme che contiene un intorno di x è un intonro di x;
I3 Ogni intorno di x contiene un intorno che è intorno di tutti i suoi
punti;
I4 Ogni intorno di x contiene x; X è intorno di tutti i suoi punti.
Definizione 1.8 (Assiomi per chiusura). Uno spazio topologico è una cop-
pia (X, ), dove X è un insieme e : X → X è un’applicazione (la chiusura)
che verifica i seguenti assiomi:
Ch1 A ⊂ A;
Ch2 A = A;
Ch3 A ∪ B = A ∪ B;
Ch4 ∅ = ∅.
Definizione 1.9 (Assiomi per interno). Uno spazio topologico è una coppia
(X, ◦), dove X è un insieme e ◦: X → X è un’applicazione (l’interno) che
verifica i seguenti assiomi:
◦
In1 A ⊃A;
◦
◦ ◦
In2 A=A;
◦ ◦ ◦
In3 (A ∪ B)=A ∪ B ;
◦
In4 X = X.
Dimostrare, per esercizio, l’equivalenza di queste definizioni.
È interessante osservare che anche tra le operazioni di chiusura e di interno
esiste una sorta di dualità.
In seguito useremo (quasi) sempre la definizione di spazio topologico per
aperti, ma lavorare su queste definizioni alternative costituisce un utile es-
ercizio per familiarizzare con i termini.
1.4. Funzioni continue.
Definizione 1.10. Una funzione f : X → Y tra spazi topologici è detta
continua se e soltanto se ∀U aperto di Y la controimmagine f −1 (u) è un
aperto di X.
È bene osservare che questa definizione generalizza quella standard di
funzione f : R → R continua (“∀x0 ∈ R, ∀ε > 0 ∃δ > 0 t.c. |x − x0 | < δ
implica |f (x) − f (x0 )| < ε” e le altre definizioni nel caso x0 sia ±∞), nel
caso in cui R sia dotato della topologia euclidea. Perchè? Esercizio per il
lettore.
Esempio 1.7. La funzione identica idX : (X, O) → (X, O) è una funzione
continua. Infatti la controimmagine di un aperto U è l’aperto U stesso.
Esempio 1.8. La funzione costante y0 : X → Y che ad ogni punto di X
associa y0 è continua. Infatti la controimmagine di un aperto qualsiasi U di
Y è X (se y0 ∈ U ) o ∅ (se y0 6∈ U ).
TOPOLOGIA 7
continua.
(1) ⇒ (2): idX×Y = (πX , πY ) : (X × Y, OX×Y ) → (X × Y, OX×Y ) è
continua. Quindi sono continue le proiezioni πX e πY .
Inoltre, sia O0 la topologia meno fine che rende continue le proiezioni.
Allora
idX : (X × Y, O0 ) → (X × Y, O)
10 A. SARACCO
2. Compattezza
Definizione 2.1. Sia X uno spazio topologico e S ⊂ X un sottoinsieme.
Un ricoprimento di S è una famiglia di sottoinsiemi {Uj }j∈J di X tali che
[
Uj ⊃ S .
j∈J
(se coı̀ non è, l’implicazione è vera poichè l’ipotesi è falsa) allora, definendo
Aλ = X \ Cλ , gli Aλ sono aperti tali che
[
Aλ = X ,
λ∈Λ
Corollario 2.3. Sia X uno spazio compatto e C = {Cn }n∈N una famiglia
numerabile di chiusi non vuoti di X tali che Cn+1 ⊂ Cn per ogni n ∈ N.
Allora \
Cn 6= ∅ .
n∈N
Attenzione: alcuni autori definiscono quasi compatti gli spazi che noi
abbiamo chiamato compatti, e definiscono compatto come quasi compatto
di Hausdorff. In questo modo i compatti sono sempre chiusi.
Purtroppo in topologia è molto comune che non ci sia accordo sul signi-
ficato esatto di un certo termine. In ogni occasione cercate di chiarire qual
è la definizione usata.
Corollario 2.14. I compatti di Rn sono tutti e soli i chiusi limitati.
Dimostrazione. Un chiuso e limitato di Rn è contenuto nel prodotto di n
intervalli chiusi (che è compatto). Quindi è un chiuso in un compatto e
pertanto compatto.
Un compatto di Rn è chiuso per il teorema appena dimostrato.
Un compatto di Rn è limitato perchè se non lo fosse le palle di centro
l’origine e raggio n, Bn (0), costituirebbero un suo ricoprimento aperto che
non ammette sottoricoprimenti finiti.
Corollario 2.15. Sia K un compatto. Una funzione f : K → R continua
ammette massimo e minimo.
Dimostrazione. L’immagine di K è un compatto di R, ovvero un chiuso
limitato. Poiché è limitata supK f e inf K f sono limitati, poiché è chiusa
sono valori assunti da f .
Teorema 2.16. Una biiezione continua f : X → Y da uno spazio X com-
patto a uno spazio Y di Hausdorff è un omeomorfismo.
Dimostrazione. Dobbiamo dimostrare che f −1 : Y → X è continua o –
equivalentemente– che le immagini degli aperti di X sono aperti di Y o
–ancora– che le immagini dei chiusi di X sono chiusi di Y .
Sia C ⊂ X un chiuso. Allora è un compatto (teorema 2.4), e la sua
immagine f (C) ⊂ Y è un compatto (teorema 2.7) in uno spazio T2 , quindi
è un chiuso (teorema 2.13).
3. Assiomi di separazione
L’assioma di Hausdorff fa parte di una vasta famiglia di assiomi, detti di
separazione, che hanno tutti la seguente struttura: Se due oggetti topologici
di X sono separati in questo senso debole, allora sono separati anche in
quest’altro senso più forte.
Gli assiomi di separazione prendono questo nome dal fatto che storica-
mente alcuni matematici includevano alcuni di essi nella definizione di cos’è
uno spazio topologico. Ad esempio Hausdorff, nella sua definizione di spazio
topologico, richiedeva che fosse soddisfatto l’assioma T2 . Ora si preferisce
dare una definizione più generale di spazio topologico e poi avere spazi che
verificano o meno certe proprietà di separazione.
Noi ci limiteremo a trattare alcuni degli assiomi di separazione.
Definizione 3.1. Uno spazio topologico X viene detto3:
T0 se per ogni coppia di punti distinti di X esiste un aperto che contine
uno di essi, ma non l’altro.
T1 se per ogni coppia x1 , x2 di punti distinti di X esistono due aperti
U1 e U2 tali che xi ∈ Ui , xj 6∈ Ui , i, j = 1, 2, i 6= j.
T2 se per ogni coppia x1 , x2 di punti distinti di X esistono due aperti
U1 e U2 disgiunti tali che xi ∈ Ui , i = 1, 2.
regolare se per ogni chiuso F ⊂ X e ogni punto x ∈ X \ F esistono due aperti
UF e Ux disgiunti tali che F ⊂ UF , x ∈ Ux .
3Purtroppo questa nomenclatura non è universalmente accettata: alcuni autori (ad
esempio [4]) invertono le definizioni di T3 e regolare, e quella di T4 e normale. Altri (ad
esempio [3]) considerano T3 e regolare sinonimi (di ciò che noi chiamiamo T3 ) e cosı̀ anche
T4 e normale. Occorre sempre prestare molta attenzione a cosa intende l’interlocutore
quando usa uno di questi termini.
I termini T0 , T1 , T2 sono universali (e a volte tali spazi vengono chiamati rispettivamente
Kolmogorov, Fréchet e Hausdorff).
18 A. SARACCO
T3 se è regolare e T1 .
normale se per ogni coppia di chiusi F1 , F2 disgiunti di X esistono due aperti
disgiunti U1 e U2 tali che Fi ⊂ Ui , i = 1, 2.
T4 se è normale e T1 .
Esercizio 3.1. Dimostrare che le definizioni date sono topologiche (ovvero
dati due spazi omeomorfi o soddisfano entrambi una delle condizioni o nes-
suno dei due la soddisfa).
Teorema 3.1. Uno spazio X è T0 se e solo se i suoi punti hanno famiglie
di intorni distinte (i punti sono topologicamente distinguibili).
Dimostrazione. Siano x1 e x2 due punti distinti di X.
Supponiamo che X sia T0 . Allora esiste un aperto U che è intorno di
uno dei due ma non dell’altro. Pertanto i punti sono topologicamente dis-
tinguibili.
Viceversa, supponiamo che i punti di X siano topologicamente distin-
guibili. Allora esiste un intorno I di uno dei due (diciamo x0 ) che non è
intorno dell’altro. Per definizione di intorno, esiste un aperto A ⊂ I intorno
di x0 che non contiene x1 .
Teorema 3.2. Uno spazio X è T1 se e solo se i punti di X sono chiusi.
Dimostrazione. Supponiamo che i punti di x siano chiusi. Allora i punti
distinti x1 e x2 appartengono rispettivamente agli aperti X \ {x2 } e a X \
{x1 }.
Viceversa, sia X T1 e x ∈ X un punto. Dimostrare che {x} è chiuso è
equivalente a dimostrare che X \{x} è aperto. Sia x2 ∈ X \{x}. Allora esiste
un suo intorno aperto U2 che non contiene x, e pertanto x2 ∈ U2 ⊂ X \ {x}.
Siccome x2 era generico, ciò vuol; dire che X \ {x} è aperto.
Corollario 3.3. Uno spazio topologico X con un numero finito di elementi
che sia T1 ha la topologia discreta. Pertanto è T2 , T3 , T4 .
Dimostrazione. I punti di X sono chiusi. Un sottoinsieme qualsiasi di X
è unione di un numero finito di punti e pertanto è chiuso. Quindi ogni
sottoinsieme di X è chiuso e aperto, ovvero la topologia di X è discreta.
Teorema 3.4. Uno spazio X è T2 se e solo se la diagonale di X × X
∆ = {(x, x) ∈ X × X | x ∈ X}
è chiusa in X × X.
Dimostrazione. (⇒) Sia X T2 . Dimostrare che ∆ è chiuso è equivalente a
dimostrare che X × X \ ∆ è aperto. Sia pertanto (x, y) ∈ X × X \ ∆. Ciò
vuol dire x, y ∈ X, x 6= y. Poiché X è T2 , esistono due aperti disgiunti
U 3 x, V 3 y. Ma allora (x, y) ∈ U × V e (U × V ) ∩ ∆ = ∅. Pertanto
X × X \ ∆ è aperto.
(⇐) Sia ∆ chiuso in X × X. Ciò è equivalente a X × X \ ∆ aperto. Siano
x, y ∈ X, x 6= y. Allora (x, y) ∈ X × X \ ∆. Poichè tale insieme è aperto,
esiste un aperto della base U × V intorno di (x, y) contenuto in X × X \ ∆.
Ma ci‘o vuol dire che U 3 x e V 3 y sono disgiunti. Pertnato X è T2 .
Osservazione 3.5. Banalmente si ha T2 ⇒ T1 ⇒ T0 .
TOPOLOGIA 19
d1 (x) − d2 (x) = (d1 (x) − d1 (x+ )) + (d1 (x+ ) − d2 (x+ )) + (d2 (x+ ) − d2 (x))
= (d1 (x) − d1 (x+ )) − 3a + (d2 (x+ ) − d2 (x))
Per ogni fi ∈ Fi (i = 1, 2) si ha
d(x, fi ) ≤ d(x, x+ ) + d(x+ , fi ) < a + d(x+ , fi )
e passando all’estremo inferiore su Fi :
di (x) ≤ a + di (x+ ) , di (x) − di (x+ ) ≤ a , i = 1, 2 ,
da cui segue
d1 (x) − d2 (x) ≤ a − 3a + a = −a < 0 ,
ovvero che x ∈ U+ . Pertanto U+ è aperto.
Teorema 3.13. Sia X uno spazio T2 compatto. Allora X è T4
Dimostrazione. Poiché X è T2 , è T1 . Basta pertanto dimostrare che è nor-
male.
Siano F e G due chiusi disgiunti di X. Poichè X è compatto, F e G sono
compatti. Fissiamo due punti f ∈ F e g ∈ G. Poiché X è T2 , esistono due
aperti disgiunti Uf,g 3 f e Vf,g 3 g.
Fissato f ∈ F , gli aperti Vf,g , al variare di g ∈ G, sono un ricoprimento
aperto di G. Pertanto possiamo estrane un sottoricoprimento finito, fatto
22 A. SARACCO
e che su ogni gradino aperto Aj+1 \ Aj−1 fn varia al più di 21n , si ottiene
1
che f non varia più di 2n−1 sul gradino Aj+1 \ Aj−1 (intorno aperto di x), e
pertanto è continua.
Allora si ha
n n
X 2
|f (a) − Fj (a)| ≤ , ∀a ∈ A, ∀n ∈ N ,
3
j=1
1 2 n
|Fn+1 (x)| ≤ , ∀x ∈ X, ∀n ∈ N ,
3 3
e ciò garantisce la sommabilità della serie F (x) = ∞
P
n=1 Fn (x) e il fatto che
F : X → [−1, 1] è un’estensione continua di f .
Corollario 4.4. Sia X uno spazio topologico normale. Ogni funzione con-
tinua f : A → R definita su un chiuso A di X è restrizione di una funzione
continua F : X → R.
Dimostrazione. Consideriamo la funzione
π π
ϕ = arctan(f ) : A → − ,
2 2
e estendiamola ad una funzione
h π πi
Φ:X→ − , .
2 2
La funzione Φ potrebbe assumere i valori ± π2 , su cui non è definita la
tangente (obbligatoriamente su un chiuso B disgiunto da A). Sia allora
λ : X → [0, 1] una funzione tale che λ|A ≡ 1, λ|B ≡ 0, che esiste per il
lemma di Urysohn. Allora
π π
λΦ : X → − ,
2 2
estende anch’essa la funzione ϕ, e F = tan(λΦ) è la funzione cercata.
4.3. Partizioni dell’unità e paracompattezza. Vediamo ora uno stru-
mento, la partizione dell’unità, che sarà di grande utilità nei successivi corsi
di analisi e di geometria. Vedremo esattamente quali sono le ipotesi minimali
che permettono di avere partizioni dell’unità.
Definizione 4.1. Sia X uno spazio topologico. Data una funzione continua
f : X → C, il supporto di f , Supp(f ), è
Supp(f ) = {x ∈ X | f (x) 6= 0} .
Definizione 4.2. Sia X uno spazio topologico. Una famiglia di sottoinsiemi
di X, {Aλ }λ∈Λ è detta localmente finita se per ogni punto x ∈ X esiste un
intorno V di x tale che V ∩ Aλ 6= ∅ per un numero finito di λ ∈ Λ.
Definizione 4.3. Sia X uno spazio topologico. Una famiglia {τλ }λ∈Λ di
funzioni continue τλ : X → [0, 1] è detta partizione dell’unità se:
TOPOLOGIA 25
5. Proprietà di connessione
Vedremo ora una proprietà elementare degli spazi topologici che ci per-
mette di distinguere tra spazi tutti di un pezzo e spazi divisi in più pezzi.
5.1. Connessione.
Definizione 5.1. Uno spazio topologico X si dice connesso se non è unione
di due aperti disgiunti non vuoti.
Teorema 5.1. Uno spazio topologico X è connesso se e solo se ∅ e X sono
gli unici sottoinsiemi di X aperti e chiusi.
Dimostrazione. (⇒) Supponiamo per assurdo che A ⊂ X sia un sottoinsieme
aperto e chiuso A 6= X, A 6= ∅. Allora B = X \ A è anch’esso aperto e non
vuoto. Quindi X = A ∪ B con A e B aperti disgiunti e non vuoti, cioè X
non è connesso.
(⇐) Supponiamo per assurdo che X non sia connesso, ovvero che X =
A ∪ B con A e B aperti disgiunti e non vuoti. Allora A 6= X (perché B non
è vuoto), A 6= ∅, A è aperto e chiuso (perché X \ A = B è aperto).
Esempio 5.1. Lo spazio topologico con un solo punto è connesso, in quanto
due suoi aperti non possono essere non vuoti e disgiunti.
Esempio 5.2. Sia (X, D) uno spazio topologico con almeno due punti con
la topologia discreta. Allora sappiamo che tutti i suoi punti sono aperti e
chiusi. Pertanto X non è connesso.
Esempio 5.3. Sia (X, Px0 ) uno spazio topologico con la topologia del punto
particolare: un insieme non vuoto A ⊂ X è aperto se e solo se contiene il
punto particolare x0 . Allora due aperti non vuoti hanno sempre in comune
il punto x0 e pertanto non possono essere disgiunti. Quindi X è connesso.
Esempio 5.4. Sia F la topologia su R che ha come base di aperti gli inter-
valli della forma [t, s). Allora un qualsiasi sottoinsieme di (R, F) con almeno
due punti non è connesso. Siano infatti x < y ∈ S. Allora A = (−∞, y) ∩ S
e B = [y, +∞) ∩ S sono due aperti non vuoti disgiunti tali che A ∪ B = S.
Esempio 5.5. Sia Q ⊂ R l’insieme dei numeri razionali con la topologia
indotta dalla topologia euclidea. Sia S ⊂ Q un qualsiasi insieme con almeno
due punti. Allora S non è connesso. Infatti, siano x, y ∈ Q due punti
distinti. Allora fra essi vi è un numero irrazionale α: x < α < y. Gli insiemi
A = (−∞, α) ∩ S e B = (α, +∞) ∩ S sono aperti non vuoti disgiunti tali che
A ∪ B = S.
Teorema 5.2. L’intervallo [0, 1] ⊂ R (con la topologia euclidea) è connesso.
Dimostrazione. Supponiamo per assurdo che [0, 1] non sia connesso, ed es-
istano pertanto due aperti disgiunti non vuoti U e V tali che [0, 1] = U ∪ V
(quindi U e V sono anche chiusi). Supponiamo che 0 ∈ U .
Sia s = inf x∈V x. s ∈ V poichè V è chiuso. Ma per definizione di s, o
s = 0 (e allora s ∈ U ) oppure [0, s) ⊂ U . Poichè U è chiuso, s ∈ U . Assurdo,
poichè U e V sono disgiunti.
Teorema 5.3. L’immagine di uno spazio connesso attraverso una funzione
continua è connesso.
28 A. SARACCO
Poiché \
Cx,y = {x} × Y 6= ∅
y∈Y
nuovamente per il teorema 5.5, X × Y è connesso.
5.2. Connessione per archi. Vediamo ora una nozione collegata a quella
di connessione: la connessione per archi.
Da qui in avanti utilizzeremo molto spesso l’intervallo [0, 1] ⊂ R con la
topologia euclidea. Per brevità, lo indicheremo con I.
TOPOLOGIA 29
6. Omotopia
Definizione 6.1. Siano X e Y spazi topologici e f0 , f1 : X → Y funzioni
continue. f0 e f1 sono dette omotope se esiste un’applicazione continua
F : X × I → Y tale che F (x, 0) = f0 (x) e F (x, 1) = f1 (x) per ogni x ∈ X.
L’applicazione F si dice omotopia tra f0 e f1 .
Scriveremo f0 ≈ f1 o F : f0 ≈ f1 .
Si può pensare un’omotopia F come una famiglia di funzioni ft che varia
con continuità da f0 a f1 .
Osservazione 6.1. Se X = I, ogni arco è omotopo a un arco costante (al
cammino costante nel punto finale, nel punto iniziale, o in un qualsiasi suo
punto). Lasciamo al lettore la dimostrazione di questo fatto.
Pertanto se Y è connesso per archi tutti gli archi in Y sono omotopi tra
loro.
TOPOLOGIA 31
7. Il gruppo fondamentale
Lo scopo di questa sezione sarà quello di introdurre un’operazione tra cam-
mini ed una relazione d’equivalenza in modo tale da far diventare l’insieme
dei cammini un gruppo, che sarà un invariante topologico, utile a studiare
gli spazi topologici.
7.1. Cammini.
Lemma 7.1. Siano α e β due archi (o cammini) nello spazio topologico X,
tali che α(1) = β(0), ovvero la fine di α coincide con l’inizio di β. Allora è
definito un cammino in X, α ∗ β detto prodotto di α e β, nel seguente modo:
t ∈ 0, 12
α(2t)
(α ∗ β)(t) =
β(2t − 1) t ∈ 21 , 1
Dimostrazione. È un’immediata conseguenza del lemma d’incollamento.
Definizione 7.1. Due cammini in X, α e β, si dicono omotopi (come cam-
mini) se sono funzioni omotope relativamente ad A = {0, 1}.
Scriveremo α ' β.
Teorema 7.2. Se α0 ' α1 , β0 ' β1 e α0 ∗ β0 è ben definito, allora anche
α1 ∗ β1 è ben definito e α1 ∗ β1 ' α0 ∗ β0 .
Dimostrazione. Per definizione, due cammini omotopi hanno stesso inizio e
stessa fine. Pertanto α1 ∗ β1 è ben definito.
Siano F : α0 ' α1 e G : β0 ' β1 le omotopie di cammini. Un’omotopia
di cammini tra α0 ∗ β0 e α1 ∗ β1 è data da
t ∈ 0, 21
F (s, 2t)
H(s, t) =
G(s, 2t − 1) t ∈ 12 , 1
H è continua per il lemma d’incollamento.
Definizione 7.2. Sia α un cammino in X. Il cammino inverso α−1 è definito
da α−1 (t) = α(1 − t).
L’inizio di α−1 è la fine di α e viceversa. Inoltre (α−1 )−1 = α.
TOPOLOGIA 33
hαi−1 = hα−1 i .
Le definizioni sono ben date grazie ai teoremi appena dimostrati.
Teorema 7.4. Per ogni x ∈ X, sia ex il cammino costante in X: ex (t) = x
per ogni t ∈ I. Allora
(1) se hαi ha origine in x0 , hex0 ihαi = hαi;
(2) se hαi ha fine in x1 , hαihex1 i = hαi;
(3) se hαi ha origine in x0 e fine in x1 , allora hαihαi−1 = hex0 i e
hαi−1 hαi = hex1 i;
(4) se (hαihβi)hγi è definito, allora (hαihβi)hγi = hαi(hβihγi).
Dimostrazione. (1) Un’omotopia di cammini tra ex0 ∗ α(s) e α(s) è data da
1−t
(
F (s, t) =
x0 s≤ 2
α 2s+t−1
1+t s ≥ 1−t
2
s ∈ 0, 12
α(2s)
α ∗ (β ∗ γ)(s) = β (4s − 2) s ∈ 12 , 34
γ (4s − 3) s ∈ 43 , 1
34 A. SARACCO
7.2. Il gruppo fondamentale. Siamo ora in grado, data una coppia spazio
topologico / punto (X, x), di definire un gruppo di cammini.
Corollario 7.5. Sia X uno spazio topologico e x0 ∈ X. L’insieme delle
classi di '-equivalenza di cammini con inizio e fine in x0 , π1 (X, x0 ), forma
un gruppo con le operazioni di prodotto e inverso definite prima. Si chiama
gruppo fondamentale o primo gruppo d’omotopia di (X, x0 ).
Dimostrazione. Segue immediatamente dal teorema 7.4.
Dato uno spazio topologico X qualsiasi e due punti distinti x0 6= x1 ∈ X,
non possiamo aspettarci che ci siano relazioni tra π1 (X, x0 ) e π1 (X, x1 ). Ad
esempio se non esiste alcun cammino tra x0 e x1 (in particolare X non è
connesso per archi) c’è da immaginare che i due gruppi non abbiano niente
a che fare l’uno con l’altro.
Esempio 7.1. Consideriamo X = S1 ∪ {(0, 0)} ⊂ R2 . Allora π1 (X, (0, 0)) =
{he(0,0) i}, mentre il cammino α(t) = (cos(2πt), sin(2πt)) è un cammino non
omotopicamente equivalente al cammino costante4 in π1 (X, (1, 0)).
Se invece X è connesso per archi, le cose cambiano:
Teorema 7.6. Sia X uno spazio topologico connesso per archi, x0 , x1 ∈ X.
Esiste un isomorfismo di gruppi tra π1 (X, x0 ) e π1 (X, x1 ).
Dimostrazione.
8. Rivestimenti
9. Il teorema di Seifert-Van Kampen
References
[1] K. Jänich: Topologia, viii+200. Zanichelli, 1994.
[2] C. Kosniowski: Introduzione alla topologia algebrica, vi+314. Zanichelli, 1988.
[3] I.M. Singer e J.A. Thorpe: Lecture notes on elementary topology and geometry,
viii+232. Springer, 1967.
[4] L.A. Steen e J.A. Seebach, Jr.: Counterexamples in topology. Second edition, xi+244.
Springer, 1978.
4Intuitivamente perché, facendo un giro intorno al buco, non può essere deformato con
continuità in un cammino che non gira intorno al buco. Dimostreremo rigorosamente
questo fatto in seguito
Stefano Francaviglia
TOPOLOGIA
Seconda Edizione
2020
c di Stefano Francaviglia. Tutti i diritti riservati.
ISBN: 978-1658028929
Indice
Prefazione 9
Capitolo 0. Preliminari 11
0.1. Uno spazio familiare: R2 11
0.2. La nozione di distanza in matematica 12
0.3. Uno spazio ordinato: R 15
0.4. La nozione d’ordine in matematica 16
0.5. Logicamente! 17
0.6. Insiemistica spicciola 20
Capitolo 3. Compattezza 67
3.1. Ricoprimenti e compattezza 67
3.2. Il Teorema del Compatto-Hausdorff 72
3.3. Il Teorema di Tychonoff 73
3.4. Compattezza vs compattezza per successioni 74
3.5. Locale compattezza e compattificazioni 76
3.6. Esercizi 81
Capitolo 4. Connessione 85
4.1. Connessione 85
4.2. Componenti connesse 89
4.3. Connessione per archi 89
4.4. Locale connessione 91
4.5. Una piccola digressione: connessione di insiemi totalmente ordinati 94
3
4 INDICE
4.6. Esercizi 96
La seconda edizione è, per sua natura, una versione rivista e corretta della prima. In primo luogo,
sono stati corretti tutti gli errori scovati nella prima edizione (ma, ahimé! è certo che ne siano rimasti
alcni). Per quanto riguarda i contenuti, i capitoli che più hanno subito una ristrutturazione sono tre:
Il capitolo introduttivo (Capitolo 0), il Capitolo 6 (che ha pure cambiato nome) e il Capitolo 7 sulla
topologia algebrica.
Molta attenzione è stata data agli esempi ed esercizi proposti. Quantitativamente, essi sono quasi
raddoppiati: la seconda edizione conta infatti 444 esempi e 614 esercizi.
Stefano Francaviglia
Pianoro, Li 10/01/2020
7
Prefazione
Questo libro è pensato come libro di testo di un corso universitario di topologia per la laurea
triennale in matematica. Contiene nozioni di topologia generale, un assaggio di topologia alge-
brica (gruppo fondamentale e rivestimenti) e due appendici: un minicorso di aritmetica ordinale e
un’introduzione alla teoria delle successioni generalizzate e gli ultrafiltri.
Se non ci si vuole addentrare nella topologia algebrica, i primi sette capitoli (dal Capitolo 0 al Ca-
pitolo 6) costituiscono un corso completo di topologia generale. Le due appendici trattano argomenti
— spesso ingiustamente tralasciati per limiti di tempo o perché considerati a torto troppo complicati
— che ho voluto includere per la loro eccezionale bellezza e incredibile semplicità.
Di ogni teorema (tranne due: il Teorema dell’invarianza del dominio e il Teorema di metrizzabilità
di Uryshon) vi è una dimostrazione completa. La topologia è per sua natura famelica di esempi e
foriera di domande “ma se non fosse cosı̀...”. A testimonianza di ciò, questo libro contiene più di 600
tra esempi ed esercizi
Questo libro non ha una vera e propria bibliografia. Questo perché da studente ero uno che stu-
diava sugli appunti e quello che so di topologia me l’ha insegnato principalmente il mio professore
Fulvio Lazzeri. Non posso comunque fare a meno di citare, in ordine sparso e sicuro di scordarmene
qualcuno, i testi e gli autori che preferisco: Il meraviglioso Kosniowski (C. Kosniowski Introduzione
alla topologia algebrica); il classico Kelley (J. Kelley General Topology) con la sua famosa appendice sulla
teoria degli insiemi; il moderno, anzi contemporaneo, Manetti (M. Manetti Topologia); il buon vecchio
Sernesi (E. Sernesi Geometria 2); e il Fulton (W. Fulton Algebraic Topology, a first course) (da cui ho im-
parato una delle dimostrazioni del Teorema di Van Kampen); poi c’è la bibbia della logica (Handbook
of mathematical logic, J. Barwise editore); e quella della topologia algebrica dell’Hatcher (A. Hatcher
Algebraic Topology); l’imperdibile libro degli esempi (L.A. Steen and J.A. Seebach, Jr Counterexamples
in topology); lo Schaum di topologia (S. Lipschutz Topologia, collana Schaum teoria e problemi) con i suoi
650 esercizi risolti; infine il mitico, talvolta illeggibile ma sempre presente, Bourbaki (N. Bourbaki
serie Éléments de mathématique, in particolare Topologie générale e Topologie algébrique).
Nell’era del web e dei social non può mancare un cenno alle risorse online. Prima di tutto Wi-
kipedia. Oggi come oggi rappresenta uno strumento fondamentale per lo studio e la ricerca. Per la
matematica è fatto particolarmente bene. In un click si hanno definizioni (in mille varianti) note bi-
bliografiche e spesso dimostrazioni dei teoremi. È una specie di libro universale. Con in più il pregio
che nulla è garantito: chiunque può modificarlo e ciò forza (o almeno dovrebbe) ad una lettura iper-
critica e al controllo di ogni singolo passaggio, cosa che non si fa mai sulle dispense del professore.
Infine, voglio spezzare una lancia in favore di due siti di domande/risposte:
mathoverflow.net e math.stackexchange.com; se avete una curiosità basta chiedere.
Stefano Francaviglia
Pianoro, 17/02/2018
9
CAPITOLO 0
Preliminari
R2
P1
xn+1
P2 xn
dist(P1 , P2 )
x
La distanza tra P1 e P2 corrisponde alla lunghezza del segmento che li congiunge. Si dice che una
successione (xn ) converge a x se la distanza tra xn e x tende a zero al crescere di n.
Attraverso la distanza si possono definire insiemi o luoghi classici, come la circonferenza di centro
P = (x0 , y0 ) e raggio R:
p
C(P, R) = {(x, y) ∈ R2 : (x − x0 )2 + (y − y0 )2 = R} = {(x, y) ∈ R2 : dist((x, y), P ) = R}
oppure la palla di centro P raggio R (indicata con B, da ball):
p
B(P, R) = {(x, y) ∈ R2 : (x − x0 )2 + (y − y0 )2 < R} = {(x, y) ∈ R2 : dist((x, y), P ) < R}
La definizione di palla ammette anche la variante “chiusa”, cioè con il “≤” al posto del “<”.
P R P R P R
C(P, R) = B(P, R) = B(P, R) =
11
12 0. PRELIMINARI
Spesso, la palla chiusa si indica con D, come disco, oppure con una B sormontata da un trattino:
p
D(P, R) = B(P, R) = {(x, y) ∈ R2 : (x − x0 )2 + (y − y0 )2 ≤ R} = {(x, y) ∈ R2 : dist((x, y), P ) ≤ R}.
Chiaramente B(P, R) = B(P, R) ∪ C(P, R).
La distanza Euclidea di R2 esprime un concetto di vicinanza quantificata: un punto che sta dentro
la palla di centro P e raggio 1 è più vicino a P di quanto lo sia un punto sul cerchio di centro P e raggio
25. Ancora, quando diciamo che “(xn ) converge a x” intendiamo dire semanticamente che i punti xn
si fanno sempre più vicini a x al crescere di n. Usando la terminologia delle palle, possiamo dire che
(xn ) converge a x se, per quanto piccolo sia il raggio R, la successione (xn ) sta dentro la palla B(x, R)
da un certo n in poi.
Diciamo che una funzione f è continua se, ogni qual volta che xn → x, si ha f (xn ) → f (x). Ciò
formalizza la nostra idea intuitiva di funzione continua come una funzione che “manda punti vicini
in punti vicini”.
La distanza serve anche a misurare la lontananza/vicinanza tra sottoinsiemi del piano. In gene-
rale, se A è un sottoinsieme di R2 e x ∈ R2 diciamo che la distanza tra x e A è
dist(x, A) = inf dist(x, a)
a∈A
2
e se B è un altro sottoinsieme di R poniamo
dist(A, B) = inf dist(a, b)
a∈A,b∈B
In questo modo, la distanza tra la palla di centro (0, 0) e raggio 1 e quella di centro (3, 0) e raggio
1, è esattamente 1, come ci si aspetterebbe.
Per ogni punto a ∈ A, la distanza tra a e A è zero. Non vale però il viceversa: La distanza tra
B(P, R) e C(P, R) è esattamente zero. I punti di C(P, R) non stanno dentro la palla B(P, R), ma ne
sono infinitamente vicini, aderenti come la pellicola protettiva al display di uno smartphone.
Esempio 0.2.5. Su S 2 si possono mettere varie metriche naturali, per esempio la distanza dR3 in-
dotta da R3 e quella angolare: dang (x, y) è la lunghezza minima di un arco di cerchio che connette x
e y. Tali distanze sono diverse in quanto, per esempio, le distanze tra polo nord N = (0, 0, 1) e polo
sud S = (0, 0, −1) sono:
dR3 (N, S) = 2 dang (N, S) = π
Esempio 0.2.6 (La metrica della città.). Sia X una città. Si definisce d(P, Q) come la distanza
minima per andare a piedi da P a Q.
Esempio 0.2.7 (I raggi di bicicletta). In R2 , la cui origine chiamiamo O, sia X l’insieme formato da
36 rette equidistribuite angolarmente:
kπ kπ
X = {λ(cos , sin ) : λ ∈ R, k ∈ N}.
36 36
La metrica dei raggi di su X è definita come
d 2 (P, Q)
R se P e Q giacciono sulla stessa retta
d(P, Q) = .
d 2 (P, O) + d 2 (O, Q) altrimenti
R R
La metrica dei raggi di bicicletta è simile a quella della città: la distanza tra P e Q infatti è la
distanza che si deve percorrere per andare da P a Q senza uscire da X.
Esempio 0.2.8. Su R2 definiamo la metrica dei raggi come
d 2 (P, Q)
R se ∃λ ∈ R : P = λQ
d(P, Q) = .
d 2 (P, O) + d 2 (O, Q) altrimenti
R R
La metrica dei raggi è simile a quella di una ruota di bicicletta con infiniti raggi: per andare da P
a Q, se essi non sono sullo stesso raggio, si deve per forza passare dall’origine.
Negli spazi metrici le nozioni di palla, di successione convergente e funzione continua si danno
come in R2 .
Definizione 0.2.10. Sia (X, d) uno spazio metrico. Per ogni x ∈ X e 0 < ε ∈ R la palla di centro
x e raggio ε è definita come
B(x, ε) = {y ∈ X : d(x, y) < ε}.
0.3. UNO SPAZIO ORDINATO: R 15
Tale definizione ammette anche la versione “chiusa” con il “≤” al posto di “<”. È comodo usare la
notazione “D” per le palle chiuse
Esercizio 0.2.11. Dimostrare che tutte le distanze sopra descritte rispettano le condizioni della
Definizione 0.2.1. Descrivere le palle di ognuna di esse.
Definizione 0.2.12. Sia (X, d) uno spazio metrico. Una successione (xn ) in X converge a x ∈ X,
e si scrive xn → x, se e solo se d(xn , x) → 0.
Definizione 0.2.13. Siano X, Y due spazi metrici. Una funzione f : X → Y si dice continua se
ogni qual volta xn → x, si ha f (xn ) → f (x).
Esempio 0.2.14. Sia X = R2 e sia xn = (1, n1 ). La successione (xn ) converge a (1, 0) per la metrica
standard di R2 ma non per la metrica dei raggi.
(−∞, b] = {x ∈ R : x ≤ b} [a, ∞) = {x ∈ R : x ≥ a}
Talvolta si possono usare anche intervalli “chiusi all’infinito”, tipo (0, ∞], quando il significato ne sia
chiaro dal contesto.
Nel caso di R le nozioni di distanza e di ordine coesistono senza entrare in competizione. Si noti
infatti che le palle metriche aperte/chiuse non sono altro che intervalli aperti/chiusi e viceversa:
B(x, ε) = (x − ε, x + ε) B(x, ε) = [x − ε, x + ε]
a+b b−a
(a, b) = B( , ) (per a < b)
2 2
La nozione di successione convergente si può dare usando l’ordine: xn → x se per ogni ε >
0 si ha x − ε < xn < x + ε per ogni n sufficientemente grande. In R si possono anche definire
successioni “divergenti”, ossia convergenti a ±∞: xn → +∞ se per ogni M ∈ R si ha xn > M per
ogni n sufficientemente grande (e similmente per −∞). Si noti che in R2 non ha senso dire che una
successione converge a −∞.
16 0. PRELIMINARI
In R2 l’ordine lessicografico asserisce che (1, 9) < (2, 1) < (3, 8) < (3, 9). L’ordine lessicografico è
quello con cui sono ordinate le parole di un vocabolario: prima vengono tutte le parole che iniziano
con a, poi quelle con b etc... Se due parole iniziano con la stessa lettera si guarda la seconda e cosi via.
L’ordine lessicografico è totale se e solo se lo sono entrambi gli ordini su X e Y .
Esempio 0.4.5 (Ordine prodotto). Dati due insiemi ordinati X, Y si definisce l’ordine prodotto su
X × Y ponendo
(x1 , y1 ) < (x2 , y2 ) ⇔ (x1 < x2 e y1 < y2 )
Esercizio 0.4.6. Dimostrare che R2 con l’ordine prodotto non è totalmente ordinato.
Definizione 0.4.7. Dato un insieme totalmente ordinato (X, ≤) si definiscono gli intervalli:
(a, b) = {x ∈ X : a < x < b} [a, b] = {x ∈ X : a ≤ x ≤ b}
[a, b) = {x ∈ X : a ≤ x < b} (a, b] = {x ∈ X : a < x ≤ b}
e, sempre che ∞ non denoti un preciso elemento di X, si suole definire
(−∞, b) = {x ∈ X : x < b} (a, ∞) = {x ∈ X : x > a}
(−∞, b] = {x ∈ X : x ≤ b} [a, ∞) = {x ∈ X : x ≥ a}
Tali definizioni si usano talvolta anche su insiemi parzialmente ordinati.
Esercizio 0.4.8. Si visualizzino gli intervalli di R2 munito dell’ordine lessicografico e di quello
prodotto. Si dica se le seguenti affermazioni sono vere o false (per entrambi gli ordini):
(1) ∀P, Q ∈ R2 , ∀X ∈ (P, Q)∃ε > 0 : B(X, ε) ⊆ (P, Q).
(2) ∀X ∈ R2 , ∀ε > 0∃P, Q ∈ B(X, ε) : (P, Q) ⊆ B(X, ε).
(3) ∀X ∈ R2 , ∀ε > 0∀P, Q ∈ B(X, ε), (P, Q) ⊆ B(X, ε).
0.5. LOGICAMENTE! 17
0.5. Logicamente!
Per affrontare serenamente lo studio della topologia è bene avere delle solide basi di logica ma-
tematica elementare. Il lettore che non si è spaventato di fronte all’Esercizio 0.4.8 (e lo ha saputo
risolvere) può stare tranquillo. Per gli altri, ecco un Bignami di logica basilare.
La logica matematica si discosta dalla logica comune in quanto la logica matematica deve essere
univoca. Per esempio, comunemente si può accettare che la frase “Mario ha gli occhi verdi” sia una
negazione di “Mario ha gli occhi neri”. In matematica invece, ciò è inaccettabile. La negazione di
una frase A deve essere una frase B che sia vera tutte e sole le volte in cui A è falsa. Mario potrebbe
non avere gli occhi, oppure averceli azzurri, ma in entrambi i casi non li avrebbe neri, né verdi. In
matematica la negazione di “Mario ha gli occhi verdi” suonerebbe semplicemente “Mario non ha gli
occhi verdi”.
In matematica (semplificando un po’ il discorso) le frasi possono avere un solo valore di verità:
vero o falso. I connettivi logici servono per costruire nuove frasi a partire da altre. La verità delle frasi
costruite dipenderà univocamente dai valori di verità delle frasi componenti. Un connettivo è quindi
identificato da quella che si chiama la sua tavola di verità. Vediamo i connettivi più comuni.
La negazione: Simbolo ¬. Ha il significato semantico di negare. È un connettivo unario, cioè ha
un solo argomento, dato A si scrive ¬A per indicare la negazione di A. La sua tavola di verità è
A V F
¬A F V
La congiunzione: Simbolo ∧. Ha il significato semantico della congiunzione “e”. È un connettivo
binario, date A e B si scrive A ∧ B. La sua tavola di verità è
A V V F F
B V F V F
A∧B V F F F
La disgiunzione: Simbolo ∨. Ha il significato semantico dell’ “o” non esclusivo. È un connettivo
binario, date A e B si scrive A ∨ B. La sua tavola di verità è
A V V F F
B V F V F
A∨B V V V F
Si noti che i simboli ∨, ∧ ricordano quelli di ∪, ∩ per l’unione e intersezione di insiemi. Ciò è
semanticamente coerente in quanto l’insieme dei casi in cui A ∨ B è vera è l’unione dei casi in cui A
è vera e dei casi in cui B lo è, e un discorso analogo vale per ∧. Similmente, il simbolo di negazione
corrisponde al passaggio al complementare: L’insieme dei casi in cui ¬A è vera è il complementare
dell’insieme dei casi in cui A lo è.
L’implicazione: Simbolo ⇒. Ha il significato semantico della causalità. È un connettivo binario,
date A e B si scrive A ⇒ B. La sua tavola di verità è
A V V F F
B V F V F
A⇒B V F V V
Si noti che se A è falsa allora A ⇒ B è vera. (Semanticamente la frase “se piove prendo l’ombrello”
è vera anche nei giorni in cui non piove.) A questo punto il lettore insoddisfatto dall’interpretazione
semantica del connettivo ⇒, non dovrebbe interrogarsi sul “perché” l’implicazione logica sia definita
18 0. PRELIMINARI
cosı̀, ma accettare il fatto compiuto: La matematica è fatta di convenzioni e questa è una di quelle.
Durante le dimostrazioni e gli esercizi ci si deve attenere alla tavola di verità di ⇒, non alla propria
interpretazione personale della parola “implica”!
L’equivalenza: Simbolo ⇔. Ha il significato semantico dell’equivalenza. È un connettivo binario,
date A e B si scrive A ⇔ B. La sua tavola di verità è
A V V F F
B V F V F
A⇔B V F F V
I connettivi si possono concatenare, per esempio ¬(A ∨ B) ha il valore opposto a (A ∨ B) quindi
A V V F F
B V F V F
¬(A ∨ B) F F F V
Si noti che ¬(A ∨ B) ha la stessa tavola di verità di (¬A) ∧ (¬B)
A V V F F
B V F V F
¬A F F V V
¬B F V F V
¬(A) ∧ (¬B) F F F V
Possiamo quindi dire che ¬(A ∨ B) = ¬A ∧ ¬B. La lista seguente raccoglie le equivalenze più usate
in matematica. Tali equivalenze possono essere facilmente verificate scrivendo le tavole di verità.
• ¬(A ∨ B) = ¬A ∧ ¬B;
• ¬(A ∧ B) = ¬A ∨ ¬B;
• ¬¬A = A;
• A ⇔ B = (A ⇒ B) ∧ (B ⇒ A);
• A ⇒ B = B ∨ (¬A);
• A ⇒ B = (¬B) ⇒ (¬A);
• ¬(A ⇒ B) = (¬B) ∧ A;
• ¬(A ⇔ B) = (A ∧ (¬B)) ∨ ((¬A) ∧ B);
• A ⇔ B = (¬B) ⇔ (¬A).
In matematica (come nelle vita) la verità di un’affermazione può dipendere da vari parametri.
Si scrive A(x) quando una frase A dipende da un parametro x. Quando si asserisce A(x) si deve
specificare se ciò sia vero solo per qualche valore di x o se invece la verità di A(x) non dipende da x.
Per esempio “x è un numero pari” è vera solo se x è pari, mentre x + 1 > x è vera sempre. Per questo
in matematica si introducono i quantificatori.
Quantificatore universale: Simbolo ∀. Ha il significato semantico di “per ogni”
∀xA(x)
è vera se la frase A(x) è vera per ogni valore di x. Volendo, si può specificare un insieme di valori per
cui si richiede che A(x) sia vera
∀x ∈ N, 2x è un numero pari
è una frase vera, ma certamente 2 21 = 1 non è pari quindi la frase “∀x, 2x è pari” è falsa.
0.5. LOGICAMENTE! 19
Esercizio 0.5.13. Sia X un insieme e sia A una famiglia di sottoinsiemi di X. Siano P (A) e Q(A)
come negli Esercizi 0.5.11 e 0.5.12. Interpretare semanticamente e negare P (A) ⇒ Q(A).
Esercizio 0.5.14. Sia X un insieme e siano P (A) e Q(A) come negli Esercizi 0.5.11 e 0.5.12. Inter-
pretare semanticamente e negare
∀A, P (A) ⇒ Q(A).
Esercizio 0.5.15. Sia X un insieme e sia A una famiglia di sottoinsiemi di X. Tradurre in formule
e negare la frase: “L’intersezione di tutti gli elementi di A è non vuota”.
Esercizio 0.5.16. Sia X un insieme e sia A una famiglia di sottoinsiemi di X. Tradurre in formule
e negare la frase: “L’intersezione di un numero finito di elementi di A è non vuota”.
Esercizio 0.5.17. Sia X un insieme e sia A una famiglia di sottoinsiemi di X. Tradurre in formule
e negare la frase: “Esiste un numero finito di elementi di A la cui intersezione è non vuota”.
Esercizio 0.5.18. Sia X un insieme e sia A una famiglia di sottoinsiemi di X. Tradurre in formule
e negare la frase: “Se l’intersezione di ogni sottofamiglia finita di A è non vuota, allora esiste un
elemento di X comune a tutti gli elementi di A”.
Esercizio 0.5.19. Sia X un insieme e sia A una famiglia di sottoinsiemi di X. Tradurre in formule
e negare la frase: “L’intersezione di un numero finito di elementi di A sta in A”. Si dia un esempio
concreto di insieme X e A ⊆ P(X) per cui tale frase risulti vera.
Esercizio 0.5.20. Sia X un insieme e sia A una famiglia di sottoinsiemi di X. Tradurre in formule
e negare la frase: “Unione di elementi di A sta in A”. Si dia un esempio concreto di insieme X e
A ⊆ P(X) per cui tale frase risulti vera.
Esercizio 0.5.21. Sia X un insieme e sia A una famiglia di sottoinsiemi di X. Tradurre in formule
e negare la frase: “Il complementare di ogni elemento di A sta in A”. Si dia un esempio concreto di
insieme X e A ⊆ P(X) per cui tale frase risulti vera.
Esercizio 0.5.22. Sia X un insieme e sia A una famiglia di sottoinsiemi di X. Tradurre in formule e
negare la frase: “A contiene un elemento il cui complementare sta in A”. Si dia un esempio concreto
di insieme X e A ⊆ P(X) per cui tale frase risulti vera.
Esercizio 0.5.23. Sia X un insieme e sia A una famiglia di sottoinsiemi di X. Tradurre in formule
e negare la frase: “Il complementare di nessun elemento di A sta in A”. Si dia un esempio concreto
di insieme X e A ⊆ P(X) per cui tale frase risulti vera.
Esempio 0.6.4. Se A = [0, 2] e B = [1, 3] sono comuni intervalli di R, allora A ∪ B = [0, 3] mentre
A t B è fatto di elementi del tipo (x, A) o (x, B). Per esempio il punto (1, A) e il punto (1, B) indicano
il punto 1 taggato una volta con A e una volta con B.
Se si vuol fare l’unione disgiunta di due o più copie dello stesso insieme, basta avere l’accortezza
di usare come insieme di etichette un insieme opportuno di indici.
Esempio 0.6.5. L’unione disgiunta di due copie di R può essere definita, usando etichette nell’in-
sieme {0, 1}, come
R t R = {(x, e) : x ∈ R, e = 0, 1}.
Un altro concetto con un nome semanticamente intuitivo, ma la cui definizione formale spesso
sfugge, è quello di relazione. Una relazione su un insieme X è semplicemente un sottoinsieme R di
X ×X. Si dice che “x è in relazione con y”, e si scrive usualmente xRy, come sinonimo di “(x, y) ∈ R”.
Esempio 0.6.6. Una relazione di equivalenza su X è una relazione che sia:
Riflessiva: per ogni x ∈ X si ha xRx, cioè (x, x) ∈ R. Graficamente si sta chiedendo che R contenga la
diagonale di X × X.
Simmetrica: per ogni x, y ∈ X si ha xRy ⇔ yRx, cioè (x, y) ∈ R ⇔ (y, x) ∈ R. Graficamente, si chiede
che R coincida con il suo simmetrico rispetto alla diagonale.
Transitiva: per ogni x, y, z ∈ X si ha (xRy ∧ yRz) ⇒ xRz, cioè ((x, y) ∈ R) ∧ ((y, z) ∈ R) ⇒ (x, z) ∈ R.
Esercizio 0.6.7. Si cerchi di visualizzare graficamente il significato della proprietà transitiva.
Esempio 0.6.8. La relazione di equivalenza banale è quella definita da: xRy se e solo se x = y. In
termini di sottoinsiemi, è la diagonale di X × X.
Esempio 0.6.9. La relazione di equivalenza totale, cioè quella per cui ogni x è equivalente ad ogni
y, corrisponde a tutto X × X.
Per le relazioni di equivalenza si usa solitamente la notazione x ∼ y per indicare che x è equi-
valente a y. Dato una qualsiasi relazione R su X, la relazione di equivalenza generata da R è la più
piccola relazione d’equivalenza contenente R. Ciò ha senso perché le relazioni sono insiemi e le con-
dizioni di simmetria, riflessività e transitività sono chiuse per intersezione; in particolare la relazione
d’equivalenza generata da R è l’intersezione di tutte le relazioni di equivalenza contenenti R (si noti
che la relazione di equivalenza totale contiene R).
Una relazione si può dare anche su più copie di X e anche su collezioni di insiemi diversi tra loro.
Per esempio una relazione binaria su X e Y sarà un sottoinsieme di X × Y .
Veniamo adesso al concetto di funzione. Matematicamente, una funzione f : X → Y è un
sottoinsieme F ⊆ X × Y tale che per ogni x ∈ X esiste un unico y ∈ Y tale che (x, y) ∈ F . La frase
“f (x) = y” è un perfetto sinonimo di (x, y) ∈ F . In pratica F è quello che comunemente si chiama il
grafico di f . (Nel linguaggio delle relazioni, le funzioni si chiamano anche relazioni funzionali).
Esempio 0.6.10. La funzione identità da un insieme X in sé, cioè f (x) = x per ogni x ∈ X,
corrisponde alla diagonale di X × X.
Anche se la definizione di funzione è data attraverso il grafico e nonostante le confusioni che
possono derivare dal loro uso, il familiare formalismo f : X → Y e la corrispondente scrittura f (x) =
y sono troppo comodi per abbandonarli, e anche noi ci atterremo a quest’usanza.
Si noti che una funzione f : X → Y è definita per ogni elemento x ∈ X. In alcune materie, per
esempio l’analisi, a volte si parla di funzioni da R in R anche se non sono definite ovunque. Non è un
problema, basta saperlo.
Esempio 0.6.11. La funzione f (x) = 1/x è comunemente considerata una funzione f : R → R non
definita in x = 0. Sarebbe più preciso dire che è una funzione f : R \ {0} → R.
0.6. INSIEMISTICA SPICCIOLA 23
Usando la “fotocopia” di X in P(X) data dai singoletti, possiamo dire che f : P(X) → P(Y )
estende f : X → Y in quanto f ({x}) = {f (x)}. Ma f −1 : P(Y ) → P(X) non estende l’inversa di
f : X → Y : essa infatti esiste sempre, anche quando f non è invertibile!!!
Ci sono un paio di trappole a cui si deve stare moooooooolto attenti quando si maneggiano
funzioni e loro inverse, che elenchiamo qui in forma di esercizio:
Esercizio 0.6.18.
(1) Dimostrare che vale sempre f (A ∪ B) = f (A) ∪ f (B).
(2) Dimostrare che non è sempre vero che f (A ∩ B) = f (A) ∩ f (B). (Suggerimento, si consideri
una funzione non iniettiva, tipo f (x) = x2 ).
(3) Dimostrare che vale sempre f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B).
(4) Dimostrare che vale sempre f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B).
Un ritornello da ricordare è dunque: L’inversa commuta con unione e intersezione, la f invece lo fa
solo con l’unione.
Esercizio 0.6.19. Sia f : X → Y e siano A, B ⊆ X. Dimostrare che f (A ∩ B) ⊆ f (A) ∩ f (B).
Esercizio 0.6.20. Dimostrare che se f : X → Y è iniettiva allora f (A ∩ B) = f (A) ∩ f (B) per ogni
A, B ⊆ X.
E ancora:
Esercizio 0.6.21. Sia f : X → Y . Dimostrare che per ogni B ⊆ Y si ha f −1 (B c ) = (f −1 (B))c .
Esercizio 0.6.22. Dimostrare che non è sempre vero che f (Ac ) = (f (A))c (si provi con f (x) = x2 ).
Esercizio 0.6.23. Sia f : X → Y e sia B ⊆ Y . Dimostrare che f (f −1 (B)) ⊆ B.
Esercizio 0.6.24. Dimostrare che se f : X → Y è suriettiva allora f (f −1 (B)) = B per ogni B ⊆ Y .
Esercizio 0.6.25. Sia f : X → Y e sia A ⊆ X. Dimostrare che f −1 (f (A)) ⊇ A.
Esercizio 0.6.26. Dimostrare che se f : X → Y è iniettiva allora f −1 (f (A)) = A per ogni A ⊆ X.
CAPITOLO 1
Spazi topologici
Esempio 1.1.3. La topologia banale su un insieme X è τ = {∅, X}: Gli unici aperti sono quindi il
vuoto e X.
Esempio 1.1.4. La topologia discreta su un insieme X è τ = P(X). Ogni insieme è aperto.
Definizione 1.1.5. Sia (X, τ ) uno spazio topologico, un sottoinsieme A ⊆ X si dice chiuso (o
chiuso di τ ) se il suo complementare è un aperto:
A è chiuso ⇔ Ac ∈ τ.
Esempio 1.1.6. Il vuoto e tutto lo spazio sono entrambi sia aperti che chiusi in ogni topologia.
Esempio 1.1.7. Nella topologia banale gli unici chiusi sono il vuoto e X (che sono anche aperti).
Esempio 1.1.8. Nella topologia discreta ogni insieme è chiuso (ed è anche aperto).
Vi sono ovviamente topologie in cui ci sono dei chiusi che non sono aperti.
Esempio 1.1.9. Sia X un insieme e sia A ( X non vuoto. La famiglia τ = {∅, X, A} è una topologia
su X; A è l’unico aperto non banale e il suo complementare è l’unico chiuso non banale.
Si noti che ci sono insiemi che non sono né aperti né chiusi; e.g. se nell’Esempio 1.1.9 poniamo
X = R e A = [0, 1], allora (2, 3) non è né aperto né chiuso.
25
26 1. SPAZI TOPOLOGICI
Esempio 1.1.10 (Topologia delle palle annidate in R2 ). In R2 sia τ = {∅, R2 } ∪ {B(O, 2n ) : n ∈ Z}.
Essa è una topologia in quanto l’intersezione di un numero finito di palle centrate nell’origine è la più
piccola di esse e l’unione di palle centrate nell’origine è la più grande
p di esse o tutto R2 . I chiusi di τ
sono il vuoto, il tutto e gli insiemi del tipo Cn = {(x, y) ∈ R2 : x2 + y 2 ≥ 2n }. In particolare non ci
sono insiemi contemporaneamente aperti e chiusi tranne il vuoto e il tutto.
Esercizio 1.1.11. Sia X un insieme e sia x ∈ X. Sia τx la famiglia ti tutti i sottoinsiemi di X
contenenti x, più il vuoto. Si dimostri che τx è una topologia. Si descrivano i chiusi di τx . Tale
topologia viene denotata talvolta come topologia del punto particolare.
Teorema 1.1.12 (Degli aperti metrici). Sia (X, d) uno spazio metrico. Sia τ la famiglia dei sottoinsiemi
A di X che soddisfano la seguente condizione:
∀a ∈ A∃ε > 0 : B(a, ε) ⊆ A.
Allora τ è una topologia su X.
D IMOSTRAZIONE . Chiaramente il vuoto e X stanno in τ . Vediamo che τ è chiusa per unione
qualsiasi. Sia {Ai }i∈I ⊆ τ , dobbiamo far vedere che ∪i Ai ∈ τ . Sia x ∈ ∪i Ai ; allora esiste j ∈ I tale che
x ∈ Aj . Quindi esiste ε > 0 tale che B(x, ε) ⊆ Aj ma siccome Aj ⊆ ∪i Ai si ha B(x, ε) ⊆ ∪i Ai .
Passiamo alle intersezioni finite. Siano A1 , A2 elementi di τ e sia x ∈ A1 ∩ A2 . Allora x ∈ A1 e
x ∈ A2 , quindi esistono ε1 , ε2 > 0 tali che B(x, εi ) ⊆ Ai , i = 1, 2. Sia ε = min{ε1 , ε2 }. Siccome ε è il
minimo di due numeri strettamente positivi, esso è strettamente positivo. Inoltre, per ogni i = 1, 2,
siccome ε ≤ εi , si ha B(x, ε) ⊆ B(x, εi ) ⊆ Ai e dunque B(x, ε) ⊆ A1 ∩ A2 .
Definizione 1.1.13 (Topologia indotta da una metrica). Sia (X, d) uno spazio metrico. La topolo-
gia indotta da d su X è la famiglia τ descritta nel Teorema 1.1.12. Se non specificato diversamente,
uno spazio metrico si intende sempre dotato della topologia indotta dalla distanza.
Distanze diverse sullo stesso insieme possono (o no) indurre topologie diverse.
Esempio 1.1.14. Sia X = R2 , siano A = {(x, 0) : 1 < x < 5} e B = {(x, 0) : −1 < x < 5}.
L’insieme A è aperto per la topologia indotta dalla metrica dei raggi, mentre non è aperto per la
topologia Euclidea. L’insieme B non è aperto in nessuna delle due topologie (lo zero non è interno).
Esercizio 1.1.15. Trovare due metriche su S 1 che inducono la stessa topologia.
Un errore comune è pensare che gli aperti e i chiusi di R (o Rn ) standard siano tutti semplici, per
esempio intervalli.
Esempio 1.1.16. L’insieme di Cantor è un sottoinsieme di R definito ricorsivamente come segue.
Si parte da [0, 1]; lo si divide in tre parti uguali e si toglie la parte interna del terzo centrale; ad ogni
passo si divide ogni intervallo superstite in tre e si toglie l’interno del terzo centrale: Ciò che resta è
0 1
l’insieme di Cantor.
1.1. TOPOLOGIE: APERTI, CHIUSI E COMPAGNIA BELLA 27
Il complementare del Cantor è formato da un’unione di intervalli aperti e dunque è aperto. Quin-
di il Cantor è un chiuso. L’insieme di Cantor si può anche descrivere come l’insieme dei numeri deci-
mali in [0, 1] che si possono scrivere in base 3 senza usare il simbolo 1 (si noti che 1/3 = 0, 1 ma anche
0, 02222222222222 . . . ).
Esempio 1.1.17. Il tappeto di Sierpinski è un sottoinsieme di R2 definito ricorsivamente, tipo il
Cantor, come segue: Si parte dal quadrato [0, 1] × [0, 1]. Si divide il quadrato in nove quadratini
uguali e si comincia col togliere la parte interna del quadratino centrale. Ad ogni passo si divide ogni
quadrato superstite in nove e si toglie l’interno del quadratino centrale:
Esempio 1.1.18. Il Sierpinski gasket (in italiano “guarnizione”, meglio noto come triangolo di
Sierpinski) è costruito come il tappeto, ma usando triangoli al posto dei quadrati. (Figura 3.)
Che la cofinita sia effettivamente una topologia segue dal Teorema 1.1.19. Infatti è immediato
verificare che i chiusi, cioè gli insiemi finiti, costituiscono una famiglia chiusa per unione finita e
intersezione qualsiasi.
Esercizio 1.1.21. Sia X = {a, b, c, d, e} e sia
τ = {{a}, {b}, {b, c}, {d, e}, {a, d, e}, {b, d, e}, {a, b, c}, {b, c, d, e}, {a, b, d, e}, {a, b, c, d, e}, ∅}
Si dica se τ sia o meno una topologia. In caso contrario, si dica se si può rendere τ una topologia
aggiungendo dei sottoinsiemi di X. Se si, qual è il numero minimo di insiemi da aggiungere a τ
affinché diventi una topologia?
Teorema 1.1.22. Sia {τi }i∈I una famiglia di topologie su X. Allora ∩i τi è una topologia su X.
D IMOSTRAZIONE . Siccome la relazione di appartenenza è stabile per intersezione, si ha:
• ∀i(∅, X ∈ τi ) ⇒ ∅, X ∈ ∩i τi .
• Per ogni {Aj }j∈J ⊆ ∩i τi , si ha ∀i∀j(Aj ∈ τi ) ⇒ ∀i(∪j∈J Aj ∈ τi ) ⇒ ∪j∈J Aj ∈ ∩i τi .
• A, B ∈ ∩i τi ⇒ ∀i(A, B ∈ τi ) ⇒ ∀i(A ∩ B ∈ τi ) ⇒ A ∩ B ∈ ∩i τi .
Esempio 1.1.23. Sia X un insieme e per ogni x ∈ X sia τx la topologia del punto particolare
(Esercizio 1.1.11). Per il Teorema 1.1.22 si ha dunque che per ogni A ⊂ X la famiglia τA = ∩a∈A τa è
una topologia su X.
Esercizio 1.1.24. Dimostrare che τA , definita come nell’Esempio 1.1.23, non è altro che la famiglia
dei sottoinsiemi di X che contengono A, più il vuoto. Dimostrare che essa è una topologia senza fare
uso del Teorema 1.1.22).
Esercizio 1.1.25. Dimostrare che l’intersezione di tutte le topologie su R è la topologia banale.
Esercizio 1.1.26. Sia F la famiglia di tutte le topologie su R che hanno un numero finito di aperti.
Dimostrare che ∩τ ∈F τ è la topologia banale.
Esercizio 1.1.27. Sia F la famiglia di tutte le topologie su R che hanno un numero infinito di aperti.
Dimostrare che ∩τ ∈F τ è la topologia banale.
Si noti che l’unione di due topologie non è necessariamente una topologia.
Esempio 1.1.28. Sia X un insieme e siano x, y, z tre elementi distinti di X. Allora τx ∪ τy non è una
topologia (ove τx è definita come in 1.1.11). Infatti l’insieme A = {x, z} sta in τx e quindi in τx ∪ τy ,
l’insieme B = {y, z} sta in τy , dunque in τx ∪ τy , ma la loro intersezione A ∩ B = {z} non sta né in τx
né in τy , ergo nemmeno in τx ∪ τy .
Definizione 1.1.29. Sia (X, τ ) uno spazio topologico e sia A ⊆ X.
• x ∈ X si dice interno ad A se esiste B ∈ τ tale che x ∈ B ⊆ A;
• x ∈ X è un punto di aderenza di A se per ogni B ∈ τ , se x ∈ B allora B ∩ A 6= ∅. In altre
parole x è di aderenza se non è un punto interno di Ac .
• x ∈ X è un punto di accumulazione di A se per ogni B ∈ τ contenente x esiste y 6= x tale
che y ∈ A ∩ B. In altre parole, x è di accumulazione se è un punto di aderenza di A \ {x}. (Si
noti che i punti di accumulazione sono anche di aderenza.)
• Un punto di aderenza di A che non sia di accumulazione si dice punto isolato.
Dalla definizione si evince immediatamente che i punti interni di A sono punti di A. I punti di
aderenza di A invece possono non essere punti di A, ma tutti i punti di A sono di aderenza. Se A
è aperto, tutti i suoi punti sono interni. Se A è chiuso, esso contiene tutti i suoi punti di aderenza
(perché tutti i punti di Ac sono interni ad Ac ). Si noti che se A = X, un punto x ∈ A è isolato se e solo
se {x} è aperto (e diverso da X).
1.1. TOPOLOGIE: APERTI, CHIUSI E COMPAGNIA BELLA 29
Esempio 1.1.30. In R2 con la metrica Euclidea sia B la palla di centro l’origine e raggio 1 e sia D
la palla chiusa di centro l’origine e raggio 1. B è aperto e D è chiuso; l’origine è un punto interno di
entrambi; (0, 1) è un punto di aderenza di entrambi. Si noti che (0, 1) ∈ D ma (0, 1) ∈ / B. In entrambi
i casi tutti i punti di aderenza sono anche di accumulazione.
Esempio 1.1.31. In R Euclideo sia A = {1/n : n ∈ N} ∪ {0}. Tutti i punti di A tranne lo zero sono
isolati. Lo zero è l’unico punto di accumulazione di A.
Esempio 1.1.32. In R2 con la metrica dei raggi l’insieme A = {(x, 0) : 1 < x < 3} è aperto in quanto
è la palla di centro (2, 0) e raggio 1, mentre Y = {(x, 0) : −1 < x < 1} no perché l’origine non è un
punto interno di Y . Il punto (1, 0) è di aderenza per entrambi.
Esempio 1.1.33. In R2 Euclideo, sia Cn il cerchio di raggio 1/2n centrato nell’origine e sia X =
∪n∈N Cn . Se B è una palla di raggio ε > 0 centrata nell’origine, allora per 2−n < ε il cerchio Cn è
contenuto in B. Ne segue che l’origine è un punto di aderenza di X. Si noti che l’origine appartiene
a X c ma non ne è punto interno.
Esercizio 1.1.34. Sia X come nell’Esempio 1.1.33. Si dimostri che tutti i punti di X c diversi
dall’origine sono interni a X c .
Definizione 1.1.35. Sia (X, τ ) uno spazio topologico e sia A un sottoinsieme di X.
• La parte interna di A è l’unione di tutti gli aperti contenuti in A. Si denota con Int(A) o Å.
• la chiusura di A è l’intersezione di tutti i chiusi contenenti A. Si denota con Ā.
• La frontiera di A è ∂A = Ā \ Å.
Teorema 1.1.36. Sia (X, τ ) uno spazio topologico e sia A ⊆ X. Allora
• Int(A) è il più grande aperto contenuto in A;
• Ā è il più piccolo chiuso contenente A.
D IMOSTRAZIONE . Vediamo la prima affermazione. Per definizione Int(A) è unione di aperti
contenuti in A, ergo è aperto e contenuto in A. Se B ∈ τ è contenuto in A, allora B ⊆ Int(A) per
definizione quindi Int(A) è il più grande di tali insiemi.
Vediamo la seconda. Per definizione Ā è intersezione di chiusi contenenti A, ergo è chiuso e
contiene A. Se C è un chiuso che contiene A allora C ⊇ Ā per definizione.
Sia ora Ad(A) l’insieme dei punti di aderenza di A. Per definizione esso è il complementare
dell’insieme dei punti interni di Ac , quindi
Ad(A) = (Int(Ac ))c = Ā.
Per quanto riguarda la frontiera si ha
∂A = Ā \ Å = Ā ∩ (Å)c = (Int(Ac ))c ∩ Int(A)c = (Int(Ac ) ∪ Int(A))c
e tale espressione è simmetrica in A e Ac (cioè applicando lo stesso ragionamento ad Ac si ottiene
∂Ac = (Int(A) ∪ Int(Ac ))c = (Int(Ac ) ∪ Int(A))c = ∂A.)
Esempio 1.1.38. In R2 Euclideo la chiusura di B(P, R) è B(P, R) (la notazione è quindi coerente).
La parte interna di B(P, R) è B(P, R). La frontiera di entrambi è il cerchio C(P, R).
Esempio 1.1.39. L’insieme di Cantor, il tappeto e la guarnizione di Sierpinski non hanno parte
interna. Né punti isolati. In quanto chiusi, tutti i loro punti sono di aderenza (e di accumulazione).
Esempio 1.1.40. Sia f : [0, ∞) → R2 la funzione f (x) = (arctan(x) cos(x), arctan(x) sin(x)) e sia
X l’immagine di f . X è una spirale che parte dall’origine e si accumula sul cerchio C di raggio π/2
centrato nell’origine. La chiusura di X è l’unione di X e C. La parte interna di X è il vuoto e la
frontiera di X coincide quindi con la sua chiusura.
Esercizio 1.1.41. Sia X come nell’esempio precedente. Trovare la parte interna, la chiusura e la
frontiera del complementare di X.
Definizione 1.1.42. Sia X uno spazio topologico. Y ⊆ X si dice denso in X se Ȳ = X.
Esempio 1.1.43. Ogni insieme non vuoto è denso nella topologia banale, nessun sottoinsieme che
non sia il tutto è denso nella topologia discreta.
Esempio 1.1.44. In R2 Euclideo, B(x, r) è denso in B(x, r).
Esempio 1.1.45. In R2 Euclideo, B(x, r) \ B(x, r) non è denso in B(x, r).
Esempio 1.1.46. Q è denso in R Euclideo (per definizione di R tramite le sezioni di Dedekind, ogni
numero reale è approssimabile con numeri razionali).
Esempio 1.1.47. Il complementare di Q è denso in R Euclideo.
Esempio 1.1.48. L’insieme Q è numerabile. Sia q1 , q2 , . . . una sua numerazione. L’insieme dei
razionali cioccioni è definito come
1
∪i∈N B(qi , i )
2
Tale insieme è un sottoinsieme aperto (perché unione di aperti) e denso in R (perché contiene Q che è
denso). Cosa meno banale è dimostrare che non è tutto R.
Esercizio 1.1.49. Dimostrare che Q2 è denso in R2 Euclideo.
Esempio 1.1.50. In R con la topologia cofinita, consideriamo Y = [0, 1]. Siccome i chiusi della
cofinita sono gli insiemi finiti e tutto R, l’unico chiuso che contiene Y è R. Quindi Ȳ = R e dunque
[0, 1] è denso in R per la cofinita. Chiaramente [0, 1] è chiuso per la topologia Euclidea e quindi non è
denso in R Euclideo.
Esercizio 1.1.51. Dimostrare che Z è denso in R con la topologia cofinita. Dimostrare che Z non è
denso in R Euclideo.
Definizione 1.1.52. Siano τ, σ due topologie su un insieme X. Diciamo che τ è più fine di σ se
σ ⊆ τ.
1.2. BASI. TOPOLOGIA DI ZARISKI E ALTRI ESEMPI 31
In altre parole, τ è più fine di σ se ogni aperto di σ è anche aperto di τ . In pratica possiamo dire
che τ è più fine se “ha più aperti”. La topologia banale è la meno fine di tutte le topologie, la discreta
è la più fine.
Esercizio 1.1.53. Siano X un insieme e τ, σ due topologie su X. Dimostrare che τ è più fine di σ se
e solo se ogni chiuso di σ è anche un chiuso di τ .
Esempio 1.1.54. La topologia cofinita è meno fine della topologia Euclidea di R2 . Infatti per la
toplologia Euclidea i punti son chiusi e quindi un numero finito di punti, in quanto unione di chiusi,
è un chiuso.
Esempio 1.1.55. La topologia Euclidea su R2 è meno fine della topologia indotta dalla metrica
dei raggi. Sia infatti B una palla Euclidea e sia x ∈ B. Mostriamo che x è interno a B rispetto alla
metrica dei raggi (e ciò implicherà che ogni aperto Euclideo è anche aperto per la metrica dei raggi).
Se x è l’origine allora esiste ε > 0 tale che B(x, ε) ⊂ B (si noti che le palle centrate nell’origine
coincidono per le due metriche). Altrimenti esiste ε > 0 tale che O ∈ / BEucl (x, ε) ⊂ B. Il raggio Rx
passante per x interseca BEucl (x, ε) in un segmento aperto rispetto alla metrica dei raggi. Quindi
x ∈ Rx ∩ BEucl (x, ε) ⊂ BEucl (x, ε) ⊂ B risulta punto interno (per la metrica dei raggi) di B.
Due topologie non sono necessariamente confrontabili.
Esempio 1.1.56. Siano x, y due punti distinti di R. Allora le topologie del punto particolare τx e τy
(Esercizio 1.1.11) non sono confrontabili. Infatti {x} è aperto in τx ma non in τy e vice versa.
Esempio 1.1.57. Sia x ∈ R2 . La topologia del punto particolare τx non è confrontabile con la
topologia Euclidea. Infatti {x} è aperto in τx ma non nella Euclidea, mentre una qualsiasi palla metrica
B(P, r) che non contiene x è aperta nella Euclidea ma non in τx .
Esempio 1.1.58. Dati due spazi topologici (X, τ ) e (Y, σ), la topologia unione disgiunta τ t σ,
definita sull’unione disgiunta X t Y è
τ t σ = {A ⊆ X t Y : A ∩ X ∈ τ e A ∩ Y ∈ σ}
(verificare che è una topologia) Siano ora X = R e Y = R. X t Y non è altro che un insieme formato
da due copie disgiunte di R. Siano σ la topologia standard su R e τ quella cofinita. Sia α = τ t σ e
β = σ t τ . Nessuna tra α e β è più fine dell’altra.
Esercizio 1.1.59. Sia X = R2 . Sia τ la topologia Euclidea e sia σ = {A ∈ τ : O ∈ / A} ∪ {X}.
Dimostrare che σ è una topologia, si dica se τ e σ sono confrontabili, se sono uguali o se una è più
fine dell’altra.
Esercizio 1.1.60. In R sia τ = {A ⊆ R : ∀x ∈ A∃ε > 0 : [x, x + ε) ∈ A}. Si dimostri che τ è una
topologia e che è strettamente più fine di quella Euclidea.
Per la proprietà (2), e per il Lemma 1.2.3, Bi11 ∩ Bi22 è unione di elementi di B. Quindi A1 ∩ A2 =
∪(Bi11 ∩ Bi22 ) è anch’esso unione di elementi di B e dunque sta in τ .
Esempio 1.2.5. Per ogni x, a ∈ Z sia S(x, a) la successione aritmetica che parte da x con passo a:
S(x, a) = {x + Za} = {x + na : n ∈ Z}.
L’insieme delle successioni aritmetiche soddisfa le condizioni (1) e (2) del Teorema 1.2.4. Infatti la
(1) è ovvia e per la (2) basta osservare che se c ∈ S(x, a) ∩ S(y, b) allora, detto d il minimo comune
multiplo tra a e b, si ha S(c, d) ⊆ S(x, a) ∩ S(y, b). Quindi l’insieme delle successioni aritmetiche è
base di una topologia su Z, detta topologia delle successioni aritmetiche.
O SSERVAZIONE 1.2.6. La topologia delle successioni aritmetiche è stata inventata nel 1955 da
Furstenberg, che la usò per dare una dimostrazione topologica dell’esistenza di infiniti numeri primi.
Infatti, usando questa topologia si può arguire come segue. Siccome S(x, a)c è l’unione di S(x + i, a)
con i = 1, ..., a − 1, ogni S(x, a) è chiuso (oltre che aperto). Sia A l’unione di tutti gli insiemi S(0, p) al
variare di p primo (1 non è un primo). Chiaramente Ac = {−1, 1}. Ma se i primi fossero in numero
finito, A sarebbe unione finita di chiusi e dunque chiuso. Quindi Ac sarebbe aperto, ergo unione
di elementi della base. Ma Ac contiene solo due elementi, mentre ogni aperto della base è infinito.
Assurdo.
Piuttosto che il Teorema 1.2.4, nella vita capita spesso di usare il seguente corollario, le cui ipotesi
sono generalmente semplici da verificare.
Corollario 1.2.7. Sia X un insieme e sia B ⊆ P(X) una famiglia chiusa per intersezione e tale che
∪B∈B B = X. Allora τ = {∪i∈I Bi : Bi ∈ B, I insieme qualsiasi} è una topologia su X di cui B è base.
D IMOSTRAZIONE . Siccome B è chiusa per intersezione, la condizione (2) del Teorema 1.2.4 è
tautologicamente verificata (ponendo B3 = B1 ∩ B2 ).
Vediamo ora, come esempio di applicazione del Corollario 1.2.7, una topologia molto importante
in matematica, specialmente in geometria algebrica: La topologia di Zariski.
1.2. BASI. TOPOLOGIA DI ZARISKI E ALTRI ESEMPI 33
Esempio 1.2.8. Sia K un campo (per esempio R). Per ogni polinomio p ∈ K[x1 , . . . , xn ] poniamo
Z(p) = {x ∈ Kn : p(x) = 0} e A(p) = {x ∈ Kn : p(x) 6= 0} = Z(p)c .
Si noti che
Z(1) = ∅ Z(0) = Kn Z(pq) = Z(p) ∪ Z(q) A(pq) = A(p) ∩ A(q).
In particolare la famiglia degli insiemi A(p), al variare di p ∈ K[x1 , . . . , xn ], è chiusa per intersezione
e quindi per il Corollario 1.2.7 è una base per una topologia su Kn , detta topologia di Zariski.
Gli insiemi Z(p) sono chiusi e gli A(p) aperti. Per questa topologia i chiusi sono gli zeri di sistemi
di polinomi. Cioè per ogni insieme di polinomi S ⊆ K[x1 , . . . , xn ] si pone
Z(S) = ∩p∈S Z(p) = {x ∈ Kn : p(x) = 0∀p ∈ S}
gli insiemi Z(S) sono tutti i chiusi della topologia di Zariski 1.
La topologia di Zariski è una buona palestra per allenare il cervello al fatto che al mondo non
esiste solo la topologia Euclidea.
Esempio 1.2.9. In R2 con la topologia di Zariski, la parte interna della palla B(P, R) è vuota. Que-
sto perché un polinomio, in quanto funzione analitica, se si annulla su un aperto Euclideo di R2 , allora
è il polinomio nullo. Quindi la chiusura del complementare di B(P, R), per la topologia di Zariski, è
tutto R2 . (Stiamo usando Int(X) = (X c )c ).
Esercizio 1.2.10. Sia X ⊆ Kn con la topologia di Zariski. Sia I(X) l’insieme dei polinomi che si
annullano su X, cioè I(X) = {f ∈ K[x1 , . . . , xn ] : x ∈ X ⇒ f (x) = 0}. Si dimostri che la chiusura di
X è Z(I(X)).
Esercizio 1.2.11. Si dimostri che la topologia di Zariski su R coincide con la topologia cofinita.
Le basi sono spesso utili per confrontare due topologie.
Teorema 1.2.12. Siano τ, σ due topologie su un insieme X. Allora σ è meno fine di τ se e solo se ammette
una base Bσ fatta di aperti di τ , se e solo se ogni base di σ è fatta di elementi di τ . In particolare se Bσ , Bτ sono
basi di σ e τ rispettivamente, allora σ è meno fine di τ se e solo se ogni elemento di Bσ è unione di elementi di
Bτ se e solo se
∀x ∈ A ∈ Bσ ∃B ∈ Bτ : x ∈ B ⊆ A.
D IMOSTRAZIONE . Se σ ⊆ τ allora in particolare gli elementi di ogni base di σ sono anche ele-
menti di τ . Viceversa, se σ ha una base Bσ ⊆ τ , allora ogni aperto di σ, in quanto unione di elementi
di Bσ , è anche unione di elementi di τ e quindi è in τ . Le altre affermazioni dell’enunciato seguono
dal fatto che ogni aperto è unione degli elementi di base.
Esempio 1.2.13. La topologia di Zariski è meno fine della Euclidea di Rn . Infatti i polinomi sono
funzioni continue Rn → R per la metrica Euclidea, quindi per ogni polinomio p, il teorema della per-
manenza del segno per funzioni continue a valori reali implica che l’insieme A(p) è aperto Euclideo.
Quindi la Zariski ha una base fatta di aperti Euclidei.
Esempio 1.2.14. Sia F ⊂ P(R) la famiglia degli insiemi “chiusi a sinistra e aperti a destra”, cioè
del tipo [a, b). Essa soddisfa le condizioni del Corollario 1.2.7. La topologia τ di cui F è base è talvolta
chiamata topologia degli intervalli semiaperti a destra o topologia del limite destro (questo secondo
nome sarà più chiaro in seguito). Essa è più fine della Euclidea. Infatti (a, b) = ∪x∈(a,b) [x, b) quindi
la topologia Euclidea ha una base fatta di elementi di τ . R dotato della topologia del limite destro si
chiama anche retta di Sorgenfrey.
Esercizio 1.2.15. Dimostrare che la topologia del limite destro è quella dell’Esercizio 1.1.60.
1In generale S può a priori essere infinito, ma siccome K è un campo, per il Teorema della base di Hilbert, possiamo
sempre ridurci al caso di S finito.
34 1. SPAZI TOPOLOGICI
Esempio 1.2.18 (Topologia dell’ordine). Sia X un insieme totalmente ordinato. La topologia del-
l’ordine è quella generata dagli intervalli illimitati, ossia insiemi del tipo {x ∈ X : x < b} o
{x ∈ X : a < x}. Si noti che gli intervalli in generale non sono una base per la topologia dell’ordine.
Per esempio, in [0, ∞) con l’ordine usuale, l’intervallo (1, 2) non è unione di intervalli illimitati.
Si noti che se Y = ∪A∈A A non è tutto X, allora la topologia generata da A non distingue i punti
di X \ Y , nel senso che per ogni z ∈ X \ Y l’unico aperto che contiene z è X. Quindi in realtà la
topologia generata da A fornisce informazioni solo su ∪A A.
Esempio 1.2.19 (Falsa topologia dell’ordine). Sia X un insieme totalmente ordinato. Sia τ la topo-
logia generata dagli intervalli limitati, ossia insiemi del tipo (a, b) = {x ∈ X : a < x < b}. Dimostrare
che in generale tale topologia non è quella dell’ordine. (Suggerimento: Provare con X = [0, 1]. Chi
sono gli intorni di 0?) Si diano almeno due esempi in cui τ coincide con la topologia dell’ordine.
Esempio 1.2.20. Sia Y uno spazio topologico, sia Y X = {f : X → Y } e sia K ⊆ P(X) una famiglia
di sottoinsiemi di X. Per ogni K ∈ K e per ogni aperto U di Y sia AK,U = {f ∈ Y X : f (K) ⊆ U }. La
topologia generata dagli insiemi AK,U si chiama topologia K-aperta, detta talvolta anche topologia
dello slalom. (Figura 4.)
U2
U3
U1
K1 K2 K3
P A è intorno di P ma non di Q
Q A
Questo disegno, che va benissimo per R2 Euclideo, va interpretato cum grano salis altrimenti po-
trebbe risultare fuorviante. Per esempio, se si considera la topologia di Zariski su R2 , la palla metrica
di centro P e raggio R non è un intorno di P . (Si veda l’Esempio 1.2.9).
Teorema 1.3.4. Sia X uno spazio topologico, sia x ∈ X e siano A, B due intorni di x. Allora A ∩ B è un
intorno di x. Se C ⊇ A allora C è un intorno di x.
D IMOSTRAZIONE . Siccome x è interno sia ad A che a B, esistono aperti U, V tali che
x∈U ⊆A x ∈ V ⊆ B.
L’insieme U ∩ V è aperto e x ∈ U ∩ V ⊆ A ∩ B. Quindi x è interno a A ∩ B. La seconda affermazione
discende tautologicamente dalla definizione di punto interno e di intorno.
La famiglia di tutti gli intorni di x si indica con I(x) (tipicamente nei testi italiani) o V(x) (dal
francese voisinage) o N (x) (dall’inglese neighborhood). Essa ha la proprietà di filtro (Teorema 1.3.4):
Definizione 1.3.5. Dato un insieme X, un filtro di sottoinsiemi di X è una famiglia non vuota
F ( P(X) chiusa per intersezione e passaggio a soprainsiemi:
∀A, B ∈ F si ha A ∩ B ∈ F ∀A ⊆ B, (A ∈ F) ⇒ (B ∈ F).
Definizione 1.3.6. Sia (X, τ ) uno spazio topologico e sia x ∈ X. Un sistema fondamentale di
intorni di x (detta anche base locale) è una famiglia Fx di intorni di x tale che per ogni A ∈ I(x) esiste
B ∈ Fx tale che B ⊆ A.
Tautologicamente, la famiglia I(x) è un sistema fondamentale di intorni di x.
Esempio 1.3.7. Sia (X, d) uno spazio metrico. Per ogni x definiamo Bx = {B(x, ε) : 0 < ε ∈ Q}.
Per ogni x ∈ X, la famiglia Bx è un sistema fondamentale di intorni (aperti) di x.
Esempio 1.3.8. Se B è una base per una topologia su X, allora per ogni x ∈ X la famiglia Bx =
{B ∈ B : x ∈ B} è un sistema fondamentale di intorni aperti di x.
36 1. SPAZI TOPOLOGICI
Definizione 1.3.9. Un insieme diretto è un insieme ordinato (X, ≤) tale che per ogni x, y ∈ X
esiste z ∈ X tale che x ≤ z e y ≤ z.
N è un insieme diretto, ed è questo il punto chiave per definire le successioni (xn ) e i loro limiti2.
I sistemi fondamentali di intorni, ordinati con l’inclusione inversa A ≤ B ⇔ B ⊆ A, sono insiemi
diretti e si usano per dare la nozione di convergenza in spazi topologici.
Definizione 1.3.10 (Convergenza di successioni). Sia (X, τ ) uno spazio topologico. Una succes-
sione (xi )i∈N in X converge a x ∈ X se per ogni intorno A di x si ha xi ∈ A definitivamente in i.
Equivalentemente, dato un sistema fondamentale di intorni Nx di x, si ha xi → x se per ogni A ∈ Nx
si ha xi ∈ A definitivamente in i.
Se (X, τ ) è uno spazio metrico allora la nozione di convergenza topologica coincide con quella
metrica. In topologie strane però, le successioni possono avere comportamenti assai bizzarri.
Esempio 1.3.11. Sia X un insieme e sia τ la topologia generata da una famiglia A ⊂ P(X) tale che
∪A∈A A 6= X. Sia x ∈ X \ ∪A∈A A. Allora ogni successione converge a x. (L’unico intorno di x è X).
Esempio 1.3.12. In R con la topologia di Zariski (che coincide con la cofinita) la successione xn =
1/n converge a qualsiasi punto: dato un qualsiasi insieme aperto A non vuoto, essendo A cofinito
si ha che xn ∈ A definitivamente. Lo stesso dicasi per una qualsiasi successione di punti distinti tra
loro.
Esempio 1.3.13. In Z con la topologia delle successioni aritmetiche, la successione xn = n! conver-
ge a zero. Infatti, per ogni successione S(0, a) si ha che xn ∈ S(0, a) definitivamente.
Esempio 1.3.14. Consideriamo su R la topologia del limite destro (Esempio 1.2.14). Allora una
successione xn converge a x se e solo se converge a x “da destra” per la topologia Euclidea. Infatti,
xn → x se e solo se per ogni intorno U di x si ha xn ∈ U definitivamente. In particolare ciò vale per
gli intorni Uε = [x, x + ε) (che sono aperti per la topologia del limite destro). Quindi dal fatto che
xn ∈ Uε definitivamente si deduce che xn → x “da destra” per la topologia Euclidea.
Teorema 1.3.15. Sia (X, τ ) uno spazio topologico e supponiamo di aver fissato, per ogni x, un sistema
fondamentale di intorni Fx . Sia F = ∪x Fx ⊆ P(X). Allora ogni aperto di τ è unione di elementi di F. In
particolare, se tutti gli elementi degli Fx sono aperti, allora F è una base di τ .
D IMOSTRAZIONE . Sia A aperto. Allora esso è intorno di ogni suo punto. Per ogni a ∈ A esiste
quindi Ua ∈ Fa tale che Ua ⊆ A. Ne segue che A = ∪a∈A Ua .
Viceversa, una topologia si può descrivere dando un sistema fondamentale di intorni per ogni
punto. Questo è un procedimento standard, specialmente in Analisi Funzionale.
Teorema 1.3.16. Sia X un insieme e per ogni x ∈ X sia data una famiglia non vuota Fx ⊆ P(X) di
insiemi contenenti x e diretti per l’inclusione inversa, cioè:
∀A, B ∈ Fx ∃C ∈ Fx : C ⊆ A ∩ B.
Allora la famiglia
τ = {A ∈ P(X) : ∀x ∈ A ∃B ∈ Fx : B ⊆ A}
è una topologia su X; per ogni x ∈ X la famiglia Fx è un sistema fondamentale di intorni di x, e se ogni
Fx ⊆ τ allora F = ∪x Fx è una base di τ .
2La teoria delle successioni si generalizza infatti rimpiazzando il ruolo di N con insiemi diretti qualsiasi. Si veda a tal
proposito l’Appendice B.
1.4. SOTTOSPAZI 37
D IMOSTRAZIONE . La famiglia τ contiene X ed il vuoto per come è definita, cosı̀ come è evidente
dalla definizione che τ sia chiusa per unioni qualsiasi. Vediamo l’intersezione. Siano A1 , A2 ∈ τ e sia
x ∈ A1 ∩ A2 . Per definizione esistono B1 , B2 ∈ Fx con Bi ⊆ Ai , i = 1, 2. Siccome Fx è diretto, esiste
C ∈ Fx tale che C ⊆ B1 ∩ B2 ⊆ A1 ∩ A2 e quindi A1 ∩ A2 ∈ τ .
Sia ora x ∈ X e N un suo intorno. Essendo x interno a N , esiste un aperto A ∈ τ con x ∈ A ⊆ N
e per definizione di τ esiste B ∈ Fx tale che B ⊆ A. Quindi Fx è un sistema fondamentale di intorni
di x. Se ogni Fx ⊆ τ allora F ⊆ τ e l’ultima affermazione segue dal Teorema 1.3.15.
Esempio 1.3.17 (Topologia della convergenza puntuale). Sia (Y, d) uno spazio metrico (per esem-
pio R) e sia A un insieme (per esempio R). Sia X = Y A = {f : A → Y }. Per ogni f ∈ X definiamo
un sistema fondamentale di intorni. Per ogni k ∈ N, per ogni a = (a1 , . . . , ak ) ∈ Ak , per ogni
ε = (ε1 , . . . , εk ) ∈ (0, ∞)k definiamo
Na,ε (f ) = {g ∈ X : d(f (ai ), g(ai )) < εi : ∀i = 1, . . . , k}
La topologia che ha gli insiemi Na,ε (f ) come sistema fondamentale di intorni è la topologia della
convergenza puntuale. Secondo questa topologia infatti fn → f se e solo se per ogni x ∈ A la
successione fn (x) converge in Y a f (x).
Esempio 1.3.18 (Topologia della convergenza uniforme). Sia (Y, d) uno spazio metrico e sia A un
insieme. Sia X = Y A = {f : A → Y }. Per ogni f ∈ X, per ogni ε > 0, definiamo
Nε (f ) = {g ∈ X : d(f (a), g(a)) < ε : ∀a ∈ A}
La topologia che ha gli insiemi Nε (f ) come sistema fondamentale di intorni è la topologia della con-
vergenza uniforme. Secondo questa topologia infatti fn → f se e solo se per ogni la successione
supa∈A d(fn (x), f (x)) converge a zero in R.
Esercizio 1.3.19. Si dimostri che la topologia della convergenza puntuale su RA è la topologia
K-aperta se K è la famiglia dei singoletti K = {{a}, a ∈ A}.
Esercizio 1.3.20. Si dimostri che la topologia della convergenza uniforme sullo spazio delle fun-
zioni continue da [0, 1] a R è la topologia K-aperta se K è la famiglia degli intervalli chiusi di [0, 1].
1.4. Sottospazi
Teorema 1.4.1. Sia (X, τ ) uno spazio topologico e sia Y ⊆ X. La famiglia τ |Y ⊆ P(Y ) definita da
τ |Y = {B ∩ Y : B ∈ τ }
è una topologia su Y . Inoltre, se B è una base di τ allora l’insieme
BY = {B ∩ Y : B ∈ B}
è una base di τ |Y .
D IMOSTRAZIONE . Siccome τ contiene il vuoto e X, allora τ |Y contiene il vuoto e Y = Y ∩ X. Se
{Ai } ⊆ τ |Y è una famiglia di elementi di τ |Y , allora esistono Bi ∈ τ tali che Ai = Bi ∩ Y . Siccome τ
è una topologia allora ∪i Bi ∈ τ . Ma allora ∪i (Bi ∩ Y ) = (∪i Bi ) ∩ Y ∈ τ |Y . Un discorso analogo vale
per l’intersezione.
Sia ora A ∈ τ |Y . Allora esiste B ∈ τ tale che A = B ∩ Y . Esistono quindi Bi ∈ B tali che B = ∪i Bi .
Quindi A = B ∩ Y = (∪i Bi ) ∩ Y = ∪i (Bi ∩ Y ) è unione di elementi di BY .
Definizione 1.4.2 (Sottospazio). Sia (X, τ ) uno spazio topologico e sia Y ⊆ X. La topologia τ |Y
si chiama restrizione di τ ad Y , oppure topologia indotta da X su Y , oppure topologia di Y come
sottospazio di X. Lo spazio topologico (Y, τ |Y ) si dice sottospazio di (X, τ ). Se non ci sono ambiguità
si può indicare τ |Y anche semplicemente con τ .
Teorema 1.4.3. Sia Y un sottospazio di (X, τ ) allora:
38 1. SPAZI TOPOLOGICI
Ci sono alcune proprietà degli spazi topologici che, pur suonando come “intuitivamente vere”
non lo sono in generale. Ciò dipende dal fatto che spesso si è abituati a pensare che tutto funzioni
come in R2 Euclideo. I seguenti teoremi ci dicono che, per quanto riguarda il comportamento delle
successioni, negli spazi localmente numerabili le cose funzionano come ci si aspettava.
Teorema 1.5.7 (Degli intorni inscatolati). Sia X uno spazio topologico localmente numerabile. Allora
ogni x ∈ X ha un sistema fondamentale di intorni (numerabile) (Bn )n∈N inscatolati, cioè
n > m ⇒ Bn ⊆ Bm .
D IMOSTRAZIONE . Sia (Ni )i∈N un sistema fondamentale di intorni di x numerabile. Per ogni n
definiamo Bn = N1 ∩ · · · ∩ Nn . In quanto intersezione finita di intorni, Bn è intorno di x. Inoltre
se A ∈ I(x) esiste Ni tale che Ni ⊆ A. Ma per ogni n > i si ha Bn ⊆ Ni . Quindi la famiglia
numerabile (Bi )i∈N è un sistema fondamentale di intorni di x. Per come sono definiti, se n > m allora
Bn ⊆ Bm .
Teorema 1.5.8. Sia X uno spazio topologico localmente numerabile (per esempio uno spazio metrico) e sia
A ⊆ X. Allora x ∈ X è un punto di aderenza di A se e solo se è il limite di una successione in A.
D IMOSTRAZIONE . Se x è il limite di una successione (ai )i∈N ⊆ A allora non è interno ad Ac e
quindi è di aderenza per A. Viceversa, se x ∈ Ā, allora per ogni intorno N di x esiste a ∈ N ∩ A. Sia
(Ni )i∈N un sistema fondamentale di intorni inscatolati di x e sia ai ∈ Ni ∩ A. Per ogni intorno B di x
esiste Ni ⊆ B e quindi an ∈ Nn ⊆ Ni ⊆ B per ogni n > i. Quindi ai → x.
Definizione 1.5.9. Uno spazio topologico (X, τ ) si dice separabile se contiene un sottoinsieme
denso numerabile.
Esempio 1.5.10. Ogni spazio numerabile è separabile in quanto esso è denso in sé stesso.
Esempio 1.5.11. R è separabile perché Q è numerabile e denso in R. Rn è separabile perché Qn è
numerabile e denso in Rn .
Esempio 1.5.12. Sia τ la topologia delle palle annidate di R2 (Esempio 1.1.10). Sia x l’origine di R2 .
La chiusura di {x} è R2 perché ogni aperto non vuoto contiene x. In particolare R2 con tale topologia
è separabile perché {x} — che è numerabile perché contiene un solo elemento — è denso in R2 .
Teorema 1.5.13. Sia X uno spazio topologico a base numerabile. Allora X è separabile.
D IMOSTRAZIONE . Sia B = {Bi } una base numerabile per la topologia di X. Non è restrittivo
supporre ogni Bi non vuoto. Sia bi ∈ Bi . L’insieme B = {bi } è un insieme numerabile perché B
lo è. Vediamo che è denso. Sia x ∈ X e sia U un intorno di x. Esiste quindi un aperto A tale che
x ∈ A ⊆ U . Siccome A è unione di aperti della base esiste almeno un Bi ∈ B tale che Bi ⊆ A, in
particolare bi ∈ U .
Teorema 1.5.14. Sia (X, d) uno spazio metrico separabile. Allora X ha una base numerabile.
D IMOSTRAZIONE . Sia Q ⊆ X un insieme denso numerabile e sia Bq,n = B(q, n1 ). Dimostriamo
che B = {Bq,n : q ∈ Q, n ∈ N} è una base della topologia generata da d. Sia A un aperto di X e sia
x ∈ A. Per definizione esiste ε > 0 tale che B(x, ε) ⊆ A. Sia n tale che 1/n < ε e sia q ∈ Q ∩ B(x, 1/2n).
Con queste scelte si ha x ∈ Bq,2n ⊆ A. Ne segue che A è unione di elementi di B.
Teorema 1.5.15. Sia (X, τ ) uno spazio topologico. Se τ contiene una famiglia non numerabile A di aperti
non vuoti a due a due disgiunti, allora X non è separabile (e non può quindi avere una base numerabile).
D IMOSTRAZIONE . Sia Q ⊆ X un insieme numerabile. Siccome gli elementi di A sono disgiunti,
ogni q ∈ Q appartiene al più ad un A ∈ A. Siccome A non è numerabile esiste un aperto A ∈ A che
non interseca Q. Quindi Q non è denso in X.
1.6. SPAZI DI HAUSDORFF 41
a d(a, b) b
R R
Esempio 1.6.5. R con la topologia cofinita non è T2 . Infatti due aperti non vuoti della topologia
cofinita si intersecano sempre.
Esercizio 1.6.6. Dimostrare che la topologia di Zariski su Rn non è T2 .
3Si veda l’Appendice A per una breve introduzione all’aritmetica ordinale.
42 1. SPAZI TOPOLOGICI
Esempio 1.6.7. La topologia della palle annidate di R2 (Esempio 1.1.10) non è T2 . Infatti per ogni
x, y ∈ R2 , per ogni coppia di aperti U, V x ∈ U e y ∈ V l’origine è contenuta in U ∩ V che quindi non
è vuota.
Esercizio 1.6.8. Si dimostri che la topologia del punto particolare (Esercizio 1.1.11) su un insieme
con almeno due elementi non è T2 .
Esempio 1.6.9. La topologia delle successioni aritmetiche su Z (Esempio 1.2.5) è T2 . Infatti se
n, m ∈ Z sono diversi, allora le successioni S(n, 100(m − n)) e S(m, 100(m − n)) sono disgiunte.
Esercizio 1.6.10. Si dimostri che la topologia dello slalom (Esempio 1.2.20) sullo spazio delle fun-
zioni da R2 in R, usando come K la famiglia dei singoletti, è T2 . (Se due funzioni f, g sono diverse,
allora esiste almeno un x ∈ R2 tale che f (x) 6= g(x) e siccome R è T2 . . . )
Teorema 1.6.11 (Unicità del limite). Sia X uno spazio T2 e sia xi → x una successione convergente. Se
xi → y allora x = y.
D IMOSTRAZIONE . Se X è T2 e x 6= y allora esistono U, V intorni di x, y rispettivamente, tali che
U ∩ V = ∅. Ne segue che se xi → x allora (xi ) non può convergere a y.
Teorema 1.6.12. I punti di uno spazio T2 sono chiusi.
D IMOSTRAZIONE . Sia X uno spazio T2 e sia x ∈ X. Dimostriamo che il complementare di x è
/ Uy . In particolare {x}c = ∪y6=x Uy
aperto in X. Se y 6= x allora esiste Uy intorno aperto di y tale che x ∈
è aperto.
Il viceversa non è vero in generale (gli spazi i cui punti son chiusi sono i T1 ).
Esempio 1.6.13. La topologia cofinita su R ha la proprietà che i punti sono chiusi ma non è T2 .
Esercizio 1.6.14. Dimostrare che nella topologia di Zariski i punti sono chiusi.
Esercizio 1.6.15. Si dia un esempio di spazio topologico X (non T2 ) tale che esista una succes-
sione xn convergente a due limiti diversi contemporaneamente. (Eventualmente si guardi l’Esem-
pio 1.3.12).
Teorema 1.7.5. Siano (X, τ ) e (Y, σ) spazi topologici e sia B una base di σ. Una funzione f : X → Y è
continua se e solo se per ogni B ∈ B si ha f −1 (B) ∈ τ .
D IMOSTRAZIONE . Siccome B ⊆ σ, se f è continua e B ∈ B allora f −1 (B) ∈ τ . Viceversa, sia
A ∈ σ. Esistono Bi ∈ B tali che A = ∪i Bi . Quindi f −1 (A) = f −1 (∪i Bi ) = ∪i f −1 (Bi ) è unione di
aperti e quindi è aperto.
Teorema 1.7.6. Siano X e Y due spazi topologici. Allora una funzione f : X → Y è continua se e solo se
per ogni C chiuso in Y si ha che f −1 (C) è chiuso in X.
D IMOSTRAZIONE . La dimostrazione è un facile esercizio lasciato al lettore (si passi ai comple-
mentari nella definizione di continuità).
Definizione 1.7.7 (Continuità in un punto). Siano (X, τ ) e (Y, σ) due spazi topologici e sia x ∈ X.
Una funzione f : X → Y si dice continua in x se per ogni intorno A di f (x) si ha che f −1 (A) è un
intorno di x.
Le due definizioni sono coerenti:
Teorema 1.7.8. Siano (X, τ ) e (Y, σ) due spazi topologici. Una funzione f : X → Y è continua se e solo
se è continua in ogni punto di X.
D IMOSTRAZIONE . Supponiamo f continua e sia x ∈ X. Sia A un intorno di f (x). Allora per
definizione f (x) è interno ad A e quindi esiste un aperto B tale che f (x) ∈ B ⊆ A. In particolare
x ∈ f −1 (B) ⊆ f −1 (A). Siccome f è continua f −1 (B) è un aperto. Ne segue che f −1 (A) è un intorno
di x.
Viceversa, supponiamo f continua in ogni punto. Sia A un aperto di Y , dunque esso è un intorno
di ogni suo punto. Sia x ∈ f −1 (A). Siccome f è continua in x e A è un intorno di f (x), si ha che
f −1 (A) è un intorno di x. Quindi ogni punto di f −1 (A) è interno, ergo f −1 (A) è aperto.
Teorema 1.7.9 (Continuità vs successioni). Sia f : X → Y una funzione continua tra spazi topologici
e sia xn → x in X. Allora f (xn ) → f (x) in Y .
D IMOSTRAZIONE . Siccome f è continua, per ogni intorno A di f (x) in Y , f −1 (A) è un intorno di
x. Siccome xn → x, allora definitivamente xn ∈ f −1 (A). Quindi f (xn ) ∈ A definitivamente.
Teorema 1.7.10 (Continuità per chiusura). Siano (X, τ ) e (Y, σ) due spazi topologici. Una funzione
f : X → Y è continua se e solo se per ogni sottoinsieme A ⊆ X si ha
x ∈ Ā ⇒ f (x) ∈ f (A)
ossia se
f (Ā) ⊆ f (A).
In altre parole, f è continua se e solo se l’immagine di un punto di aderenza è di aderenza per l’immagine.
Prima della dimostrazione, un commento su quest’enunciato è d’uopo. Per il Teorema 1.5.8, in
spazi localmente numerabili un punto è di aderenza di A se e solo se è limite di una successione xn ∈
A, e la stessa cosa vale per f (A). Ci troviamo quindi di fronte a una generalizzazione dell’abituale
“xn → x implica f (xn ) → f (x)”. E infatti vale il seguente, rassicurante
Corollario 1.7.11. Negli spazi metrici le nozioni di continuità topologica e metrica coincidono.
D IMOSTRAZIONE . Siano X, Y due spazi metrici e sia f : X → Y una funzione. Se f è topologi-
camente continua allora per il Teorema 1.7.9 è anche metricamente continua.
Viceversa supponiamo che f sia metricamente continua, sia A ⊆ X e sia x un punto di aderenza
di A. Per il Teorema 1.5.8, i punti di aderenza di A (o di f (A)) sono i limiti di successioni a valori in
A (o in f (A)). In particolare esiste xn → x con xn ∈ A. Siccome f è metricamente continua allora
(xn → x) ⇒ f (xn ) → f (x). Ne segue che f (x) = lim f (xn ) è un punto di aderenza di f (A). Abbiamo
quindi dimostrato che f (Ā) ⊆ f (A) e quindi f è topologicamente continua.
44 1. SPAZI TOPOLOGICI
Si noti che la dimostrazione di questo risultato usa solo il fatto che gli spazi metrici sono spazi
localmente numerabili e quindi vale anche per tali spazi.
D IMOSTRAZIONE DEL T EOREMA 1.7.10. Supponiamo f continua; sia A ⊆ X e x ∈ X. Se f (x)
non è un punto di aderenza di f (A) allora esiste un intorno N di f (x) con N ⊆ f (A)c . Quindi f −1 (N )
è un intorno di x contenuto in Ac e dunque, in quanto interno ad Ac , x non è di aderenza per A.
Viceversa, supponiamo che per ogni A si abbia f (Ā) ⊆ f (A) e dimostriamo che f è continua in
ogni punto. Sia x ∈ X e sia N un intorno di f (x). Per definizione f (x) non è di aderenza per N c .
Ergo x non è di aderenza per f −1 (N c ) = (f −1 (N ))c . Dunque x è interno a f −1 (N ), che quindi è un
intorno di x.
Il Corollario 1.7.11 fornisce un buon metodo per dimostrare che certi sottoinsiemi di Rn Euclideo
sono aperti o chiusi.
Corollario 1.7.12. Sia X uno spazio topologico e sia F : X → R continua. Allora gli insiemi di livello
F −1 ((a, b)) sono aperti e gli insiemi di livello F −1 ([a, b]) sono chiusi (in entrambi i casi sono ammesse le
possibilità a = −∞ e b = ∞; nel secondo caso è ammesso a = b).
D IMOSTRAZIONE . Segue dal fatto che (a, b) è aperto e [a, b] è chiuso.
Esempio 1.7.13. In R2 l’insieme A = {1 < 3x2 + 5y 2 < 2} è aperto perché f (x, y) = 3x2 + 5y 2 è
continua e A = f −1 ((1, 2)).
Esempio 1.7.14. In R2 l’insieme A = {1 ≤ 3x2 + 5y 2 ≤ 2} è chiuso perché f (x, y) = 3x2 + 5y 2 è
continua e A = f −1 ([1, 2]).
Esempio 1.7.15. In R2 l’insieme, A = {xy < 1} è aperto perché f (x, y) = xy è continua e A =
−1
f ((−∞, 1)).
Esempio 1.7.16. In R2 l’insieme A = {x2 − y 2 > −2} è aperto perché f (x, y) = x2 − y 2 è continua
e A = f −1 ((−2, ∞)).
Esempio 1.7.17. In R2 l’insieme A = {x2 − y 2 = −2} è chiuso perché f (x, y) = x2 − y 2 è continua
e A = f −1 (−2).
Esempio 1.7.18. In R2 l’insieme, A = {xy ≥ 1} è chiuso perché f (x, y) = xy è continua e A =
−1
f ([1, ∞]).
Esempio 1.7.19. In R2 l’insieme A = {x2 − y 2 ≤ −2} è chiuso perché f (x, y) = x2 − y 2 è continua
e A = f −1 ([−∞, −2]).
Esempio 1.7.20. In R l’insieme A = {cos(x) > sin(x)} è aperto perché la funzione F (x) = cos(x) −
sin(x) è continua e A = F −1 (0, ∞).
Esempio 1.7.21. In R2 l’insieme A = {(x, y) : y > x sin(1/x)} è aperto (la funzione x sin 1/x si
considera estesa in zero con continuità). Infatti la funzione F : R2 → R data da F (x, y) = y − x sin 1/x
è continua e A = F −1 (0, ∞).
Esempio 1.7.22. In R2 l’insieme A = {(x, y) : cos(x) ≤ sin(y)} è chiuso perché la funzione F :
R2 → R data da F (x, y) = cos(x) − sin(y) è continua e A = F −1 ([−∞, 0]).
Teorema 1.7.23. La composizione di funzioni continue è continua.
D IMOSTRAZIONE . Siano (X, τ ), (Y, σ), (Z, η) tre spazi topologici e siano f : X → Y e g : Y → Z
continue. Per ogni A ∈ η si ha (g ◦ f )−1 (A) = f −1 (g −1 (A)). Siccome g è continua g −1 (A) ∈ σ e
siccome f è continua f −1 (g −1 (A)) ∈ τ .
Definizione 1.7.24. Siano (X, τ ) e (Y, σ) due spazi topologici. Una funzione f : X → Y si dice
omeomorfismo se è invertibile e se sia f che f −1 sono continue.
1.7. CONTINUITÀ, FUNZIONI APERTE E OMEOMORFISMI 45
f (X)
X f
)
−π π f (−π)
F IGURA 5. La funzione f
1.8. Esercizi
Esercizio 1.8.1. In R Euclideo sia X = {x ∈ R : ∃0 6= n ∈ Z : |x − 1/n| < 1/n2 }. Si dica se X è
aperto. Si dica se X è chiuso. Si determini la frontiera di X.
Esercizio 1.8.2. In R Euclideo sia X = {x ∈ R : ∃0 6= n ∈ Z : |x − 1/n| < 1/2n }. Si dica se X è
aperto. Si dica se X è chiuso. Si determini la frontiera di X.
Esercizio 1.8.3. Dimostrare che Q non è né aperto né chiuso in R, che Q̄ = R e Int(Q) = ∅.
Esercizio 1.8.4 (non banale). Si provi che i razionali ciccioni (Esempio 1.1.48) non sono tutto R.
Esercizio 1.8.5. Sia X = {1/n : n ∈ N} ⊂ R. Si calcoli la chiusura di X e la sua frontiera.
Esercizio 1.8.6. Sia X = {1/n : n ∈ N} ⊂ (0, ∞). Si calcoli la chiusura di X e la sua frontiera.
Esercizio 1.8.7. In R2 Euclideo sia X = {(x, 2n x2 ), x ∈ R, n ∈ Z}. Si determinino X e ∂X.
Esercizio 1.8.8. In R2 Euclideo sia X = {x2 + y 2 ≥ 1, y ≥ 0} ∪ {x2 + y 2 < 1, y < 0}. Si determinino
parte interna, chiusura e frontiera di X.
Esercizio 1.8.9. Per n ∈ Z sia Cn il cerchio di R2 centrato nell’origine e di raggio 2n . Sia X =
∪n≥0 Cn . Si dica se X è aperto e/o chiuso, si determinino X, X̊, ∂X.
Esercizio 1.8.10. Per n ∈ Z sia Cn il cerchio di R2 centrato nell’origine e di raggio 2n . Sia X =
∪n≤0 Cn . Si dica se X è aperto e/o chiuso, si determinino X, X̊, ∂X.
Esercizio 1.8.11. Per n ∈ Z sia Cn il cerchio di R2 centrato nell’origine e di raggio 2n . Sia Y =
∪n∈Z Cn e sia X = Y c il suo complementare. Si dica se X è aperto e/o chiuso, si determinino
X, X̊, ∂X.
Esercizio 1.8.12. In R2 Euclideo siano A = {(x, y) : sup(|x|, |y|) ≤ 1} e B = {(x, y) : |x| + |y| ≤ 1}.
Sia X = A \ B. Si dica se X è aperto e/o chiuso, si determinino X, X̊, ∂X.
Esercizio 1.8.13. In R2 Euclideo siano A = {(x, y) : sup(|x|, |y|) ≤ 1} e B = {(x, y) : |x| + |y| < 1}.
Sia X = A \ B. Si dica se X è aperto e/o chiuso, si determinino X, X̊, ∂X.
Esercizio 1.8.14. In R2 Euclideo siano A = {(x, y) : sup(|x|, |y|) < 1} e B = {(x, y) : |x| + |y| ≤ 1}.
Sia X = A \ B. Si dica se X è aperto e/o chiuso, si determinino X, X̊, ∂X.
Esercizio 1.8.15. In R2 Euclideo siano A = {(x, y) : sup(|x|, |y|) < 1} e B = {(x, y) : |x| + |y| < 1}.
Sia X = A \ B. Si dica se X è aperto e/o chiuso, si determinino X, X̊, ∂X.
Esercizio 1.8.16. In R2 Euclideo siano A = {(x, y) : x2 + (y − 1)2 ≤ 4} e B = {(x, y) : x2 + y 2 ≤ 1}.
Sia X = A \ B. Si dica se X è aperto e/o chiuso, si determinino X, X̊, ∂X.
1.8. ESERCIZI 49
Esercizio 1.8.37. Descrivere gli aperti di R2 per topologia indotta dall’ordine lessicografico.
Esercizio 1.8.38. Descrivere gli aperti di R2 per topologia indotta dall’ordine prodotto.
Esercizio 1.8.39. Sia X = R2 con la metrica dei raggi. Sia A = {(x, 0) : x ∈ 1 < x < 2)}. Dimostrare
che A è aperto in X.
Esercizio 1.8.40. Sia X = R2 con la metrica dei raggi. Sia A = {(x, 0) : x ∈ 1 < x < 2)}. Dimostrare
che A non è chiuso in X.
Esercizio 1.8.41. Sia X = R2 con la metrica dei raggi e sia O l’origine. Dimostrare che l’insieme
C = DEuclid (O, 1) \ {(x, 0) : 0 < x < 1}
è chiuso. Dimostrare che l’insieme
C = DEuclid (O, 1) \ {(x, 0) : −1 < x < 1}
non lo è.
Esercizio 1.8.42. Sia τ la topologia su R2 indotta dall’ordine lessicografico. Si descriva un sistema
fondamentale di intorni dell’origine per τ . Si dica se τ e quella Euclidea sono una più fine dell’altra.
Si dica se esiste una metrica su R2 che induce τ e nel caso se ne esibisca una.
Esercizio 1.8.43. Sia τ la topologia su R2 indotta dall’ordine prodotto. Si descriva un sistema
fondamentale di intorni dell’origine per τ . Si dica se τ e quella Euclidea sono una più fine dell’altra.
Si dica se esiste una metrica su R2 che induce τ e nel caso se ne esibisca una.
Esercizio 1.8.44. Dimostrare che l’insieme (−∞, 0] ∪ (53, ∞) con la topologia dell’ordine (indotto
da R) è omeomorfo a R Euclideo.
Esercizio 1.8.45. In R2 con la topologia di Zariski sia X = {xy > 0}. Si dica se X è aperto. Si
determini la chiusura di X.
Esercizio 1.8.46. In R2 con la topologia di Zariski sia X = {xy 6= 0}. Si dica se X è aperto. Si
determini la chiusura di X.
Esercizio 1.8.47. In R2 con la topologia di Zariski sia X = {y − ex 6= 0}. Si dica se X è aperto. Si
determini la chiusura di X.
Esercizio 1.8.48. Sia X = R con la topologia di Zariski. Sia {An , n ∈ N} una famiglia numerabile
di chiusi ognuno dei quali diverso da X. Dimostrare che ∪n An 6= X.
Esercizio 1.8.49. Sia X = R2 con la topologia di Zariski. Sia {An , n ∈ N} una famiglia numerabile
di chiusi ognuno dei quali diverso da X. Dimostrare che ∪n An 6= X.
Esercizio 1.8.50. Sia X = R2 con la topologia Euclidea. Trovare una famiglia {An , n ∈ N}
numerabile di chiusi ognuno dei quali diverso da X e tali che ∪n An = X.
Esercizio 1.8.51. Trovare un insieme X con due topologie τ e σ. Con σ che non sia a base numera-
bile ma τ più fine di σ (e quindi con più aperti) e a base numerabile.
Esercizio 1.8.52. Siano τ, σ due topologie su un insieme X tali che σ < τ . È vero che se τ è
localmente numerabile allora anche σ lo è? È vero che se σ è localmente numerabile allora anche τ lo
è?
Esercizio 1.8.53. Sia X un insieme, sia x ∈ X e sia τx la topologia del punto particolare (Eserci-
zio 1.1.11). Si dimostri che x è denso in X per τx . Se ne deduca che la topologia del punto particolare
è sempre separabile.
1.8. ESERCIZI 51
Esercizio 1.8.77. Siano τ e σ due topologie su X e sia Y uno spazio topologico. Se τ è meno fine
di σ si dimostri che ogni funzione f : Y → X che sia σ-continua è anche τ -continua.
Esercizio 1.8.78. Su R sia τ la topologia generata dagli intervalli del tipo (a, b]. (1) Si descrivano gli
aperti di τ . (2) Si dica se τ è più fine della topologia Euclidea. (3) Si dica se la topologia Euclidea è più
fine di τ . (4) Si descrivano le successioni τ -convergenti. (5) Si caratterizzino le funzioni τ -continue.
Esercizio 1.8.79. In R2 Euclideo, dimostrare che un quadrato, un cerchio e un triangolo sono
sempre omeomorfi tra loro (considerati come figure unidimensionali).
Esercizio 1.8.80. In R2 Euclideo, dimostrare che un quadrato, un cerchio e un triangolo sono
sempre omeomorfi tra loro (considerati come figure bidimensionali).
Esercizio 1.8.81. In R2 Euclideo, dimostrare che due poligoni qualsiasi sono omeomorfi.
Esercizio 1.8.82. In R2 Euclideo sia X l’immagine di (0, ∞) tramite la funzione
2
f (t) = e−1/t (cos(t + 1/t), sin(t + 1/t)).
Si dica se X è omeomorfo a R Euclideo. Si dica se la chiusura di X è omeomorfa a R Euclideo.
Esercizio 1.8.83. Sia X = R2 dotato della topologia delle palle annidate (Esempio 1.1.10). Dimo-
strare che la funzione f : X → X data da f (x) = 2x è un omeomorfismo.
Esercizio 1.8.84. Sia X = R2 dotato della topologia delle palle annidate (Esempio 1.1.10) e sia
Y = R2 Euclideo. Dimostrare che la funzione f : Y → X data da f (x) = 2x è continua, biunivoca,
ma non è un omeomorfismo.
Esercizio 1.8.85. Sia X = R2 , sia O l’origine e sia τ = {B(O, 2−n ), n ∈ N} ∪ {∅, X}. Dimostrare che
τ è una topologia.
Esercizio 1.8.86. Sia X = R2 e τ come nell’Esercizio 1.8.85. Dimostrare che f : X → X definita da
f (x) = 2x è continua e biunivoca, ma non è un omeomorfismo.
Esercizio 1.8.87. Si esibisca uno spazio topologico X tale che esista un punto x ∈ X tale che
nessuna successione non costante possa convergere a x.
Esercizio 1.8.88. Si esibisca uno spazio topologico X, con la proprietà che i punti non siano aperti,
tale che esista un punto x ∈ X tale che nessuna successione non costante possa convergere a x.
Esercizio 1.8.89. Sia (X, <) un insieme ben ordinato e sia x ∈ X. Sia τ = {[t, x], t < x} ∪ {∅, X}. Si
dimostri che τ è una topologia su X. La si confronti con la topologia dell’ordine.
Esercizio 1.8.90. Sia X = [0, 1], sia x = 1 e sia τ definita come nell’esercizio 1.8.89. Si dica se τ è
una topologia.
Esercizio 1.8.91. Sia X = N, sia x = 51 e sia τ come nell’esercizio 1.8.89. Si dica se τ è T2 . Si dica
se τ soddisfa gli assiomi di numerabilità.
Esercizio 1.8.92. Sia X un insieme ben ordinato avente un elemento massimale x. Sia τ come
nell’esercizio 1.8.89. Si dica se i punti di X sono aperti.
Esercizio 1.8.93. Sia X un insieme ben ordinato avente un elemento massimale x. Sia τ come
nell’esercizio 1.8.89. Si discuta l’esistenza di successioni convergenti a x.
Esercizio 1.8.94. Sia X = ω1 + 1 = ω1 ∪ {ω1 } e sia x = ω1 il suo massimo. Sia τ come nell’eserci-
zio 1.8.89. Si discutano le proprietà di τ .
CAPITOLO 2
Ne segue che
[
A×B = Ai × B j
i∈SA j∈SB
Esercizio 2.1.3. Si dimostri che la topologia Euclidea di R2 è il prodotto delle topologie Euclidee
su R.
È bene non dimenticare che gli aperti della topologia prodotto non sono necessariamente dei
prodotti. Per esempio B(0, 1) ⊆ R2 è aperto ma non è un prodotto.
Teorema 2.1.4. Uno spazio topologico X è T2 se e solo se la diagonale
∆ = {(x, x) : x ∈ X} ⊆ X × X
è chiusa in X × X per la topologia prodotto.
53
54 2. COSTRUZIONI CON SPAZI TOPOLOGICI
Esempio 2.1.5. La topologia di Zariski su R2 è diversa dal prodotto delle topologie di Zariski di R.
Infatti R con la Zariski non è T2 , ma la diagonale di R × R è chiusa per la topologia di Zariski. (Posto
p(x, y) = x − y si ha ∆ = {(x, x) : x ∈ R} = {(x, y) ∈ R2 : x − y = 0} = Z(p).)
Teorema 2.1.6. Siano X, Y spazi di Hausdorff non vuoti. Allora X × Y è di Hausdorff se e solo se
entrambi X, Y lo sono.
D IMOSTRAZIONE . Supponiamo X, Y di Hausdorff. Siano (x, y) 6= (x0 , y 0 ) due punti diversi di
X × Y . Se x 6= x0 allora esistono A, A0 aperti di X tali che x ∈ A e x0 ∈ A0 con A ∩ A0 = ∅. Quindi
A × Y e A0 × Y separano (x, y) e (x0 , y 0 ). Stesso discorso se y 6= y 0 .
Viceversa, supponiamo X × Y di Hausdorff. Sia x 6= x0 ∈ X e sia y ∈ Y . I punti (x, y) e (x0 , y)
sono diversi in X × Y . Esistono quindi aperti A, A0 in X × Y tali che (x, y) ∈ A e (x0 , y) ∈ A0 con
A ∩ A0 = ∅. Siccome la topologia prodotto è generata dai prodotti di aperti, esistono U, U 0 aperti di
X con x ∈ U e x0 ∈ U 0 e V aperto di Y con y ∈ V tali che U × V ⊆ A e U 0 × V ⊆ A0 . Ne segue che
U ∩ U 0 = ∅. Quindi X è T2 . Stesso discorso per Y .
T n = S1 × · · · × S1
n volte
Ça va sans dire, la definizione di topologia prodotto si estende per induzione a tutti i prodotti finiti
(cioè prodotti di un numero finito di spazi).
Esercizio 2.1.8. Siano (X, τ ), (Y, σ), (Z, ρ) tre spazi topologici, dimostrare su X ×Y ×Z le topologie
(τ × σ) × ρ e τ × (σ × ρ) coincidono.
In generale quindi, se (Xi )i∈I è una famiglia finita di spazi topologici, il loro prodotto può es-
sere definito ricorsivamente. Più in generale ancora, se (Xi )i∈I è una famiglia qualsiasi di insiemi,
assumendo l’assioma di scelta si può definire il prodotto
Πi∈I Xi
come l’insieme delle I-uple (xi )i∈I ove xi ∈ Xi per ogni i ∈ I. (L’assioma di scelta ci dice che tale
insieme di I-uple è non vuoto.) Nel caso particolare in cui gli Xi siano copie di uno stesso insieme X,
allora
Πi∈I X = X I = {f : I → X}
(e questo è sempre non vuoto perché una funzione da I a X è un sottoinsieme di I × X).
Definizione 2.1.9 (Topologia prodotto infinito). Sia (Xi , τi )i∈I una famiglia qualsiasi di spazi
topologici e siano πi : Πi∈I Xi → Xi le proiezioni naturali. La topologia prodotto Πi∈I τi è la meno
fine che rende continue tutte le proiezioni.
Anche se le definizioni sono uguali, quando si fanno prodotti infiniti c’è una piccola sottigliezza
a cui stare attenti.
2.1. PRODOTTI DI SPAZI TOPOLOGICI 55
Teorema 2.1.10. Sia (Xi , τi )i∈I una famiglia qualsiasi di spazi topologici. Allora la topologia prodotto è
generata dagli insiemi Πi∈I Ai ove Ai ∈ τi e
Ai 6= Xi solo per un numero finito di indici.
Inoltre, la famiglia F di tali insiemi è una base di Πi τi .
D IMOSTRAZIONE . Sia ρ la topologia generata dagli elementi di F. La famiglia F è chiusa per
intersezione finita e dunque è una base di ρ. (Corollario 1.2.7 e Teorema 1.2.17).
Per come è definita, ρ rende continue le proiezioni. Sia ora η una topologia che rende continue
le proiezioni. Siccome πi è continua, allora per ogni Ai ∈ τi , ponendo Aj = Xj per j 6= i, si ha
che Πi∈I Ai deve essere aperto. Quindi ogni intersezione finita di tali insiemi deve essere un aperto.
Quindi η ⊇ ρ.
Teorema 2.1.11. Sia (Xi , τi )i∈I una famiglia di spazi topologici e per ogni i sia Bi una base di τi . Allora
una base della topologia prodotto è formata dalla famiglia
C = {Πi∈I Ai : Ai 6= Xi solo per un numero finito di indici e Ai ∈ Bi }.
D IMOSTRAZIONE . Per il Teorema 2.1.10, una base della topologia prodotto è la famiglia F degli
insiemi del tipo ΠAi con τi 3 Ai 6= Xi solo per un numero finito di indici. Basta quindi far vedere che
ogni elemento di F è unione di elementi di C.
Sia A = Πi Ai ∈ F. Per ogni Ai 6= Xi esistono elementi (Bij )j∈Si ⊆ Bi tali che Ai = ∪j∈Si Bij .
Quindi, ponendo Si = {1} se Ai = X e Bi1 = Xi ; per ogni scelta di ji ∈ Si , si ha che Πi Biji è un
elemento di C. Chiaramente [
Πi Ai = Πi Biji .
(ji )∈Πi Si
Teorema 2.1.12 (Le proiezioni sono aperte). Sia (Xi , τi )i∈I una famiglia qualsiasi di spazi topologici e
sia X = ΠXi con la topologia prodotto. Allora ogni proiezione naturale πi : X → Xi è aperta.
D IMOSTRAZIONE . Sia C la base della topologia prodotto data dal Teorema 2.1.11. Per come è
definita C, per ogni A ∈ C, è ovvio che πi (A) sia aperto. La tesi segue (si veda l’Esercizio 1.8.60).
Occhio! Ché in generale le proiezioni non son chiuse (si veda a tal proposito l’Esempio 1.7.39).
Teorema 2.1.13. Sia (Xi , τi )i∈I una famiglia di spazi topologici e sia X = ΠXi con la topologia prodotto.
Sia (xn ) una successione in X. Allora xn → x ∈ X se e solo se per ogni i ∈ I si ha πi (xn ) → πi (x).
D IMOSTRAZIONE . Per il Teorema 1.7.9, siccome le proiezioni sono continue, se xn → x allora
πi (xn ) → πi (x) per ogni i ∈ I. Vediamo il viceversa. Usiamo la base della topologia prodotto data dal
Teorema 2.1.10. Per ogni intorno U di x in X esiste un elemento A della base tale che x ∈ A. L’aperto
A sarà della forma
A = Πi Ai ]({i : Ai 6= Xi }) < ∞.
Siccome per ogni i si ha πi (xn ) → πi (x) e siccome Ai 6= Xi solo per un numero finito di indici, esiste
n0 > 0 tale che per ogni n > n0 e ogni i ∈ I si ha
πi (xn ) ∈ Ai .
Dunque xn ∈ A definitivamente e quindi xn → x.
Corollario 2.1.14. La topologia della convergenza puntuale su X Y è quella prodotto.
D IMOSTRAZIONE . Ricordiamo che X Y è l’insieme delle funzioni da Y a X. Usando il Teore-
ma 2.1.13 ponendo I = Y e Xi = X per ogni i ∈ Y si ha la tesi.
56 2. COSTRUZIONI CON SPAZI TOPOLOGICI
Teorema 2.1.15. Sia (Yi , τi )i∈I una famiglia qualsiasi di spazi topologici e sia Y = ΠYi con la topologia
prodotto. Sia X uno spazio topologico e per ogni i ∈ I sia fi : X → Yi una funzione. Sia f : X → Y la
funzione definita da
f (x) = (fi (x))i∈I
essa è continua se e solo se ogni fi lo è.
D IMOSTRAZIONE . Se f è continua, siccome le proiezioni sono continue, allora ogni fi = πi ◦ f
è continua. Viceversa, supponiamo che ogni fi sia continua. Usiamo la base C del Teorema 2.1.11.
Per il Teorema 1.7.5 ci basta dimostrare che f −1 (A) è aperto per ogni elemento A ∈ C. Sia A = Πi Ai .
Siccome gli Ai sono aperti e le fi sono continue, fi−1 (Ai ) è aperto. In otre fi−1 (Yi ) = X. Chiaramente
f −1 (A) = ∩i fi−1 (Ai ) e siccome solo un numero finito degli Ai è diverso da Yi , ne segue che ∩i fi−1 (Ai )
è di fatto un’intersezione finita di aperti, ergo aperto.
Corollario 2.1.16. Sia Y uno spazio topologico T2 e sia X uno spazio topologico. Siano f, g : X → Y
funzioni continue. Allora l’insieme {x ∈ X : f (x) = g(x)} è chiuso in X.
D IMOSTRAZIONE . Siccome f, g sono continue, allora la funzione f × g : X → Y × Y data da
(f (x), g(x)) è continua per il Teorema 2.1.15. Per il Teorema 2.1.4 la diagonale di Y × Y è chiusa e per
continuità la sua preimmagine, che coincide con {x ∈ X : f (x) = g(x)}, è un chiuso di X.
2.2. Quozienti
Cominciamo con un po’ di terminologia. Se ∼ è una relazione di equivalenza su un insieme X,
si denota con [x] = {y ∈ X : x ∼ y} la classe di equivalenza di x ∈ X; con X/ ∼= {[x] : x ∈ X} il
quoziente di X e con π : X → X/ ∼ la proiezione naturale x 7→ [x].
Un sottoinsieme A ⊆ X si dice saturo se x ∈ A, y ∼ x ⇒ y ∈ A. In altre parole A è saturo se è
unione di classi di equivalenza. Ancora, A è saturo se A = π −1 (π(A)).
Il saturato sat(A) di un sottoinsieme A è il più piccolo saturo contenente A, esso coincide con
l’intersezione di tutti i saturi contenenti A o, equivalentemente, con l’unione di tutte le classi di
equivalenza di elementi di A o, in formule, sat(A) = π −1 (π(A)).
Una relazione ∼ può essere identificata col sottoinsieme R di X × X dato dalle coppie R =
{(x, y) : x ∼ y}. Non tutte le relazioni, e quindi sottoinsiemi di X × X, sono d’equivalenza: per
esempio, la simmetria impone che R contenga la diagonale. Dato un sottoinsieme qualsiasi R, la rela-
zione d’equivalenza da esso generata è la più piccola relazione d’equivalenza contenente R. (Vedasi
Sezione 0.6.)
Esempio 2.2.1 (Collasso di un sottoinsieme). L’operazione intuitiva di “collassare un sottoinsieme
a un punto” si formalizza con il linguaggio dei quozienti. Sia X un insieme e A ⊆ X. Sia ∼ la relazione
d’equivalenza generata da x ∼ y se x, y ∈ A (come insieme in X × X si considera quindi A × A e la
relazione d’equivalenza da esso generata). Esplicitamente, la relazione d’equivalenza generata è:
x = y oppure
x∼y⇔
x, y ∈ A
In questo caso il quoziente X/ ∼ si denota solitamente con X/A. Le classi d’equivalenza sono [x] =
{x} se x ∈
/ A e [x] = A se x ∈ A. Per ogni B ⊆ X si ha sat(B) = B se B ∩ A = ∅ e sat(B) = B ∪ A se
B ∩ A 6= ∅. (Figura 1.)
Lemma 2.2.2. Sia ∼ una relazione d’equivalenza su un insieme X e sia A ⊆ X. Allora A è saturo se e
solo se Ac lo è.
D IMOSTRAZIONE . X è unione disgiunta delle classi di equivalenza. Per definizione A è saturo se
e solo se è unione di classi di equivalenza, se e solo se il suo complementare è unione delle rimanenti
classi di equivalenza.
2.2. QUOZIENTI 57
X X/A
A [A]
X X × [0, 1]
cono su X
La costruzione del nastro di Moebius appena descritta è in realtà un caso particolare di un proce-
dimento generale, noto in inglese come mapping torus, traducibile con “toro dell’applicazione”, noto
anche come “toro di sospensione di una funzione”. Poco importa il nome, vediamone la sostanza.
Dato uno spazio topologico X e un omeomorfismo f : X → X, si considera il prodotto X × [0, 1]
e poi si incolla (x, 1) con (f (x), 0). Cioè si forma la relazione d’equivalenza generata da
(x, 1) ∼ (f (x), 0)
e si definisce il toro di f come il quoziente Tf = (X × [0, 1])/ ∼. Il nastro di moebius è omeomorfo al
toro dell’omeomorfismo di [−1, 1] dato da f (x) = −x.
X × {1} x
f (x)
f x
f (x)
X × {0}
Esempio 2.2.10 (La retta con due zeri). Sia X = R × {0, 1} ⊂ R2 con la relazione d’equivalenza
generata da
(x, y) ∼ (x0 , y 0 ) ⇔ x = x0 6= 0.
(x, 0) è identificato con (x, 1) per ogni x 6= 0, ma (0, 0) non è equivalente a (0, 1). Quindi X/ ∼
assomiglia a una retta con due zeri: [(0, 0)] e [(0, 1)]. Gli insiemi saturi sono fatti cosı̀: se contengono
(x, 0) con x 6= 0 allora contengono anche (x, 1) e viceversa. Quindi due intorni saturi qualsiasi di
(0, 0) e (0, 1) non sono mai disgiunti. In particolare, X/ ∼ non è T2 e la successione [(1/n, 0)] converge
simultaneamente sia a [(0, 0)] che a [(0, 1)].
Esempio 2.2.11. Sia Z l’insieme dei numeri interi di R. Lo chiamiamo Z e non Z perché vogliamo
enfatizzare che lo consideriamo solo come un insieme. Sia X = R/Z (inteso come collasso di Z a
un punto); visivamente è formato da infiniti cerchi che passano per un punto. Sia z = [Z] il punto
comune a tutti i cerchi. Se x 6= z allora una base di intorni di x è fatta come in R. Altrimenti, affinché
un insieme U contenente z sia aperto, è necessario che π −1 (U ) sia un aperto che contenga Z. In
particolare, per ogni successione E = (εn )n∈Z di numeri positivi, l’insieme UE = π(∪n B(n, εn )) è
un intorno di z e la famiglia {UE : E successione di numeri positivi }, è un sistema fondamentale
di intorni di z. Tale famiglia è chiaramente non numerabile, ma c’è di più: z non ha un sistema
fondamentale di intorni numerabile (e quindi X non ha una base numerabile). Vediamolo.
Sia {Un }n∈Z una famiglia numerabile di intorni di z. Consideriamo An = π −1 (Un ) ⊆ R. Ogni
k ∈ Z è interno ad An per ogni n. Quindi esiste 0 < εkn tale che la palla B(k, εkn ) ⊆ An . Per ogni n ∈ Z
scegliamo 0 < δn < εnn . Sia A = ∪k∈Z B(k, δk ). A è un aperto saturo e quindi π(A) è un aperto. Inoltre
nessuno degli An è contenuto in A per come è definito δn . Quindi nessuno degli Un è contenuto in
π(A) e dunque {Un } non è un sistema fondamentale di intorni di z.
Si noti che questo esempio fornisce una topologia su R, quella saturata, meno fine di quella
Euclidea (che ha base numerabile) ma che non è a base numerabile.
La proiezione naturale π : X → X/ ∼ in generale non ha motivi di essere aperta/chiusa. (Lo sarà
in casi particolari, come quello del Teorema 6.5.28.)
Esempio 2.2.12. In R2 sia ∼ la relazione d’equivalenza generata da (x, y) ∼ (x, y 0 ). Le classi d’equi-
valenza sono le rette verticali, il quoziente è omeomorfo a R e la proiezione naturale è la proiezione
canonica π : R2 → R data da π(x, y) = x. Che non è chiusa (Esempio 1.7.39).
Esempio 2.2.13. Sia A = [−2, 2] ⊂ R e sia X = R/A. La proiezione π : R → R/A non è aperta
perché (−1, 1) è un aperto ma π(−1, 1) = [A], no.
Esempio 2.2.14. Sia X = [−2, 2] × [−2, 2] ⊆ R2 e sia ∼ la relazione d’equivalenza generata da
(x, y) ∼ (x, y 0 ) per ogni x ∈ Q. Sia U la palla centrata nell’origine e di raggio 1. U è un aperto, ma
il suo saturato, che è U ∪ ((Q ∩ (−1, 1)) × [−2, 2]), non contiene nessun aperto saturo. In particolare
π(U ) non solo non è aperto, ma addirittura ha parte interna vuota in X/ ∼.
Teorema 2.2.15. Sia (X, τ ) uno spazio topologico e sia ∼ una relazione di equivalenza su X. Se X è a
base numerabile e la proiezione π è aperta, allora anche X/ ∼ è a base numerabile.
D IMOSTRAZIONE . Sia Bn una base numerabile di τ e siano An = π −1 (π(B)) i saturati di Bn .
Siccome π è aperta, allora π(Bn ) è aperto e, per continuità, An è aperto. Vediamo che gli An formano
una base per la topologia saturata di τ . Sia A un aperto saturo. In quanto aperto, è unione di elementi
della base
A = ∪i∈IA Bi .
Siccome A è saturo, è unione dei saturati dei Bi cioè A = ∪i Ai . Quindi ogni aperto saturo è unione
degli An .
Teorema 2.2.16. Siano X, Y insiemi qualsiasi e sia ∼ una relazione d’equivalenza su X. Sia f : X → Y
una funzione. Allora esiste [f ] : X/ ∼→ Y tale che f = [f ] ◦ π se e solo se f è costante sulle classi di
equivalenza.
60 2. COSTRUZIONI CON SPAZI TOPOLOGICI
π f
X/ ∼ Y
[f ]
Inoltre se X, Y sono spazi topologici e X/ ∼ è dotato della topologia quoziente, allora [f ] è continua se e solo se
f lo è.
D IMOSTRAZIONE . Se f = [f ] ◦ π allora f (x) = [f ](π(x)). Se x ∼ y allora π(x) = π(y) e quindi
f (x) = [f ](π(x)) = [f ](π(y)) = f (y). Viceversa, se f è costante sulle classi, ponendo [f ]([x]) = f (x) si
ha una ben definita funzione su X/ ∼. Per come è definita, f (x) = [f ](π(x)).
Vediamo la continuità. Se [f ] è continua allora, siccome π è continua la composizione f = [f ] ◦ π
è continua. Viceversa, se f è continua e A è un aperto di Y allora f −1 (A) è un aperto di X e siccome f
è costante sulle classi di equivalenza, esso è saturo. Quindi π(f −1 (A)) = [f ]−1 (A) è aperto e dunque
[f ] è continua.
f
X Y
πX πY ◦ f πY
X/∼X Y /∼Y
[f ]
Inoltre, se X, Y sono spazi topologici e i quozienti sono dotati delle topologie quoziente; se f è continua, allora
[f ] è continua.
D IMOSTRAZIONE . Basta applicare il Teorema 2.2.16 con πY ◦ f al posto di f .
Esempio 2.2.18 (Coordinate polari). Sia X = [0, 1] × [0, 2π] e sia Y = D2 = {(x, y) ∈ R2 : x2 +
2
y ≤ 1}. La funzione f : X → Y data da f (ρ, θ) = ρ(cos θ, sin θ) è continua. Se mettiamo su X la
relazione d’equivalenza generata da (0, θ) ∼ (0, θ0 ) e (ρ, 0) ∼ (ρ, 2π) allora f è costante sulle classi
d’equivalenza e induce quindi una funzione continua [f ] : X/ ∼→ Y . Questa non è altro che l’usuale
parametrizzazione del disco in coordinate polari.
Se inoltre su Y collassiamo ∂Y a un punto, abbiamo una funzione continua tra X/ ∼ e Y /∂Y . Se
infine in X poniamo la relazione ∼0 generata da ∼ e (1, θ) ∼0 (1, θ0 ) (cioè identifichiamo anche (1, θ)
con (1, θ0 )), otteniamo una funzione continua [f ] : X/ ∼0 → Y /∂Y (stiamo parametrizzando una sfera
con coordinate polari).
f
X Rn
U V
Esempio 2.3.2. Sia f : Rn → R una funzione continua. Allora il grafico di f è una varietà topo-
logica di dimensione n. L’omeomorfismo locale è dato dalla proiezione Rn+1 → Rn . Le proprietà di
essere T2 e a base numerabile sono ereditate da Rn+1 .
Esempio 2.3.3. Per ogni n, la sfera n-dimensionale S n è una varietà topologica di dimensione n.
Infatti per il teorema del Dini è localmente un grafico e dunque localmente omeomorfa a Rn . Essendo
un sottoinsieme di Rn+1 l’essere T2 e a base numerabile sono ovvi. In particolare, S 2 è una superficie.
Esempio 2.3.4. In R3 sia C = {z 2 = x2 + y 2 }. Esso non è una superficie in quanto nell’origine non
è localmente omeomorfo a R2 . (Questa cosa è intuitiva, ma per formalizzarla bene serve la nozione
connessione. Si veda a tal proposito la Sezione 6.1.)
Esempio 2.3.5. La retta con due zeri (Esempio 2.2.10) è localmente omeomorfa a R, ha base nume-
rabile, ma non è T2 . Quindi non è una varietà.
Esempio 2.3.6 (La retta lunga). Sia ω1 il primo ordinale non numerabile e sia X lo spazio ω1 × [0, 1)
dotato della topologia dell’ordine lessicografico e privato dello zero. X è localmente omeomorfo a R.
Per vederlo, Pper ogni α < ω1 , siccome α è numerabile basta scegliere una successione {εβ }β∈α tale
che εβ > 0 e εβ = 1. La funzione X
f (β, t) = tεβ + εη
η<β
fornisce un omeomorfismo locale tra X e R. Siccome ω1 non è numerabile, X non è a base numerabile
e quindi non è una varietà.
Se X è una varietà topologica, e f1 : U1 → V1 , f2 : U2 → V2 sono carte locali (cioè, gli Ui sono
aperti di X, i Vi sono aperti di Rn e le fi sono omeomorfismi) la mappa ϕ2,1 = f2 ◦f1−1 : f1 (U1 ∩U2 ) →
f2 (U1 ∩ U2 ) si chiama cambio di carta; essa è un omeomorfismo tra aperti di Rn . Se F : X → Y è
una funzione, essa può essere letta in carte locali come F ◦ f1−1 : f1 (U1 ) → Y (nella carta U1 ). Si
noti che F ◦ f1−1 è una funzione definita su un aperto di Rn , quindi usualmente più facile da trattare
per fare i calcoli. La terminologia deriva dalle cartine geografiche. Una mappa non è altro che un
omeomorfismo locale tra il mondo (S 2 ) e un foglio di carta. Le funzioni come latitudine, longitudine,
altezza etc. . . si possono leggere in carte locali sulle pagine di un atlante. (Figura 6).
Teorema 2.3.7. Sia X una varietà topologica di dimensione n e sia Y una varietà topologica di dimensione
k. Allora X × Y è una varietà topologica di dimensione n + k.
D IMOSTRAZIONE . I Teoremi 2.1.2 e 2.1.6 garantiscono che X × Y è T2 e a base numerabile. Sia
(x, y) ∈ X × Y . Sia Ux un intorno aperto di x ∈ X e sia fx : Ux → Vx un omeomorfismo tra Ux e un
aperto Vx di Rn . Similmente definiamo fy : Uy → Vy . L’insieme Vx × Vy è un aperto di Rn × Rk , che è
omeomorfo a Rn+k . La funzione Ux × Uy → Vx × Vy data da
(a, b) 7→ (fx (a), fy (b))
62 2. COSTRUZIONI CON SPAZI TOPOLOGICI
X U1
U2 F Y
U1 ∩ U2
F ◦ f1−1
f2 f1
ϕ2,1
V2 V1
Esempio 2.3.16. R è un grafo planare infinito ma localmente finito: Esso è il quoziente dei segmenti
[n, n + 1] ove il punto n ∈ [n, n + 1] è identificato col punto n ∈ [n − 1, n]. Ogni vertice ha valenza 2.
Esempio 2.3.17. In R2 sia X = (R × Z) ∪ (Z × R) (un foglio a quadretti infinito). Esso è un grafo
planare infinito ma localmente finito, i cui vertici han tutti valenza 4.
Teorema 2.3.18. Sia (X, τ ) un grafo. Allora esiste una metrica d su X tale che τd ⊆ τ . In particolare X
è T2 . Se inoltre X è localmente finito allora τd = τ (ergo τ è indotta da una metrica).
D IMOSTRAZIONE . Sia {Li }i∈I l’insieme dei lati e sia ∼ la relazione d’equivalenza che definisce
X = tLi / ∼. Su ogni Li mettiamo la metrica Euclidea. Per ogni x, y ∈ X definiamo d(x, y) come la
lunghezza del più piccolo cammino da x a y in X, se ve n’è almeno uno; d(x, y) = ∞ altrimenti. È
immediato verificare che la funzione d è positiva, simmetrica, distingue i punti e soddisfa la disugua-
glianza triangolare. Le palle metriche sono aperte nella topologia quoziente che definisce X. Quindi
τd è meno fine di τ . Se X è localmente finito, ogni punto ha un sistema fondamentale di intorni fatto
di palle metriche e quindi τd = τ .
In generale quindi la situazione è questa: i grafi per definizione son dotati della topologia quo-
ziente, che coincide con quella metrica per grafi localmente finiti. Per grafi non localmente finiti la
topologia quoziente e quella metrica son diverse e si deve fare attenzione a quale usare.
Si noti che l’Esempio 2.2.11 fornisce l’esempio di un grafo non metrizzabile (non è localmente
numerabile). L’unico vertice di tale spazio è lo stereotipo di un vertice di valenza infinita.
Teorema 2.3.19. Sia X un grafo simpliciale finito. Allora X è omeomorfo a un sottoinsieme di Rn
(Euclideo) i cui lati siano segmenti Euclidei.
D IMOSTRAZIONE . Siccome X è finito, ha un numero finito di vertici v1 , . . . , vn , che identifichia-
mo con gli elementi della base canonica di Rn . Se L è un lato tra vi e vj esso è identificato al seg-
mento che congiunge ei , ei . Siccome X è simpliciale ciò definisce un omeomorfismo di X con un
sottoinsieme di Rn come richiesto.
Esercizio 2.3.20. Dimostrare che in un grafo ogni punto ha un intorno omeomorfo al cono su un
insieme discreto.
2.4. Esercizi
Esercizio 2.4.1. Sia τ la topologia discreta su R e σ quella banale. Chi sono gli aperti di τ × σ?
Esercizio 2.4.2. Sia τ la topologia dell’ordine lessicografico su R2 . Su R siano σ la topologia discreta
ed ε quella Euclidea. Si dimostri che τ = σ × ε.
Esercizio 2.4.3. Siano (X, d) e (Y, δ) due spazi metrici e sia D((x, y), (x0 , y 0 )) = max(d(x, x0 ), δ(y, y 0 ))
Verificare che D sia una metrica su X × Y . Dimostrare che la topologia indotta da D su X × Y è il
prodotto delle topologie τd su X e τδ su Y .
Esercizio 2.4.4. Si dimostri che S 1 × [0, 1] è omeomorfo a {(x, y) ∈ R2 : 1 ≤ x2 + y 2 ≤ 4}.
Esercizio 2.4.5. Si dimostri che [0, 1] × D2 è omeomorfo a D3 .
Esercizio 2.4.6. Si dimostri che [0, 1]3 è omeomorfo a D3 .
Esercizio 2.4.7. Si dimostri che S 2 × [0, 1] è omeomorfo a {(x, y, z) ∈ R3 : 1 ≤ x2 + y 2 + z 2 ≤ 4}.
Esercizio 2.4.8. Si dimostri che S 2 × D2 non è omeomorfo a {(x, y, z) ∈ R3 : 1 ≤ x2 + y 2 + z 2 ≤ 4}.
Esercizio 2.4.9. Si dimostri che T 2 × S 1 è omeomorfo a T 3 .
Esercizio 2.4.10. Si dimostri che T 2 × [0, 1] è una varietà topologica con bordo. Chi è il bordo?
64 2. COSTRUZIONI CON SPAZI TOPOLOGICI
Esercizio 2.4.11. Sia X uno spazio topologico e sia x ∈ X. Siano U1 , U2 intorni aperti di x tali che
esistano aperti V1 , V2 di Rn+ = {(x1 , . . . , xn ) ∈ Rn : x1 ≥ 0} e omeomorfismi fi : Ui → Vi , i = 1, 2.
Dimostrare che se f1 (x) appartiene al piano {x1 = 0} allora anche f2 (x) vi appartiene. (Suggerimento:
usare il teorema dell’invarianza del dominio).
Esercizio 2.4.12. Sia X = {(x, y) ∈ R2 : xy = 0}. Dimostrare che X × R non è omeomorfo a R2 .
Esercizio 2.4.13. Siano (X, τ ) e (Y, σ) due spazi topologici. Siano η1 e η2 due topologie su X ×Y che
rendono continue le proiezioni naturali πX e πY . Si dimostri che η1 ∩ η2 rende continue le proiezioni
naturali. Se ne deduca che la Definizione 2.1.1 è ben posta.
Esercizio 2.4.14. Sia X uno spazio topologico e sia I un insieme. Dimostrare che la topologia
prodotto su X I è la topologia K-aperta se K è la famiglia dei singoletti di I.
Esercizio 2.4.15. Generalizzare il Teorema 2.1.6 al caso di prodotti infiniti. Cioè dimostrare che il
prodotto di una famiglia qualsiasi di spazi T2 è T2 e viceversa (se son tutti non vuoti).
Esercizio 2.4.16. Dimostrare che il prodotto di una quantità numerabile di spazi a base numerabile
ha base numerabile.
Esercizio 2.4.17. Sia X = R la retta di Sorgenfrey (Esempio 1.2.14) e sia Y = X × X dotato della
topologia prodotto (Y si chiama anche piano di Sorgenfrey). Dimostrare che Y è T2 e separabile. Sia
Z = {(x, y) ∈ Y : y = −x}. Dimostrare che Z, dotato della topologia indotta da Y , non è separabile.
Che spazio è Z?
Esercizio 2.4.18. Dimostrare che il prodotto di due spazi separabili è separabile. Ciò rimane vero
per prodotti infiniti? (Quest’ultima domanda è tutt’altro che banale).
Esercizio 2.4.19. Sia (Xi , τi ) una famiglia finita di spazi topologici e sia X il loro prodotto, dotato
della topologia prodotto τ = Πi τi . Dimostrare che se ogni τi è la topologia discreta su Xi allora τ è la
topologia discreta su X. Ciò rimane vero per prodotti infiniti?
Esercizio 2.4.20. Siano X, Y spazi topologici non vuoti. Dimostrare che se X × Y ha la topologia
cofinita allora almeno uno tra X e Y ha cardinalità finita.
Esercizio 2.4.21. Siano X, Y spazi topologici con almeno due punti ciascuno. Dimostrare che se
X × Y ha la topologia cofinita allora entrambi X e Y hanno cardinalità finita.
Esercizio 2.4.22. Sia ∼ una relazione d’equivalenza su un insieme X e siano A, B ⊆ X. Dimostrare
che se A ⊆ B allora sat(A) ⊆ sat(B).
Esercizio 2.4.23. Sia ∼ una relazione d’equivalenza su uno spazio topologico separabile X. Dimo-
strare che X/ ∼ è separabile.
Esercizio 2.4.24. Dimostrare che nell’Esempio 2.2.11 la successione xn = [n + n1 ] non converge a z.
Esercizio 2.4.25. Dimostrare che nell’Esempio 2.2.11 la proiezione π : R → R/Z non è aperta.
Esercizio 2.4.26. Sia X = [0, 2π] × [−1, 1] e sia ∼ la relazione d’equivalenza generata da (0, t) ∼
(2π, −t) per ogni t ∈ [−1, 1]. Lo spazio quoziente è il nastro di Moebius. Chi è il saturato di [0, 2π] ×
{1}? Chi è il saturato di {0} × [−1, 0]? Se S 1 = {z ∈ C : |z| = 1}, la funzione f : S 1 → X/ ∼ data da
f (z) = (arg(z), −1) è ben definita e continua? E f (z) = (arg(z), 0)?
Esercizio 2.4.27. Siano X = R2 , A = B(O, 1), Y = X/A e sia y0 = [A]. Si dimostri che il comple-
mentare di y0 è chiuso. Si dimostri che y0 non è chiuso e se ne calcoli la chiusura. Si dimostri che Y
non è T2 .
Esercizio 2.4.28. Siano X = R2 , A = B(O, 1), Y = X/A e sia y0 = [A]. Si dimostri che y0 è chiuso.
Si dimostri che y0 non è aperto e se ne calcoli la parte interna. Si dimostri che Y è omeomorfo a R2 .
2.4. ESERCIZI 65
Esercizio 2.4.49. Sia X = [0, 1] × [0, 1] e consideriamo i seguenti quattro quozienti, dati dall’iden-
tificazione dei lati di bordo secondo le frecce disegnate.
A B C D
Dimostrare che A è omeomorfo al toro T 2 , B alla Bottiglia di Klein, C al piano proiettivo, D alla sfera
S2.
Esercizio 2.4.50. Dimostrare, usando solo gli strumenti sviluppati sinora, che la bottiglia di Klein
è ottenuta incollando due nastri di Moebius lungo i bordi.
Esercizio 2.4.51. Sia ∼ la relazione su R2 generata da x ∼ 2x. Si dica se R2 / ∼ è localmente
numerabile, a base numerabile, T2 .
2
Esercizio 2.4.52. In R2 sia X l’immagine di (0, ∞) tramite f (t) = e−1/t (cos(t + 1/t), sin(t + 1/t)).
Si dica se X c è una varietà topologica.
2
Esercizio 2.4.53. In R2 sia X l’immagine di (0, ∞) tramite f (t) = e−1/t (cos(t + 1/t), sin(t + 1/t)).
Si dica se R2 /X è una varietà topologica.
Esercizio 2.4.54. In R2 sia ∼ la relazione di equivalenza generata da (x, y) ∼ (x0 , y 0 ) se y/ex =
0 0
y 0 /ex (equivalentemente (x, y) ∼ (x0 , yex −x )). Descrivere le classi di equivalenza.
Esercizio 2.4.55. In R2 sia ∼ la relazione di equivalenza generata da (x, y) ∼ (x0 , y 0 ) se y/ex =
0 x0
y /e . Si dica se R2 / ∼ è T2 .
Esercizio 2.4.56. In R2 sia ∼ la relazione di equivalenza generata da (x, y) ∼ (x0 , y 0 ) se y/ex =
0 x0
y /e . Si dimostri che R2 / ∼ è omeomorfo a R.
Esercizio 2.4.57. In R2 sia ∼ la relazione d’equivalenza generata da (x, y) ∼ (x + 1, y). Dimostrare
che R2 / ∼ è omeomorfo a S 1 × R.
Esercizio 2.4.58. In R2 sia ∼ la relazione di equivalenza generata da (x, y) ∼ (x0 , y 0 ) se y/ex =
0 x0
y /e e da (x, y) ∼ (x + 1, y). Si dimostri che R2 / ∼ non è T2 .
Esercizio 2.4.59. Su R2 sia ∼ la relazione d’equivalenza generata da (x, y) ∼ (x+1, 2y). Si dimostri
che R2 / ∼ è omeomorfo a S 1 × R.
Esercizio 2.4.60. In R si consideri la relazione di equivalenza generata da x ∼ 2x. Sia X =
(−∞, 1) ∪ {0} ∪ (1, ∞) con la topologia indotta da R. Sia ∼X la relazione di equivalenza indotta
da ∼ su X. Si dica se l’immagine di X in R/ ∼ è omeomorfa a X/ ∼X .
CAPITOLO 3
Compattezza
Esempio 3.1.2. Sia X uno spazio topologico. Allora {X} è un ricoprimento (finito) di X.
Esempio 3.1.3. Sia (X, τ ) uno spazio topologico. Allora τ è un ricoprimento aperto di X. Ogni
ricoprimento aperto di X è un sottoricoprimento di τ .
Esempio 3.1.4. Sia X uno spazio topologico T2 con almeno due punti. Per ogni x ∈ X sia Ux =
{x}c . Siccome in un T2 i punti son chiusi, Ux è aperto. Siccome X ha almeno due punti la famiglia
{Ux }x∈X è un ricoprimento aperto di X.
Esempio 3.1.5. Sia X uno spazio metrico e sia x ∈ X. La famiglia U = {B(x, r)}0<r∈R delle
palle centrate in x è un ricoprimento aperto di X. Anche la famiglia di tutte le palle unitarie V =
{B(p, 1)}p∈X lo è. Inoltre, V è un raffinamento di U.
Definizione 3.1.6. Uno spazio topologico X si dice compatto se ogni ricoprimento aperto di X
ha un sottoricoprimento finito.
67
68 3. COMPATTEZZA
Esempio 3.1.7. R non è compatto poiché il ricoprimento {B(0, r)}0<r∈R non ha sottoricoprimenti
finiti.
Esempio 3.1.8. La topologia banale è sempre compatta.
Esempio 3.1.9. Ogni topologia finita è compatta. In particolare ogni spazio con un numero finito
di elementi è compatto.
Esempio 3.1.10. Se X ha un’infinità di elementi, allora la topologia discreta su X non è compatta:
basta prendere come ricoprimento aperto quello fatto dai singoletti {x} al variare di x ∈ X.
Esempio 3.1.11. Unione finita di compatti è compatta, cioè se K1 , . . . , Kn sono sottospazi compatti
di uno spazio X, allora la loro unione è compatta. Infatti un ricoprimento U di ∪Ki ricopre ogni
singolo Ki ; per compattezza esiste una famiglia finita Ui ⊆ U che ricopre Ki e l’unione ∪Ui è un
sottoricoprimento finito di ∪Ki .
Esempio 3.1.12. La topologia cofinita è compatta.
D IMOSTRAZIONE . Sia X uno spazio dotato della topologia cofinita e sia U un ricoprimento aper-
to di X. Sia U ∈ U. Per definizione esso è il complementare di un numero finito di punti x1 , . . . , xn .
Siccome U è un ricoprimento di X, per ogni i esiste Ui ∈ U tale che xi ∈ Ui . Ne segue che {U, U1 , . . . , Un }
è un sottoricoprimento finito di U.
Teorema 3.1.13. Lo spazio [0, 1] con la topologia Euclidea è compatto.
D IMOSTRAZIONE . Sia U = {Ui } un ricoprimento aperto di [0, 1]. Sia
A = {x ∈ [0, 1] tale che [0, x] è contenuto nell’unione di un numero finito di Ui }
Dire che esiste un sottoricoprimento finito di U equivale a dire che 1 ∈ A.
Per prima cosa, 0 ∈ A perché U è un ricoprimento, il ché implica anche che un intero intorno di
zero sta in A. Sia t = inf Ac (ponendo t = 1 se Ac è vuoto). In particolare t > 0. Siccome U è un
ricoprimento, esiste i tale che t ∈ Ui . Siccome Ui è aperto esiste ε > 0 tale che (t − ε, t + ε) ∩ [0, 1] ⊆ Ui .
Siccome t > 0, esiste x ∈ (t − ε, t) ∩ [0, 1] e siccome t = inf Ac si ha x ∈ A. Per definizione esistono
i1 , . . . , ik tali che
[0, x] ⊆ Ui1 ∪ · · · ∪ Uik
e quindi
[0, t] ⊆ [0, 1] ∩ [0, t + ε) ⊆ (Ui1 ∪ · · · ∪ Uik ) ∪ Ui .
In particolare t ∈ A, e se t 6= 1 allora t non è l’estremo inferiore di Ac .
Si noti che la compattezza (al contrario dell’essere chiuso/aperto) è un invariante topologico e
dunque una proprietà intrinseca degli spazi topologici. Per esempio, il fatto che un sottoinsieme A
di uno spazio topologico X sia compatto, non dipende da X ma solo dalla topologia indotta da X su
A. In particolare, se A ⊂ X ⊂ Y allora A è compatto come sottospazio di X, se e solo se lo è come
sottospazio di Y (perché X e Y inducono su A la stessa topologia.)
Esempio 3.1.14. [0, 1] e R Euclidei non sono omeomorfi perché uno è compatto e l’altro no.
Teorema 3.1.15. Sia X uno spazio topologico e sia U = {Uα } un ricoprimento aperto. Se esiste un
raffinamento V di U che ammette un sottoricoprimento finito, allora anche U ammette un sottoricoprimento
finito.
D IMOSTRAZIONE . Se X = V1 ∪ · · · ∪ Vk con Vi ∈ V, siccome per ogni Vi esiste α(i) tale che
Vi ⊆ Uα(i) allora
X = V1 ∪ · · · ∪ Vk ⊆ Uα(1) ∪ · · · ∪ Uα(k) .
3.1. RICOPRIMENTI E COMPATTEZZA 69
Lemma 3.1.16. Sia (X, τ ) uno spazio topologico e sia B una base di τ . Ogni ricoprimento aperto di X ha
un raffinamento fatto di elementi di B.
D IMOSTRAZIONE . Sia U = {Ui } un ricoprimento aperto di X. Per definizione di base, per ogni i
esistono elementi Bij ∈ B tale che Ui = ∪j Bij . Ne segue che la famiglia di tutti i Bij , al variare di i, j è
un ricoprimento di X che raffina U.
Corollario 3.1.17. Sia (X, τ ) uno spazio topologico e sia B una base di τ . Allora X è compatto se e solo
se ogni ricoprimento di X fatto di elementi di B ha un sottoricoprimento finito.
D IMOSTRAZIONE . Per definizione se X è compatto ogni ricoprimento aperto, e in particola-
re quelli fatti di elementi di B, ha un sottoricoprimento finito. Viceversa, sia U un ricoprimento
aperto. Per il Lemma 3.1.16 U ha un raffinamento fatto di elementi di B, che per ipotesi ha un
sottoricoprimento finito. Per il Teorema 3.1.15 X è compatto.
Teorema 3.1.18. La topologia di Zariski su X = Rn (o Cn , o Kn ) è compatta.
D IMOSTRAZIONE . Sia U = {Ui } un ricoprimento aperto di X. Per il Corollario 3.1.17 possiamo
supporre che ogni Ui appartenga alla base standard, ossia sia della forma Ui = {pi 6= 0} = A(pi ) =
Z(pi )c , per un polinomio pi . Passando ai complementari si ottiene facilmente
[ \
Ui = X ↔ Z(pi ) = ∅.
i i
Per il teorema della base di Hilbert esiste un numero finito di polinomi p1 , . . . , pn tali che l’ideale I
generato
Pn da tutti i polinomi pi è generato dai soli p1 , . . . , pn . Ne segue che per ogni p ∈ I si ha p =
i=1 i i e quindi p(x) = 0 per ogni x ∈ Z(p1 ) ∩ · · · ∩ Z(pn ). In altre parole Z(p) ⊇ Z(p1 ) ∩ · · · ∩ Z(pn ).
q p
Quindi Z(p) ∩ Z(p1 ) ∩ · · · ∩ Z(pn ) = Z(p1 ) ∩ · · · ∩ Z(pn ). In particolare
\
∅= Z(pi ) = Z(p1 ) ∩ · · · ∩ Z(pn );
i
ma ciò equivale a dire che U1 , . . . , Un coprono X.
Teorema 3.1.19. Ogni sottoinsieme chiuso di uno spazio compatto è compatto.
D IMOSTRAZIONE . Sia X uno spazio compatto e A ⊆ X chiuso. Sia U = {Ui } un ricoprimento
aperto di A. Per ogni i esiste Vi aperto in X tale che Ui = Vi ∩ A. Dunque V = {Vi } è una famiglia
di aperti di X e, siccome A è chiuso, allora V ∪ {Ac } è un ricoprimento aperto di X. Esso ammette
per compattezza un sottoricoprimento finito {Vi1 , . . . , Vin , Ac }. Siccome A ∩ Ac = ∅, abbiamo che
{Ui1 , . . . , Uin } ricopre A e quindi U ha un sottoricoprimento finito.
Per il viceversa serve un’ipotesi in più.
Teorema 3.1.20 (Compatto in T2 è chiuso). Sia X uno spazio di Hausdorff e sia A ⊆ X compatto.
Allora A è chiuso in X. Inoltre, per ogni x ∈
/ A esistono aperti disgiunti V, U tali che x ∈ V e A ⊆ U .
D IMOSTRAZIONE . Dimostriamo la seconda affermazione, che implica anche la prima perché ci
dice in particolare che il complementare di A è aperto.
Sia x ∈ Ac . Siccome X è T2 , per ogni a ∈ A esistono aperti Ua , Va disgiunti con a ∈ Ua e x ∈ Va .
La famiglia {Ua }a∈A ricopre A. Per compattezza, esiste k ∈ N e a1 , . . . , ak ∈ A tali che Ua1 , . . . , Uak
ricoprono A. L’insieme V = Va1 ∩ · · · ∩ Vak è aperto e contiene x. Inoltre V è disgiunto da Ua1 , . . . , Uak
e quindi dalla loro unione. Ponendo U = ∪Uai si ha la tesi.
Esempio 3.1.21. Sia (X, τ ) uno spazio topologico compatto e sia Y = X ∪ {∞}. Sia σ la topologia
generata da τ su Y . Si ha σ = τ ∪ {Y } (perché?). Dunque {∞} non è aperto in Y . Quindi X ⊂ Y è un
sottospazio compatto di Y che però non è chiuso. Ciò non contraddice quanto detto sin ora in quanto
Y non è di Hausdorff.
70 3. COMPATTEZZA
Teorema 3.1.22 (In un T2 i compatti si separano con aperti). Sia X uno spazio T2 e siano A, B ⊆ X
compatti disgiunti. Allora esistono aperti disgiunti U, V tali che A ⊆ U e B ⊆ V .
D IMOSTRAZIONE . Per il Teorema 3.1.20, per ogni x ∈ B esistono aperti Ux , Vx disgiunti tali che
x ∈ Vx e A ⊆ Ux . La famiglia {Vx : x ∈ B} è un ricoprimento aperto di B. Per compattezza esistono
x1 , . . . , xk tali che B ⊆ V = Vx1 ∪ · · · ∪ Vxk . L’aperto U = Ux1 ∩ · · · ∩ Uxk contiene A ed è disgiunto da
V.
Esempio 3.1.23. Sia X = R e sia N = {1/n, n ∈ N, n > 0}. N è una successione che si accumula
a zero. Sia τ la topologia Euclidea di R e σ la famiglia degli aperti di N c , rispetto alla topologia
Euclidea, ovvero σ = {A \ N, A ∈ τ }. La famiglia di insiemi τ ∪ σ è chiusa per intersezione e dunque
è base di una topologia η su X. Essa è più fine della Euclidea per come è definita, in particolare è
T2 . L’insieme N è chiuso perché il suo complementare è aperto per definizione. Ma non esistono due
aperti disgiunti contenenti l’uno 0 e l’altro N . Si noti che N non è un sottoinsieme compatto di (X, η).
Teorema 3.1.24 (Immagine continua di compatti è compatta). Sia f : X → Y una funzione continua
tra spazi topologici. Se X è compatto allora f (X) è compatto.
D IMOSTRAZIONE . Sia U = {Ui }i∈I un ricoprimento aperto di f (X). Allora Vi = f −1 (Ui ) for-
nisce un ricoprimento aperto di X che, siccome X è compatto, ammette un sottoricoprimento finito
Vi1 , . . . , Vik . Ne segue che Ui1 , . . . , Uik è un sottoricoprimento finito di f (X).
Teorema 3.1.25 (Immagine continua e chiusa di un compatto T2 è T2 ). Sia f : X → Y una funzione
continua e chiusa tra spazi topologici. Se X è compatto e T2 , allora f (X) è T2 .
D IMOSTRAZIONE . Siccome X è T2 , i punti di X son chiusi (Teorema 1.6.12). Siccome f è chiusa,
i punti di f (X) son chiusi. Siano y1 6= y2 ∈ f (X). Siccome f è continua, f −1 (y1 ) è chiuso, ergo
compatto perché X è compatto (Teorema 3.1.19). Stessa cosa per f −1 (y2 ). Esistono quindi aperti
disgiunti U1 , U2 l’uno contenente f −1 (y1 ) e l’altro f −1 (y2 ) (Teorema 3.1.22). Per definizione, U1c è
chiuso e siccome f è chiusa, la sua immagine f (U1c ) è chiusa. Quindi f (U1c )c è aperto. Siccome
f −1 (y1 ) ∈ U1 allora y1 ∈
/ f (U1c ). Quindi y1 ∈ f (U1c )c . Stessa cosa per y2 . Definiamo V1 = f (U1c )c ∩f (X)
c c
e V2 = f (U2 ) ∩ f (X). Essi sono aperti di f (X) l’uno contenente y1 e l’altro y2 . Vediamo che son
disgiunti. Se x ∈ V1 allora x ∈ f (X) \ f (U1c ), in particolare ∅ = 6 f −1 (x) ⊆ U1 . Similmente se x ∈ V2
−1
allora f (x) ⊆ U2 . Siccome U1 ∩ U2 = ∅ non può esistere x ∈ V1 ∩ V2 .
Corollario 3.1.26. I quozienti di spazi compatti sono sempre compatti. Se inoltre la proiezione naturale è
chiusa e lo spazio di partenza è T2 , allora il quoziente è T2 .
D IMOSTRAZIONE . Sia X uno spazio topologico e ∼ una relazione d’equivalenza su X. La proie-
zione naturale π : X → X/ ∼ è continua e π(X) = X/ ∼. Per il Teorema 3.1.24 X/ ∼ è compatto. Se
π è chiusa e X è T2 allora per il Teorema 3.1.25 X/ ∼ è T2 .
Teorema 3.1.27. Siano A, B spazi topologici non vuoti. Allora A × B è compatto se e solo se A e B lo
sono.
D IMOSTRAZIONE . Se A×B è compatto, siccome le proiezioni sono continue e immagine continua
di un compatto è compatto (Teorema 3.1.24), allora sia A che B sono compatti. Vediamo il viceversa.
Sia {Ui } un ricoprimento aperto di A × B. Per il Corollario 3.1.17 possiamo supporre che gli Ui siano
prodotti di aperti: Ui = Vi × Wi .
−1
Prima, concentriamo la nostra attenzione sulle fibre πA (a). (Figura 2). Per ogni a ∈ A l’insieme
{a} × B è compatto perché omeomorfo a B, che è compatto per ipotesi. Consideriamo gli Ui che
intersecano {a} × B. Per compattezza, un numero finito Ui1 , . . . , Uik di questi, copre {a} × B. Sia
V (a) = Vi1 ∩ · · · ∩ Vik . Chiaramente V (a) è un aperto contenente A e
V (a) × B ⊆ Ui1 ∪ · · · ∪ Uik .
3.1. RICOPRIMENTI E COMPATTEZZA 71
Ui1
..
B .
Uik
( ) A
a
V (a)
Adesso consideriamo il ricoprimento aperto di A formato dagli insiemi V (a). Siccome A è com-
patto esistono a1 , . . . , an tali che A è coperto da V (a1 ), . . . , V (an ). Ne segue che A × B è coperto da
V (a1 ) × B, . . . , V (an ) × B, che sono in numero finito. Siccome ogni V (a) × B è coperto da un numero
finito degli Ui , possiamo dedurre che tutto A × B è coperto da un numero finito degli Ui .
Corollario 3.1.28. I compatti di R2 Euclideo sono tutti e soli i chiusi e limitati. (Idem per ogni Rn .)
Corollario 3.1.29 (Weierstrass). Sia X uno spazio compatto non vuoto e f : X → R una funzione
continua. Allora f ha massimo e minimo su X.
Per dimostrare il Teorema 3.1.27 in realtà non abbiamo tutte le ipotesi. In particolare, abbiamo
−1 −1
usato la compattezza di A, il fatto che πA (a) fosse compatto e che πA (V (a)) fosse contenuto in
Ui1 ∪ · · · ∪ Uik . Possiamo quindi generalizzare il Teorema 3.1.27 come segue.
Teorema 3.1.30. Siano X, Y spazi topologici. Se Y è compatto e f : X → Y è una qualsiasi funzione tale
che per ogni y ∈ Y
f −1 (y) X
V y
f −1 (V )
Y
U
Allora X è compatto.
D IMOSTRAZIONE . Si procede esattamente come nella dimostrazione del Teorema 3.1.27, ove X
fa le veci di A × B, Y quelle di A ed f quelle della proiezione πA . Dato un ricoprimento aperto {Ui }
di X, per compattezza ogni fibra f −1 (y) è coperta da Ui1 , . . . Uik . Per ipotesi (2) esiste V (y) aperto
tale che f −1 (V ) ⊆ Ui1 ∪ · · · ∪ Uik . Per compattezza, Y è coperto da un numero finito di V (y).
Definizione 3.1.31. Una funzione f : X → Y tra spazi topologici si dice propria se per ogni
compatto K ⊆ Y si ha che f −1 (K) è compatto.
Esistono funzioni che non sono proprie.
Esempio 3.1.32. Sia π : R2 → R la proiezione canonica. Per ogni {x} ⊂ R, che è compatto perché
finito, la sua preimmagine π −1 (x) non è compatta perché omeomorfa a R.
Si annoti che alcuni autori (per esempio il Bourbaki) includono la condizione che f sia chiusa
nella definizione di mappa propria.
Corollario 3.1.33. Sia f : A → B una applicazione chiusa tra spazi topologici tale che le preimmagini di
ogni punto siano compatte. Allora f è propria.1
D IMOSTRAZIONE . Usiamo il Teorema 3.1.30. Se y ∈ B e U è un aperto contenente f −1 (y) allora
U c è chiuso e quindi f (U c ) è un chiuso che non contiene y. Quindi V = f (U c )c è un aperto contenente
y. Siccome per ogni C ⊆ A si ha f −1 f (C) ⊇ C e siccome il passaggio al complementare ribalta le
inclusioni, si ha
f −1 (V ) = f −1 (f (U c )c ) = (f −1 (f (U c )))c ⊆ (U c )c = U
e quindi il Teorema3.1.30 si applica (con Y ⊆ B compatto e X = f −1 (Y )).
Esempio 3.2.2. Sia X = [0, 1]. Incolliamo 0 con 1 (usando la relazione d’equivalenza generata da
0 ∼ 1). Allora il quoziente X/ ∼ è omeomorfo S 1 .
D IMOSTRAZIONE . Sia f : X → S 1 la funzione definita da f (x) = (cos(2πx), sin(2πx)). Essa è
continua rispetto alla metrica Euclidea, inoltre f (0) = f (1). Per il Teorema 2.2.16 f induce una fun-
zione continua [f ] : X/ ∼→ S 1 , che è immediato verificare essere biunivoca. Siccome X è compatto,
per il Corollario 3.1.26 anche X/ ∼ lo è. Infine, S 1 è T2 perché è un sottoinsieme di R2 (che è T2 ) e il
Teorema 3.2.1 si applica.
Esempio 3.2.3. Riprendiamo gli spazi dell’esempio delle coordinate polari (2.2.18). Sia X = [0, 1]×
[0, 2π] con la relazione d’equivalenza generata da (0, θ) ∼ (0, θ0 ) e (ρ, 0) ∼ (ρ, 2π). Allora X/ ∼ è
omeomorfo a D2 = {(x, y) ∈ R2 : x2 + y 2 ≤ 1}.
D IMOSTRAZIONE . Lo spazio X è compatto perché è prodotto di compatti; D2 è T2 perché sot-
toinsieme di R2 . Come abbiamo visto nell’Esempio 2.2.18, esiste una funzione continua e biunivoca
da X/ ∼ a D2 . Per il Teorema 3.2.1 tale funzione è un omeomorfismo.
Occhio che se uno si abitua a usare il Teorema del Compatto-Hausdorff alla leggera poi va a finire
che lo usa anche quando le ipotesi non son verificate.
Esempio 3.2.6. Sia X = R2 con la topologia dell’Esercizio 1.8.85 ovvero, detta O l’origine, si pone
τ = {B(O, 2−n ), n ∈ N} ∪ {∅, X}. (X, τ ) è compatto perché l’unico aperto che contiene punti di R2 di
modulo più grande di 1 è il tutto. Quindi ogni ricoprimento aperto di X deve contenere come aperto
il tutto, che tautologicamente ne costituisce un sottoricoprimento finito. La funzione f : X → X data
da f (x, y) = (2x, 2y) è continua e biunivoca. Ma non è un omeomorfismo! Ciò non contraddice il
Teorema 3.2.1 in quanto X non è T2 .
Corollario 3.3.4. Sia X uno spazio compatto allora l’insieme X A = {f : A → X} è compatto per la
topologia della convergenza puntuale. In particolare [0, 1]R = {f : R → [0, 1]} è compatto per la topologia
della convergenza puntuale.
D IMOSTRAZIONE . Per il Corollario 2.1.14, la topologia della convergenza puntuale è la topolo-
gia prodotto. Quest’ultima è compatta per il Teorema di Tychonoff perché [0, 1] è compatto (Teore-
ma 3.1.13).
Definizione 3.4.1 (Compattezza per successioni). Uno spazio topologico X si dice compatto per
successioni se ogni successione in X ha una sottosuccessione convergente.
Esempio 3.4.2 (Compatto ma non per successioni). L’insieme [0, 1][0,1] è compatto per il Teorema
di Tychonoff ma non è compatto per successioni.
D IMOSTRAZIONE . Vi è una corrispondenza biunivoca tra sottoinsiemi di N e funzioni da N in
{0, 1}: Ad ogni X ⊆ N è associata la sua funzione caratteristica e ad ogni f : N → {0, 1} corrisponde
il sottoinsieme X = f −1 (1).
P x ∈ [0, 1] definiamo la successione (en (x))n∈N data dalla sua rappresentazione binaria,
Per ogni
cioè x = n en (x)2−n , con en (x) ∈ {0, 1}. Per ogni x fissato, la successione en (x) può essere vista
come funzione e(x) : N → [0, 1].
Per ogni n fissato, come funzione della variabile x, en (x) definisce una funzione en : [0, 1] → [0, 1],
cioè un elemento di [0, 1][0,1] . In particolare (en )n∈N è una successione in [0, 1][0,1] . Sia (nk )k∈N una
qualsiasi sottosuccessione di N. Consideriamo adesso l’insieme Y = {n2k : k ∈ N}. Esso corrispon-
−n2k
P
de al numero y = k∈N 2 e la successione enk (y) vale 1 per k pari e 0 per k dispari. Quindi
la sottosuccessione enk non converge nel punto y. Ne segue che (en ) ⊂ [0, 1][0,1] non ha nessuna
sottosuccessione convergente2.
Esempio 3.4.3 (Compatto per successioni ma non compatto). Il primo ordinale non numerabile ω1 ,
dotato della topologia dell’ordine, è compatto per successioni ma non è compatto.
D IMOSTRAZIONE . La non compattezza di ω1 dipende dalla sua illimitatezza: per ogni x ∈ ω1 sia
Ux = [0, x). Chiaramente U = {Ux }x∈ω1 è un ricoprimento aperto che non ammette sottoricoprimenti
finiti. D’altronde, se (xn )n∈N è una successione in ω1 , essa è limitata perché ω1 non ha cofinalità
numerabile. Quindi il limsup di xn è un suo punto di accumulazione ed esiste xnk che tende al
lim sup xn .
Esempio 3.4.4. Un esempio di spazio compatto per successioni ma non compatto, che non usi gli
ordinali è lo spazio dei sottoinsiemi al più numerabili di R, dotato della topologia prodotto indotta
dall’identificazione P(R) = {0, 1}R . (Si vedano gli esercizi guidati 3.6.57 e 3.6.58.)
Il busillis sta da un lato in questioni di cardinalità (come ben evidenzia il secondo esempio) dal-
l’altro in una sottile differenza tra le frasi “(xn ) ha un punto di accumulazione” e “(xn ) ha una sot-
tosuccessione convergente”, differenza che dipende dal tipo d’ordine dei sistemi fondamentali di
intorni dei punti: esistono spazi i cui punti non sono accessibili con successioni numerabili.
Definizione 3.4.5. Sia (xn ) una successione in uno spazio topologico X. Diciamo che:
• x ∈ X è un punto di ricorrenza di (xn ) se per ogni intorno U di x, la successione xn sta
frequentemente in U (cioè se per ogni n esiste m > n con xm ∈ U ).
• x ∈ X è un punto limite di (xn ) se esiste una sottosuccessione (xnk ) che converge a x.3
I punti limite sono chiaramente di ricorrenza, mentre un punto di ricorrenza di una successione
non è necessariamente un punto limite. Ciò però è vero negli spazi localmente numerabili.
Teorema 3.4.6 (Ricorrenza vs limiti). Sia (xn ) una successione in uno spazio topologico X e sia x un
punto di ricorrenza di (xn ). Se x ha un sistema fondamentale di intorni numerabile, allora esso è un punto
limite di (xn ). In particolare, negli spazi localmente numerabili, le nozioni di punto limite e di punto di
ricorrenza coincidono.
Teorema 3.4.7 (Compatto vs ricorrenza di successioni). Sia (X, τ ) uno spazio topologico compatto.
Allora ogni successione in X ha un punto di ricorrenza.
D IMOSTRAZIONE . Sia
An = {xm : m ≥ n} ⊆ X.
Dire che esiste un punto di ricorrenza per (xn ) equivale a dire che ∩n An 6= ∅ (segue per esempio dal
Teorema 1.1.37). Siccome per m > n si ha ∅ 6= Am ⊆ An , la famiglia {An } è una famiglia di chiusi
con la proprietà delle intersezioni finite. Per compattezza (Lemma 3.3.2) l’intersezione dei An è non
vuota.
Corollario 3.4.8. Uno spazio topologico localmente numerabile compatto è compatto per successioni.
D IMOSTRAZIONE . È un’immediata conseguenza dei Teoremi 3.4.7 e 3.4.6.
Teorema 3.4.9. Sia X uno spazio topologico a base numerabile (per esempio uno spazio metrico separabile).
Allora X è compatto se e solo se è compatto per successioni.
D IMOSTRAZIONE . Essendo X a base numerabile, è anche localmente numerabile. Per il Corolla-
rio 3.4.8 se X è compatto allora è anche compatto per successioni. Vediamo il viceversa. Dimostriamo
che se X non è compatto allora esiste una successione senza sottosuccessioni convergenti. Sia U un
ricoprimento aperto di X che non ammette un sottoricoprimento finito. Per il Corollario 3.1.17, pos-
siamo supporre che U sia formato da aperti di una base e siccome X è a base numerabile, ci si può
sempre ricondurre al caso in cui U = {Un : n ∈ N} sia numerabile.
Per ogni n sia Vn = U1 ∪ · · · ∪ Un . Siccome U non ha sottoricoprimenti finiti, per ogni n ∈ N esiste
xn ∈/ Vn . Mostriamo ora che la successione (xn )n∈N non ha sottosuccessioni convergenti.
Sia x ∈ X. Siccome U è un ricoprimento, esiste m tale che x ∈ Vm . Per ogni n > m si ha Vn ⊇ Vm
e quindi xn ∈ / Vm . Ne segue che nessuna sottosuccessione di (xn ) può convergere a x.
Vediamo adesso un po’ di esempi, tutti varianti del cosiddetto orecchino hawaiano. In R2 sia
Cn = ∂B((0, 2n ), 2n ) = {p ∈ R2 : ||p − (0, 2n )|| = 2n }.
Ogni Cn è un cerchio nel semipiano superiore, centrato sull’asse delle Y e che è tangente all’asse X
nell’origine. Se n > 0 il cerchio è grande, se n < 0 il cerchio è piccolo.
3.5. LOCALE COMPATTEZZA E COMPATTIFICAZIONI 77
è unione di aperti. Inoltre M1 è contenuto in [−100, 100] × [−100, 100] — che è compatto — ergo per
il Teorema 3.1.19 è compatto. Quindi è anche localmente compatto.
Esempio 3.5.6 (Modello numero 2). M2 = ∪n∈Z Cn . Per ogni intorno U dell’origine si trova una
successione xn ∈ Cn ∩ U tale che xn converga a un punto x dell’asse X che non sia l’origine. In
particolare x ∈
/ M2 e xn non ha sottosuccessioni convergenti in M2 . Per il Teorema 3.4.9, U ∩ M2 non
è compatto. Quindi l’origine non ha nessun intorno compatto e M2 non è localmente compatto. In
particolare M2 non è omeomorfo a M1 .
Esempio 3.5.7 (Modello numero 3). M3 = M2 ∪ (R × {0}), cioè M2 più l’asse X. Questo è un chiuso
di R2 e quindi è localmente compatto per il Teorema 3.5.4. Non è compatto perché il ricoprimento
indotto dalle palle di raggio n centrate nell’origine non ha sottoricoprimenti finiti. In particolare non
è omeomorfo né a M1 né a M2 .
Esempio 3.5.8 (Modello numero 4: Giuditta!). Sia X = M2 ∪ {∞} con la seguente topologia: A è
aperto se e solo se A ⊆ M2 e A è aperto in M2 , oppure se A = X. X è compatto. Infatti se U = {Ui }
è un ricoprimento aperto di X esiste un aperto Ui che contiene il nuovo punto ∞, quindi Ui = X in
quanto X è l’unico aperto che contiene ∞. Quindi Ui è un sottoricoprimento finito di U.
Ne segue che X è anche localmente compatto. Notiamo però, che la patologia vicino a zero è
ancora presente: Se U 6= X è un intorno dell’origine, non esistono intorni compatti contenuti in U .
Questo strano comportamento non succede se lo spazio è T2 :
Teorema 3.5.9. Sia X uno spazio di Hausdorff localmente compatto. Allora ogni x ∈ X ha un sistema
fondamentale di intorni compatti.
D IMOSTRAZIONE . Dobbiamo dimostrare che per ogni intorno A che contiene x, esiste un intorno
compatto di x che sia contenuto in A. La strategia è riassunta in Figura 3. Sappiamo che x ha un
UK
B
A x
Ux
compatto per il Teorema 3.1.19. Siccome x ∈ / K, per il Teorema 3.1.22 esistono aperti Ux ⊆ V e UK
disgiunti tali che x ∈ Ux e K ⊆ UK . In particolare Ux è un intorno di x in X. Sia U la chiusura di Ux in
X. Esso è un intorno di x. Siccome V è un compatto in un T2 , V è anche chiuso per il Teorema 3.1.20
e siccome Ux ⊆ V , si ha U = Ux ⊆ V = V . Quindi
U ⊆V
e in quanto chiuso in un compatto, è compatto. Resta da dimostrare che U è contenuto in A. Siccome
K ⊆ UK si ha K c ⊇ UK c c
. Siccome UK c
è chiuso e Ux ⊆ UK si ha
c
U = Ux ⊆ UK ⊆ K c = (V ∩ B c )c = V c ∪ B
ma siccome U ⊆ V allora U ⊆ B. La tesi segue dal fatto che B ⊆ A ∩ V ⊆ A.
Una prima conseguenza di questo fatto è la versione del Teorema della categoria di Baire per
spazi topologici.
Teorema 3.5.10. Sia X uno spazio topologico T2 e localmente compatto. Sia F = {Ai }i∈N una famiglia
numerabile di chiusi, ognuno dei quali con parte interna vuota. Allora l’unione ∪i Ai ha parte interna vuota.
In particolare X non è unione numerabile di chiusi a parte interna vuota.
D IMOSTRAZIONE . Siccome An ha parte interna vuota, per ogni aperto non vuoto B di X si ha
che B ∩ Acn 6= ∅. Sia B un aperto non vuoto e sia U1 ⊆ B un aperto non vuoto a chiusura compatta.
Esso esiste per il Teorema 3.5.9. Per quanto appena detto, l’aperto U1 \ A1 è non vuoto. Esso contiene
un aperto non vuoto U2 con chiusura compatta e contenuta in U1 \ A1 . L’insieme U2 \ A2 è aperto, non
vuoto e contenuto in U1 \ A1 . Ragionando ricorsivamente, si trova una famiglia di aperti a chiusura
compatta tali che U k+1 ⊆ Uk \ Ak , in particolare
U1 ⊇ U2 ⊇ U3 . . .
Gli insiemi U i sono compatti in un T2 ergo chiusi (Teorema 3.1.20). Siccome son tutti non vuoti, la
famiglia {U i } è una famiglia di chiusi con la proprietà delle intersezioni finite. Per compattezza di
U 1 , esiste x ∈ ∩i U i (Lemma 3.3.2). Siccome U k+1 ⊆ Ack , si ha x ∈ Aci per ogni i ∈ N, in particolare
x ∈ (∪i Ai )c . Siccome U 1 ⊆ B, si ha che x ∈ B ∩ (∪i Ai )c . Si è quindi dimostrato che ogni aperto
non vuoto interseca (∪i Ai )c , che quindi risulta essere denso, ergo il suo complementare ∪i Ai ha parte
interna vuota.
Definizione 3.5.11. Sia X uno spazio topologico. Uno spazio topologico Y è una compattifica-
zione di X se è compatto e se esiste una immersione X → Y con immagine densa in Y .
In altre parole, uno spazio Y compatto è una compattificazione di X se X è omeomorfo a un
sottospazio denso di Y .
Esempio 3.5.12. S 1 è una compattificazione di R.
Esempio 3.5.13. [0, 1] è una compattificazione di R.
Esempio 3.5.14. S 2 è una compattificazione di R2 .
Esempio 3.5.15. D2 è una compattificazione di R2 .
Esempio 3.5.16 (Compattificazione ad peram). È quella di Giuditta (3.5.8). Sia (X, τ ) uno spazio
topologico e sia ∗ un nuovo elemento che non era già in X. Su P = X ∪ {∗} mettiamo la topologia
generata da τ , cioè gli aperti sono quelli di τ più il tutto P . In altre parole l’unico intorno di ∗ è P .
Questa topologia non è ovviamente T2 e X è denso in P . Inoltre P è compatto perché se U = {Ui }
è un ricoprimento aperto di P , allora esiste Ui che contiene ∗ ma allora Ui = P ed esso costituisce
quindi un sottoricoprimento finito di U.
3.5. LOCALE COMPATTEZZA E COMPATTIFICAZIONI 79
In realtà, ogni spazio topologico si può compattificare aggiungendo un solo punto in modo non ad
peram. Vediamo come. Sia (X, τ ) uno spazio topologico. Se X è compatto la sua compattificazione X b
è X stesso. Altrimenti, si aggiunge ad X un nuovo punto, che chiamiamo ∞, e si pone X b = X ∪ {∞}.
Si definisce una topologia τb su X dichiarando A ⊆ X aperto se e solo se
b b
A∈τ oppure Ac ⊆ X è un compatto chiuso in X
In altre parole: gli intorni di infinito sono i complementari dei compatti chiusi di X. (Si noti che se X
è T2 allora la condizione di essere chiuso è automatica.)
Lemma 3.5.17. Se (X, τ ) è uno spazio topologico allora τb è una topologia su X,
b che induce τ su X.
4La notazione X
b non è standard. (Per esempio è diffusa anche la notazioneX ∗ .)
80 3. COMPATTEZZA
Teorema 3.5.27. Sia X uno spazio localmente compatto e sia Y una sua compattificazione T2 . Allora
X = Y /X c . In altre parole la compattificazione di Alexandroff di X si ottiene collassando a un punto X c .
b
3.6. ESERCIZI 81
3.6. Esercizi
Esercizio 3.6.1. Si dimostri che RPn è compatto.
Esercizio 3.6.2. Dimostrare che R con la topologia di Zariski è compatto per successioni.
Esercizio 3.6.3. Si dimostri che R2 con la metrica dei raggi non è compatto.
Esercizio 3.6.4. Si dica se B (0, 0), 1 in R2 con la metrica dei raggi è compatto.
Esercizio 3.6.5. Si dica se B (10, 10), 1 in R2 con la metrica dei raggi è compatto.
Esercizio 3.6.6. Si dica se [0, 1]2 in R2 dotato della metrica dei raggi è compatto.
Esercizio 3.6.7. Si dica se R2 con la metrica dei raggi è localmente compatto.
Esercizio 3.6.8. Si dica se R2 con la topologia dell’ordine lessicografico è compatto.
Esercizio 3.6.9. Si dica se R2 con la topologia dell’ordine lessicografico è localmente compatto.
Esercizio 3.6.10. Si dica se [0, 1]2 con la topologia dell’ordine lessicografico è compatto.
Esercizio 3.6.11. [0, 1]2 con la topologia dell’ordine lessicografico è localmente compatto?
Esercizio 3.6.12. Si dica se la topologia del punto particolare (Esercizio 1.1.11) è compatta.
Esercizio 3.6.13. Sia X uno spazio topologico e sia K ⊆ X un sottospazio compatto di X. Si dica
se è sempre vero che la chiusura di K in X è compatta.
Esercizio 3.6.14. Sia X uno spazio compatto T2 e sia A ⊆ X chiuso. Dimostrare che X/A è T2 .
Esercizio 3.6.15. Siano K1 , K2 compatti di uno spazio T2 . Dimostrare che K1 ∩ K2 è compatto.
Esercizio 3.6.16. È sempre vero che intersezione di compatti è compatto?
Esercizio 3.6.17. Sia X uno spazio T2 e sia {Ki , i ∈ I} una famiglia di compatti di X. È vero che
∩i Ki è compatto?
Esercizio 3.6.18. Si dica se un aperto di uno spazio localmente compatto è sempre localmente
compatto.
Esercizio 3.6.19. Si dica se un aperto di uno spazio T2 e localmente compatto è sempre localmente
compatto.
82 3. COMPATTEZZA
Esercizio 3.6.20. È vero che l’intersezione di due spazi localmente compatti è localmente compat-
ta?
Esercizio 3.6.21. Dimostrare che il prodotto di due spazi localmente compatti è localmente com-
patto.
Esercizio 3.6.22. Sia A = {2n : n ∈ Z} e sia X = A × R ⊂ R2 . (X è una successione di rette
verticali che si accumulano sull’asse Y .) Si dimostri che X è localmente compatto.
Esercizio 3.6.23. Dimostrare che il quoziente di R2 per la relazione d’equivalenza generata da
v ∼ 2v è compatto.
Esercizio 3.6.24. In R2 sia ∼ la relazione d’equivalenza generata da (x, y) ∼ (2x, 2y) e (x, y) ∼
0
(x , y). Si dica se R2 / ∼ è compatto. Detto P = {(x, y) ∈ R2 : y > 0} si dica se P/ ∼ è compatto. Si
dimostri che R2 / ∼ non è una varietà topologica. Si dimostri che P/ ∼ è una varietà topologica e se
ne calcoli la dimensione.
Esercizio 3.6.25. Sia X un insieme e siano τ, σ due topologie T2 e compatte su X. Dimostrare che
se una è più fine dell’altra allora τ = σ.
Esercizio 3.6.26. Si dia un esempio di un insieme X con due topologie τ e σ, entrambe T2 e
compatte ma tali che (X, τ ) non sia omeomorfo a (X, σ).
Esercizio 3.6.27. Si dimostri che sugli insiemi finiti la discreta è l’unica topologia compatta e T2 .
Sugli insiemi finiti vi sono topologie non compatte?
Esercizio 3.6.28. Siano τ, σ due topologie su uno stesso insieme X. Supponiamo che τ ⊆ σ. Di-
mostrare che se X è compatto per σ allora è compatto anche per τ . Fornire un esempio per cui il
viceversa non vale.
Esercizio 3.6.29. Sia R con la topologia generata dagli intervalli del tipo [a, b). Si dica se [0, 1] è
compatto per tale topologia.
Esercizio 3.6.30. Sia X = R e sia {Kn } ⊂ P(R) una famiglia di chiusi tali che Kn+1 ⊆ Kn . È vero
che ∩n Kn 6= ∅? Lo si dimostri o si fornisca un controesempio.
Esercizio 3.6.31. Ripercorrere la dimostrazione del Lemma 3.3.2 con X = R e An = [n, ∞) per
vedere cosa va storto.
Esercizio 3.6.32. Provare a seguire passo passo la dimostrazione del Teorema 3.5.9 con Giuditta
(Esempio 3.5.8) per vedere dove falla.
Esercizio 3.6.33. Sia Q = {(x, y) ∈ R2 : |x|+|y| ≤ 1} e sia X = {(x, y) ∈ R2 : |x|+|y| ≤ 1, x+y < 1}
(Q è un quadrato pieno e X è Q meno un lato). Sia X b la compattificazione di Alexandroff di X. Si
dimostri che X = Q è omeomorfo a X. b
Esercizio 3.6.34. In R2 consideriamo il seguente “orecchino hawaiano modificato” (si veda l’Esem-
pio 3.5.5 per la definizione di M1 ): X = M1 ∪ (R × {0}) (cioè M1 più l’asse delle ascisse). Si dica se
X è omeomorfo a M1 , M2 , M3 o a nessuno di essi. Si dica se la sua compattificazione di Alexandroff
è omeomorfa a M1 .
Esercizio 3.6.35. Si descrivano le compattificazioni degli orecchini hawaiani modello due e tre. Si
dica se sono omeomorfe tra loro o no.
Esercizio 3.6.36. In R2 sia X = {x2 + y 2 < 1}. Se ne determini la compattificazione di Alexandroff.
Esercizio 3.6.37. In R2 sia X = {x2 +y 2 < 1}∪{(1, 0)}. Si studi la compattificazione di Alexandroff
di X.
3.6. ESERCIZI 83
Esercizio 3.6.46. È vero che ogni sottoinsieme dell’insieme di Cantor è localmente compatto?
Esercizio 3.6.47. Si dica se la proiezione canonica R3 \ {0} → RP2 è propria.
Esercizio 3.6.48. Sia X = GL(2, R) lo spazio delle matrici reali 2 × 2 invertibili, con la topologia
data dall’identificazione dello spazio delle matrici 2 × 2 con R4 . Si dimostri che la funzione f : X → R
data da f (M ) = det(M ) è continua. Se ne deduca che X non è compatto.
Esercizio 3.6.49. Sia X = O(2) lo spazio delle matrici reali 2 × 2 ortogonali. Si dimostri che X è
compatto.
Esercizio 3.6.50. Sia X lo spazio delle isometrie di R2 , con la topologia compatto-aperta (Esem-
pio 1.2.20 ove K è la famiglia dei compatti). Si dimostri che X non è compatto.
Esercizio 3.6.51. Sia X lo spazio delle isometrie di R2 , con la topologia compatto-aperta (Esem-
pio 1.2.20 ove K è la famiglia dei compatti). Si dimostri che l’applicazione ϕ : X → R2 data da
ϕ(g) = g(0, 0) è continua e propria.
Esercizio 3.6.52. Siano A, B ⊆ R compatti. Dimostrare che l’insieme AB = {ab : a ∈ A, b ∈ B} è
un compatto di R.
Esercizio 3.6.53. Siano A, B ⊆ R2 compatti. Dimostrare che l’insieme A−B = {a−b : a ∈ A, b ∈ B}
è un compatto di R2 .
Esercizio 3.6.54. Siano A, B ⊆ R3 compatti. Dimostrare che l’insieme S = {sin(||a||)b : a ∈ A, b ∈
B} è un compatto di R3 .
Esercizio 3.6.55. Sia X uno spazio T2 e sia K ⊆ X un sottospazio localmente compatto. Dimostrare
che K è aperto in K.
Esercizio 3.6.56. Si fornisca un esempio di un sottoinsieme A di R2 Euclideo tale che A non sia
aperto in A.
84 3. COMPATTEZZA
Esercizio 3.6.57. Sia D = {0, 1} dotato della topologia discreta. Consideriamo P(R) identificato
con DR = {f : R → {0, 1}}, dotato della topologia prodotto. Sia K la famiglia dei sottoinsiemi al più
numerabili di R. Per ogni a ∈ R sia Ua = {A ∈ P(R) : a ∈ / A}. Dimostrare che Ua è aperto in DR .
Dimostrare che U = {Ua }a∈R ricopre K. Dimostrare che U non ha sottoricoprimenti finiti e dedurne
che K non è compatto.
Esercizio 3.6.58. Sia K come nell’Esercizio 3.6.57. Sia (Xn )n∈N una successione in K. Dimostrare
che esiste X tale che Xn → X. Dedurne che K è compatto per successioni. (Suggerimento: l’insieme
S = ∪n Xn è al più numerabile. A questo punto, interpretando gli Xn come funzioni fn che valgono
zero fuori da S, e numerando S, si usi un argomento diagonale per trovare una sottosuccessione fnk
tale che per ogni x ∈ S si ha che fnk (x) sia definitivamente costante.)
CAPITOLO 4
Connessione
4.1. Connessione
Definizione 4.1.1. Uno spazio topologico X si dice connesso se gli unici suoi sottoinsiemi con-
temporaneamente aperti e chiusi sono il vuoto e tutto X.
Vale la pena osservare che dal Teorema 1.1.37 segue che un insieme è contemporaneamente aper-
to e chiuso se e solo se la sua frontiera è vuota. La connessione si può esprimere in molti modi
equivalenti:
• X è connesso se ∅ =
6 A ⊆ X è aperto e chiuso allora A = X.
• X è connesso se per ogni A ⊆ X, (∂A = ∅) ⇒ (A = X) ∨ (A = ∅).
• X è connesso se X = A t B con A non vuoto e aperto implica B non aperto o vuoto.
• X è connesso se X = A t B con A, B entrambi aperti implica A oppure B vuoto.
• X è connesso se X = A t B con A, B entrambi aperti implica A vuoto oppure A = X.
6 A ⊆ X con Ac 6= ∅ e ∂A = ∅.
• X non è connesso se esiste ∅ =
6 A ⊆ X aperto e chiuso con Ac 6= ∅.
• X non è conneso se esiste ∅ =
• X non è connesso se esiste A ⊆ X con A, Ac non vuoti ed entrambi aperti.
• X non è connesso se esiste A ⊆ X con A, Ac non vuoti ed entrambi chiusi.
• X non è connesso se X = A t B con A, B entrambi non vuoti e aperti.
• X non è connesso se X = A t B con A, B entrambi non vuoti e chiusi.
• X non è connesso se esiste ∅ =6 A ( X con con ∂A = ∅.
Si noti che la connessione, come la compattezza, è una proprietà topologica intrinseca di uno
spazio, cioè un invariante topologico: se X e Y sono omeomorfi e X è connesso allora anche Y lo
è. In particolare se A ⊂ X ma anche A ⊂ Y il fatto che A sia connesso o meno dipende solo dalla
topologia di A e non da quale sia lo spazio di cui è sottospazio.
Esempio 4.1.2. Un punto è sempre connesso: Gli unici suoi sottoinsiemi sono il vuoto e il tutto.
Esempio 4.1.3. In R Euclideo l’insieme X = (0, 1) ∪ (3, 4) è sconnesso. Infatti in X l’insieme (0, 1)
è aperto in X e il suo complementare (3, 4) pure.
Esempio 4.1.4. In R Euclideo l’insieme X = (0, 1] ∪ (3, 4] è sconnesso. Infatti in X l’insieme (0, 1]
è aperto in X e il suo complementare (3, 4] pure.
Esempio 4.1.5. Se X ha almeno due punti ed è dotato della topologia discreta allora non è connes-
so. Infatti in questo caso i punti sono aperti e chiusi.
Esempio 4.1.6. Sia X = {a, b} con la topologia τ = {∅, {a}, X}. (Si verifichi che questa è una
topologia.) Allora X è connesso. Infatti gli unici sottoinsiemi di X diversi dal vuoto e X sono i punti
{a}, {b}. {a} è aperto ma il suo complementare no. Ne segue che nessuno dei due è aperto e chiuso.
Esempio 4.1.7. Se X è dotato della topologia banale allora è connesso. Infatti gli unici suoi
sottoinsiemi aperti sono il vuoto e il tutto.
Esempio 4.1.8. R con la topologia cofinita è connesso. Infatti non ci sono sottoinsiemi di R che
siano contemporaneamente finiti e cofiniti.
85
86 4. CONNESSIONE
√ √
Esempio 4.1.9. Q ⊂ R non è connesso. Infatti Q = (−∞, 2) t ( 2, +∞) è unione di due aperti
non vuoti e disgiunti.
Esempio 4.1.10. Z ⊂ R non è connesso. Infatti Z = (−∞, 1/2) t (1/2, +∞) è unione di due aperti
non vuoti e disgiunti. Oppure perché la topologia indotta da R su Z è quella discreta, e Z ha almeno
due punti.
Esempio 4.1.11. R con la topologia del limite destro (Esempio 1.2.14) non è connesso. Infatti R =
(−∞, 0) ∪ [0, ∞) è unione disgiunta di due aperti non vuoti.
Teorema 4.1.12. R con la topologia Euclidea è connesso.
D IMOSTRAZIONE . Sia ∅ =6 A ⊆ R aperto e chiuso e dimostriamo che in tal caso A = R. Sia a ∈ A.
Introduciamo il seguente sottoinsieme di R+
X = {t ≥ 0 : [a − t, a + t] ⊆ A}.
Sia t0 l’estremo inferiore del complementare di X in R+ , ponendo t0 = ∞ se X = R+ . Si noti che
0 ∈ X. Inoltre, siccome A è aperto, per ogni x ∈ A esiste ε > 0 tale che (x − ε, x + ε) ⊂ A. Ne segue
che se t ∈ X allora esiste ε > 0 tale che t + ε ∈ X. Ciò implica che
0 < t0 ∈
/ X.
Per ogni s < t0 si ha [a − s, a + s] ⊂ A, in particolare (a − t0 , a + t0 ) ⊆ A. Siccome A è chiuso, se t0 < ∞
allora avremmo [a − t0 , a + t0 ] ⊆ A e quindi t0 ∈ X in contraddizione con quanto appena dimostrato.
Quindi t0 = ∞ e dunque A = R.
Corollario 4.1.13. Ogni intervallo aperto (a, b) è connesso.
D IMOSTRAZIONE . (a, b) è omeomorfo a R.
Teorema 4.1.14 (Immagine di un connesso è connesso). Sia f : X → Y una applicazione continua e
suriettiva tra spazi topologici. Se X è connesso allora anche Y lo è.
D IMOSTRAZIONE . Sia ∅ 6= A ⊆ Y aperto e chiuso. Si deve dimostrare che Y = A. L’insieme
f −1 (A) è aperto e chiuso perché f è continua. Inoltre, esso è non vuoto perché f è suriettiva. Siccome
X è connesso f −1 (A) = X e siccome f è suriettiva A = f (f −1 (A)) = f (X) = Y .
Corollario 4.1.15. Sia f : X → Y un’applicazione continua tra spazi topologici. Se A ⊆ X è connesso
allora f (A) è connesso.
D IMOSTRAZIONE . Basta applicare il Teorema 4.1.14 con f |A : A → f (A).
Corollario 4.1.16. I quozienti di spazi connessi sono connessi.
D IMOSTRAZIONE . Segue dal Teorema 4.1.14 perché la proiezione naturale sul quoziente è conti-
nua.
Esempio 4.1.17. Sia ∼ la relazione di equivalenza su R data da
x ∼ ±x tranne 57 che non è equivalente a − 57
In pratica si è ripiegato in due R identificando x a −x tranne il punto 57 che rimane doppio: c’è
57 e −57. Questo spazio sembra non connesso perché sembra fatto da almeno due pezzi. Invece è
connesso perché quoziente di un connesso. Non è T2 . (Perché?)
Il Teorema 4.1.14 fornisce una caratterizzazione di insiemi connessi che può risultare utile.
Teorema 4.1.18. Uno spazio topologico X è connesso se e solo se ogni funzione continua da X in uno
spazio discreto è costante.
4.1. CONNESSIONE 87
Esempio 4.1.19. Sia X = GL(n, R) l’insieme delle matrici invertibili, con la topologia indotta dal-
2
l’identificazione dello spazio delle matrici n × n con Rn . Allora X è sconnesso. Infatti la funzione
f (A) = det(A)/| det(A)| è continua, non costante e a valori nel discreto {1, −1}.
Teorema 4.1.20 (Chiusura di un connesso è connesso). Sia X uno spazio topologico e sia A ⊆ X. Se
A è connesso allora la chiusura di A in X è connessa.
D IMOSTRAZIONE . Sia ∅ = 6 B ⊆ Ā aperto e chiuso in Ā. Si deve dimostrare che B = Ā. B ∩ A
è aperto e chiuso in A. Sicccome A è denso in Ā (Corollario 1.4.10) e siccome B è aperto in Ā, si ha
B ∩ A 6= ∅. Siccome A è connesso, si ha B ∩ A = A. Quindi A ⊆ B. Siccome B è chiuso in Ā che è
chiuso in X, per il Teorema 1.4.3 esso è chiuso in X. Quindi, contenendo A, contiene la sua chiusura.
Riassumendo
B ⊆ Ā ⊆ B
ergo B = Ā.
Corollario 4.1.21. Se uno spazio topologico contiene un sottoinsieme denso e connesso, allora è connesso.
D IMOSTRAZIONE . Segue immediatamente dal Teorema 4.1.20.
Esercizio 4.1.23. Dimostrare che ogni intervallo (di qualsiasi tipo) di R è connesso.
Teorema 4.1.24. I connessi di R sono tutti e soli gli intervalli.
D IMOSTRAZIONE . Gli intervalli son connessi per l’esercizio precedente che è stato sicuramente
fatto. Se A ⊆ R non è un intervallo allora ha almeno due punti a, b tali che esista c ∈ (a, b) che non
stia in A. Ma allora A = (A ∩ (−∞, c)) t (A ∩ (c, ∞)) è unione di due aperti non vuoti e disgiunti.
Corollario 4.1.25 (Teorema del valor intermedio). Sia X uno spazio connesso e sia f : X → R una
funzione continua. Per ogni x, y ∈ X con f (x) < f (y) esiste z ∈ X tale che f (x) < f (z) < f (y).
D IMOSTRAZIONE . Per il Corollario 4.1.15 l’immagine di f è un connesso di R, quindi un inter-
vallo, che contiene (f (x), f (y)). La tesi segue.
Teorema 4.1.26 (Unione di connessi non disgiunti è connessa). Sia X uno spazio topologico e sia
{Ai }i∈I una famiglia di sottoinsiemi di X. Supponiamo che
(1) ogni Ai sia connesso;
(2) Ai ∩ Aj 6= ∅ per ogni i, j ∈ I.
Allora ∪i Ai è connesso.
88 4. CONNESSIONE
D IMOSTRAZIONE . Sia ∅ = 6 A ⊆ ∪Ai aperto e chiuso. Si deve dimostrare che A coincide con ∪Ai .
Per ogni i ∈ I si ha che A ∩ Ai è aperto e chiuso in Ai . Siccome Ai è connesso allora A ∩ Ai è vuoto
oppure e tutto Ai . Siccome A 6= ∅ esiste i ∈ I tale che A ∩ Ai 6= ∅ e dunque A ∩ Ai = Ai . Cioè Ai ⊆ A.
Per ogni altro j ∈ I si ha A ∩ Aj ⊇ Ai ∩ Aj . Ma Ai ∩ Aj 6= ∅ per ipotesi. Ne segue che per ogni j ∈ I
si ha A ∩ Aj = Aj e quindi A = ∪Ai .
Corollario 4.1.27. Sia X uno spazio topologico e sia {Ai }i∈I una famiglia di sottoinsiemi connessi di X.
Se esiste i0 ∈ I tale che per ogni i ∈ I si ha Ai0 ∩ Ai 6= ∅, allora ∪i Ai è connesso.
D IMOSTRAZIONE . Si noti che le ipotesi implicano che Ai0 6= ∅. Per ogni i ∈ I sia Bi = Ai0 ∪
Ai . Per il Teorema 4.1.26 Bi è connesso. Inoltre per ogni i, j ∈ I si ha Bi ∩ Bj ⊇ Ai0 6= ∅. Per il
Teorema 4.1.26 ∪Bi è connesso e chiaramente ∪Bi = ∪Ai .
Teorema 4.1.28. Siano A, B spazi topologici non vuoti. Allora A × B è connesso se e solo se A e B lo
sono.
D IMOSTRAZIONE . Se A × B è connesso, allora per il Teorema 4.1.14 sia A che B lo sono poiché le
proiezioni naturali sui fattori sono continue. Viceversa, supponiamo che sia A che B siano connessi.
Per ogni (a, b) ∈ A × B si definisca X(a,b) = ({a} × B) ∪ (A × {b}). Siccome {a} × B è omeomorfo a
B, esso è connesso e lo stesso dicasi per A × {b}; la loro intersezione è il punto (a, b) ergo non vuota.
Per il Teorema 4.1.26, X(a,b) è connesso. Si noti che (a, b) ∈ X(a,b) . (Intuitivamente, l’insieme X(a,b)
si può immaginare come un sistema di assi centrato in (a, b).) Per ogni (a, b), (c, d) ∈ A × B si ha
(c, b) ∈ X(a,b) ∩ X(c,d) 6= ∅. Ovviamente A × B = ∪(a,b)∈A×B X(a,b) e quindi per il Teorema 4.1.26 esso
risulta connesso.
Corollario 4.1.29. R2 è connesso. Rn è connesso. Cn è connesso.
Anche se sembra una facile generalizzazione del Teorema 4.1.28, il seguente risultato richiede una
buona dose di lavoro extra.
Teorema 4.1.30. Sia {Xi }i∈I una famiglia di spazi topologici connessi. Allora il prodotto Πi Xi è connes-
so.
D IMOSTRAZIONE . Per induzione sul numero dei fattori — usando il Teorema 4.1.28 come passo
induttivo — sappiamo che ogni prodotto finito di Xi è connesso.
Se Πi Xi = ∅ allora non v’è nulla da dimostrare (e può succedere senza assioma di scelta!) Al-
trimenti sia O = (Oi )i∈I ∈ Πi Xi (quindi ogni Oi sta in Xi ). In analogia con la dimostrazione pre-
cedente consideriamo la famiglia dei sistemi di piani coordinati centrati in O. In termini rigorosi,
consideriamo
F = {J ⊆ I : J ha cardinalità finita}
{O } i ∈ /J
i
∀J ∈ F sia AJ = Πi Yi ove Yi =
X i∈J
i
In soldoni, Aj è l’insieme dei punti le cui coordinate differiscono da O solo per gli indici J. Per
esempio, se consideriamo R3 = Rx × Ry × Rz e O = (0, 0, 0), abbiamo che se J = {x}, allora AJ è
l’asse X; se J = {x, y} allora AJ è il piano XY , se J = {x, y, z} allora AJ = R3 .
Per definizione AJ contiene il punto O per ogni J ∈ F. Inoltre AJ è omeomorfo a Πi∈J Xi e
siccome J è finito, AJ è connesso in quanto prodotto finito di connessi. Per il Teorema 4.1.26 si ha che
[
AJ è connesso
J∈F
e se dimostriamo che ∪J∈F AJ è denso in Πi Xi , per il Corollario 4.1.21, abbiamo finito. (Si dimostri a
titolo di esercizio che se I non è finito e ogni Xi contiene almeno due punti, allora Πi Xi 6= ∪J∈F AJ .)
4.3. CONNESSIONE PER ARCHI 89
Per fare ciò dimostriamo che esso interseca ogni elemento di una base della topologia prodotto.
Una base della topologia prodotto è data dai prodotti V = ΠBi ove ogni Bi è aperto in Xi e solo un
numero finito di essi è diverso da Xi . Fissato un tale V diverso dal vuoto, sia
J = {i ∈ I : Bi 6= Xi }
e per ogni i ∈ J sia bi ∈ Bi . Consideriamo adesso il punto
O i∈ /J
i
y = (yi ) con yi =
b i∈J
i
D IMOSTRAZIONE . Sia x ∈ X. Per ogni y ∈ X sia αy un arco che connette x a y e sia Ay la sua
immagine. Per il Corollario 4.1.15 Ay è connesso. Inoltre esso contiene sempre x. Per il Teorema 4.1.26
l’unione ∪y∈X Ay è connessa. Siccome y ∈ Ay , l’unione ∪y∈X Ay è l’intero X.
Il viceversa però non vale.
Esempio 4.3.4 (La sinusoide topologica). Sia G ⊂ R2 il grafico della funzione sin(1/x) con x ∈
(0, ∞). G è chiaramente connesso per archi e quindi è connesso. La chiusura G è dunque connessa
(Teorema 4.1.20). Ma lo spazio G non è connesso per archi.
D IMOSTRAZIONE . La chiusura di G è ottenuta aggiungendo a G il segmento I = {0} × [−1, 1].
Osserviamo che per ogni y ∈ [−1, 1], esiste sempre y0 ∈ [−1, 1] \ (y − 1, y + 1) e siccome sin(1/x) oscilla
vicino a zero, per ogni δ > 0 esiste 0 < x0 < δ tale che sin(1/x0 ) = y0 . Quindi l’insieme
Uy = G ∩ (R × (y − 1, y + 1))
è un aperto di G che è sconnesso dalla retta verticale {x0 } × R. Poiché δ può essere scelto piccolo a
piacere, si ha che la componente connessa di Uy che contiene (0, y) è ({0} × (y − 1, y + 1)) ∩ I ⊆ I.
Sia ora f : [0, 1] → G una funzione continua e poniamo f (t) = (xt , yt ). Sia C = f −1 (I). Esso è
chiuso perché I lo è ed f è continua. Per continuità di f , per ogni t ∈ C esiste ε > 0 tale f (t−ε, t+ε) ⊆
Uyt . Siccome (t − ε, t + ε) è connesso, la sua immagine è contenuta nella componente connessa di Uyt
che contiene f (t) = (0, yt ), che abbiamo visto essere contenuta in I. Quindi t è interno a C che risulta
aperto. Siccome [0, 1] è connesso, C è vuoto oppure [0, 1]. Ovvero, l’immagine di f sta tutta in I o
tutta fuori da I e quindi f non può connettere un punto di I a un punto di G.
La connessione per archi, come la connessione, è un invariante topologico e può essere usata per
distinguere spazi diversi tra loro. Quello che segue è il più classico degli esempi di tale uso.
Esempio 4.3.5. R e R2 non sono omeomorfi tra loro (senza usare il teorema dell’invarianza del
dominio). Infatti se togliamo un punto a R esso si sconnette, mentre se rimuoviamo un punto da R2 ,
esso rimane connesso per archi, ergo connesso.
Teorema 4.3.6 (Unione di connessi per archi non disgiunti è connessa per archi). Sia X uno spazio
topologico e sia {Ai }i∈I una famiglia di sottoinsiemi di X connessi per archi. Se Ai ∩ Aj 6= ∅ per ogni i, j ∈ I,
allora ∪i Ai è connesso per archi.
D IMOSTRAZIONE . La dimostrazione è analoga a quella del Teorema 4.1.26 ma più semplice. Sia-
no x, y ∈ ∪i Ai . Per definizione esiste i tale che x ∈ Ai e j tale che y ∈ Aj . Sia z ∈ Ai ∩ Aj allora
dalla concatenazione di un arco da x a z in Ai con un arco da z a y in Ai si ottiene un arco in ∪i Ai che
unisce x a y.
Corollario 4.3.7. Sia X uno spazio topologico e sia {Ai }i∈I una famiglia di sottoinsiemi di X connessi
connessi per archi. Se esiste i0 ∈ I tale che per ogni i ∈ I si ha Ai0 ∩ Ai =
6 ∅, allora ∪i Ai è connesso per archi.
D IMOSTRAZIONE . Si fa come per il Corollario 4.1.27 considerando insiemi Bi = Ai0 ∪ Ai . Essi
soddisfano le ipotesi del Teorema 4.3.6.
Definizione 4.3.8. Sia X uno spazio topologico. Una componente connessa per archi di X è un
sottoinsieme connesso per archi che sia massimale rispetto all’inclusione.
Molti fatti che valgono per la connessione valgono per la connessione per archi. Per esempio i
seguenti, le cui dimostrazioni vengono lasciate al lettore per esercizio.
Teorema 4.3.9. L’immagine continua di un connesso per archi è connessa per archi. L’immagine continua
di un connesso per archi è contenuta in una componente connessa per archi.
Teorema 4.3.10. Se A e B sono spazi non vuoti, allora A × B è connesso per archi se e solo se entrambi
A, B lo sono.
4.4. LOCALE CONNESSIONE 91
Teorema 4.3.11. Sia X uno spazio topologico. Allora ogni x ∈ X è contenuto in un’unica componente
connessa per archi, caratterizzata dall’essere l’unione di tutti i connessi per archi che contengono x.
Quello che però NON vale per la connessione per archi è il passaggio alla chiusura, come si evince
dall’Esempio 4.3.4.
Esercizio 4.3.12. Nell’Esempio 4.3.4, determinare le componenti connesse per archi di G.
Nonostante il passaggio alla chiusura fosse cruciale nella dimostrazione del Teorema 4.1.30, esso
resta vero in versione connessione per archi, con una dimostrazione semplicissima.
Teorema 4.3.13. Sia {Xi }i∈I una famiglia di spazi topologici connessi per archi. Allora il prodotto Πi Xi
è connesso per archi.
D IMOSTRAZIONE . Siano (xi ), (yi ) ∈ Πi Xi . Per ogni i esiste una funzione continua fi : [0, 1] → Xi
tale che fi (0) = xi e fi (1) = yi . La funzione f : [0, 1] → Πi Xi definita da
f (t) = (fi (t))i∈I ∈ Πi (Xi )
connette (xi ) a (yi ) ed è continua per il Teorema 2.1.15.
Teorema 4.4.6. Uno spazio topologico X è localmente connesso (per archi) se e solo se le componenti
connesse (per archi) di ogni suo aperto sono aperte. In tal caso X è unione disgiunta delle sue componenti
connesse (per archi), ognuna delle quali è aperta e chiusa. Inoltre, ogni sottoinsieme di X che sia aperto e chiuso
è unione di componenti connesse di X.
I prodotti si comportano abbastanza bene rispetto alla locale connessione.
Teorema 4.4.7. Sia (Xi )i∈I una famiglia di spazi localmente connessi (per archi). Nel caso in cui I
abbia cardinalità infinita, supponiamo inoltre che tutti gli Xi siano connessi (per archi). Allora X = Πi Xi è
localmente connesso (per archi).
D IMOSTRAZIONE . Sia x = (xi ) ∈ X e sia U un intorno di x. Per come è fatta la topologia
prodotto, esiste un intorno aperto B di x della forma B = Πi Bi ove Bi ⊆ Xi è aperto e solo un
numero finito di essi è non banale. Siccome ogni Xi è localmente connesso, dentro ogni Bi si trova un
intorno connesso Ai di xi . Ponendo Ai = Xi per gli indici ove Bi = Xi , siccome Xi è connesso, per
i Teoremi 4.1.30 e 4.3.13 si ha che Πi Ai ⊆ B è un intorno connesso di x. Lo stesso ragionamento vale
per la connessione per archi.
Le immagini continue di localmente connessi (per archi) invece, non sono necessariamente local-
mente connesse.
Esempio 4.4.8. Sia f : N → R data da f (0) = 0 e f (n) = 1/n per n 6= 0. N è discreto e quindi
localmente connesso per archi ma f (N) non è localmente connesso perché f (0) non ha intorni connessi
in f (N).
La buona notizia è che i quozienti di localmente connessi sono localmente connessi, la cattiva
notizia è che non si può usare la continuità della proiezione naturale per dimostrarlo.
Teorema 4.4.9 (Quoziente di loc. connesso è loc. connesso). Sia X uno spazio topologico e ∼ una
relazione d’equivalenza. Se X è localmente connesso (per archi) allora il quoziente X/ ∼ è localmente connesso
(per archi).
D IMOSTRAZIONE . Usiamo il Teorema 4.4.6 e dimostriamo che le componenti connesse (per archi)
degli aperti di X/ ∼ sono aperte. Sia π : X → X/ ∼ la proiezione naturale. Sia U un aperto di X/ ∼ e
sia A una sua componente connessa (per archi). L’insieme V = π −1 (U ) è aperto perché π è continua.
Per il Teorema 4.4.6 le componenti connesse (per archi) di V sono aperte. Per ogni x ∈ π −1 (A) sia Vx
la componente connessa (per archi) di V contenente x. L’insieme
[
W = Vx
x∈π −1 (A)
è dunque aperto. Inoltre π(Vx ) è un sottoinsieme di U connesso (per archi) e contenente π(x) ∈ A,
dunque esso è contenuto in A (Teoremi 4.2.6 e versione 4.3.9 per connessione per archi). Ne segue che
W ⊆ π −1 (A). D’altronde W contiene π −1 (A) per come è definito, quindi π −1 (A) = W è aperto, ergo
A è aperto.
La locale connessione si comporta bene per mappe aperte.
Teorema 4.4.10. Sia f : X → Y una funzione continua tra spazi topologici. Se X è localmente connesso
(per archi) e f è aperta, allora f (X) è localmente connesso (per archi).
D IMOSTRAZIONE . Sia y = f (x) ∈ f (X) e sia V un intorno aperto di y. f −1 (V ) è un intorno
aperto di x. Per ipotesi, esso contiene un aperto U 3 x connesso (per archi). Siccome f è aperta, f (U )
è un aperto connesso (per archi) e y ∈ f (U ) ⊆ V .
Corollario 4.4.11. Sia (Xi )i∈I una famiglia di spazi topologici. Se Πi Xi è localmente connesso (per archi)
allora ogni Xi lo è.
4.4. LOCALE CONNESSIONE 93
Connessi
1 3
Loc. Conn.
2 4 6
Esempio 4.4.13. Per ognuna delle possibilità 1–8 della Figura 1 esistono degli esempi.
D IMOSTRAZIONE .
(1) Connesso, non connesso per archi, non localmente connesso. Sia G il grafico di sin(1/x) con
x ∈ (0, ∞) e sia X = G. Esso è connesso ma non connesso per archi. Inoltre i punti del tipo
(0, y) con y ∈ [−1, 1] non possiedono un sistema fondamentale di intorni connessi. Quindi
X non è localmente connesso.
(2) Connesso per archi non localmente connesso. Il cosiddetto pettine delle pulci. Sia A = {1/n :
0 < n ∈ N} ∪ {0} e sia X ⊂ R2 definito da X = (A × [0, 1]) ∪ ([0, 1] × {0}). Esso è chiaramente
connesso per archi (l’asse orizzontale interseca tutte le rette verticali) ma i punti del tipo
(0, y) non hanno sistemi fondamentali di intorni connessi.
(3) Connesso, non connesso per archi, localmente connesso ma non localmente connesso per
archi. X = [0, 1]2 con l’ordine lessicografico (si veda la Sezione 4.5). La locale connessione si
dimostra come la globale connessione. La non locale connessione per archi si dimostra come
la non connessione per archi.
94 4. CONNESSIONE
(4) Connesso per archi, localmente connesso ma non localmente connesso per archi. Un cono su
un insieme di tipo 3). Sia Y un insieme di tipo 3) e X = Y × [0, 1]/ ∼ ove ∼ è la relazione che
identifica Y × {0} a un sol punto. X è connesso per archi perché ogni punto è connettibile
al vertice del cono. Y × [0, 1] è localmente connesso perché prodotto di localmente connessi
(Teorema 4.4.7). Quindi X è localmente connesso perché quoziente di un localmente con-
nesso (Teorema 4.4.9). D’altronde Y non è localmente connesso per archi e quindi nemmeno
Y × (0, 1) lo è (Corollario 4.4.11). Quindi X non è localmente connesso per archi perché
contiene Y × (0, 1) come aperto.
(5) Connesso in tutte le salse: X = un punto, oppure X = R, oppure X = [0, 1].
(6) Localmente connesso, ma non per archi, globalmente non connesso. Due copie disgiunte di
uno spazio di tipo 3).
(7) Localmente connesso per archi ma non connesso. Una qualsiasi topologia discreta su un
insieme con almeno due punti. Oppure X = [0, 1] ∪ [57, 128]. √ √
(8) Nessuna proprietà di connessione: X = Q. Infatti Q = (−∞, 2) t ( 2, ∞) è sconnesso. Le
componenti connesse sono i punti, che non sono aperti, ergo Q non è localmente connesso.
Esercizio 4.5.3. Provare a seguire passo passo la dimostrazione rimpiazzando I con Q e/o con Z
per vedere se qualche nodo viene al pettine.
Adesso mettiamo in neretto i nodi.
D IMOSTRAZIONE . Sia ∅ = 6 A ⊆ I aperto e chiuso. Vogliamo dimostrare che in tal caso A = I.
Se A 6= I allora Ac è aperto, chiuso e non vuoto. Quindi, a meno di scambiare A con Ac , possiamo
supporre che 0 ∈ A. Sia
X = {t ∈ I : [0, t] ⊆ A}
e sia t0 l’estremo inferiore del complementare di X, ponendo t0 = ∞ se X = I. Si noti che 0 ∈ X.
Inoltre, siccome A è aperto, per ogni 1 6= x ∈ A esiste y > x tale che [x, y) ⊂ A. Ne segue che se
1 6= t ∈ X allora esiste y > t tale che X c ⊆ [y, 1]. Ciò implica che
0 < t0 ∈
/ X.
Per ogni s < t0 si ha [0, s] ⊆ A, in particolare [0, t0 ) ⊆ A. Siccome A è chiuso, se t0 < ∞ allora
avremmo [0, t0 ] ⊆ A e quindi t0 ∈ X, in contraddizione con quanto appena dimostrato. Quindi
t0 = ∞ e dunque A = I.
Il primo nodo è l’esistenza di inf e sup, cosa che non è vera per esempio in Q. Il secondo nodo
è che [a, b) = [a, b] cosa che per esempio non è vera in Z (ove [2, 6) = [2, 5]). Affinché la dimostra-
zione proposta sia completa, queste due cose vanno dimostrate in I. Chiaramente, il Teorema 4.5.1 si
generalizza mutatis mutandis a insiemi totalmente ordinati con le proprietà opportune.
Lemma 4.5.4. Ogni ∅ =
6 A ⊆ I ha estremo inferiore.
D IMOSTRAZIONE . Sia X = {x ∈ [0, 1] : ∃y ∈ [0, 1] : ∀a ∈ A, (x, y) ≤ a}. L’insieme X è non
vuoto perché 0 ∈ X. Quindi X ha un estremo superiore x0 ∈ [0, 1]. Per ogni a = (xa , ya ) ∈ A si ha
xa ≥ x0 . Se x0 ∈/ X allora in particolare esiste a ∈ A con a < (x0 , 0), ma ciò implicherebbe xa < x0 .
Quindi x0 ∈ X. Dunque l’insieme Y = {y ∈ [0, 1] : ∀a ∈ A, (x0 , y) ≤ a} è non vuoto. Sia y0 l’estremo
superiore di Y in [0, 1]. Si ha (x0 , y0 ) ≤ a per ogni a ∈ A. Inoltre (x0 , y0 ) è il massimo dei minoranti di
A, quindi (x0 , y0 ) è l’estremo inferiore di A.
Lemma 4.5.5. Per ogni a < b ∈ I si ha [a, b) = [a, b].
D IMOSTRAZIONE . Sia b = (xb , yb ). Se yb 6= 0 allora ogni intorno di b contiene un intervallo del
tipo (xb , yb − ε), (xb , yb ) e quindi interseca
[a, b). Se yb = 0 allora ogni intorno di b contiene un
intervallo del tipo (xb − ε, 1), (xb , yb ) e quindi interseca [a, b). In ogni caso b è un punto di aderenza
di [a, b). Ne segue [a, b] ⊆ [a, b). D’altronde [a, b]c = (−∞, a) ∪ (b, ∞) è aperto perché unione di aperti.
Quindi [a, b] è chiuso e dunque contiene la chiusura di [a, b).
Teorema 4.5.6. Sia I = [0, 1]2 con l’ordine lessicografico. I non è connesso per archi.
D IMOSTRAZIONE . Supponiamo per assurdo che esista una funzione continua f : [0, 1] → I tale
che f (0) = (0, 0) e f (1) = (1, 1). L’immagine di f è connessa per il Corollario 4.1.15.
Osserviamo che se esistesse p0 non contenuto nell’immagine di f , allora essa risulterebbe scon-
nessa. Infatti in tal caso avremmo
Imm(f ) = (Imm(f ) ∩ {p < p0 }) t (Imm(f ) ∩ {p > p0 })
ed entrambi gli insiemi {p < p0 } e {p > p0 } sono aperti per la topologia dell’ordine lessicografico.
Quindi f è suriettiva. Per ogni x ∈ [0, 1] sia Ax = {x} × (0, 1). Esso è aperto per la topologia
dell’ordine lessicografico. Siccome f è continua allora Bx = f −1 (Ax ) è un aperto di [0, 1]. Inoltre Bx
è non vuoto perché f è suriettiva e Bx ∩ By = ∅ se x 6= y. La famiglia
{Bx }x∈[0,1]
costituisce quindi una famiglia più che numerabile di aperti disgiunti in [0, 1]. Ma per il Teore-
ma 1.5.15 ciò è incompatibile col fatto che [0, 1] sia a base numerabile.
96 4. CONNESSIONE
4.6. Esercizi
Esercizio 4.6.1. Dimostrare che Rn Euclideo è connesso.
Esercizio 4.6.2. Dimostrare che R2 meno l’asse X è sconnesso.
Esercizio 4.6.3. Sia X ⊆ R2 l’insieme {(x, 0) : x > 0}. Si dimostri che X è omeomorfo a R. Si
dimostri che R2 \ X è connesso.
Esercizio 4.6.4. Dimostrare che R3 meno l’asse X è connesso.
Esercizio 4.6.5. Dimostrare che R, con la topologia generata dagli intervalli del tipo (a, b], non è
connesso.
Esercizio 4.6.6. Dimostrare che R, con la topologia generata dagli intervalli del tipo [a, b], non è
connesso.
Esercizio 4.6.7. Dimostrare che la topologia del punto particolare (Esercizio 1.1.11) è connessa.
Esercizio 4.6.8. Si dica se R2 con la topologia delle palle annidate (Esempio 1.1.10) è connesso.
Esercizio 4.6.9. Sia X un insieme dotato della topologia cofinita. Dimostrare che se X è sconnesso
allora ha un numero finito di elementi.
Esercizio 4.6.10. Si dica se Z con la topologia delle successioni aritmetiche (Esempio 1.2.5) è
connesso.
Esercizio 4.6.11. Dimostrare che R2 con la metrica dei raggi è connesso.
Esercizio 4.6.12. Dimostrare che R2 Euclideo privato di un punto è connesso.
Esercizio 4.6.13. Dimostrare che R2 con la metrica dei raggi e privato di un punto, è sconnesso.
Esercizio 4.6.14. Dimostrare che R2 con la topologia di Zariski è connesso.
Esercizio 4.6.15. Dimostrare che ogni aperto di R2 con la topologia di Zariski è connesso (rispetto
alla topologia di Zariski).
Esercizio 4.6.16. Dimostrare che ogni aperto di C con la topologia di Zariski è connesso rispetto
alla topologia standard.
Esercizio 4.6.17. Dimostrare che ogni aperto non banale di R con la topologia di Zariski è scon-
nesso rispetto alla topologia standard.
Esercizio 4.6.18. Vero o falso? Se σ è più fine di τ e σ è connessa allora τ è connessa.
Esercizio 4.6.19. Vero o falso? Se σ è meno fine di τ e σ è connessa allora τ è connessa.
Esercizio 4.6.20. Dimostrare che gli spazi proiettivi (su R e C) sono connessi.
Esercizio 4.6.21. Dimostrare che T 2 è connesso.
Esercizio 4.6.22. Dimostrare che S 2 è connesso.
Esercizio 4.6.23. Dimostrare che la bottiglia di Klein è connessa.
Esercizio 4.6.24. Dire quali lettere dell’alfabeto sono connesse.
Esercizio 4.6.25. Si dia un esempio di uno spazio contenente un insieme connesso la cui parte
interna non è connessa.
Esercizio 4.6.26. Dimostrare che l’insieme di Cantor non è localmente connesso.
Esercizio 4.6.27. Dimostrare che R × Q, come sottoinsieme del piano Euclideo, non è connesso.
4.6. ESERCIZI 97
Esercizio 4.6.28. Dimostrare che esiste una topologia su R2 che rende R × Q connesso.
Esercizio 4.6.29. Dimostrare, coi mezzi sviluppati sinora, che il tappeto e la guarnizione di Sier-
pinski sono connessi e localmente connessi.
Esercizio 4.6.30. Dimostrare che una varietà topologica è localmente connessa per archi.
Esercizio 4.6.31. Dare un esempio di varietà non connessa.
Esercizio 4.6.32. Dimostrare che un grafo è localmente connesso per archi.
Esercizio 4.6.33. Dare un esempio di grafo non connesso.
Esercizio 4.6.34. Sia X uno spazio topologico e sia A ⊆ X un insieme connesso. Sia B ⊆ A.
Dimostrare che A ∪ B è connesso.
Esercizio 4.6.35. Sia X = {(x, y, z) ∈ R3 : x2 + y 2 − z 2 < 0} si dica se X è connesso. Si dica se X è
connesso. Si dica se X è localmente connesso. Si dica se X è localmente connesso.
Esercizio 4.6.36. Sia X = {(x, y, z) ∈ R3 : x2 + y 2 − z 2 6= 0}. Si dimostri che X ha esattamente tre
componenti connesse.
Esercizio 4.6.37. Sia X = {(x, y) ∈ R2 : sup{|x|, |y|} < 1, x2 + y 2 > 1}. Si dica se X e X sono
connessi e/o localmente connessi.
Esercizio 4.6.38. In R2 sia X = {(x, n2 x), x ∈ R, n ∈ Z}. Dimostrare che X è connesso per archi e
localmente connesso per archi. Dimostrare che X è connesso per archi ma non localmente connesso.
Esercizio 4.6.39. In R2 sia X = {(x, nx2 ), x ∈ R, n ∈ Z}. Dimostrare che X è connesso per archi e
localmente connesso per archi. Dimostrare che X è connesso per archi ma non localmente connesso.
2
Esercizio 4.6.40. In R2 sia X l’immagine di (0, ∞) tramite f (t) = e−1/t (cos(t + 1/t), sin(t + 1/t)).
Dimostrare che X è connesso. Dimostrare che X è connesso, ma non per archi.
2
Esercizio 4.6.41. In R2 sia X l’immagine di (0, ∞) tramite f (t) = e−1/t (cos(t + 1/t), sin(t + 1/t)).
Dimostrare che X c è connesso ma non connesso per archi né localmente connesso. Dimostrare che
(X)c non è connesso.
Esercizio 4.6.42. In R2 sia X l’immagine di (0, ∞) tramite f (t) = t(cos t, sin t) e sia X
b la sua com-
pattificazione di Alexandroff. Dimostrare che X b è connesso e localmente connesso per archi. Si dica
se è una varietà.
Esercizio 4.6.43. Per ogni a 6= b ∈ R sia S(a, b) il semicerchio chiuso del semipiano positivo di R2
passante per (a, 0) e (b, 0) e ortogonale all’asse X. Sia X = ∪n∈Z S(2n , 2n+1 ). Dimostrare che sia X
che la sua chiusura sono connessi e localmente connessi per archi.
Esercizio 4.6.44. Per ogni a 6= b ∈ R sia E(a, b) la semi ellisse chiusa del semipiano positivo di R2
passante per (a, 0), (b, 0), ( a+b n n+1
2 , 1). Sia X = ∪n∈Z E(2 , 2 ). Dimostrare che sia la chiusura di X è
connessa ma non per archi.
Esercizio 4.6.45. Con la stessa notazione dell’Esercizio 4.6.43, sia X = ∪06=n∈Z S(2n , 1). Dimostrare
che X è connesso e localmente connesso per archi. Dimostrare che X non è localmente connesso.
Esercizio 4.6.46. Con la stessa notazione dell’Esercizio 4.6.43, sia X = ∪n<0 S(2n , 1). Dimostrare
che X ∪ {(0, 0)} è connesso, ma non per archi.
Esercizio 4.6.47. Dimostrare che il quoziente di R per la relazione d’equivalenza generata da x ∼
2x è connesso. Si dica se è una varietà.
98 4. CONNESSIONE
Esercizio 4.6.67. Sia X uno spazio connesso e sia f : X → R una funzione continua tale che
esistano x, y ∈ X per cui f (x) = −f (y). Dimostrare che esiste z ∈ X tale che f (z) = 0.
Esercizio 4.6.68 (Teorema di Borsuk-Ulam unidimensionale). Dimostrare che per ogni funzione
continua f : S 1 → R esiste x ∈ S 1 tale che f (x) = f (−x).
Esercizio 4.6.69. Dimostrare che esistono infiniti punti p sulla terra tali che p e il suo antipodale
hanno la stessa temperatura.
Esercizio 4.6.70. Dimostrare che dato un qualsiasi sottoinsieme (misurabile) del piano, esiste una
retta che lo divide in due pezzi di uguale area.
Esercizio 4.6.71. Dimostrare che data una qualsiasi torta, cioè un sottoinsieme limitato (e misura-
bile) del piano, esistono due rette perpendicolari che la dividono in quattro fette di uguale area.
CAPITOLO 5
Sin ora abbiamo usato gli spazi metrici (principalmente R2 ) come fonte di esempi per le varie
nozioni topologiche trattate. È arrivato il momento di studiare le proprietà peculiari che gli spazi
metrici hanno rispetto agli altri spazi topologici.
i |xi − yi |. Per p = ∞ la metrica diventa d∞ (v, w) = supi |xi − yi | (per questo la metrica L è detta
anche metrica del sup).
Esempio 5.1.7 (Spazi lp ). Per p ∈ [1, ∞) si definisce lp ⊆ RN come lp = {(xi )i∈N : |xi |p < ∞}, su
P
p
cui si mette la metrica lp definita
P p
da d(v, w) = p i (|xi − yi |) (ove v = (xi ) e w = (yi )). Per p = 1 la
metrica diventa d1 (v, w) = i |xi − yi |. Il caso p = ∞ si ottiene per passaggio al limite: l∞ è lo spazio
P
delle successioni limitate e la metrica per p = ∞ diventa d∞ (v, w) = supi |xi − yi |, cioè la metrica del
sup.
Esempio 5.1.8 (Spazi Lp ). Dato X ⊆ R, per p ∈ [1, ∞) si pone Lp (X) = {f : X |f (x)|p < ∞}/{f :
R
q
|f (x)|p = 0} con d(f, g) = p X |f (x) − g(x)|p . Per p = 1 la metrica diventa d1 (f, g) = X |f (x) −
R R R
X
g(x)|. Per p = ∞ si deve fare un po’ di attenzione. Nel caso dello spazio di funzioni continue
e limitate per passaggio al limite si ottiene la metrica del sup, quella della convergenza uniforme:
d∞ (f, g) = supX |f (x) − g(x)|.
Esercizio 5.1.9. Dimostrare che quelle appena elencate sono effettivamente metriche. (Per la disu-
guaglianza triangolare delle metriche Lp serve la disuguaglianza di Minkowski. Nel caso p = 2 segue
dalla disuguaglianza di Schwartz.)
Per il Teorema 1.1.12 ogni metrica induce una topologia: quella generata dalle palle aperte B(x, ε).
Negli spazi metrici in generale si deve fare attenzione all’uso della terminologia delle palle chiuse.
Fissiamo la convenzione che
D(x, R) = {y ∈ X : d(x, y) ≤ R}
mentre B(x, R) indica la chiusura topologica della palla aperta. Se in R2 le due cose coincidevano,
in generale non è più vero. Per esempio, in Z con la metrica Euclidea, B(0, 1) = B(0, 1) = {0} 6=
D(0, 1) = {−1, 0, 1} (e B(0, 1/2) = B(0, 1/2) = {0} = D(0, 1/2)).
Definizione 5.1.10. Due metriche d1 , d2 su un insieme X si dicono topologicamente1 equivalenti
se inducono la stessa topologia. In altre parole se l’identità (X, d1 ) → (X, d2 ) è un omeomorfismo.
Esempio 5.1.11. In R2 tutte le metriche Lp sono equivalenti (Esercizio: dimostrarlo).
1In generale, nella teoria degli spazi metrici, due metriche si dicono equivalenti se esistono due costanti A > B > 0 tali
che dB < δ < dA. Chiaramente due metriche equivalenti sono anche topologicamente equivalenti, ma il viceversa non vale.
In questo testo, se non esplicitamente dichiarato altrimenti, useremo semplicemente “metriche equivalenti” per “metriche
topologicamente equivalenti”.
5.1. SPAZI METRICI, OMOTETIE E ISOMETRIE 103
Esempio 5.1.12. In R2 la metrica Euclidea e quella dei raggi non sono equivalenti, ad esempio la
semiretta {x > 0, y = 0} è aperta per la metrica dei raggi ma non per quella Euclidea.
Esempio 5.1.13. Se (X, d) è uno spazio metrico, allora d e arctan(d) sono metriche equivalenti.
In particolare, se si è interessati solo alla topologia di uno spazio, si può sempre suppore che d sia
limitata.
Esempio 5.1.14. Se (X, d) è uno spazio metrico, si può fare lo zoom out/in (come in Google Earth).
Formalmente, per ogni t > 0 si definisce la metrica td ottenuta moltiplicando d per il fattore t.
Chiaramente d e td sono topologicamente equivalenti.
Definizione 5.1.15 (Metrica indotta da una funzione). Dato un insieme Y e uno spazio metrico
(X, d), ogni funzione iniettiva f : Y → X induce una distanza df su Y definita da
df (a, b) = d(f (a), f (b))
df si chiama distanza indotta da f su Y o distanza pull-back.
Esempio 5.1.16. Se Y ⊆ X e d è una distanza su X, allora la distanza d|Y non è altro che la
metrica indotta su Y dall’inclusione Y ,→ X. D’altra parte, se f : Y → X è iniettiva, essa identifica
(insiemisticamente) Y con un sottoinsieme di X.
Definizione 5.1.17. Siano (X, d) e (Y, δ) due spazi metrici. Una funzione f : X → Y si dice
immersione omotetica di fattore t > 0 se per ogni a, b ∈ X si ha
δ(f (a), f (b)) = td(a, b).
Se t = 1 si dice immersione isometrica. Un’immersione omotetica suriettiva si dice omotetia. Un’im-
mersione isometrica suriettiva si dice isometria.
Teorema 5.1.18. Un’immersione omotetica è continua e iniettiva. Un’omotetia è un omeomorfismo. (In
particolare lo sono anche le isometrie).
D IMOSTRAZIONE . Per l’iniettività, siccome t è non nullo si ha
f (x) = f (y) ⇒ 0 = δ(f (x), f (y)) = td(x, y) ⇒ d(x, y) = 0 ⇒ x = y.
Inoltre, se xi → x allora
δ(f (xi ), f (x)) = td(xi , x) → 0
quindi f (xi ) → f (x) e f è continua. Infine, se f è suriettiva allora è biunivoca e f −1 è un’omotetia di
fattore 1/t, dunque continua.
Esempio 5.1.19. Sia X = [0, 2π) con la metrica standard e sia Y = S 1 = {z ∈ C : |z| = 1} munito
della metrica angolare (cioè la distanza tra z, w ∈ S 1 è la misura, in radianti, dell’angolo acuto formato
da z e w). Sia f : X → Y data da f (x) = eix . f è continua e biunivoca ma f −1 non è continua. Infatti
se xn = 2π − n1 si ha che zn = f (xn ) → 1 ma f −1 (zn ) = xn non tende a 0 = f −1 (1). Se invece
consideriamo la restrizione di f a Z = [0, π) ⊆ X, essa risulta un’immersione isometrica di Z in S 1 .
Ciò non deve stupire perché [0, 2π) con la metrica standard non è omeomorfo a S 1 in quanto il
secondo è compatto mentre il primo no.
Esempio 5.1.20. Sia X = [0, 2π) con la metrica
d(x, y) = inf{|x − y|, |x| + |2π − y|, |y| + |2π − x|}
e sia Y = S 1 = {z ∈ C : |z| = 1} munito della metrica angolare. Sia f : X → Y data da f (x) = eix .
f è un’isometria infatti la metrica d è esattamente la metrica pull-back di quella angolare. Con questa
metrica, X risulta quindi omeomorfo a S 1 , e in particolare compatto. Questa metrica non è quindi
equivalente a quella Euclidea su X.
104 5. TOPOLOGIA DEGLI SPAZI METRICI
Diamo adesso l’enunciato — ma non la dimostrazione — del più famoso dei teoremi di metriz-
zazione, che fornisce delle condizioni sufficienti di metrizzabilità.
Teorema 5.2.10 (Teorema di Uryshon). Ogni spazio T3 a base numerabile è metrizzabile.
Teorema 5.2.11. Uno spazio di Hausdorff compatto è regolare, ergo T3 .
D IMOSTRAZIONE . Sia X uno spazio compatto e T2 . Sia x ∈ X e C un chiuso di X. {x} è compatto
e per il Teorema 3.1.19, anche C lo è. Per il Teorema 3.1.22 x e C si separano con aperti.
Corollario 5.2.12. Ogni spazio compatto T2 a base numerabile è metrizzabile.
Si noti che la metrica dei raggi su R2 induce una topologia che non è a base numerabile. (Per
il Teorema 1.5.15). Quindi il viceversa del Teorema di Uryshon non è vero. Visto però che gli spazi
metrici sono separabili se e solo se sono a base numerabile, si può rienunciare il Teorema di Uryshon
come segue:
Teorema 5.2.13 (Uryshon). Uno spazio topologico è metrizzabile e separabile se e solo se è T3 e a base
numerabile.
Corollario 5.2.14. Ogni varietà topologica è metrizzabile.
D IMOSTRAZIONE . Se X è una varietà topologica allora è T2 e ha base numerabile per definizione.
Vediamo la regolarità. Sia x ∈ X e sia C un chiuso di X non contenente x. Sia U un intorno di x
omeomorfo a un aperto di Rn . Quindi U è metrizzabile. Siccome x ∈ U \ C e C è chiuso, esiste ε > 0
tale che B(x, ε) ⊆ U \ C. Gli aperti B(x, ε/2) e (D(x, ε/2))c (ove il complementare è fatto in tutto X)
separano x da C.
Esistono anche dei teoremi che forniscono delle condizioni necessarie e sufficienti per la metriz-
zabilità tout court, senza tener conto della separabilità, ma noi fermiamo qua il nostro excursus in
questa direzione.2
mente cosı̀: Si parte da un segmento orizzontale; ad ogni passo si divide ogni segmento in tre, si
cancella il terzo centrale e lo si rimpiazza con gli altri due lati di un triangolo equilatero. Ad ogni
passo abbiamo una curva poligonale e quindi continua. La curva di Koch risulta limite uniforme di
tali poligonali e quindi è un cammino continuo.
2Il lettore incuriosito può cercare i teoremi di metrizzabilità di Bing e di Nagata-Smirnov. Entrambi si basano su una
particolare proprietà locale di numerabilità.
106 5. TOPOLOGIA DEGLI SPAZI METRICI
Dato un segmento [a, b] una suddivisione finita di [a, b] è una scelta di punti x0 = a < x1 < · · · <
xk = b. In questo modo [a, b] = ∪i [xi−1 , xi ].
Definizione 5.3.4 (Lunghezza di cammini). Sia (X, d) uno spazio metrico. Dato un cammino
γ : [a, b] → X, la sua lunghezza è definita come
k
X
L(γ) = sup d(γ(xi ), γ(xi−1 ))
a=x0 <x1 <x2 <···<xk =b i=1
ove il sup è calcolato su tutte le possibili suddivisioni di [a, b]. La lunghezza di γ, in quanto sup di
quantità positive, è un numero in [0, ∞]. Un cammino γ si dice rettificabile se L(γ) < ∞.
Esempio 5.3.5. La curva di Kock non è rettificabile perché se pn è la poligonale ennesima che
approssima la curva di Koch, si ha
n
4 4
L(pn+1 ) = L(pn ) = L(p1 ) → ∞.
3 3
In R2 le curve differenziabili o poligonali sono tutte rettificabili.
p
Esempio 5.3.6. Sia X = [0, 1] con la metrica d(x, y) = |x − y|. Gli unici cammini rettificabili
in X sono quelli costanti. (Anche se X è omeomorfo al suo omologo Euclideo, come si dimostrerà
nell’Esercizio 5.8.7.)
D IMOSTRAZIONE . Sia γ : [a, b] → X un cammino non costante. In particolare esistono a0 , b0 ∈
(a, b) tali che γ(a0 ) < γ(b0 ). Non è restrittivo supporre a0 < b0 . Per ogni k ∈ N sia γ(a0 ) = xk0 <
xk1 < · · · < xkk = γ(b0 ) una suddivisione di [γ(a0 ), γ(b0 )] tale che |xki − xki−1 | = |γ(b0 ) − γ(a0 )|/k
e sia a0 < ak1 < · · · < akk = b0 una suddivisione di [a0 , b0 ] tale che γ(aki ) = xki . (Per esempio
aki = inf{t > aki−i : γ(t) = xki }.) Si ha
r
X X |γ(b0 ) − γ(a0 )| √ p
L(γ) ≥ d(γ(aki ), γ(aki−1 )) = d(xki , xki−1 ) = k = k |γ(b0 ) − γ(a0 )| → ∞
i i
k
e quindi L(γ) = ∞.
Definizione 5.3.7 (Metrica dei cammini). Sia (X, d) uno spazio metrico. La metrica dei cammini
indotta da d su X è definita come
δ(x, y) = inf{L(γ) al variare di γ : [a, b] → X : γ(a) = x, γ(b) = y}
ponendo d(x, y) = ∞ se non ci sono cammini rettificabili da x a y.
Questa è una di quelle “distanze” che può assumere il valore ∞. A parte questo tutte le altre
proprietà di una distanza sono soddisfatte. In particolare (come discusso nella Sezione 0.2) se per
ogni x ∈ X definiamo l’insieme Mx = {y ∈ X : δ(x, y) < ∞}, allora la restrizione di δ ad ogni Mx è
una distanza vera e propria. Nell’Esempio 5.3.6 si ha Mx = {x} per ogni x ∈ [0, 1]. Alternativamente,
se si è interessati solo agli aspetti topologici e non metrici, si può usare il Teorema 5.1.5 e riscalare la
metrica dei cammini con l’arcotangente: questa volta la metrica avrà valori in [0, π/2].
Definizione 5.3.8. Uno spazio metrico (X, d) si dice geodetico (o semplicemente che d è geodeti-
ca) se
• d coincide con la distanza dei cammini indotta da d (che chiamiamo δ);
• per ogni x, y ∈ X esiste un cammino γ : [a, b] → X con γ(a) = x, γ(b) = y e L(γ) = δ(x, y).
Esempio 5.3.9. La distanza della città è geodetica.
Esempio 5.3.10. La distanza dei raggi di bicicletta è geodetica.
Esempio 5.3.11. La distanza dei raggi su R2 è geodetica.
5.4. SUCCESSIONI DI CAUCHY E COMPLETEZZA 107
Teorema 5.4.13. Sia A un sottoinsieme di un uno spazio metrico completo X. Allora A è chiuso se e solo
se è completo.
D IMOSTRAZIONE . A è chiuso se e solo se contiene i limiti delle successioni in A (Teorema 1.5.8).
Supponiamo A chiuso e sia (ai ) una successione di Cauchy in A. Ovviamente essa è di Cauchy anche
in X. Siccome X è completo, esiste x ∈ X tale che ai → x. Siccome A è chiuso, x ∈ A. Dunque ogni
successione di Cauchy in A è convergente e quindi A è completo.
Viceversa, supponiamo A completo. Sia x ∈ X un limite di una successione (ai ) in A. Siccome
ai → x allora (ai ) è di Cauchy. Siccome A è completo allora la successione (ai ) ha un limite a ∈ A.
Per l’unicità del limite a = x e quindi x ∈ A.
Esempio 5.4.14. L’insieme di Cantor, il tappeto e la guarnizione di Sierpinski, con le metriche
standard indotte da R e R2 rispettivamente, sono completi.
Teorema 5.4.15. Sia X un insieme e Y uno spazio metrico completo. Allora lo spazio Y X delle funzioni
da X a Y con la metrica del sup
d∞ (f, g) = sup d(f (x), g(x))
x∈X
è completo.3
D IMOSTRAZIONE . Sia fn una successione di Cauchy in Y X . Facciamo vedere che ha un limite.
Per ogni x ∈ X la successione fn (x) è di Cauchy perché
d(fn (x), fm (x)) ≤ sup d(fn (t), fm (t)) = d∞ (fn , fm ).
t∈X
Siccome Y è completo esiste un punto f∞ (x) tale che fn (x) → f∞ (x). Chiaramente f∞ è una funzione
da X a Y . Inoltre per ogni x ∈ X e per ogni m, n ∈ N
d(fn (x), f∞ (x)) ≤ d(fn (x), fm (x)) + d(fm (x), f∞ (x)) ≤ d∞ (fn , fm ) + d(fm (x), f∞ (x))
e considerando il limite per m → ∞ si ottiene che per ogni x ∈ X e n ∈ N si ha
d(fn (x), f∞ (x)) ≤ lim d∞ (fn , fm )
m→∞
per cui
d∞ (fn , f∞ ) = sup d(fn (x), f∞ (x)) ≤ lim d∞ (fn , fm )
x∈X m→∞
3A voler essere precisi, in generale la metrica del sup su Y X è una di quelle che ha valori in [0, ∞]. Ma se (f ) è una
n
successione di Cauchy, esiste n0 tale che per ogni n ≥ n0 si ha d(fn , fn0 ) < ∞. Nel nostro caso possiamo quindi supporre
che d∞ assuma solo valori finiti.
5.5. COMPLETAMENTO METRICO 109
x2 y2
x1 y1
Corollario 5.5.2. Siano (xi ) e (yi ) due successioni di Cauchy in uno spazio metrico. Allora esiste il limite
lim d(xi , yi ).
i
D IMOSTRAZIONE . Siccome sono entrambe successioni di Cauchy, per ogni ε > 0 esiste nε > 0
tale che per ogni m, n > nε si ha
d(xn , xm ) < ε/2 d(yn , ym ) < ε/2
Per il Lemma 5.5.1 del rettangolo
|d(xn , yn ) − d(xm , ym )| ≤ ε
Quindi la successione dn = d(xn , yn ) è di Cauchy in R e quindi converge.
Teorema 5.5.3 (del completamento metrico). Per ogni spazio metrico (X, d) esiste uno spazio metrico
completo (Y, δ) tale che:
(1) Esiste un’immersione isometrica f : X → Y ;
(2) l’immagine di f è densa in Y .
Inoltre, ogni spazio metrico completo con le due proprietà elencate è isometrico a (Y, δ).
110 5. TOPOLOGIA DEGLI SPAZI METRICI
(che è ben definita per il Corollario 5.5.2.) La funzione D gode delle seguenti proprietà:
• D ≥ 0;
• D((xi ), (yi )) = D((yi ), (xi ));
• D((xi ), (yi )) ≤ D((xi ), (zi )) + D((zi ), (yi )) (perché la disuguaglianza d(xn , yn ) ≤ d(xn , zn ) +
d(zn , yn ) è vera per ogni n e passa al limite.)
Quindi D è una pseudo distanza (manca la separazione dei punti e infatti, data una qualunque suc-
cessione (xi ), basta cambiargli il primo termine ed otteniamo una successione diversa ma a distanza
nulla da essa). Per ottenere una distanza si usa un procedimento standard in questi casi: Su S si
definisce la relazione di equivalenza (xi ) ∼ (yi ) se D((xi ), (yi )) = 0. Si vede facilmente, attraverso
la disuguaglianza triangolare, che D induce una funzione, che chiameremo sempre D, sulle classi di
equivalenza.
Esercizio 5.5.4. Dimostrare che se (xi ) ∼ (x0i ) e (yi ) ∼ (yi0 ) allora D((xi ), (yi )) = D((x0i ), (yi0 )).
Definiamo Y = S/ ∼. A questo punto (Y, D) è uno spazio metrico.
Lemma 5.5.5. (Y, D) è completo.
D IMOSTRAZIONE . Sia (Si ) una successione di Cauchy in Y . Poniamo Si = [(xin )].
S1 : x11 x12 x13 ... x1n ...
S2 : x21 x22 x23 ... x2n ...
..
.
Sk : xk1 xk2 xk3 ... xkn ...
Siccome (Si ) è di Cauchy in Y , si ha:
• ∀ε > 0∃n : ∀i, j > n D(Si , Sj ) < ε. Sia n(ε) il più piccolo di tali n. Si noti che ε0 > ε ⇒
n(ε0 ) ≤ n(ε).
Siccome ogni (xin ) è di Cauchy in X, si ha:
• ∀ε > 0∀i∃l(i, ε) : ∀m, n > l(i, ε) d(xin , xim ) < ε.
Inoltre, dalla definizione di D(Si , Sj ) segue che per ogni i, j e per ogni ε > 0, |d(xin , xjn ) − D(Si , Sj )| <
ε per n sufficientemente grande, e possiamo richiedere che n sia “sufficientemente grande” per i primi
k casi considerati tutti insieme; in formule:
• ∀ε > 0∀k∃m(k, ε) : ∀i, j ≤ k, ∀m > m(k, ε) |d(xim , xjm ) − D(Si , Sj )| < ε.
Adesso usiamo un argomento diagonale. Scegliamo una successione εi → 0 per esempio εi =
1/2i . E scegliamo ni in modo che:
• ni+1 > ni
• ni > l(i, εi )
• ni > m(i, εi )
• ni > i.
Definiamo la successione (yj ) ponendo
yj = xjnj .
5.5. COMPLETAMENTO METRICO 111
Dobbiamo far vedere che (yj ) è di Cauchy in X e che Si → [(yj )] in Y . Vediamo che (yj ) è di Cauchy.
Per ogni ε > 0 se i, j sono sufficientemente grandi si ha ε − εi − εj > 0 e i, j > n(ε − εi − εj ). Quindi,
per j > i sufficientemente grandi si ha:
d(yi , yj ) = d(xini , xjnj ) ≤ d(xini , xinj ) + d(xinj , xjnj ) per la disuguaglianza triangolare
d(xini , xinj ) ≤ εi perché nj > ni > l(i, εi )
d(xinj , xjnj ) ≤ D(Si , Sj ) + εj perché nj > m(j, εj )
quindi d(yi , yj ) ≤ εi + D(Si , Sj ) + εj e dunque
d(yi , yj ) ≤ εi + D(Si , Sj ) + εj < ε perché i, j > n(ε − εi − εj )
Quindi (yj ) è di Cauchy in X. Vediamo adesso che Si → [(yj )] in Y . Per definizione
D(Si , [(yj )]) = lim d(xij , yj ) = lim d(xij , xjnj )
j→∞ j→∞
≤ ε + lim(ε + εj ) = 2ε.
j
Quindi D(Si , [(yj )]) → 0, cioè Si → [(yj )].
La parte difficile è finita. Adesso che sappiamo che Y è completo vediamo l’immersione isome-
trica di f : X → Y . Basta porre f (x) = x̂ ove x̂ è la classe della successione costante x, x, x, x, . . .
Chiaramente D(x̂, ŷ) = d(x, y) e quindi f è un’immersione isometrica. Mostriamo ora che l’im-
magine di f è densa. Se S = [(xi )] ∈ Y , siccome (xi ) è di Cauchy, D(x̂j , (xi )) = limi→∞ d(xj , xi ), che
va a 0 per j → ∞. Quindi
f (xi ) = x̂i → S.
Infine sia (Z, h) uno spazio metrico completo tale che esista g : X → Z immersione isometrica
con immagine densa. Allora per ogni successione (xi ) di Cauchy in X, (g(xi )) è una successione di
Cauchy in Z. Poniamo
F :Y →Z F ([(xi )]) = lim g(xi )
Adesso è facile verificare che:
Esercizio 5.5.6. Dimostrare che F è ben definita sulle classi di equivalenza, cioè che se (xi ) ∼ (x0i )
allora lim g(xi ) = lim g(x0i ). (Si usa che g è immersione isometrica.)
Esercizio 5.5.7. Dimostrare che F è un’immersione isometrica. (Si usa la definizione di D e il fatto
che g sia isometrica.)
Esercizio 5.5.8. Dimostrare che F è suriettiva. (Si usa il fatto che g abbia immagine densa e che le
successioni convergenti sono di Cauchy.)
Questi tre esercizi concludono in quanto le immersioni isometriche suriettive sono isometrie.
112 5. TOPOLOGIA DEGLI SPAZI METRICI
Teorema 5.5.9. Sia (X, d) uno spazio metrico completo. Sia A ⊆ X. Allora il completamento metrico di
A è la sua chiusura in X.
D IMOSTRAZIONE . Per il Teorema 5.4.13 Ā è completo e A è denso in Ā.
L’inclusione è un caso particolare di immersione isometrica.
Corollario 5.5.10. Sia A uno spazio metrico, sia X uno spazio metrico completo e sia f : A → X
un’immersione isometrica. Allora il completamento metrico di A è la chiusura dell’immagine di f .
D IMOSTRAZIONE . Siccome f è un’immersione isometrica, A è isometrico a f (A), il cui comple-
tamento metrico è f (A) per il Teorema 5.5.9.
Esempio 5.5.11. Sia X = R con la metrica d(x, y) = | arctan x−arctan y|. Il completamento metrico
di X è [−π/2, π/2] in quanto arctan : X → R è un’immersione isometrica con immagine (−π/2, π/2).
Esempio 5.5.12. Sia X = R con la metrica d(x, y) = |(ei arctan x )2 − (ei arctan y )2 |. Il completamento
metrico di X è S 1 = {z ∈ C : |z| = 1} in quanto f (x) = e2i arctan x è un’immersione isometrica da X
in C la cui immagine è S 1 \ {−1}. La chiusura dell’immagine di f è dunque S 1 .
e quindi se x ∈ Uxi
d(g(x), fσ(g) (x)) ≤ d(g(x), g(xi )) + d(g(xi ), fσ(g) (xi )) + d(fσ(g) (xi ), fσ(g) (x)) < ε + 2ε + ε
quindi
d∞ (g, fσ(g) ) = sup d(g(x), fσ(g) (x)) < 4ε.
x∈X
X
O SSERVAZIONE 5.7.7. Si noti che se Y è completo allora A è compatto. L’insieme A delle fun-
zioni da X ad A è dunque compatto per il teorema di Tychonoff. A prima vista potrebbe sembrare
quindi che il Teorema di Ascoli-Arzelà sia una banale conseguenza del teorema di Tychonoff. Ma un
prodotto infinito di compatti fornisce il classico esempio di compatto che non è compatto per suc-
cessioni (Esempio 3.4.2). In particolare la metrica della convergenza uniforme su Y X non induce la
topologia prodotto (che è quella della convergenza puntuale). Il teorema di Ascoli-Arzelà ci dice che
la famiglia F è compatta in Y X rispetto alla metrica del sup (ergo compatta per successioni).
O SSERVAZIONE 5.7.8. Spesso l’equicontinuità si riduce a una stima uniforme (quasi ovunque)
sulle derivate prime.
Esempio 5.7.9. Il tappeto di Sierpinski è connesso per archi.
D IMOSTRAZIONE . Stiamo lavorando in R2 Euclideo, che è completo. Sia S il tappeto di Sierpinski
e sia Sn l’approssimazione n-esima. Cioè S0 è un quadrato di lato 1, per formare S1 si è tolto l’interno
del quadratino centrale di lato 1/3 e cosı̀ via (si veda la figura dell’Esempio 1.1.17).
In particolare, S = ∩Sn . Dati x, y ∈ S, utilizzando solo segmenti orizzontali e verticali, si costrui-
sce facilmente un arco αn in Sn che unisce x a y e di lunghezza totale al massimo 2. Parametrizziamo
αn con [0, 1] a velocità costante. Le funzioni αn : [0, 1] → S ⊆ S0 sono quindi equicontinue. Esse sono
anche equilimitate perché S0 è compatto. Per il Teorema di Ascoli-Arzelà la chiusura F dell’insieme
F = {αn : n ∈ N} è compatto. Siccome F è numerabile, F è separabile. Per il Teorema 3.4.9, F è
compatto per successioni. Esiste quindi una sottosuccessione di αn che converge, per la metrica del
sup — che è quella della convergenza uniforme —, a una funzione α : [0, 1] → S0 . Per continuità α è
un arco continuo da x a y tale che α(t) ∈ Sn per ogni n, ergo α(t) ∈ S.
Lo stesso ragionamento funziona anche per mostrare la locale connessione per archi e vale anche
per la guarnizione di Sierpinski.
5.8. Esercizi
Esercizio 5.8.1. Sia (X, d) uno spazio metrico. Dimostrare che per ogni x ∈ X e per ogni r > 0, la
palla chiusa D(x, r) = {y ∈ X : d(x, y) ≤ r} è un chiuso.
Esercizio 5.8.2. Dare un esempio di spazio metrico non discreto in cui esistono palle aperte B(x, r)
la cui chiusura non coincide col disco D(x, r).
Esercizio 5.8.3. Dare un esempio di spazio metrico non discreto X tale che esista x ∈ X e r > 0
per cui B(x, r) = B(x, r) 6= D(x, r).
Esercizio 5.8.4. Dare un esempio di spazio metrico non discreto X tale che esista x ∈ X e r > 0
per cui B(x, r) 6= B(x, r) 6= D(x, r).
Esercizio 5.8.5. Dare un esempio di spazio metrico non discreto X tale che esista x ∈ X e r > 0
per cui B(x, r) = B(x, r) = D(x, r).
Esercizio 5.8.6. Sia (X, d) uno spazio metrico e sia x ∈ X. Dimostrare che la funzione f (y) =
d(x, y) è continua.
116 5. TOPOLOGIA DEGLI SPAZI METRICI
p
Esercizio 5.8.7. Sia X = [0, 1] e sia d(x, y) = |x − y|. Verificare che d è una distanza. Verificare
che induce la stessa topologia della metrica Euclidea.
0 x=y
Esercizio 5.8.8. Sia δ(x, y) = la distanza 0/1 su R (dimostrare che δ è una distanza)
1 x 6= y
e sia
d((x, y), (a, b)) = |y − b| + δ(x, a).
Dimostrare che d è una distanza su R2 . Descrivere le palle aperte di centro (0, 0) e raggi 1/2, 1, 2 e la
palla chiusa di centro (0, 0) e raggio 1. Dimostrare che d non è equivalente alla topologia Euclidea.
Qual è la topologia indotta da d?
Esercizio 5.8.9. Dimostrare che la topologia dell’ordine lessicografico di R2 è metrizzabile.
Esercizio 5.8.10. Dimostrare che per 1 ≤ p, q < ∞ gli spazi lp sono tutti omeomorfi tra loro. (Usare
p
Esercizio 5.8.26. Si dimostri che Z con la topologia delle successioni aritmetiche (Esempio 1.2.5) è
metrizzabile. (Suggerimento: si usi il Teorema di Uryshon 5.2.10.)
Esercizio 5.8.27. Si dia un esempio di spazio topologico X non metrizzabile ma tale che ogni
sottoinsieme A ⊂ X, con A 6= X, sia metrizzabile.
Esercizio 5.8.28. Si dia un esempio di spazio T2 non metrizzabile, ma con un denso metrizzabile.
Esercizio 5.8.29. Sia X uno spazio T3 e sia A ⊆ X un chiuso. Dimostrare che X/A è T2 .
Esercizio 5.8.30. Sia X uno spazio metrico e A ⊆ X un chiuso. Dimostrare che X/A è T2 .
Esercizio 5.8.31. Sia X uno spazio metrico. Dimostrare che se ogni funzione continua f : X → R
è limitata, allora X è compatto.
Esercizio 5.8.32. Si dia un esempio di uno spazio X con due metriche d, δ che inducono la stessa
topologia, ma tali che d sia completa e δ no.
Esercizio 5.8.33. Dimostrare che il prodotto numerabile di spazi metrici è metrizzabile.
Esercizio 5.8.34. Dimostrare che uno spazio metrico non separabile non è compatto per successio-
ni.
Esercizio 5.8.35. Si dimostri che ω1 non è metrizzabile.
Esercizio 5.8.36. Sia R con la topologia discreta e sia X la sua compattificazione di Alexandroff.
Dimostrare che X è compatto, T2 , ma non metrizzabile.
Esercizio 5.8.37. Si dimostri che lo spazio descritto nell’Esempio 3.4.4 non è metrizzabile.
CAPITOLO 6
1 Sierpiński, Wacław (1916). “Sur une courbe cantorienne qui contient une image biunivoque et continue de toute courbe
donnée”. C. r. hebd. Seanc. Acad. Sci., Paris. 162: 629—632.
2Whyburn, Gordon (1958). “Topological characterization of the Sierpinski curve”. Fund. Math. 45: 320—324.
119
120 6. TOPOLOGIA DAL VIVO
3Si avverte il lettore che non esistono notazioni uniformi in letteratura per indicare le valenze.
6.2. TAGLIA E CUCI 121
Vediamo subito un paio di utili risultati facilmente ottenibili con quanto sviluppato sin ora.
Teorema 6.2.3. Sia ∼ una relazione d’equivalenza su uno spazio X tale che X/ ∼ sia T2 . Se A ⊆ X è
compatto e interseca tutte le classi di equivalenza, cioè sat(A) = X, allora X/ ∼ è omeomorfo a A/ ∼.
D IMOSTRAZIONE . Siccome i quozienti dei compatti son compatti (Teorema 3.1.24), allora A/ ∼
è compatto. Per il Corollario 2.2.17, l’inclusione A → X induce una funzione continua f : A/ ∼→
X/ ∼. Tale funzione è iniettiva per definizione e siccome A interseca tutte le classi di equivalenza, f
è anche suriettiva. Se X/ ∼ è T2 , il Teorema del Compatto-Hausdorff conclude.
Teorema 6.2.4. Siano X, Y spazi topologici e siano ∼X e ∼Y relazioni di equivalenza su X e Y rispettiva-
mente. Supponiamo che X/ ∼X sia compatto e che Y / ∼Y sia T2 . Se esiste una funzione continua f : X → Y
che coniuga le relazioni, e cioè tale che
x ∼X y ⇐⇒ f (x) ∼Y f (y),
e tale che l’immagine di f intersechi tutte le classi di equivalenza, allora X/ ∼X è omeomorfo a Y / ∼Y .
D IMOSTRAZIONE . Per il Corollario 2.2.17, f induce una funzione continua [f ] tra gli spazi quo-
zienti. Siccome f coniuga le relazioni, [f ] è iniettiva; siccome l’immagine di f interseca tutte le classi
di equivalenza allora [f ] è suriettiva. Per il Teorema del Compatto-Hausdorff essa è un omeomorfi-
smo.
Esercizio 6.2.5. Esibire un controesempio al Teorema 6.2.4 nel caso Y non sia T2 .
Adesso vediamo come, con questi strumenti, possiamo risolvere il primo problema.
Lemma 6.2.6. Lo spazio proiettivo RPn è omeomorfo a S n modulo la relazione antipodale (cioè x ∼ −x).
D IMOSTRAZIONE . Il proiettivo è il quoziente di Rn+1 \ {0} per la relazione v ∼ λv. Esso è T2
perché due punti che non stanno sulla stessa retta sono separati da coni aperti (che sono aperti saturi).
Siccome S n = {v ∈ Rn+1 : ||v|| = 1} è compatto e interseca tutte le classi di equivalenza, allora per
il Teorema 6.2.3 RPn è omeomorfo a S n / ∼. La relazione v ∼ λv, ristretta a S n , non è altro che
l’antipodale.
Lemma 6.2.7. Il proiettivo RPn è omeomorfo al disco Dn modulo l’antipodale al bordo.
D IMOSTRAZIONE . Per il Lemma 6.2.6P sappiamo che RPn ' S n / ∼. L’emisfero boreale di S n ,
n+1
cioè l’insieme E = {(x0 , . . . , xn ) ∈ R : x2i = 1, x0 ≥ 0}, è compatto e interseca tutte le classi di
n
equivalenza. Per il Teorema pP 6.2.3 il proiettivo è omeomorfo a E/ ∼. La proiezione D → E data da
f (x1 , . . . , xn ) = (1 − 2
xi , x1 , . . . , xn ) è continua, biunivoca e coniuga la relazione antipodale sul
bordo di Dn con ∼. Per il Teorema 6.2.4 essa induce un omeomorfismo tra i quozienti.
Lemma 6.2.8. RP2 è omeomorfo a .
D IMOSTRAZIONE . Possiamo pensare il quadrato centrato nell’origine di R2 perché le traslazio-
ni sono omeomorfismi. Inoltre possiamo suppore che il quadrato abbia lato 2 perché le omotetie
sono omeomorfismi. La funzione f (x, y) = sup(|x|,|y|)
||(x,y)|| (x, y) è una funzione continua e biunivoca da
[−1, 1]2 al D2 . Gli incollamenti dati dalle freccette possono essere espressi tramite la relazione d’e-
quivalenza (x, y) ∼ (−x, −y) sul bordo di [−1, 1]2 , cioè l’antipodale. Per il Teorema 6.2.4 f induce un
omeomorfismo tra i quozienti.
Per dimostrare che un quadrato e un cerchio sono omeomorfi, abbiamo esibito un omeomorfismo
esplicito. In generale però questa cosa potrebbe risultare ardua. L’uso della geometria affine ci può
aiutare.
122 6. TOPOLOGIA DAL VIVO
Teorema 6.2.9. Due triangoli qualsiasi in R2 (e in generale in Rn ) sono omeomorfi tra loro.
D IMOSTRAZIONE . Un triangolo è univocamente individuato dai suoi vertici, che sono punti affi-
nemente indipendenti di R2 (altrimenti il triangolo degenera a un segmento o a un punto). Indichia-
mo con T (P0 , P1 , P2 ) il triangolo di vertici P0 , P1 , P2 . Dati due triangoli T (P0 , P1 , P2 ) e T (Q0 , Q1 , Q2 )
esiste una (unica) affinità F di R2 tale che F (Pi ) = Qi per i = 0, 1, 2. È immediato verificare che
F : T (P0 , P1 , P2 ) → T (Q0 , Q1 , Q2 ) è un omeomorfismo. Discorso analogo vale per triangoli in Rn .
Affrontiamo adesso il secondo problema, quello del toro. La cosa è un po’ più complicata perché
si chiede di dimostrare che S 1 × S 1 è omeomorfo a un disegnino. Si tratta di creare un ponte, il
più formale possibile, tra i disegnini e una loro formalizzazione matematica. Con un disegno si
intende generalmente un qualsiasi oggetto di R3 visivamente omeomorfo al disegno dato. Nel caso
in questione, il disegno voleva raffigurare la superficie di una ciambella.
Una buona strategia in questi casi è quella di suddividere i due spazi in pezzi (per esempio
triangoli) in modo tale da poter agilmente dimostrare che i pezzi sono omeomorfi a due a due e
che tali omeomorfismi sono compatibili sulle intersezioni. Diamo adesso degli strumenti precisi per
trattare questi casi. Son tutte istanze del Teorema 6.2.4.
Teorema 6.2.10. Sia Y uno spazio di Hausdorff. Supponiamo che Y sia ricoperto da un numero finito di
compatti Y = ∪ni=1 Ti . Per ogni i sia fi : Ti → Y l’inclusione. Sia X l’unione disgiunta dei Ti e sia ∼ la
relazione d’equivalenza su X data dalle intersezioni, ovvero quella generata da xi ∼ xj se fi (xi ) = fj (xj ) in
Y . Allora Y è omeomorfo a X/ ∼.
D IMOSTRAZIONE . Segue dal Teorema 6.2.4 ponendo su Y la relazione d’equivalenza banale. La
funzione continua da X a Y è data da f |Ti = fi .
Teorema 6.2.14. Siano K1 , . . . , Kn compatti e sia ∼ una relazione di equivalenza su K = tKi . Sia Y
uno spazio di Husdorff tale che Y = ∪i Ti sia unione di compatti e siano gi : Ti → Y le inclusioni. Se per
ogni i esiste un omeomorfismo ϕi : Ki → Ti tale che xi ∼ xj se e solo se gi (ϕi (xi )) = gj (ϕj (xj )) allora Y è
omeomorfo a K/ ∼.
D IMOSTRAZIONE . Per il Teorema 6.2.10 Y è omeomorfo al quoziente di tTi modulo la relazione
d’equivalenza generata da yi ∼ yj se gi (yi ) = gj (yj ). La tesi segue dal Teorema 6.2.4 applicato a tKi
e tTi . La funzione f è data da f |Ki = ϕi .
Definizione 6.2.18 (Incollamenti tramite mappe). Siano X, Y due spazi topologici e sia f una
funzione continua da un sottoinsieme A di X a Y . Su X t Y sia ∼ la relazione d’equivalenza generata
da x ∼ f (x). Lo spazio (X t Y )/ ∼ è l’incollamento di X e Y tramite la mappa f .
Chiaramente gli incollamenti si possono definire su un numero qualsiasi di spazi.
Esempio 6.2.19. Il Teorema 6.2.10 si può riformulare dicendo che Y è omeomorfo all’incollamento
dei Ti tramite le mappe fi ◦ fj−1 (definite su Ti ∩ Tj ).
Esempio 6.2.20. Nel caso particolare in cui A sia un punto, si ha l’incollamento di due spazi su
un punto, noto in letteratura come wedge (o one-point union, per gli anglofoni) o bouquet (per i
francofoni) dei due spazi.
Esempio 6.2.21. Un “8” è omeomorfo a un bouquet di due circonferenze.
Definizione 6.2.22 (Triangolazioni). Uno spazio triangolato in senso stretto4 è il quoziente di un
numero finito di triangoli incollati, tramite omeomorfismi affini, lungo alcuni lati e con alcuni vertici
identificati; il tutto in modo tale che, nel quoziente,
(1) ogni lato abbia due vertici diversi;
(2) ogni coppia di vertici appartenga al più a un lato;
(3) ogni tripla di vertici appartenga al più a un triangolo.
Una triangolazione (in senso stretto) di uno spazio topologico X è il dato di uno spazio triangolato
T e di un omeomorfismo tra X e T .
Uno spazio triangolato in senso lato è il quoziente di un numero finito di triangoli incollati lungo
alcuni lati e vertici tramite omeomorfismi affini, senza le tre richieste aggiuntive. Una triangolazione
(in senso lato) di uno spazio topologico X è il dato di uno spazio triangolato T e di un omeomorfismo
tra X e T .
Esempio 6.2.23. Sia T = {(x, y) ∈ R2 : x, y ≥ 0, x + y ≤ 1} un triangolo in R2 . Identificando
il lato orizzontale con quello verticale tramite (t, 0) ∼ (0, t) si ottiene una triangolazione del disco.
Tale triangolazione non è stretta perché il lato corrispondente al lato obliquo di T ha, nel disco, i due
vertici identificati.
v
a) b) c) d)
l3 l1 l2
T1 w
v w
T2 l4
4La nozione di triangolazione che diamo qui è puramente bidimensionale. In generale esisteranno triangolazioni di
dimensione qualsiasi. Quello che qui chiamiamo “spazio triangolato in senso stretto” è la versione bidimensionale di ciò che è
comunemente chiamato “complesso simpliciale”.
124 6. TOPOLOGIA DAL VIVO
Esempio 6.2.24. Quella di Figura 1 a) è una triangolazione in senso stretto di una sfera.
Esempio 6.2.25. Quello di Figura 1 b) è uno spazio triangolato in senso stretto con due triangoli
incollati lungo un vertice.
Esempio 6.2.26. Quella di Figura 1 c) è una triangolazione in senso lato, ma non stretto, del disco
D2 . Si noti che i triangoli T1 e T2 sono immersi nel disco, ma la coppia di vertici (v, w) appartiene a
due lati diversi.
Esempio 6.2.27. Quella di Figura 1 d) è una triangolazione in senso lato, ma non stretto, di una
corona circolare. Infatti la coppia di vertici (v, w) appartiene ai due lati l1 , l2 . Inoltre vi sono due lati
(l3 e l4 ) ognuno incidente a un sol vertice. Si noti che ci sono due triangoli, nessuno dei due immerso.
Esempio 6.2.28. Il cosiddetto cuscino triangolare (Figura 2) è uno spazio triangolato ottenuto da
due triangoli uguali identificando ogni lato del primo al corrispondente lato del secondo. La triango-
lazione ottenuta non è una triangolazione in senso stretto perché la tripla di vertici è comune ai due
triangoli.
La definizione di triangolazione usa i triangoli perché sono oggetti universali dal punto di vista
affine (Teorema 6.2.9). Va da sé che si possono dare anche definizioni di quadrangolazioni et cetera.
Esempio 6.2.29. Un quadrato si può triangolare tagliandolo in due sulla diagonale (ottenendo
due triangoli), ma anche considerando un punto interno e i segmenti da esso verso i vertici (quattro
triangoli); una sfera si può triangolare con un cubo (triangolando le facce) come in Figura 3.
Esempio 6.2.32. Il bordo del tetraedro standard è lo schema simpliciale di R4 formato da tutti i
triangoli ottenibili come inviluppo convesso di tre elementi della base canonica e1 , e2 , e3 , e4 . Esso è
uno schema simpliciale bidimensionale omeomorfo a S 2 (si veda anche la Figura 1 a)).
Teorema 6.2.33. Ogni spazio X triangolato in senso stretto è omeomorfo a uno schema simpliciale di Rn ,
ove n è il numero dei vertici di X. In particolare esso è T2 .
D IMOSTRAZIONE . Sia X = tTi / ∼ uno spazio triangolato in senso stretto. Esso è compatto
perché è quoziente di un numero finito di triangoli, che sono compatti. Siano v1 , . . . , vn i vertici di
X. Sia e1 , . . . , en la base canonica di Rn . Poniamo ϕ(vi ) = ei . Essa è una corrispondenza biunivoca
tra i vi e gli ei . L’idea è che ϕ si estende, in modo naturale tramite mappe affini, ad una immersione
topologica.
La condizione (1) della Definizione 6.2.22 implica che ogni triangolo Ti ha tre vertici distinti in X.
È quindi ben definito il corrispondente triangolo ∆i in Rn , ossia l’inviluppo convesso dell’immagine
dei vertici di Ti . Per ogni i esiste un unico omeomorfismo affine fi : Ti → ∆i che estende ϕ. L’unione
delle fi definisce una funzione continua da f : ti Ti → Rn . Se I è un lato di Ti identificato a un lato J
di Tj tramite l’unica mappa affine g : I → J, allora fi = fj ◦ g su I. Ne segue che f è costante sulle
classi di equivalenza e quindi per il Teorema 2.2.16 induce una funzione continua F : X → Rn che
estende ϕ.
F è iniettiva sui vertici perché per definizione ϕ lo è. La condizione (2) della Definizione 6.2.22
implica che F è iniettiva sui lati. La condizione (3) della Definizione 6.2.22 implica che F è iniettiva
sui triangoli. L’immagine di F è T2 perché Rn lo è, quindi per il Teorema del compatto Hausdorff, F
è un omeomorfismo tra X e F (X). Si noti che F (X) è uno schema simpliciale per costruzione.
Come si evince da questa dimostrazione, F dipende solo dai vertici, il resto è a botte di estensioni
affini uniche. Il bello delle triangolazioni è proprio che il tipo di omeomorfismo è completamente
codificato dalla combinatoria.
Teorema 6.2.34. Siano X, Y due spazi T2 triangolati in senso stretto. Supponiamo che esista una
corrispondenza biunivoca tra i vertici di X e quelli di Y tale che
(1) due punti di X sono vertici di un lato se e solo se lo stesso succede in Y ;
(2) tre punti di X sono vertici di un triangolo se e solo se lo stesso succede in Y .
Allora X e Y sono omeomorfi.
D IMOSTRAZIONE . Per il Teorema 6.2.33 possiamo suppore che X e Y siano schemi simpliciali
in Rn e Rm rispettivamente. Siccome i vertici sono in corrispondenza biunivoca, n = m. Inoltre la
corrispondenza tra i vertici induce una permutazione degli elementi della base di Rn che si estende
ad una unico isomorfismo lineare, che in particolare è affine. Tale isomorfismo, ristretto a X, è un
omeomorfismo tra X e Y .
Per triangolare oggetti disegnati o parametrizzati da funzioni esplicite, basta considerare un in-
sieme abbastanza fitto di punti, in modo che essi determinino il disegno di una triangolazione curva
sull’oggetto. A questo punto ogni triangolino curvo si mostra essere omeomorfo al triangolo affine
individuato dai suoi vertici e ciò fornirà una triangolazione del nostro oggetto. Questo è esattamente
il procedimento che si fa per elaborare immagini 3D (e in questo ambito di lavoro, non chiedetemi
perché, le triangolazioni si chiamano mesh; la loro forza sta proprio nel fatto che bastano i vertici per
determinare l’oggetto.)
Usando la quadrangolazione della Figura 4 diventa chiaro come dimostrare che il toro “dise-
gnato” è omeomorfo a S 1 × S 1 . Infatti quest’ultimo è omeomorfo a [0, 2π]2 modulo la relazione
(0, y) ∼ (2π, y) e (x, 0) ∼ (x, 2π) (Esempio 3.2.5), che si può agilmente quadrangolare usando un re-
ticolo regolare di punti ( 2kπ 2hπ
n , m ) ∈ [0, 2π] × [0, 2π] al variare di k = 0, 1, . . . , n e h = 0, 1, . . . , m. La
quadrangolazione cosı̀ ottenuta di S 1 × S 1 è combinatorialmente equivalente a quella della Figura 4.
126 6. TOPOLOGIA DAL VIVO
F IGURA 4. Una toro, una sua triangolazione (fatta a mano) e una sua
quadrangolazione (algoritmicamente generata)
Per finire, vediamo un altro classico del taglia e cuci: la superficie di genere due. Essa è una
“ciambella per due”, cioè quella disegnata in Figura 5.
Esempio 6.2.35. Una superficie di genere due è omeomorfa a un ottagono con i lati identificati
come in Figura 5 (lati con frecce uguali vengono incollati d’accordo con l’orientazione data dalla
freccia).
D IMOSTRAZIONE . Per il Teorema 6.2.10, possiamo tagliare la superficie lungo una curva, come
descritto in figura, spezzandola in due tori bucati. Sull’ottagono invece, grazie al Teorema 6.2.4,
tagliamo lungo una diagonale (sempre come in Figura 5) ottenendo due pentagoni.
Adesso osserviamo che i vertici dell’ottagono sono tutti identificati tra loro e quindi possiamo
incollare i vertici dei lati lunghi dei pentagoni (sempre usando il Teorema 6.2.4). Otteniamo due
quadrati bucati, ciascuno dei quali ha i lati identificati in modo da formare un toro bucato (per il
teorema del Compatto-Hausdorff). Abbiamo quindi tagliato sia la superficie sia l’ottagono in modo
da ottenere due pezzi omeomorfi a tori bucati. Per il Teorema 6.2.12, entrambi gli spazi di partenza
quindi sono omeomorfi una coppia di tori bucati attaccati tra loro lungo i bordi (con le orientazioni
invertite).
insiemi del tipo V (K, U ) = {f : f (K) ⊆ U } al variare di K compatto in X e U aperto in Y e una sua
base è data dalle intersezioni finite di tali insiemi.
La topologia compatto-aperta si può definire (come si è fatto) su tutto Y X , ma di solito se ne usa
la restrizione allo spazio C(X, Y ) ⊆ Y X delle funzioni continue da X a Y . (Addirittura, in molti testi
viene definita solo su C(X, Y )).
Esempio 6.3.2. Nel caso in cui X sia un punto (ergo ogni funzione da X in Y è continua) allora la
topologia compatto-aperta rende C(X, Y ) = Y X omeomorfo a Y .
D IMOSTRAZIONE . Sia X = {x}. Ogni f ∈ Y X è caratterizzata dal suo unico valore f (x) ∈ Y . È
dunque naturalmente definita una biiezione F : Y X → Y ponendo F (f ) = f (x). Se U è un aperto di
Y allora F −1 (U ) = {f ∈ Y X : f (x) ∈ U } che è un aperto di base per la compatto-aperta in quanto {x}
è compatto. Quindi F è continua. Viceversa, l’unico compatto non vuoto di X è X stesso e quindi
ogni aperto non vuoto della compatto-aperta è della forma V = {f : f (x) ∈ U } con U aperto di Y .
Dunque F (V ) = U è aperto, quindi F è una mappa aperta. Essendo continua e biunivoca, è dunque
un omeomorfismo.
Esercizio 6.3.3. Dimostrare che se X è dotato della topologia discreta, allora C(X, Y ) con la topo-
logia compatto-aperta è omeomorfo a Y X con la topologia prodotto.
Teorema 6.3.4. Siano X, Y spazi topologici. Se Y è T2 allora la topologia compatto-aperta su Y X è T2 .
D IMOSTRAZIONE . Siano f 6= g ∈ Y X . Allora esiste x ∈ X tale che f (x) 6= g(x). Siccome Y è
T2 esistono aperti disgiunti U, V tali che f (x) ∈ U e g(x) ∈ V . L’insieme {x} è compatto. Quindi gli
insiemi A = {ϕ : ϕ(x) ∈ U } e B = {ϕ : ϕ(x) ∈ V } sono aperti per la topologia compatto-aperta, e
sono chiaramente disgiunti, l’uno contenente f e l’altro g.
Teorema 6.3.5. Se Y è uno spazio metrico, allora la topologia compatto-aperta su C(X, Y ) è quella della
convergenza uniforme sui compatti: fn → f se e solo se per ogni compatto K ⊆ X si ha che (fn )|K converge
uniformemente a f |K .
D IMOSTRAZIONE . Supponiamo fn → f per la compatto-aperta e sia K un compatto di X. Sia
ε > 0. Siccome f è continua allora per ogni x ∈ K esiste Ux intorno di x tale che f (Ux ) ⊆ B(f (x), ε/4).
Per compattezza esistono x1 , . . . , xk tali che K ⊆ ∪i Uxi . Gli insiemi Ki = Uxi sono chiusi in un
compatto, ergo compatti. Siccome f è continua (usando il Teorema 1.7.10) si ha che f (Ki ) = f (Uxi ) ⊆
f (Uxi ) ⊆ B(f (xi ), ε/2). Gli insiemi Ai = {ϕ ∈ C(X, Y ) : ϕ(Ki ) ⊆ B(f (xi ), ε/2)} sono quindi intorni
aperti di f nella compatto-aperta. Quindi A = ∩i Ai è un intorno aperto di f . Si noti che, siccome i Ki
coprono K, allora per ogni g ∈ A si ha supx∈K d(f (x), g(x)) < ε.
Siccome fn → f per la compatto-aperta, allora esiste nε tale che per ogni n > nε si ha fn ∈ A, in
particolare
sup d(fn (x), f (x)) < ε.
x∈K
Siccome ciò vale per ogni ε > 0, allora fn → f uniformemente in K.
Viceversa, supponiamo che fn → f uniformemente su ogni compatto. Sia V un intorno di f nella
compatto-aperta. Esistono dunque compatti K1 , . . . , Kk e aperti U1 , . . . , Uk di Y tali che l’insieme
A = {ϕ : ϕ(Ki ) ⊆ Ui per ogni i} contiene f ed è contenuto in V . Siccome f è continua, f (Ki ) è
un compatto dentro l’aperto Ui . Esiste quindi εi > 0 tale che l’insieme ∪y∈f (Ki ) B(y, εi ) = {y ∈ Y :
d(y, f (Ki )) < εi } è interamente contenuto in Ui . Siccome fn → f uniformemente su Ki , allora per
ogni x ∈ Ki si ha d(fn (x), f (x)) < εi definitivamente in n e quindi fn (Ki ) ⊆ {y ∈ Y : d(y, f (Ki )) <
εi } ⊆ Ui . Siccome i Ki sono in numero finito, definitivamente in n si ha fn (Ki ) ⊆ Ui per ogni
i = 1, . . . , k. Ossia fn ∈ A. Abbiamo quindi dimostrato che per ogni intorno V di f la successione fn
sta in V da un certo n in poi. Quindi fn → f per la topologia compatto-aperta.
128 6. TOPOLOGIA DAL VIVO
Si noti che nella dimostrazione del Teorema 6.3.5 si è usata l’ipotesi che la funzione limite f
sia continua. In generale infatti, limite compatto-aperto di funzioni continue potrebbe non essere
continuo.
Chiaramente f non è continua mentre ogni fn lo è. Ebbene, fn → f nella topologia compatto-aperta.
D IMOSTRAZIONE . Vediamo quali sono gli intorni di f nella compatto-aperta. Per ogni compatto
K di X e U aperto di Y sia V (K, U ) = {g : g(K) ⊆ U }. Supponiamo che f ∈ V (K, U ). Ci sono due
casi:
(1) 0 ∈
/ K e allora fn ∈ V per n abbastanza grande in quanto non appena min K > 1/2πn, fn
coincide con f su K.
(2) 0 ∈ K. In tal caso, siccome f ∈ V (K, U ) e f (0) = 0, allora 0 ∈ U . Ma allora fn ∈ V per ogni
n in quanto fn vale 0 ove non coincide con f .
In entrambi i casi fn sta in V definitivamente in n. Siccome una base della compatto-aperta è data da
intersezioni finite di insiemi tipo V (K, U ), ne segue che fn → f per la compatto-aperta.
Esempio 6.4.2. Ogni gruppo è un gruppo topologico se dotato della topologia discreta. In questo
caso si parla di gruppo discreto. I gruppi finiti o numerabili si considerano usualmente come gruppi
discreti.
Esempio 6.4.3. Gli esempi più classici di gruppi non discreti sono R, C, Rn , Cn (con la struttura
additiva).
Esempio 6.4.4. I gruppi di matrici, per esempio i gruppi GL(n, R) e GL(n, C) e tutti i loro sotto-
2
gruppi, dotati dell’usuale topologia derivante dall’identificazione di Mn×n (K) con Kn , sono gruppi
topologici.
In particolare sono gruppi topologici R∗ = GL(1, R), C∗ , O(n), SO(n), U (n), SU (n) etc... Cosı̀
2
come sono gruppi topologici PSL(n, R) e PSL(n, C). Siccome Cn è metrizzabile, lo sono anche tutti
i gruppi di matrici.
tipo f (x) = Ax + b, possiamo associare una matrice M come sopra e viceversa. L’azione su R2 è data
dall’usuale moltiplicazione riga per colonna, una volta identificato R2 con {(x, y, 1), x, y ∈ R} ⊂ R3 .
Ne segue che il gruppo delle affinità di R2 è un gruppo topologico.
Esempio 6.4.12. Dato un prodotto scalare su Rn il gruppo delle isometrie di Rn rispetto a tale
prodotto scalare è un gruppo topologico.
Esempio 6.4.13. Il gruppo delle isometrie dello spaziotempo di Minkowski è un gruppo topologi-
co.
Esempio 6.5.17. L’azione di un gruppo non banale su sé stesso per coniugio non è transitiva. Infatti
l’orbita dell’identità è costituita da un sol punto: l’identità.
Esercizio 6.5.18. Dimostrare che un’azione di G su X è transitiva se e solo se in X v’è una sola
orbita, ossia se per ogni x ∈ X si ha X = Gx.
Definizione 6.5.19. Un’azione di G su X si dice libera se per ogni x ∈ X, gx = x ⇐⇒ g = id.
Esempio 6.5.20. L’azione di Z/2Z su S 2 data dall’antipodale è libera in quanto ogni punto è diverso
dal suo antipodale.
Esempio 6.5.21. L’azione di un gruppo su sé stesso per moltiplicazione a sinistra è libera in quanto
gh = h se e solo se g = id.
Esempio 6.5.22. L’azione di un gruppo (non banale) su sé stesso per coniugio non è libera perché
per ogni x ∈ G, gxg −1 = x se g = x.
132 6. TOPOLOGIA DAL VIVO
Definizione 6.5.23. Sia G un gruppo che agisce su X. Per ogni punto x ∈ X lo stabilizzatore di
x è il sottogruppo di G che fissa x
stab(x) = {g ∈ G : gx = x}
Esempio 6.5.24. Un’azione è libera se e solo se tutti gli stabilizzatori sono banali.
Esempio 6.5.25. L’azione di S 1 su S 2 per rotazioni orizzontali (Esempio 6.5.8) non è libera in
quanto gli stabilizzatori dei poli sono tutto S 1 .
Esercizio 6.5.26. Dimostrare che un’azione di G su X è libera se e solo se la funzione F : X × G →
X × X data da F (x, g) = (x, gx) è iniettiva.
Data un’azione di G su X, si definisce la relazione di equivalenza ∼G
x ∼G y ⇔ ∃g ∈ G : y = gx
essa è una relazione d’equivalenza perché G è un gruppo. Le classi di equivalenza sono le orbite
[x] = Gx.
Definizione 6.5.27. Sia G un gruppo che agisce su uno spazio topologico X. Il quoziente di
X per l’azione di G, detto anche spazio delle orbite, è X/ ∼G . È solitamente in uso la notazione
X/G = X/ ∼G .
La notazione X/G va usata con cura, infatti è uguale a quella del collasso di sottoinsiemi. Per
esempio: R/Z è il quoziente che si ottiene da R identificando tutto Z a un punto o è il quoziente di
R per l’azione di Z? E quale azione stiamo considerando? Di solito tutte queste cose sono chiare dal
contesto, altrimenti vanno specificate.
Nel caso si stia lavorando con azioni a destra/sinistra e si voglia specificare, sono in uso le nota-
zioni G\X e X/G per denotare il quoziente di X per un’azione a sinistra e a destra rispettivamente.
(Si noti che in generale, quando non si specifica, si usa la notazione X/G per le azioni a sinistra).
Teorema 6.5.28. Se X è uno spazio topologico e G ≤ omeo(X), allora la proiezione naturale π : X →
X/G è aperta. Se inoltre G è un gruppo finito, allora π è anche chiusa.
D IMOSTRAZIONE . Per ogni A ⊆ X, sat(A) = π −1 (π(A)). Per definizione di topologia quoziente,
π(A) è aperto se e solo se π −1 (π(A)) è aperto. Quindi dire che π è aperta è equivalente a dire che il
saturato di un aperto è aperto. Sia A un aperto di X. Per ogni g ∈ omeo(X), g(A) è aperto. Inoltre,
visto che stiamo trattando l’azione di un gruppo, sat(A) = GA = ∪g∈G g(A). Ne segue che sat(A) è
unione di aperti e quindi è aperto.
Lo stesso ragionamento dimostra che se G è finito allora π è anche chiusa (gli omeomorfismi sono
mappe chiuse e unione finita di chiusi è chiusa).
Corollario 6.5.29. Se un gruppo G agisce su uno spazio topologico X a base numerabile, allora X/G è a
base numerabile.
D IMOSTRAZIONE . Basta applicare il Teorema 2.2.15 e il Teorema 6.5.28.
Corollario 6.5.30. Il quoziente di un compatto T2 per l’azione di un gruppo finito è compatto e T2 .
D IMOSTRAZIONE . Segue immediatamente dai Teoremi 3.1.25, 3.1.24 e 6.5.28.
La seguente è una generalizzazione del Teorema 2.1.4.
Teorema 6.5.31. Sia X uno spazio topologico e G ≤ omeo(X). Allora X/G è di Hausdorff se e solo se
l’insieme
∆ = {(x, g(x)) : x ∈ X, g ∈ G}
è chiuso in X × X.
6.5. AZIONI DI GRUPPI 133
Teorema 6.6.8 (Azione chiusa, quoziente T2 ). Sia G un gruppo topologico che agisce su uno spazio
topologico X. Se l’azione è chiusa allora X/G è di Hausdorff.
D IMOSTRAZIONE . Sia F (x, g) = (x, gx). Siccome F è chiusa, la sua immagine è un chiuso di
X × X. L’immagine di F è l’insieme {(x, gx) : x ∈ X, g ∈ G}. Per il Teorema 6.5.31, X/G è T2 .
Esercizio 6.6.9. Sia G un gruppo topologico che agisce su X. Dimostrare che se G è T2 e l’azione è
chiusa allora X è T2 . (Si suggerisce di usare i Teoremi 1.6.12 e 2.1.4).
Teorema 6.6.10. Sia G un gruppo compatto e T2 che agisce in modo continuo su uno spazio X localmente
compatto e T2 . Allora l’azione è chiusa. In particolare X/G è di Hausdorff.
D IMOSTRAZIONE . Sia F : X ×G → X ×X data da F (x, g) = (x, gx). Siccome l’azione è continua,
le componenti di F sono continue e quindi F è continua. Se dimostriamo che F è propria abbiam
finito perché per il Lemma 6.6.1 essa risulta anche chiusa e per il Teorema 6.6.8 il quoziente è T2 .
Sia K ⊆ X × X un compatto. L’insieme K è compatto in un T2 e quindi chiuso. Per continuità
l’insieme F −1 (K) è chiuso in X ×G. Sia ora K1 la proiezione di K sul primo fattore di X ×X. Siccome
le proiezioni sono continue, K1 è compatto. Inoltre
F −1 (K) = {(x, g) : (x, gx) ∈ K} ⊆ {(x, g) : x ∈ K1 } = K1 × G
Quindi F −1 (K) è un chiuso di K1 × G. Siccome G è compatto allora K1 × G è compatto e quindi
F −1 (K) è compatto. Quindi F è propria.
Vi è una naturale corrispondenza biunivoca G/ stab(x) → Gx che è continua se l’azione di G lo è
(Teorema 2.2.16, stab(x) agisce a destra su G in quanto suo sottogruppo).
Teorema 6.6.11. Sia G un gruppo topologico che agisce in modo continuo su uno spazio topologico X. Se
l’azione è chiusa, allora per ogni x ∈ X la mappa naturale G/ stab(x) → Gx è un omeomorfismo.
D IMOSTRAZIONE . Sia F : X × G → X × X definita da F (x, g) = (x, gx). Sia x ∈ X. La
mappa naturale f : G/ stab(x) → Gx data da f [g] = gx è continua e biunivoca per come è definita
(G/ stab(x) è dotato della topologia quoziente). Vediamo che è anche chiusa e ciò concluderà grazie
al Teorema 1.7.43.
Sia A un chiuso di G/ stab(x) e sia C la sua preimmagine in G. C è un chiuso di G perché la
proiezione G → G/ stab(x) è continua. Quindi X × C è un chiuso di X × G. Siccome F è chiusa,
allora F (X ×C) è un chiuso di X ×X. Dunque F (X ×C)∩{x}×X è un chiuso di {x}×X. D’altronde
F (X × C) ∩ {x} × X = {(x, gx) : g ∈ C} = {(x, gx) : [g] ∈ A} = {x} × f (A). Quindi {x} × f (A) è un
chiuso di {x} × X. Dunque f (A) è un chiuso di X, in particolare di Gx ⊆ X.
Esempio 6.6.12. Se G agisce su X in modo continuo, chiuso e libero, allora per ogni x ∈ X l’orbita
Gx è omeomorfa a G.
Esempio 6.6.13. Se G agisce su X in modo continuo, chiuso e transitivo, allora per ogni x ∈ X si
ha che Gx = X è omeomorfo a G/ stab(x).
Se si lavora con spazi T2 e localmente compatti (come le varietà topologiche per esempio) la
nozione di azione propria è più forte di quella di azione chiusa (Lemma 6.6.7). Vediamo adesso una
caratterizzazione topologica delle azioni proprie.
Teorema 6.6.14. Sia G un gruppo che agisce continuamente su uno spazio X. Se entrambi X e G sono
T2 e localmente compatti, allora le seguenti condizioni sono equivalenti:
(1) L’azione è propria;
(2) l’azione è propria e chiusa;
(3) per ogni compatto K ⊆ X l’insieme
B = {g ∈ G : g(K) ∩ K 6= ∅}
è compatto in G;
136 6. TOPOLOGIA DAL VIVO
Due parole meritano le azioni di gruppi discreti. Se un gruppo G è discreto esso è automatica-
mente T2 e localmente compatto, e tutte le azioni di G su spazi topologici sono continue. Inoltre un
sottoinsieme di G è compatto se e solo è relativamente compatto se e solo se è finito. In particolare,
il Teorema 6.6.10 ci dice che se X è T2 e localmente compatto, allora i suoi quozienti per azioni di
gruppi finiti sono T2 .
Definizione 6.6.15. Sia X uno spazio topologico. Sia G un gruppo discreto che agisce su X.
L’azione di G si dice propriamente discontinua se per ogni compatto K ⊆ X l’insieme B = {g ∈ G :
g(K) ∩ K 6= ∅} è finito.
Il Teorema 6.6.14 si enuncia cosı̀ per gruppi discreti:
Teorema 6.6.16. Sia G un gruppo discreto che agisce su uno spazio topologico X localmente compatto e
T2 . Allora le seguenti condizioni sono equivalenti
(1) L’azione è propria;
(2) l’azione è propria e chiusa;
(3) l’azione è propriamente discontinua;
(4) per ogni x, y ∈ X esistono aperti x ∈ Ux e y ∈ Uy tali che l’insieme
A = {g ∈ G : g(Ux ) ∩ Uy 6= ∅}
sia finito.
Per i gruppi discreti, di particolare rilievo sono le azioni libere e propriamente discontinue.
5Il caso generale si dimostra esattamente nello stesso modo rimpiazzando le successioni con le successioni generalizzate,
si veda l’Appendice B.
6.6. AZIONI CONTINUE, PROPRIE E PROPRIAMENTE DISCONTINUE 137
Teorema 6.6.17. Sia X uno spazio T2 e localmente compatto. Sia G un gruppo discreto che agisce su X in
modo libero e propriamente discontinuo. Allora per ogni x ∈ X esiste un intorno Vx di x tale che g(Vx )∩Vx = ∅
per ogni g 6= id.
D IMOSTRAZIONE . Sia x ∈ X. Per il Teorema 6.6.16 punto (4) (ponendo y = x ed eventualmente
rimpiazzando Ux con Ux ∩ Uy ) esiste un aperto Ux di x tale che g(Ux ) ∩ Ux 6= ∅ per g = id e al massimo
un numero finito di altri elementi g1 , . . . , gk . Poniamo g0 = id. Siccome l’azione è libera, x 6= gi (x) per
i 6= 0. Siccome X è T2 e i punti gi (x) sono in numero finito, per ogni i = 0, . . . , k esiste un intorno Ui
di gi (x) tale che gli Ui siano disgiunti tra loro. Siccome G agisce per omeomorfismi per definizione,
esiste un intorno Vx di x che sia contenuto in Ux e tale che gi (Vx ) ⊆ Ui (si è usato ancora il fatto che
i gi sono in numero finito). In particolare per ogni i 6= 0 si ha gi (Vx ) ∩ Vx ⊆ Ui ∩ U0 = ∅. Siccome
Vx ⊂ Ux , per ogni altro g 6= gi si ha g(Vx ) ∩ Vx = ∅. Quindi g(Vx ) ∩ Vx 6= ∅ solo per g = g0 = id.
Adesso inseriamo il fatto che G è a base numerabile. Sia B = {Bi }i∈N una base per la topologia
di G. Definiamo il seguente insieme di indici
I = {i ∈ N : ∃g ∈ G : g ∈ Bi ⊆ gV }.
A priori I potrebbe essere vuoto, ma di sicuro è al più numerabile. Per ogni i ∈ I definiamo Gi =
{g ∈ G : g ∈ Bi ⊆ gV }. Per ogni i ∈ I scegliamo gi ∈ Gi . Per ogni g ∈ G, l’insieme gV è un intorno
di g, in particolare la sua parte interna è non vuota ed è unione di elementi di base:
∀g ∈ G ∃i ∈ N : g ∈ Bi ⊆ Int(gV ) ⊆ gV
da cui
∀g ∈ G ∃i ∈ I : g ∈ Bi ⊆ gi V
in altre parole
G = ∪i∈I gi V
Esempio 6.6.21. Il gruppo Isom+ (R3 ) delle isometrie di R3 che preservano l’orientazione agisce
transitivamente su R3 . Gli stabilizzatori dei punti sono tutti coniugati (ergo omeomorfi) a SO(3) =
stab(0). Quindi R3 ' Isom+ (R3 )/SO(3).
Esempio 6.6.22. Il gruppo SO(3), che è omeomorfo a RP3 , agisce per isometrie su S 2 , con stabiliz-
zatori omeomorfi a SO(2), che è un S 1 . Quindi S 2 ' SO(3)/SO(2) ' RP3 /S 1 .
Nel Teorema 6.6.20, se l’azione non è transitiva ma le orbite son chiuse, allora Gx è omeomorfo a
G/ stab(x) perché Gx , essendo un chiuso di un T2 e localmente compatto, è T2 è localmente compatto.
Quindi il Teorema 6.6.20 si può applicare all’azione di G su Gx .
Esempio 6.6.23. L’azione di R su S 2 per rotazioni orizzontali non è transitiva ma le orbite son
chiuse. Se x è il polo Nord o Sud, allora il suo stabilizzatore è tutto R e l’orbita è un sol punto,
omeomorfo a R/R. Altrimenti lo stabilizzatore è 2πZ e l’orbita, che è un parallelo, è omeomorfa a
R/2πZ ' S 1 .
Riassumiamo nella seguente tabella i principali risultati sulle azioni di gruppi topologici
6.6. AZIONI CONTINUE, PROPRIE E PROPRIAMENTE DISCONTINUE 139
Esempio 6.6.24. Sia S 3 = {(z, w) ∈ C2 : |z|2 + |w|2 = 1} e sia S 1 = {u ∈ C : |u| = 1}. S 1 agisce
naturalmente su S 3 per moltiplicazione complessa:
Il quoziente S 3 /S 1 è omeomorfo a S 2 .
D IMOSTRAZIONE .
S3 S6 3 2 S2 S2
= = = = S2.
S1 S6 1 S0 1
Ok, siamo seri. L’azione è continua perché la moltiplicazione per un numero complesso è continua.
Siccome S 1 e S 3 sono compatti e T2 , il quoziente è compatto e T2 per il Teorema 6.6.10. Sia D =
{(z, w) ∈ S 3 : w ∈ R, w ≥ 0}. D è la calotta superiore della sfera ottenuta dall’intersezione di S 3 col
piano =(w) = 0. Più precisamente D = {(z, t) ∈ C × R : |z|2 + t2 = 1, t ≥ 0}. In particolare D è
compatto. Inoltre, interseca tutte le orbite, infatti se (z, w) ∈ S 3 e w ∈
/ R, in particolare w 6= 0 e quindi,
posto u = w̄/|w| si ha u ∈ S 1 e u(z, w) = (uz, |w|) ∈ D. Per il Teorema 6.2.3, S 3 /S 1 è omeomorfo
a D modulo la relazione d’equivalenza ristretta a D. Vediamo quindi chi sono le intersezioni delle
orbite con D. Se t > 0 allora l’orbita di (z, t) interseca D solo in (z, t). Se invece t = 0 allora il cerchio
{(z, 0) : |z| = 1} è un’unica orbita. Quindi la relazione d’equivalenza ristretta a D è il collasso del
bordo di D a un punto, il cui quoziente è omeomorfo S 2 .
Si noti che per il Teorema 6.6.11 le orbite sono omeomorfe a S 1 (gli stabilizzatori sono tutti banali).
Geometricamente si è “fibrato” S 3 in cerchi, che sono le orbite dell’azione di S 1 su S 3 , e il quoziente
è magicamente una sfera S 2 .
140 6. TOPOLOGIA DAL VIVO
rappresentante di
[r] nella carta affine
r
(1, 0, . . . , 0)
α = {x0 = 1}
Se un punto sta in due carte affini diverse, per esempio se [x0 , . . . , xn ] ∈ KPn ha sia x0 che xn
diversi da zero, esso si leggerà nelle due carte in modo diverso. Nell’intersezione di due carte affini
quindi, le due identificazioni con Kn danno luogo a una mappa di cambio di coordinate affini, da Kn
in sé. Per esempio, nelle carte {x0 6= 0} e {xn 6= 0} la mappa di cambio di carta è
1 x1 xn−1 1 x1 xn−1
(x1 , . . . , xn ) ←→ [1, x1 , . . . , xn ] = [ , ,..., , 1] ←→ ( , ,..., )
xn xn xn xn xn xn
6.7. LA TOPOLOGIA DEGLI SPAZI PROIETTIVI 141
Infine, la sfera unitaria di Kn+1 , S = {||x|| = 1}, è compatta e interseca tutte le classi di equi-
valenza. Quindi KPn = π(S) è compatto e connesso per archi in quanto immagine continua di un
compatto e connesso per archi.
Corollario 6.7.8. Gli spazi proiettivi su R e C sono metrizzabili.
D IMOSTRAZIONE . Essendo compatti T2 e a base numerabile, per il Corollario 5.2.12 sono metriz-
zabili.
In particolare, nei proiettivi si può lavorare con le successioni in modo abbastanza tranquillo
(Corollario 1.7.11, Teoremi 1.5.8 e 5.6.14). Nel proiettivo, una successione pn = [vn ] ∈ KPn converge a
[v] se e solo se esistono numeri λn 6= 0 tali che λn vn → v in Kn+1 .
Teorema 6.7.9. Ogni carta affine è un aperto denso.
D IMOSTRAZIONE . Facciamo la dimostrazione per K = R. Il caso K = C è analogo. A meno di
proiettività possiamo supporre che la carta affine in questione sia quella x0 6= 0. In Rn+1 consideriamo
l’emisfero boreale aperto B = {x = (x0 , . . . , xn ) ∈ Rn+1 : ||x|| = 1, x0 > 0}, e la sua chiusura
B = {x = (x0 , . . . , xn ) ∈ Rn+1 : ||x|| = 1, x0 ≥ 0} (Figura 7).
Rn+1
carta affine x0 = 1
RPn−1 all’infinito
Rn
Un caso particolare è quello di KP1 = P(K2 ). In questo caso la carta x0 6= 0 è omeomorfa a K e c’è
un solo punto all’infinito: la classe proiettiva della retta di K2 di equazione x0 = 0 (che in carta affine
corrisponderebbe a [1, ∞]). Per questo si suole dire che
KP1 = K ∪ {∞}.
In altre parole, KP1 è la compattificazione di Alexandroff di K.
Teorema 6.7.11. CP1 è la compattificazione di Alexandroff di R2 .
D IMOSTRAZIONE . Segue dal fatto che C è omeomorfo a R2 .
togliamo un quadrato (che è omeomorfo a un disco) otteniamo . Con un po’ di taglia e cuci si
ottiene un nastro di Moebius (Figura 8).
Lo stesso procedimento mostra che rimuovendo un punto da RP2 si ottiene un nastro di Moebius
“aperto”. Si noti che rimuovendo un punto da CP1 si ottiene R2 . (Ma ancora non sappiamo dimostra-
re che R2 è diverso da un nastro di Moebius aperto). In particolare, ciò ci dice che un’intorno della
retta all’infinito, che è un S 1 , è un nastro di Moebius. Si apprezzi la differenza con S 2 ove un’intorno
dell’equatore è un cilindro.
Definizione 6.8.2. Sia X ⊆ R2 . La chiusura proiettiva di X è la chiusura di X in RP2 , ove R2 è
considerato una carta affine di RP2 .
144 6. TOPOLOGIA DAL VIVO
Vediamo come si calcola la chiusura proiettiva di un insieme. Siccome i proiettivi son metrizza-
bili, per trovare la chiusura di X basta trovare i limiti di tutte le successioni in X. Per le successioni
limitate, si fa come in R2 , per quelle che invece “tendono all’infinito in R2 ” si devono fare i conti nel
proiettivo.
Una successione di punti pn ∈ R2 converge a un punto all’infinito nel proiettivo se la retta per
l’origine e pn converge a una ben definita retta. Questa cosa si può visualizzare bene usando la calotta
boreale in R3 (Figura 9).
pn
[0, 0, 1]
[0, 1, 0] [0, 1, 0]
[0, 0, 1]
F IGURA 10. Un’iperbole in RP2 visto come D2 modulo l’andipodale al bordo (che è
equivalente al modello della calotta boreale vista dall’alto).
1
[1, x, ] = [x, x2 , 1] → [0, 0, 1] per x → 0 da destra o sinistra (in questo caso Cn = |1/x|)
x
1 1 1
[1, x, ] = [ , 1, 2 ] → [0, 1, 0] per x → ±∞ (in questo caso Cn = |x|).
x x x
6.9. CP1 E LA COMPATTIFICAZIONE DI ALEXANDROFF DI SOTTOINSIEMI DI R2 145
Quindi X ha due punti all’infinito: [0, 0, 1] che è il limite dei due rami che tendono all’asintoto ver-
ticale e [0, 1, 0] che è il limite dei due rami che tendono all’asintoto orizzontale. La chiusura proiet-
tiva di X si ottiene quindi incollando i due rami dell’iperbole ai due punti limite, ottenendo cosı́ un
cerchio.
Esempio 6.8.4. La chiusura proiettiva di una parabola è un cerchio. (Figura 11.)
D IMOSTRAZIONE . Sia X = {x2 − y = 0} una parabola (a meno di affinità di R2 , che sono proiet-
tività, si può sempre supporre che sia in questa forma). Possiamo descrivere X con l’usuale formula
y = x2 . Quindi i punti all’infinito della parabola si hanno quando x tende a ±∞.
[0, 0, 1]
[0, 0, 1]
F IGURA 11. Una parabola in RP2 visto come D2 modulo l’andipodale al bordo.
1 1
[1, x, x2 ] = [
, , 1] → [0, 0, 1] per x → ±∞ (in questo caso Cn = x2 ).
x2 x
Quindi X ha un solo punto all’infinito: [0, 0, 1]. La chiusura proiettiva di X coincide quindi con la sua
compattificazione di Alexandroff ed è dunque un cerchio.
Teorema 6.9.2. Un’applicazione di Moebius manda cerchi e rette di C in cerchi e rette (un cerchio può
andare in una retta e viceversa).
D IMOSTRAZIONE . Innanzi tutto si noti che un’applicazione di Moebius è composizione di trasla-
zioni (z 7→ z + λ), omotetie (z 7→ λz) e l’inversione f (z) = 1/z, infatti
az + b z + b/a a cz + cb/a a cz + d − d + cb/a a −d + cb/a
=a = = = (1 + )
cz + d cz + d c cz + d c cz + d c cz + d
Le traslazioni e le omotetie mandano cerchi in cerchi e rette in rette e si verifica facilmente (si vedano
gli Esercizi 6.11.45 e 6.11.46) che l’inversione manda
• rette passanti per l’origine in rette passanti per l’origine;
• rette non passanti per l’origine in cerchi passanti per l’origine e viceversa;
• cerchi non passanti per l’origine in cerchi non passanti per l’origine.
Inoltre, per il Teorema 6.7.4 si può sempre scambiare il punto all’infinito con un punto qualsiasi
di C attraverso un’applicazione di Moebius, che è un omeomorfismo di CP1 . Ciò risulta utile per
esempio se si vuole calcolare la compattificazione di Alexandroff di un sottoinsieme di R2 . Infatti, se
X ⊂ R2 ' C è un insieme illimitato, per farne la compattificazione basta considerare un punto p che
non appartiene a X e un’applicazione di Moebius f tale che f (p) = ∞ e f (∞) = p. Siccome f è un
omeomorfismo, la chiusura di X in CP1 è omeomorfa alla chiusura di f (X), che è un sottoinsieme
limitato di C perché p ∈
/ X e quindi la sua chiusura si calcola nel modo usuale.
Esempio 6.9.3. Sia X un’insieme formato da due rette incidenti in R2 . La sua compattificazione di
Alexandroff è omeomorfa a due cerchi intersecantesi in due punti.
D IMOSTRAZIONE . Scambiando tra loro l’infinito e un punto p ∈
/ X con una Moebius, le due rette
incidenti che formano X diventano due cerchi incidenti in due punti: il punto di incidenza originario
e p (che era l’infinito).
6.10. Birapporto
Dati tre punti distinti x, y, z ∈ KP1 , il Teorema 6.7.4 ci dice che esiste un’unica applicazione di
Moebius f tale che f (x) = 1, f (y) = 0, f (z) = ∞. Esplicitamente si ha
x−z t−y
f (t) = · .
x−y t−z
Definizione 6.10.1. Il birapporto (in inglese cross-ratio) di quattro punti distinti di KP1 è definito
come
x−z t−y
(t, x; y, z) = · .
x−y t−z
Per come è definito, il birapporto di quattro punti è l’immagine del primo tramite l’unica appli-
cazione di Moebius che manda gli altri tre in 1, 0, ∞.
Esercizio 6.10.2. Dimostrare che se (a, b; c, d) = x, allora se si permutano a, b, c, d in ogni modo
possibile, i birapporti che si ottengono sono esattamente x, x1 , 1 − x, 1−x
1 x
, x−1 , x−1
x .
Esercizio 6.10.3. Dimostrare che date due quadruple di punti distinti in KP1 , esiste un’applicazio-
ne di Moebius che manda l’una nell’altra se e solo se le due quadruple hanno lo stesso birapporto.
Esercizio 6.10.4. Dimostrare che il birapporto è invariante per trasformazioni di Moebius: (x, y; z, t) =
(f (x), f (y); f (z), f (t)) per ogni trasformazione di Moebius f e per ogni quadrupla di punti distinti
x, y, z, t.
6.11. ESERCIZI 147
Teorema 6.10.5. Quattro punti distinti di C stanno su un cerchio o retta se e solo se il loro birapporto è
reale.
D IMOSTRAZIONE . Siano a, b, c, d quattro punti distinti e sia f l’unica Moebius che manda b, c, d
in 1, 0, ∞. Se a, b, c, d stanno su un cerchio o retta, allora per il Teorema 6.9.2 f (a) giace sull’unico
cerchio/retta che passa per 1, 0, ∞, cioè su R. Viceversa, se f (a) è reale allora a, b, c, d stanno su
f −1 (R) che, sempre per il Teorema 6.9.2, è un cerchio o una retta.
Esempio 6.10.6. I punti 0, 2i + 1, 2i, 1 stanno su un cerchio in quanto (0, 2i + 1; 2i, 1) = −4 ∈ R.
6.11. Esercizi
Esercizio 6.11.1. Sia M una varietà topologia connessa avente un punto di taglio locale. Dimostra-
re che la dimensione di M è uno.
Esercizio 6.11.2. In R2 siano X = B((0, 0), 10), Y = B((5, 0), 1), Z = B((−5, 0), 1). Dimostrare che
X \ Y non è omeomorfo a X \ (Y ∪ Z).
Esercizio 6.11.3. In R2 sia X = {x2 +y 2 < 1}. Dimostrare che X e X \{(0, 0)} non sono omeomorfi.
Esercizio 6.11.4. Sia X = {(x, y, z) ∈ R3 : x2 + y 2 = 1}. Sia Y un toro privato di un punto.
Dimostrare che X e Y non sono omeomorfi.
Esercizio 6.11.5. Per ogni n ≥ 3 sia Pn un poligono regolare con n lati inscritto in un cerchio
unitario e sia Xn la chiusura della regione compresa tra il cerchio e il poligono. Dimostrare che Xn è
omeomorfo a Xm se e solo se m = n.
Esercizio 6.11.6. Dimostrare che S 2 privato di un punto non è omeomorfo a S 2 privato di due
punti.
Esercizio 6.11.7. Si dia un esempio di uno spazio X tale che X meno un punto sia omeomorfo a
X meno due punti.
Esercizio 6.11.8. Dimostrare che R2 con la metrica dei raggi ha un punto di taglio.
Esercizio 6.11.9. Dimostrare che ogni punto di R2 con la metrica dei raggi è di taglio.
Esercizio 6.11.10. Dimostrare che R con la topologia di Zariski non ha punti di taglio.
Esercizio 6.11.11. Dimostrare che R con la topologia di Zariski non ha punti di taglio locali.
Esercizio 6.11.12. Siano X = {(x, y, z) ∈ R3 : −1 ≤ x ≤ 1} e Y = {(x, y, z) ∈ R3 : x2 + y 2 ≤ 1}.
Dimostrare che X e Y non sono omeomorfi.
Esercizio 6.11.13. Sia X = {(x, y, z) ∈ R3 : |xzy| ≤ 1}. Siano A = {(x, y, z) ∈ R3 : x2 + y 2 ≤ 1},
B = {(x, y, z) ∈ R3 : x2 + z 2 ≤ 1}, C = {(x, y, z) ∈ R3 : z 2 + y 2 ≤ 1} e sia Y = A ∪ B ∪ C. Dimostrare
che X non è omeomorfo a Y .
Esercizio 6.11.14. Dimostrare che un cubo e una piramide sono omeomorfi.
Esercizio 6.11.15 (Superficie di genere tre). Dimostrare che questi due spazi sono omeomorfi:
Esercizio 6.11.16. Si dica se un cilindro con un buco è omeomorfo a una sfera con tre buchi.
148 6. TOPOLOGIA DAL VIVO
Esercizio 6.11.17. In R2 sia X = [−10, 10] × [−10, 10] \ (((−5, −3) × (−1, 1)) ∪ ((3, 5) × (−1, 1))).
(Esso è un quadrato con due buchi quadrati). In R3 sia Y = ∂([−1, 1] × [−1, 1]) × [−10, 10]. (Esso è un
cilindro a base quadrata). Su X t Y mettiamo la relazione generata da
(x, 10) ∼ (x, −10) (10, x) ∼ (−10, x) (x, y, −10) ∼ (x − 4, y) (x, y, 10) ∼ (−x + 4, y).
Dimostrare che X t Y / ∼ è una superficie di genere due.
Esercizio 6.11.18. Si provi che la superficie di una tazzina da caffè classica è omeomorfa a un toro.
Esercizio 6.11.19. Dimostrare che un pallone da rugby e uno da calcio sono omeomorfi.
Esercizio 6.11.20. Dimostrare che R2 meno una retta è omeomorfo a S 2 meno una circonferenza.
Esercizio 6.11.21. Dimostrare che R2 meno una retta e un punto è omeomorfo a R2 meno una
circonferenza.
Esercizio 6.11.22. Dimostrare che R3 meno una retta e un punto è omeomorfo a R3 meno una
circonferenza.
Esercizio 6.11.23. Dimostrare che la bottiglia di Klein è ottenuta unendo due nastri di Moebius
lungo la frontiera.
Esercizio 6.11.24. Sia X lo spazio ottenuto incollando tra loro i lati opposti di un esagono rego-
lare mantenendo le orientazioni. Dimostrare che X è una varietà topologica. Dimostrare che X è
omeomorfo a un toro.
Esercizio 6.11.25. Sia X lo spazio ottenuto incollando tra loro i lati opposti di un ottagono rego-
lare mantenendo le orientazioni. Dimostrare che X è una varietà topologica. Dimostrare che X è
omeomorfo a una superficie di genere due.
Esercizio 6.11.26. Sia A un ottagono regolare in R2 e sia X lo spazio ottenuto identificando i due
lati orizzontali tra loro e i due lati verticali tra loro. Sia B un quadrato privato di un disco aperto e sia
Y lo spazio ottenuto identificando i due lati orizzontali tra loro e i due lati verticali tra loro.
> >
@
Y
@
@
∧
∧
X ∧
∧
∧
∧
∧
∧
@
@
@ > >
Dimostrare che X e Y sono omeomorfi, che sono varietà a bordo e che sono omeomorfi a un toro a
cui è stato rimosso un disco.
Esercizio 6.11.27. Sia X lo spazio ottenuto da una forma a “L” identificando i lati come in figura:
Convincersi che X non è omeomorfo a una superficie di genere due (è una superficie di genere tre).
Esercizio 6.11.30. Dimostrare che lo spazio R/Z dell’Esempio 2.2.11 è un bouquet di infinite copie
di S 1 .
1
Esercizio 6.11.31. Sia X = { n+1 : n ∈ N} ∪ {0} con la topologia indotta da R. Esso è una successio-
ne convergente a zero. Sia Y = {0, 1} con la topologia discreta. Sia f la funzione che vale 1 in zero e 0
altrove. Sia fn la funzione che vale 1 per x > 1/n e 0 altrove. Dimostrare che fn → f per la topologia
compatto-aperta. Dimostrare che fn non converge uniformemente a f .
Esercizio 6.11.32. Sia X uno spazio topologico e Y uno spazio metrico. Sia fn : X → Y una
successione di funzioni continue. Dimostrare che se fn → f uniformemente allora f è continua.
Esercizio 6.11.33. Siano X, Y spazi topologici e sia fn : X → Y una successione di funzioni che
converge a f nella topologia compatto-aperta. Dimostrare che per ogni x ∈ X si ha fn (x) → f (x).
Esercizio 6.11.34. Sia G un gruppo che agisce su X. Dimostrare che se y = gx allora stab(y) =
g stab(x)g −1 .
Esercizio 6.11.35. Su S 2 facciamo agire G = Z/6Z via rotazioni di angolo 2π/6 attorno all’asse Z.
Si dimostri che il quoziente è una varietà topologica.
Esercizio 6.11.36. Sia G ≤ omeo(R2 ) il gruppo generato da una rotazione di angolo π/3 e da
un’omotetia di ragione 2. Si determini il quoziente (R2 \ {0})/G .
Esercizio 6.11.37. Sia G ≤ omeo(R2 ) il gruppo generato dalle riflessioni rispetto all’asse X e
rispetto alla retta y = 2x. Si dica se R2 /G è T2 .
Esercizio 6.11.38. Sia G ≤ omeo(R2 ) il gruppo generato dalle riflessioni rispetto all’asse X e
rispetto alla retta y = 2x. Sia S 1 ⊆ R2 . Si determini S 1 /G.
Esercizio 6.11.39. Dimostrare che R/Z è omeomorfo a S 1 . Dimostrare che R2 /Z2 è omeomorfo al
toro T 2 . Dimostrare che Rn /Zn è omeomorfo a T n .
Esempio 6.11.40. Consideriamo l’azione di SO(2) in R3 per rotazioni orizzontali, i.e. per ogni A ∈
SO(2) sia A(x, y, z) = (A(x, y), z). Si dimostri che il quoziente S 2 /SO(2) è uno spazio di Hausdorff.
Si dica se è omeomorfo a un segmento.
Esercizio 6.11.41. In C2 consideriamo l’azione di S 1 data per moltiplicazione su entrambe le
coordinate: θ(z, w) = (θz, θw). Si dica se C2 /S 1 è T2 .
150 6. TOPOLOGIA DAL VIVO
AVVERTIMENTO : In questo capitolo, e soprattutto a partire dalla Sezione 7.2, si parlerà di concetti
che trovano il loro ambito di applicazione naturale nella trattazione di spazi decenti, ove il minimo
richiesto per la decenza è la locale connessione per archi e l’essere di Hausdorff. Molti autori scelgono
quindi di mettere a questo punto l’ipotesi che tutti gli spazi in questione siano decenti. Qui si è scelto
di non farlo e di enunciare i teoremi e i risultati con le ipotesi opportune. Va da sé che il lettore può
tranquillamente sovraimporre l’ipotesi di decenza ad ogni spazio, semplificando quindi enunciati e
definizioni. A proposito di quest’ultime, sia detto che non c’è una scelta standard universale sul chie-
dere o meno la decenza degli spazi. Per esempio quando leggerete la definizione di “semplicemente
connesso” vedrete che la versione più comune è “X è semplicemente connesso se è connesso e il suo
gruppo fondamentale è banale” senza specificare se X debba essere localmente connesso per archi
o meno. Come si suol dire, queste son questioni di lana caprina: in generale uno lavora con spazi
decenti, altrimenti avrà la buona creanza di specificare le notazioni e le convenzioni in uso.
g = F1
Ft
X × {1}
X × {t}
F
X × [0, 1]
X × {0}
f = F0
151
152 7. UN PIZZICO DI TOPOLOGIA ALGEBRICA: IL GRUPPO FONDAMENTALE E I SUOI AMICI
Esempio 7.1.2. Sia f : [0, 2π] → R2 data da f (x) = (cos x, sin x). La funzione costantemente nulla
è omotopa a f tramite l’omotopia F (x, t) = tf (x).
Definizione 7.1.3. Siano X, Y spazi topologici e sia A ⊆ X. Siano f, g : X → Y due funzioni
continue che coincidono su A. Un’omotopia F : X × [0, 1] → Y tra f e g si dice relativa ad A se è
costante su A:
F (x, 0) = f (x) F (x, 1) = g(x) F (a, t) = f (a) = g(a) ∀a ∈ A.
In tal caso f e g si dicono omotope relativamente ad A.
Esempio 7.1.4. Sia f : [0, 1] → R2 data da f (t) = (t, t2 ) e sia g(t) = (t, 0). L’omotopia F (t, s) =
(t, st2 ) è un’omotopia tra g e f relativa a {0} ma non relativa a {0, 1}.
Esempio 7.1.5. Sia f : [0, 1] → R2 data da f (t) = (t, t2 − t) e sia g(t) = (t, 0). L’omotopia F (t, s) =
(t, s(t2 − t)) è un’omotopia tra g e f relativa a {0, 1}.
Teorema 7.1.6. La relazione di omotopia (relativa o meno) è una relazione d’equivalenza sull’insieme delle
funzioni continue da X a Y .
D IMOSTRAZIONE . Siano X, Y spazi topologici e sia f : X → Y continua. Chiaramente f è
omotopa a sé stessa tramite F (x, t) = f (x) indipendentemente da t. Se g : X → Y è una funzione
omotopa a f e se F è un’omotopia tra f e g, allora la funzione G(x, t) = F (x, 1 − t) è un’omotopia tra
g e f . Quindi la relazione d’omotopia è simmetrica.
Sia ora h una terza funzione continua da X → Y e supponiamo che esistano omotopie F, G, tra f
e g la prima, e tra g e h l’altra. La funzione
F (x, 2t) t ∈ [0, 1/2]
H(x, t) =
G(x, 2t − 1) t ∈ [1/2, 1]
è un’omotopia tra f e h.
Si noti che la stessa dimostrazione è valida anche per omotopie relative.
Qui il discorso si fa simile agli omeomorfismi: in generale è fattibile dimostrare che due funzioni
sono omotope, mentre per dimostrare che non lo sono servono strumenti più potenti.
Esercizio 7.1.9. Provare a dimostrare che le funzioni f, g : S 1 → C \ {0} date da
f (x) = x g(x) = f (x) + 3i
non sono omotope. (Qui si è identificato S 1 col cerchio unitario di C.) Dimostrare che sono invece
omotope in CP1 \ {0}.
7.1. OMOTOPIE E DEFORMAZIONI 153
Definizione 7.1.10 (Inversa di omotopia). Sia f : X → Y una funzione continua. Una funzione
continua g : Y → X si dice inversa di omotopia destra di f se f ◦ g : Y → Y è omotopa all’identità di
Y ; sinistra se g ◦ f : X → X è omotopa all’identità di X. Si dice inversa di omotopia se è un’inversa
destra e sinistra.
Esempio 7.1.11. Se X è costituito da un sol punto, allora qualsiasi funzione X → Y ha come
inversa di omotopia sinistra la funzione costante Y → X. In generale non ci sono però inverse destre
Y → X. (Per esempio se Y non è connesso.)
Ovviamente l’inversa di una funzione continua, se continua, è anche un’inversa di omotopia. Gli
omeomorfismi quindi hanno sempre un’inversa di omotopia. In generale però le funzioni che hanno
un’inversa di omotopia non sono necessariamente biunivoche.
Esempio 7.1.12. Sia X = C \ {0} e sia S 1 = {z ∈ C : |z| = 1}. Sia f : S 1 → X l’inclusione e sia
g : X → S 1 data da g(z) = z/|z|. La funzione f non è suriettiva, g non è iniettiva. Nondimeno f e g
sono inverse di omotopia l’una dell’altra.
D IMOSTRAZIONE . f ◦ g : X → X è semplicemente uguale a g. Un’omotopia tra g e l’identità
è data da G(z, t) = z(t + (1 − t)/|z|). Ancora più semplice è il caso di g ◦ f : S 1 → S 1 : essa è già
l’identità!
Definizione 7.1.13. Due spazi topologici X, Y sono omotopicamente equivalenti se esiste una
funzione continua f : X → Y che ha un’inversa di omotopia.
Esempio 7.1.14. Due spazi omeomorfi sono omotopicamente equivalenti.
La relazione d’equivalenza di omotopia però è più debole dell’omeomorfismo.
Esempio 7.1.15. R2 meno un punto e S 1 sono omotopicamente equivalenti. (Ma non sono omeo-
morfi perché due punti sconnettono S 1 mentre tre punti non sconnettono R2 .)
Teorema 7.1.16 (La connessione è un invariante per omotopia). Se due spazi sono omotopicamente
equivalenti, allora hanno lo stesso numero di componenti connesse.
D IMOSTRAZIONE . Siano X, Y spazi topologici e siano f : X → Y e g : Y → X funzioni continue
una inversa omotopica dell’altra. Sia CX l’insieme delle componenti connesse di X e CY quello delle
componenti di Y . Per ogni C ∈ CX sia ϕ(C) la componente connessa che contiene f (C). Essa è
ben definita perché ogni C ∈ CX è connesso e quindi lo è anche f (C). Similmente, se C ∈ CY
definiamo ψ(C) come la componente connessa che contiene g(C). Mostriamo adesso che le funzioni
ϕ : CX → CY e ψ : CY → CX sono una inversa dell’altra.
Sia F l’omotopia tra g ◦f e l’identità di X. Sia C ∈ CX . Siccome C ×[0, 1] è connesso, F (C ×[0, 1]) è
contenuto in una sola componente connessa di X. Siccome F1 = IdX , allora F (C × [0, 1]) è contenuto
in C. Similmente F0 = g ◦ f e quindi F (C × [0, 1]) è contenuto in ψ(ϕ(C)). Quindi ψ(ϕ(C)) = C.
Ragionando con l’omotopia tra f ◦ g e l’indentità di Y si ottiene ϕ(ψ(C)) = C.
Sappiamo già che SO(2) è omeomorfo a S 1 (Teorema 6.4.7). Dimostriamo che GL+ ∼ M1 ∼
M2 ∼ SO(2) usando il procedimento di Gram-Schmidt.
(1) GL+ ∼ M1 . Sia A ∈ GL+ e siano v1 e v2 i suoi vettori colonna. Poniamo w1 = v1 /||v1 ||
e definiamo f (A) la matrice in M1 che ha come colonne w1 e v2 . Sia ı : M1 → GL+ l’inclusione.
Chiaramente f ◦ ı = IdM1 e ı ◦ f = f . L’omotopia tra f e l’identità è data definendo Ft (A) come la
matrice che ha tv1 + (1 − t)w1 come prima colonna e v2 come seconda.
(2) M1 ∼ M2 . Sia ora A ∈ M1 e siano w1 , v2 i suoi vettori colonna. Poniamo u2 = hv2 , w1 iw1 ,
w2 = v2 − u2 e definiamo g(A) come la matrice in M2 le cui colonne sono w1 e w2 . Sia ı : M2 → M1
l’inclusione. Come sopra g ◦ ı = IdM2 e ı ◦ g = g. L’omotopia tra l’identità e g è data definendo
Gt (A) come la matrice che ha w1 come prima colonna e v2 − tu2 come seconda colonna. (Si noti che il
determinante di Gt (A) non dipende da t.)
(3) M2 ∼ SO(2). Sia infine A ∈ M2 e siano w1 , w2 i suoi vettori colonna. Poniamo u1 = w1 e
u2 = w2 /||w2 || e procediamo come nel caso (1).
Esercizio 7.1.18. Dimostrare che GL(3, R) ha due componenti connesse, ognuna delle quali è
omotopicamente equivalente a RP3 .
Definizione 7.1.19. Le funzioni che sono omotope a una funzione costante si chiamano omotopi-
camente banali, gli spazi che sono omotopicamente equivalenti a un punto si chiamano contraibili.
Teorema 7.1.20. Il cono su un qualsiasi spazio topologico è contraibile.
D IMOSTRAZIONE . Se C = X ×[0, 1] con X ×{0} collassato a un punto, la funzione F : C ×[0, 1] →
C data da F ((x, t), s) = (x, st) è un’omotopia tra la costante sul vertice del cono (per s = 0 si ha
Fs (x, t) = (x, 0)) e l’identità (per s = 1 si ha F1 (x, t) = (x, t)).
Corollario 7.1.21. La compattezza, locale e non, la locale connessione, le proprietà di separazione e
numerabilità non sono invarianti per omotopia.
D IMOSTRAZIONE . Il cono su uno spazio non (localmente) compatto non è (localmente) compatto.
Il cono di uno spazio che non è localmente connesso non è localmente connesso. Il cono su uno
spazio a base non numerabile non ha base numerabile. Il cono di uno spazio che non è localmente
numerabile non è localmente numerabile. Il cono di uno spazio non T2 non è T2 .
Ma tutti sono omotopicamente equivalenti a un punto che ha tutte queste proprietà.
Esempio 7.1.22. Rn è contraibile. L’omotopia tra l’identità e la costante sull’origine è F (v, t) = tv.
Esempio 7.1.23. Per il Teorema 7.1.16 uno spazio non connesso non è contraibile.
Definizione 7.1.24. Sia X uno spazio topologico e A ⊆ X. Sia ı : A → X l’inclusione.
(1) A si dice retratto di X se esiste una funzione continua f : X → A che sia l’identità su A (cioè
tale che f ◦ ı = IdA ). Una tale funzione si chiama retrazione.
(2) A è un retratto di deformazione se esiste una retrazione da X su A che sia omotopa all’i-
dentità (cioè tale che ı ◦ f sia omotopa a IdX .)
(3) A è un retratto di deformazione forte se esiste una retrazione da X su A che sia omotopa
all’identità tramite un’omotopia che fissa i punti di A.
Ogni spazio si retrae su ogni suo punto: se x0 ∈ X la funzione costante f : X → x0 è continua. Se
A è un retratto di deformazione di X allora essi sono omotopicamente equivalenti. Quindi non tutti
i retratti sono di deformazione. Il pettine delle pulci fornisce un esempio di retratto di deformazione
che non sia forte:
Esempio 7.1.25. In R2 sia X = ({0} × [0, 1]) ∪ ([0, 1] × {0}) ∪ ({1/n : 0 < n ∈ N} × [0, 1]). Sia
A = {0} × [0, 1] il dente più a sinistra di tutti. Esso è un retratto di deformazione di X. Infatti la
mappa f : X → A data da f (x, y) = (0, y) è continua, fissa A ed è omotopa all’identità. L’omotopia
7.2. GRUPPO FONDAMENTALE 155
è costruita prima schiacciando tutto sull’asse orizzontale, poi portando tutto a zero e poi rimettendo
gli elementi di A al loro posto. Esplicitamente,
(x, (1 − 2t)y) t ∈ [0, 1/2]
Ft ((x, y)) = ((3 − 4t)x, 0) t ∈ [1/2, 3/4]
(0, (4t − 3)y) t ∈ [3/4, 1]
Mostriamo ora che A non è retratto di deformazione forte. Sia F : X × [0, 1] → X una funzione
continua tale che F (x, 1) ∈ A e tale che F (a, t) = a per ogni a ∈ A e t ∈ [0, 1]. Sia a0 = (0, 1) e sia B
la palla di centro a0 e raggio 1/2. F −1 (B) è un aperto che contiene a0 × [0, 1] perché F fissa A. Tale
aperto contiene un aperto U × [0, 1] con U intorno di a0 in X. Inoltre, possiamo supporre che U sia
della forma ({1/n : n > 1/ε} ∪ {0}) × (1 − ε, 1]. La restrizione di F a U × [0, 1] è quindi una funzione
continua da U × [0, 1] in B. B non è connesso e la componente connessa di a0 è {0} × (1/2, 1] = A ∩ B.
Siccome F è continua e F (x, 1) ∈ A, allora F −1 (A) interseca tutte le componenti connesse di U ×[0, 1].
Quindi per connessione l’immagine di F |U ×[0,1] è contenuta in A. In particolare F0 non può essere
l’identità.
Lemma 7.2.3. Se α è un cammino in uno spazio X, omotopo (a estremi fissi) a β, allora α−1 è omotopo a
−1
β . Inoltre, αα−1 è omotopicamente banale.
156 7. UN PIZZICO DI TOPOLOGIA ALGEBRICA: IL GRUPPO FONDAMENTALE E I SUOI AMICI
Lemma 7.2.4. Se α ∼ α0 e β ∼ β 0 sono cammini in X tali che gli α sono componibili con i β, allora
αβ ∼ α0 β 0 .
D IMOSTRAZIONE . Siano F l’omotopia a estremi fissi tra α e α0 e G quella tra β e β 0 . La funzione
F (2t, s) t ∈ [0, 1/2]
H(t, s) =
G(2t − 1, s) t ∈ [1/2, 1]
Definizione 7.2.11. Uno spazio topologico si dice semplicemente connesso se è connesso per
archi e il suo gruppo fondamentale è banale.
Definizione 7.2.13. Siano X, Y spazi topologici e sia f : X → Y una funzione continua. Sia
x0 ∈ X e sia y0 = f (x0 ). Si definisce
f∗ : π1 (X, x0 ) → π1 (Y, y0 )
come f∗ (α) = f ◦ α.
Si noti che la definizione è ben posta perché se F è un’omotopia tra α e β allora f ◦F è un’omotopia
tra f ◦ α e f ◦ β. Inoltre, è immediato verificare che f∗ è un morfismo di gruppi, cioè che f∗ (αβ) =
f∗ (α)f∗ (β) e f∗ (α−1 ) = (f∗ (α))−1 .
Teorema 7.2.15. Siano f, g : X → Y due funzioni continue tra spazi topologici. Supponiamo che esista
un’ompotopia F tra f e g. Sia x0 ∈ X e sia γ : [0, 1] → Y dato da γ(s) = F (x0 , s). Allora, se ϕγ è come nel
Teorema 7.2.9
g∗ = ϕγ ◦ f∗ .
In altre parole f e g inducono lo stesso morfismo tra i gruppi fondamentali, a meno di isomorfismi. (Si noti che
se l’omotopia è relativa a x0 allora f∗ = g∗ .)
g(α)
Y
X
g(x0 )
x0
F (α(t), s) F (α, s)
α γ f (α)
f (x0 )
è dato da
F (x0 , 1 − 3t) t ∈ [0, 1/3]
ϕγ (f∗ (α))(t) = F (α(3t − 1), 0) t ∈ [1/3, 2/3]
F (x , 3t − 2)
t ∈ [2/3, 1]
0
158 7. UN PIZZICO DI TOPOLOGIA ALGEBRICA: IL GRUPPO FONDAMENTALE E I SUOI AMICI
In particolare spazi omeomorfi hanno lo stesso gruppo fondamentale (il viceversa non è vero
però). Come vedremo, ciò sarà uno strumento molto potente per distinguere spazi diversi tra loro.
Esempio 7.2.17. Gli spazi contraibili sono semplicemente connessi in quanto un punto lo è.
Fin’ora abbiamo visto solo esempi di spazi con gruppo fondamentale banale. Possiamo intuire
quali possano essere alcuni esempi di spazi con gruppo fondamentale non banale (che dite di S 1 ?)
Ma per poter dimostrare che determinati gruppi fondamentali siano effettivamente non banali, la via
più naturale è quella di introdurre la controparte del gruppo fondamentale: la teoria dei rivestimenti.
7.3. RIVESTIMENTI 159
7.3. Rivestimenti
Definizione 7.3.1. Sia X uno spazio topologico. Un rivestimento di X è il dato di uno spazio
topologico Xb e una funzione continua π : X b → X tale che ogni x ∈ X abbia un intorno aperto U —
−1
detto aperto banalizzante — tale che π (U ) sia unione disgiunta di aperti non vuoti in X b — detti
placche di U — tali che la restrizione di π a ognuno di essi sia un omeomorfismo con U .
A volte può succedere che con la parola rivestimento ci si riferisca alla sola proiezione, a volte
al solo Xb (se la proiezione è sottintesa o non rilevante). Ci si può quindi imbattere in frasi del tipo
“sia f un rivestimento” oppure “sia X b un rivestimento di X”. In alcuni testi la proiezione si chiama
proiezione di rivestimento.
Esempio 7.3.2. Identificando S 1 con R/Z, la proiezione naturale R → S 1 è un rivestimento, che si
può visualizzare agevolmente pensando R storto come una molla infinita (Figura 4).
x+2
x+1
S 1 = R/Z [x]
F IGURA 4. Il rivestimento R → S 1
O SSERVAZIONE 7.3.3. La definizione di rivestimento è una di quelle che van lette con attenzione.
Essa impone che esista un ricoprimento fatto di aperti banalizzanti. Si noti però che, affinché U sia un
aperto banalizzante, non si richiede solo che π −1 (U ) sia un unione disgiunta di placche omeomorfe a
U , ma anche che la proiezione di rivestimento realizzi l’omeomorfismo.
Inoltre si noti che la richiesta è che “per ogni x ∈ X esista U intorno di x tale che. . . ”, e non che
“per ogni y ∈ X b esista un intorno V tale che la proiezione ristretta a V sia omeomorfismo con π(V )”;
né che “la restrizione a ogni componente V di π −1 (U ) sia un omeomorfismo tra V e π(V )”.
Esempio 7.3.4. Sia X = R e sia X b = {(x, y) ∈ R2 : xy = 1, x > 0} ∪ {y = 0}. La proiezione
π(x, y) = x non è un rivestimento. Infatti il punto 0 non ha un intorno con le proprietà richieste: Per
ogni intorno U dello zero, il pezzo di π −1 (U ) che giace sul ramo d’iperbole non contiene preimmagini
dello zero. In particolare π ristretta a π −1 (U ) ∩ {iperbole} non può essere suriettiva e quindi non può
essere un omeomorfismo con U .
Si noti tuttavia che:
• ogni punto di X b ha un intorno V tale che la restrizione di π a V sia un omeomorfismo tra V
e π(V );
• per ogni intervallo aperto U ⊆ R contenente lo zero, π −1 (U ) è fatto di due componenti
connesse e che la restrizione di π a ognuna di esse è un omeomorfismo con l’immagine.
• π −1 (−ε, ε) è fatto comunque di due componenti omeomorfe a (−ε, ε), ma la proiezione non
realizza l’omeomorfismo.
160 7. UN PIZZICO DI TOPOLOGIA ALGEBRICA: IL GRUPPO FONDAMENTALE E I SUOI AMICI
Esempio 7.3.18. Sia X ⊆ C un insieme costituito da due cerchi di raggio unitario e centrati in
±1 e sia r(z) = −z la rotazione di 180 gradi. Ciò determina un’azione di Z/2Z su X. Sia X/ ∼ il
quoziente. Esso è omemorfo a S 1 e la proiezione π : X → X/ ∼ non è un rivestimento. Ciò si vede
bene guardando le componenti connesse di un intorno dell’origine privato dell’origine.
7.3. RIVESTIMENTI 161
1per esempio se X è una varietà e G agisce in modo libero e propriamente discontinuo, vedasi il Teorema 6.6.17.
162 7. UN PIZZICO DI TOPOLOGIA ALGEBRICA: IL GRUPPO FONDAMENTALE E I SUOI AMICI
Esempio 7.3.27. Con la notazione dell’Esempio 3.5.5, il cosiddetto orecchino hawaiano è un sot-
toinsieme di R2 formato da una famiglia di cerchi Cn sempre più piccoli, tutti tangenti a uno stesso
punto. Applicando la costruzione dell’Esempio 7.3.17, ma solo al cerchio Cn , si costruisce un rivesti-
bn → X che “srotola” il cerchio Cn e sdoppia gli altri. (In Figura 5 si è srotolato il secondo
mento fn : X
cerchio.)
fn
X
bn ∼
Esempio 7.3.28. Sia X un orecchino hawaiano e sia X bn il rivestimento costruito nell’Esempio 7.3.27.
Sia Y = X × N un’unione disgiunta di copie di X. Sia Z lo spazio formato dall’unione disgiunta de-
bn . Per ogni x ∈ X
gli X bn sia π(x) = (fn (x), n). Ciò definisce una funzione π : Z → Y . Si verifica
agilmente che π è un rivestimento. La proiezione p : Y → X data da p(x, n) = x è chiaramente
un rivestimento. Ma la composizione p ◦ π non è un rivestimento in quando ogni intorno del punto
singolare contiene un intero cerchio Cn , che però risulta “srotolato” in Z.
Yb
fb
π
f
X Y
Lemma 7.4.2 (Dell’unicità del sollevamento). Sia π : X b → X un rivestimento, sia C uno spazio
connesso e sia f : C → X una funzione continua. Siano F, G : C → X
b due sollevamenti di f . Se esiste c ∈ C
tale che F (c) = G(c) allora F = G.
D IMOSTRAZIONE . Sia A = {x ∈ C : F (x) = G(x)} l’insieme ove F e G coincidono. Per ipotesi
A 6= ∅. Se dimostriamo che A e Ac sono entrambi aperti, la connessione di C conclude.
Sia x ∈ C e sia U un aperto banalizzante contenente il punto f (x) = π(F (x)) = π(G(x)). Sia
V la placca di U contenente F (x) e W quella contenente G(x). Siccome F e G sono continue, esiste
7.4. SOLLEVAMENTI DI CAMMINI E OMOTOPIE 163
D IMOSTRAZIONE . Per ogni y ∈ Y l’insieme {y} × [0, 1] è connesso e quindi il Lemma 7.4.2 si
applica. Siccome Fb0 (y) = G
b 0 (y) = fb(y), si ha Fb(y, t) = G(y,
b t) per ogni (y, t).
Nel caso particolare in cui lo spazio Y sia un punto (e quindi l’omotopia F è semplicemente un
cammino) otteniamo il seguente risultato noto come Teorema del sollevamento unico dei cammini.
Teorema 7.4.6 (Del sollevamento unico dei cammini). Sia π : X b → X un rivestimento e sia γ :
−1
[0, 1] → X un cammino. Allora per ogni x
b0 ∈ π (γ(0)) esiste un unico sollevamento γ
b : [0, 1] → X
b tale che
γ
b(0) = xb0 .
Ovviamente, se π : (Yb , yb0 ) → (Y, y0 ) è un rivestimento e f : (X, x0 ) → (Y, y0 ) è una funzione
continua che ha un sollevamento fb : (X, x0 ) → (Yb , yb0 ), allora f∗ (π1 (X, x0 )) < π∗ (π1 (Yb , yb0 )) perché
f = π ◦ fb. In realtà vale anche il viceversa.
Teorema 7.4.7. Sia π : (Yb , yb0 ) → (Y, y0 ) un rivestimento, sia (X, x0 ) uno spazio connesso e localmente
connesso per archi e sia f : (X, x0 ) → (Y, y0 ) una funzione continua. Allora f ha un sollevamento fb :
(X, x0 ) → (Yb , yb0 ) se e solo se f∗ (π1 (X, x0 )) < π∗ (π1 (Yb , yb0 )).
D IMOSTRAZIONE . Del solo se si è già detto. Costruiamo ora esplicitamente un sollevamento di f .
In x0 si pone fb(x0 ) = yb0 . Per ogni altro x ∈ X, sia γ un cammino da x0 a x in X. Per il Teorema 7.4.6 il
cammino f ◦ γ ha un unico sollevamento in Yb . Si definisce fb(x) come il punto finale del sollevamento
di f ◦ γ. Se η è un altro cammino da x0 a x, allora η −1 γ è un laccetto α ∈ π1 (X, x0 ). Per ipotesi
f∗ (α) ∈ π∗ (π1 (Yb , yb0 )). Quindi f ◦ α è omotopo a un laccetto β che si solleva a un laccetto βb in Yb , con
punto base yb0 . Per il Lemma 7.4.4 tale omotopia si solleva e quindi i sollevati di f ◦ γ e f ◦ η hanno lo
stesso punto finale. Ne segue che fb è ben definita e f = π ◦ fb.
Dimostriamo infine che fb è continua, mostrando che è continua in ogni punto. Sia x ∈ X e sia B
un intorno di fb(x) in Yb . Visto che le proiezioni di rivestimento son mappe aperte (Teorema 7.3.23),
π(B) è un aperto in Y . Per definizione di rivestimento, esiste un aperto banalizzante U con π(fb(x)) =
f (x) ∈ U ⊆ π(B). Sia V la placca di U contenente fb(x). Siccome f è continua, esiste un intorno aperto
A di x tale che f (A) ⊆ U , ed essendo X localmente connesso per archi, A può essere scelto connesso
per archi. Ne segue che, per come è definita fb, si ha che fb(A) = π −1 (f (A)) ∩ V . Quindi fb−1 (B)
contiene A e dunque è un intorno di x.
Esempio 7.4.8 (Sinusoide topologica chiusa). Sia X lo spazio ottenuto dalla sinusoide topologica
attaccando la coda a zero. Più precisamente, in R2 si considera la chiusura del grafico di f : (0, 1] → R
data da f (x) = sin(1/x) e si identifica il punto (1, sin(1)) con (0, 0) (Figura 6). Sia ora R → S 1 il
7.6. Prime conseguenze importanti, Teorema del punto fisso di Brouwer e Teorema di
Borsuk-Ulam
Con quello che abbiamo sin ora è possibile dimostrare teoremi abbastanza importanti. La mo-
nodromia per esempio fornisce finalmente uno strumento che permette di dimostrare che il gruppo
fondamentale di certi spazi è non banale.
Teorema 7.6.1. Se uno spazio topologico X ha un rivestimento connesso per archi e di grado > 1 allora
π1 (X) è non banale.
2Il prefisso “anti” indica che ψ inverte l’ordine della moltiplicazione.
166 7. UN PIZZICO DI TOPOLOGIA ALGEBRICA: IL GRUPPO FONDAMENTALE E I SUOI AMICI
β
[0, 1] × [0, 1] F
X
α
D2
e2 e2
e1 e3 e3
B1d
e4 e4 B2d
e1
.. ..
. .
e2 e2
B12 e1 e3 e3
e4 e4 B22
e1
e2 e2
B11 e1 e3 e3
e4 e4 B21
e1
e2
v2
v1 e3
e1 e4
A questo punto, se si vuole un rivestimento di grado d, per ogni Bi si considerano d copie di-
sgiunte Bi1 , . . . , Bid di Bi e si collega ogni segmento uscente di Bim ad un segmento entrante di un Bjh
che abbia la stessa etichetta. La possibilità Bjh = Bim è consentita. (Si noti che per ogni lato es ci sono
esattamente d segmenti entranti etichettati con es e d uscenti.) In termini combinatori, se es esce dal
vertice vi ed entra in vj (e potrebbe succedere vi = vj ), si deve dare una permutazione σ ∈ S(d) e
σ(m)
collegare il segmento etichettato es uscente da Bim con quello entrante in Bj .
Ovviamente la proiezione naturale ti,m Bim → ∪i Bi è un rivestimento per costruzione e, una
volta collegati tutti segmenti, il risultato è un rivestimento di X di grado d. Indipendentemente dalle
scelte fatte.
7.8. AUTOMORFISMI DI RIVESTIMENTO 169
fb
X
b Yb
p q
X Y
f
F
X1 X2
p q
F IGURA 8. L’omino coi baffi: una variante della sinusoide topologica chiusa
Esercizio 7.8.10. Esistono due rivestimenti dell’omino coi baffi (Figura 8) connessi, di grado due e
non omeomorfi come spazi topologici? (Si veda l’Esempio 7.7.4).
Esercizio 7.8.11. Si costruiscano due rivestimenti connessi dell’omino coi baffi (Figura 8) di grado
tre e non omeomorfi.
Esercizio 7.8.12. Esibire due rivestimenti semplicemente connessi dell’omino coi baffi (Figura 8)
non isomorfi né omeomorfi tra loro.
Definizione 7.8.13 (Il gruppo Aut(π)). Sia π : X b → X un rivestimento. Un automorfismo di
π è un isomorfismo di rivestimento da X in sé; in altre parole, un sollevamento di π che sia un
b
omeomorfismo. Il gruppo degli automorfismi di π si chiama spesso gruppo delle trasformazioni deck,
o deck tranformations3, e si indica con Aut(π) oppure con Aut(X
b → X) o con Aut(X)b (se la proiezione
di rivestimento è chiara dal contesto).
Esempio 7.8.14. Sia X = R e X b = R × Z. La proiezione π(x, n) = x è chiaramente un rivestimento.
La mappa f : X b →X b = R × N, la
b data da f (x, n) = (x, n + 1) è un automorfismo di π. Se invece X
mappa f (x, n) = (x, n + 1) è un sollevamento di π che non è un omeomorfismo (non è suriettiva).
3Non sembra esserci una buona alternativa italiana all’uso di questo vocabolo inglese “deck”.
7.8. AUTOMORFISMI DI RIVESTIMENTO 171
Per definizione, ogni automorfismo preserva le fibre e quindi Aut(π) agisce su ogni fibra attra-
verso permutazioni.
O SSERVAZIONE 7.8.15. Sia X b → X un rivestimento, sia x ∈ X e sia Xbx la sua fibra. In termini
di azioni a destra e a sinistra, il gruppo Aut(X)
b agisce a sinistra su Xx mentre l’azione di π1 (X, x)
attraverso la monodromia è a destra. Le due azioni sono compatibili nel senso che f (yγ) = (f y)γ per
ogni f ∈ Aut(X)b e per ogni γ ∈ π1 (X, x). Altrimenti detto f (ψ(γ)(y)) = ψ(γ)(f (y)). Ciò discende
immediatamente dalla definizione di monodromia e di automorfismo di rivestimento.
Teorema 7.8.16. Sia π : X b → X un rivestimento connesso. Allora l’azione di Aut(π) su ogni fibra è libe-
ra (cioè nessun automorfismo, eccetto l’identità, ha punti fissi). In particolare, ogni automorfismo è determinato
dall’immagine di un sol punto.
D IMOSTRAZIONE . Segue direttamente dal Lemma 7.4.2 (con C = X, b f = π, F ∈ Aut(π) e G =
Id). Diamo qui una dimostrazione alternativa, supponendo che X b sia connesso per archi, che a nostro
avviso getta maggior luce sulla natura dell’azione di Aut(π) sulle fibre.
Sia f ∈ Aut(π) non banale. Allora esiste y ∈ X b tali che f (y) 6= y. Sia ora x ∈ X
b un punto qualsiasi
e mostriamo che f (x) 6= x. Siccome X b è connesso esiste un cammino γ da y a f (y) e un cammino α da
y a x. Il cammino π(α−1 )π(γ)π(α), che è un cammino chiuso basato in π(x), si solleva a un cammino
che termina in un elemento x1 della fibra di x. Per il Teorema 7.5.2 applicato ad α ∈ Ω(X, y, x), x1 6= x.
Per definizione di automorfismo di rivestimento, il sollevamento di π(α−1 )π(γ)π(α) che parte da x
non è altro che α−1 γf (α) e quindi f (x) = x1 6= x.
f (y) x1
f (α)
π π(α)
γ π(x)
π(y)
y π(γ)
x
α
Lemma 7.8.17. Sia π : (X, b xb0 ) → (X, x0 ) un rivestimento connesso e localmente connesso per archi.
Sia γ ∈ π1 (X, x0 ) e sia x
b1 il punto finale del sollevamento di γ che parte da x b0 . Allora esiste (ed è unico)
f ∈ Aut(π) tale che f (b
x0 ) = xb1 se e solo se γ appartiene al normalizzatore di π∗ (π1 (X,
b xb0 )) in π1 (X, x0 ).
D IMOSTRAZIONE . Per il Teorema 7.8.3 esiste f ∈ Aut(π) tale che f (b b1 se e solo se i due
x0 ) = x
gruppi π∗ (π1 (X, x
b b0 )) e π∗ (π1 (X, x
b b1 )) coincidono.
Per il Teorema 7.2.9 il coniugio per γ induce un isomorfismo tra π∗ (π1 (X, b0 )) e π∗ (π1 (X,
b x b xb1 )).
Quindi π∗ (π1 (X,
b xb0 )) = π∗ (π1 (X,
b xb1 )) se e solo se γ appartiene al normalizzatore di π∗ (π1 (X,
b xb0 )).
L’unicità di f discende dal Teorema 7.8.16.
Definizione 7.8.18. Un rivestimento π : X b → X si dice normale o regolare se il gruppo Aut(π)
agisce transitivamente sulle fibre, cioè se per ogni x ∈ X e per ogni y, z ∈ Xx esiste f ∈ Aut(π) tale
che f (y) = z.
Esempio 7.8.19. Il rivestimento S 2 → RP2 è normale. L’antipodale è infatti un automorfismo di
rivestimento che permuta gli elementi delle fibre.
Teorema 7.8.20. Sia π : (X, b xb0 ) → (X, x0 ) un rivestimento connesso e localmente connesso per archi.
Allora esso è normale se e solo se π∗ (π1 (X,
b xb0 )) è un sottogruppo normale di π1 (X, x0 ).
b ∈ π −1 (x0 ). Siccome X
D IMOSTRAZIONE . Sia x b è connesso, esiste un cammino γ da x
b0 a xb. Il
cammino π(γ) determina un elemento di π1 (X, x0 ) e per sollevamento ogni elemento si ottiene in
172 7. UN PIZZICO DI TOPOLOGIA ALGEBRICA: IL GRUPPO FONDAMENTALE E I SUOI AMICI
questo modo. Per il Lemma 7.8.17 esiste f ∈ Aut(π) tale che f (b x0 ) = x b se e solo se π(γ) è nel
normalizzatore di π∗ (π1 (X, x
b b0 )). Quindi Aut(π) agisce transitivamente sulla fibra di x0 se e solo se
il normalizzatore di π∗ (π1 (X,
b x b0 )) è tutto π1 (X, x0 ), cioè se π∗ (π1 (X,
b xb0 )) è normale in π1 (X, x0 ). (Si
noti che, per il Teorema 7.2.9, se π∗ (π1 (X,
b xb0 )) è un sottogruppo normale di π1 (X, x0 ), ciò rimane vero
anche se si cambia punto base).
Esempio 7.8.21. Se X è connesso e localmente connesso per archi e π1 (X) è abeliano allora ogni
rivestimento è normale perché ogni sottogruppo di un gruppo abeliano è normale.
Esempio 7.8.22. Il rivestimento universale è normale perché il sottogruppo banale è normale.
γ
bη = ρ(η)(b
γ)
x
b1 = ηb(1) = ρ(η)(b
x0 ) = ψ(η)(b
x0 ) γ
bη (1) = ρ(ηγ)(b
x0 ) = ψ(ηγ)(b
x0 ) = ψ(γ)ψ(η)(b
x0 )
ηb
x
b0 γ
b(1) = ρ(γ)(b
x0 ) = ψ(γ)(b
x0 )
γ
b
Si ha
γ
b(1) = ρ(γ)(b
x0 ) = ψ(γ)(b
x0 )
ηb(1) = ρ(η)(b
x0 ) = ψ(η)(b
x0 )
per cui γ γ) e
bη = ρ(η)(b
ρ(ηγ)(b
x0 ) = γ
bη (1) = ρ(η)(ρ(γ)(b
x0 ))
ψ(ηγ)(b
x0 ) = γ
bη (1) = ψ(γ)(ψ(η)(b
x0 )).
4Si è scelto questo nome, ma non c’è una notazione standard per l’azione del gruppo fondamentale via automorfismi
deck.
7.8. AUTOMORFISMI DI RIVESTIMENTO 173
In particolare detto x
b1 = ηb(1),
ψ(γ)(b
x1 ) = γ x0 ) = ρ(η)ρ(γ)ρ(η)−1 ρ(η)(b
bη (1) = ρ(η)ρ(γ)(b x0 ) = ρ(η)ρ(γ)ρ(η)−1 (b
x1 )
e in generale ρ(η)ρ(γ)ρ(η)−1 (b
x1 ) 6= ρ(γ)(b
x1 ).
O SSERVAZIONE 7.8.25. Con le notazioni di qui sopra, se si cambia punto base scegliendo x b1 al
posto di x
b0 , avremmo ρxb1 (γ) = γ bη (1) e l’ultimo calcolo fatto ci dice che la monodromia ρxb1 si ot-
tiene da ρxb0 coniugando per ρxb0 (η). In particolare, la classe di coniugio della rappresentazione di
monodromia deck è ben definita e non dipende dalle scelte dei punti base.
In generale, se π : Xb → X non è normale, la monodromia deck è definita solo sul normalizzatore
di π∗ (π1 (X)) in π1 (X). Essa è sempre suriettiva se X
b b connesso.
In termini di successioni esatte, se X è connesso e localmente connesso per archi, abbiamo la
b
seguente successione esatta
ρ
0 → K → N → Aut(X) b →0
ove K = ker(ρ) è il nucleo della rappresentazione di monodromia e N è il normalizzatore di π∗ (π1 (X))
b
in π1 (X). Se inoltre X → X è normale, si ha
b
ρ
0 → K → π1 (X) → Aut(X)
b → 0.
Si noti che il nucleo della monodromia è formato esattamente dai laccetti che si sollevano in X,
b quindi
da π1 (X). Dunque tale successione esatta si può leggere come
b
ρ
(3) 0 → π1 (X)
b → π1 (X) → Aut(X)
b → 0.
Il tutto può essere riassunto come segue.
Teorema 7.8.26. Sia π : (X, b x b0 ) → (X, x0 ) un rivestimento connesso e localmente connesso per archi.
Identificando π1 (X, x
b b0 ) con π∗ (π1 (X,
b x b0 )), sia N (π1 (X,
b xb0 )) il suo normalizzatore in π1 (X, x0 ). Allora
N (π1 (X,
b xb0 ))
Aut(π) = .
π1 (X, x
b b0 )
In particolare, se π è normale allora
π1 (X, x0 )
Aut(π) = .
π1 (X,
b xb0 )
e → X è il rivestimento universale, allora
Se π : X
Aut(X e → X) = π1 (X, x0 );
e se X
b è normale, indicando con K = π1 (X) b → X, si ha
b il nucleo della rappresentazione di monodromia di X
Aut(X)
e Aut(X)
e
Aut(X)
b = = .
π1 (X)
b K
D IMOSTRAZIONE . Per il Lemma 7.8.17, ad ogni γ ∈ N (π1 (X, b0 )) possiamo associare un unico
b x
elemento ϕ(γ) di Aut(π). La funzione ϕ : N (π1 (X, x
b b0 )) → Aut(π) è un morfismo di gruppi per il
Teorema 7.5.2. Il nucleo di ϕ è formato precisamente da tutti i laccetti basati in x0 che si sollevano a
laccetti basati in x
b0 , cioè da π∗ (π1 (X,
b x0 )).
Corollario 7.8.27. π1 (S 1 ) = Z.
D IMOSTRAZIONE . Il rivestimento universale di S 1 è R e la proiezione è data da π(r) = e2πir .
Si verifica facilmente che per ogni f ∈ Aut(π) si ha f (x) = x + f (0). Quindi f è univocamente
determinato da f (0) ∈ π −1 (1) = Z e Aut(π) = Z. Per il Teorema 7.8.26 si ha π1 (S 1 ) = Z.
174 7. UN PIZZICO DI TOPOLOGIA ALGEBRICA: IL GRUPPO FONDAMENTALE E I SUOI AMICI
X = X/π
e 1 (X).
Ove π1 (X) agisce tramite l’identificazione con Aut(π).
D IMOSTRAZIONE . Siccome gli automorfismi preservano le fibre, la proiezione di rivestimento
è costante sulle classe di equivalenza e quindi induce una mappa quoziente f : X/ b Aut(π) → X
che è continua (Teorema 2.2.16). Se X è normale allora essa è biunivoca perché l’azione di Aut(π) è
b
transitiva sulle fibre. Inoltre f è aperta per i Teoremi 6.5.28 e 7.3.23 e quindi è un omeomorfismo.
η U
x
γ
x0
7.9. ESISTENZA DEL RIVESTIMENTO UNIVERSALE E ALTRE QUESTIONI 175
Su Xb mettiamo la topologia che ha come base gli insiemi V[γ] , al variare di γ ∈ X b e U con le proprietà
di cui sopra. (Tale topologia è ben definita per il Teorema 1.2.4).
Siccome π1 (U, x) è banale in π1 (X, x) i cammini γη e γη 0 inducono lo stesso elemento di V[γ] se e
solo se η e η 0 hanno lo stesso punto finale. Quindi la restrizione di π a V[γ] è biunivoca da V[γ] a U e
per come abbiamo definito la topologia di X, b essa è un omeomorfismo. In particolare π è continua in
ogni punto e quindi è continua. Vediamo adesso che π è una proiezione di rivestimento. Chiaramente
V[γ] ⊆ π −1 (U ). Siccome X è connesso e localmente connesso per archi, allora se π([α]) ∈ U allora α
è omotopa a estremi fissi a un cammino del tipo γη con γ ∈ Ω(X, x0 , x) e η ∈ Ω(U, x, α(1)). Quindi
π −1 (U ) = ∪[γ] V[γ] . Vediamo adesso che se γ1 e γ2 non sono equivalenti, allora V[γ1 ] ∩ V[γ1 ] = ∅. In
questo modo avremo dimostrato che π −1 (U ) è unione disgiunta di aperti omeomorfi a U via π.
Sia [β] ∈ V[γ1 ] ∩ V[γ2 ] . Siccome π1 (U, x) è banale in X possiamo supporre che [β] = [γ1 η] = [γ2 η]
con η ∈ Ω(U, x, β(1)). Ma da [γ1 η] = [γ2 η] si deduce [γ1 ] = [γ2 ].
Per concludere, dobbiamo dimostrare che π∗ (π1 (X, b x b0 )) = H. Sia γ : [0, 1] → X un laccetto
basato in x0 . Il suo sollevamento in X, che parte da x
b b0 , è dato da γ
b(t) = [γ|[0,t] ] (ove γ|[0,t] si considera
riparametrizzato con [0, 1]). Per come si è definito X, b γ si solleva a un laccetto in X b (cioè γ
b(1) = xb0 )
se e solo se γ ∈ H. Per il Teorema 7.4.7 π∗ (π1 (X, x b b0 )) = H.
O SSERVAZIONE 7.9.8. Si noti la somiglianza tra le definizioni di gruppo fondamentale e quella
di rivestimento universale: il gruppo fondamentale è formato da classi di omotopia a estremi fissi
di laccetti; il rivestimento universale è formato da classi di omotopia a estremi fissi di cammini non
necessariamente chiusi.
O SSERVAZIONE 7.9.9. Si noti che l’azione di monodromia a destra sulla fibra di [x] è data sem-
plicemente per concatenazione (a destra) di cammini in π1 (X, x). Cioè se π([η]) = x e γ ∈ π1 (X, x)
allora [η]γ = [ηγ]. L’azione a sinistra via trasformazioni deck è data per concatenazione a sinistra per
cammini in π1 (X, x0 ). Ossia se per ogni [α] ∈ X b si pone γ[α] = [γα]. Si noti che essa è ben definita
solo se γ è nel normalizzatore di H (come ha da essere) in quanto se [β] = [α], cioè αβ −1 in H, allora
affinché [γβ] = [γα] si deve avere γαβ −1 γ −1 in H.
O SSERVAZIONE 7.9.10. Il Teorema 7.8.3 ci dice che due rivestimenti di X sono isomorfi se e solo
se corrispondono allo stesso sottogruppo di π1 (X). Il Teorema 7.9.7 ci dice che ogni sottogruppo
corrisponde a un rivestimento. Per spazi connessi, localmente connessi per archi e semi-localmente
semplicemente connessi, vi è quindi una corrispondenza biunivoca tra sottogruppi di π1 (X, x0 ) e
classi di isomorfismo di rivestimenti puntati.
Teorema 7.9.11. Sia π : X b → X un rivestimento localmente connesso per archi che spezzi lungo uno
b → Y e p : Y → X tali che π = p ◦ q.
spazio intermedio Y , cioè tale che esistano funzioni continue q : X
Allora p è un rivestimento se e solo se q lo è.
X
b
q
π Y
p
X
γi Vi
γ 0 ηi
Ui q
γj ηj
Vj
Uj p
γ
x0 x
U
si noti che p(q(x, n)) = x = π(x, n). Ma q non è un rivestimento in quanto il punto (0, 1) non ha
preimmagini.
Esempio 7.9.15. Consideriamo X = {1/n, n ∈ N+ }∪{0} con la topologia indotta da R e X
b = X ×N
0 0
con π(x, n) = x. Sia Y = {(x, n) ∈ X : x < 1/n}, sia Xo = {1/n, n ∈ N} e sia Y = Y ∪ (Xo × {−1}).
b
Sia p : Y → X data da p(x, n) = x. Essa non è un rivestimento perché lo 0 ∈ X non ha un intorno
b → Y definita come
banalizzante. Sia q : X
(x, n) x < 1/n
q(x, n) =
(x, −1) x ≥ 1/n
chiaramente p(q(x, n)) = x = π(x, n). Inoltre q è un rivestimento, perché è l’identità su Y 0 e il resto
ha la topologia discreta (si noti che 0 ∈
/ Xo ).
Infine, nelle ipotesi del Teorema 7.9.11 potrebbe succedere che né p né q siano rivestimenti.
Esempio 7.9.16. Sia Rdisc l’insieme R dotato della topologia discreta. Sia Xb = R × Rdisc e siano
2
Y = R e X = R Euclidei. La proiezione di rivestimento π : X → X data da π(x, r) = x spezza
b
lungo R2 con q = id e p = π (insiemisticamente Y e X b coincidono, sono le topologie a essere diverse).
La mappa q : X b → Y non è un rivestimento perché non è aperta. La mappa p : Y → X non è un
rivestimento perché la fibra di un punto non è discreta.
7.10. G-spazi
Ricordiamo che per convenzione s’è definito il rivestimento universale solo per spazi localmen-
te connessi per archi. Quindi la frase “X ha rivestimento universale” comprende “X è localmente
connesso per archi”.
Definizione 7.10.1 (G-spazi). Sia G un gruppo. Un G-spazio è il dato di uno spazio topologico X
e di un’azione di G su X tale che ogni x ∈ X abbia un intorno aperto U tale che per ogni g 6= h ∈ G
sia g(U ) ∩ h(U ) = ∅.
Si noti che se X è un G-spazio allora l’azione di G è libera.
Esempio 7.10.2. Per spazi T2 e localmente compatti, il dato di un’azione libera e propriamente
discontinua di G su X fornisce un G-spazio (Teorema 6.6.16).
178 7. UN PIZZICO DI TOPOLOGIA ALGEBRICA: IL GRUPPO FONDAMENTALE E I SUOI AMICI
Definizione 7.10.8 (G-mappe). Una funzione continua f : X → Y tra due G-spazi si dice G-
mappa se commuta con l’azione di G, cioè se per ogni x ∈ X si ha
f (gx) = gf (x).
Se gli spazi sono puntati, si richiede che f mandi il punto base di X in quello di Y .
Lemma 7.10.9. Sia f : X → Y una G-mappa tra due G-spazi. Allora f è biunivoca sulle orbite. Più
precisamente, per ogni x ∈ X, f è una biiezione tra Gx e Gf (x).
D IMOSTRAZIONE . Siano x1 , x2 ∈ X tali che f (x1 ) = f (x2 ). Se x2 = gx1 allora f (x1 ) = f (x2 ) =
f (gx1 ) = gf (x1 ). Poiché l’azione di G è libera, ciò implica g = Id e dunque x1 = x2 . D’altronde se
y ∈ Gf (x) allora y = gf (x) = f (gx) quindi f è suriettiva dall’orbita di x all’orbita di f (x).
Definizione 7.10.10 (Isomorfismo tra G-rivestimenti). Siano X → X/G e Y → Y /G due G-
rivestimenti. Un isomorfismo di G-rivestimenti è un omeomorfismo f : X → Y che sia una G-mappa.
Per il Corollario 2.2.17 un isomorfismo di G-rivestimenti è anche un isomorfismo di rivestimenti.
Lemma 7.10.11. Siano p1 : (X1 , x1 ) → (X, x0 ) e p2 : (X2 , x2 ) → (X, x0 ) due G-rivestimenti dello
stesso spazio puntato (X, x0 ). Se esiste un isomorfismo di G-rivestimenti
f : (X1 , x1 ) → (X2 , x2 )
allora i due rivestimenti hanno la stessa rappresentazione di monodromia deck.
D IMOSTRAZIONE . Per i = 1, 2 sia ρi : π1 (X, x0 ) → G la monodromia deck di pi . Sia γ ∈ π1 (X, x0 )
e siano γi i sollevamenti di γ in Xi che partono da xi . Siccome f è un isomorfismo di rivestimenti,
f ◦ γ1 = γ2 e quindi f (γ1 (1)) = γ2 (1). Ma
ρ1 (γ)(x2 ) = ρ1 (γ)(f (x1 )) = f (ρ1 (γ)(x1 )) = f (γ1 (1)) = γ2 (1) = ρ2 (γ)(x2 )
e quindi (ρ1 (γ))−1 ρ2 (γ) fissa x2 . Siccome l’azione di G è libera ciò implica ρ1 (γ) = ρ2 (γ).
Si noti che in generale, se gli spazi non son puntati, le monodromie di rivestimenti isomorfi
possono essere diverse come rappresentazioni. Si pensi per esempio a cosa succede cambiando punto
base in uno stesso rivestimento. Il Lemma 7.10.11 ci dice che la funzione
Φ : {classi di isomorfimso di G-rivestimenti puntati di (X, x0 )} −→ hom(π1 (X, x0 ), G)
che associa ad ogni rivestimento la sua monodromia deck, è ben definita.
Teorema 7.10.12. Se X ammette rivestimento universale allora Φ è biunivoca.
Dividiamo la dimostrazione in due lemmi, dimostrando prima la suriettività e poi l’iniettività.
Lemma 7.10.13 (Costruzione del ρ-rivestimento). Φ è suriettiva.
X
bρ
(x, g) (γx, g)
[(x, g)]
X
e
Su X
bρ facciamo agire G tramite
g[(x, h)] = [(x, gh)].
Vediamo com’è fatta quest’azione. [(x, h)] e [(y, g)] stanno nella stessa G-orbita se e solo se
∃α ∈ G tale che [(y, g)] = α[(x, h)] = [(x, αh)]
se e solo se
∃α ∈ G, ∃γ ∈ π1 (X, x0 ) tali che (y, g) = γ(x, αh) = (γx, αhρ(γ −1 ))
il che, ponendo α = gρ(γ)h−1 equivale a chiedere che
∃γ ∈ π1 (X, x0 ) tale che y = γx.
Quindi X bρ /G = X, la proiezione è data da p([(x, g)]) = π(x) e se U è un aperto banalizzante per π
allora lo è anche per p, che risulta quindi un G-rivestimento. La monodromia agisce semplicemente
per
monodr(γ)(b x0 ) = monodr(γ)[(x0 , 1)] = [(γx0 , 1)]
ma
[(γx0 , 1)] = [γ(x0 , 1ρ(γ))] = [(x0 , ρ(γ))] = ρ(γ)[(x0 , 1)]
e quindi la monodromia è proprio ρ.
Lemma 7.10.14. Φ è iniettiva.
D IMOSTRAZIONE . Sia (Y, y0 ) → (X, x0 ) un G-rivestimento con monodromia ρ. Basta far vedere
che esso è isomorfo a (X
bρ , x e ∈ X,
b0 ). Per ogni x e sia αe un cammino da x
e0 a x
e, sia α la sua proiezione su
X e sia αY il suo sollevamento in Y che parte da y0 . Poniamo f (e x) = αY (1). Si noti che f : Xe →Y
è il rivestimento universale della componente di Y che contiene y0 . Usando la f , si definisce una
funzione F : X e × G → Y ponendo
F (e
x, g) = gf (e
x)
(G agisce su Y perché Y è un G-rivestimento di X). La funzione F è costante sulle orbite dell’azione
di π1 (X, x0 ). Infatti per definizione di monodromia, se γ ∈ π1 (X, x0 ), si ha γY (1) = ρ(γ)(y0 ) e quindi
f (γe
x0 ) = ρ(γ)f (ex0 ), da cui f (γe x) per ogni x
x) = ρ(γ)f (e e e dunque
F (γ(e x, gρ(γ −1 )) = gρ(γ −1 )f (γe
x, g)) = F (γe x) = gρ(γ −1 )ρ(γ)f (e
x) = gf (e
x) = F (e
x, g).
7.11. IL TEOREMA DI VAN KAMPEN 181
Per il Teorema 2.2.16 F discende a una funzione continua F : X bρ → Y . In oltre, dalla definizione
di f , si vede che F è una G-mappa e che è un rivestimento, in particolare è aperta. Per ogni y ∈ Y
sia x = [y] ∈ X = Y /G e sia x e ∈ X e un suo sollevamento. Per costruzione f (e x) e y stanno nella
stessa fibra Yx . Esiste quindi g ∈ G tale che y = gf (e x, g)]. Dunque F è suriettiva. Se
x) = F [(e
F [(e
x, g)] = F [(e x1 , g1 )] allora f (e
x) e f (e
x1 ) stanno nella stessa G-orbita, da cui segue che xeexe1 stanno
nella stessa π1 (X, x0 )-orbita et ergo (come abbiamo visto nella dimostrazione del Lemma 7.10.13)
x, g)] e [(e
[(e x1 , g1 )] stanno nella stessa G-orbita.
Per il Lemma 7.10.9 F è biunivoca sulle G-orbite e dunque è biunivoca globalmente. Quindi è un
omeomorfismo, ergo un G-isomorfismo.
A fA
f
jA
F
C A ∗C B G
jB
g
B fB
Teorema 7.11.1 (Van Kampen). Sia X uno spazio topologico localmente connesso per archi e siano
A, B ⊆ X tali che
• A, B sono aperti e connessi;
• A ∪ B = X;
• ∅=
6 A ∩ B è connesso.
182 7. UN PIZZICO DI TOPOLOGIA ALGEBRICA: IL GRUPPO FONDAMENTALE E I SUOI AMICI
π1 (A, x0 )
fA
iA
jA
F
π1 (A ∩ B, x0 ) π1 (X, x0 ) G
jB
iB
fB
π1 (B, x0 )
meno di isomorfimsi, dire che π1 (X, x0 ) gode della proprietà universale equivale a dire che è isomorfo
al prodotto amalgamato π1 (A, x0 ) ∗π1 (A∩B,x0 ) π1 (B, x0 ).
D IMOSTRAZIONE CLASSICA . Le inclusioni jA , jB definiscono naturalmente un morfismo
ϕ : π1 (A, x0 ) ∗ π1 (B, x0 ) → π1 (X, x0 ).
Si deve far vedere che ϕ è suriettivo e che il suo nucleo coincide con K = {iA (γ)iB (γ)−1 : γ ∈
π1 (A ∩ B, x0 )}. Sia γ : [0, 1] → X un laccetto basato in x0 . In [0, 1] consideriamo le componenti
connesse di γ −1 (A) e quelle di γ −1 (B). Esse forniscono un ricoprimento aperto ([0, 1] è localmente
connesso per archi). Per compattezza se ne estrae un sottoricoprimento finito. Da ciò si ricava una
partizione
0 = t0 < t1 < ... < tk = 1
tale che γ([ti , ti+1 ]) è interamente contenuto o in A o in B e ti ∈ A ∩ B. Essendo A ∩ B connesso (e
localmente connesso per archi) per ogni ti esiste un cammino ηi da x0 a γ(ti ). Per cui γ si esprime
come prodotto dei cammini
−1
ηi+1 γ|ti ,ti+1 ηi
che sono laccetti in basati in x0 e interamente contenuti in A o B. Ciò dimostra la suriettività di ϕ.
Passiamo al nucleo di ϕ. Esso contiene evidentemente tutti gli elementi di K, si deve far vedere
che non c’è altro. Lo si può fare a mano, prendendo un elemento del nucleo di ϕ e suddividendolo
accuratamente come prodotto di cammini omotopi a elementi di K. Per mettere a posto i dettagli
di questa dimostrazione ci vogliono due-tre pagine di conti, che lasciamo volentieri al lettore (e che
7.11. IL TEOREMA DI VAN KAMPEN 183
si possono trovare in un qualsiasi libro di topologia algebrica, per esempio in quello famosissimo di
Hatcher “Algebraic Topology”).
Lemma 7.11.2 (Di incollamento di rivestimenti). Sia X uno spazio topologico e supponiamo X =
A ∪ B con A, B aperti. Siano πA : A
b → A e πB : B b → B rivestimenti tali che esista un isomorfismo, come
rivestimenti di A ∩ B,
−1 −1
ϕ : πA (A ∩ B) → πB (A ∩ B).
b → X e due isomorfismi di rivestimento
Allora esiste, unico a meno di isomorfismi, un rivestimento π : X
ψA : π −1 (A) → A
b ψB : π −1 (B) → B
b
−1
tali che su πA (A ∩ B) si abbia
−1
ψB ◦ ψA = ϕ.
Inoltre, se i rivestimenti di partenza sono G-rivestimenti e ϕ è un G-isomorfismo, allora anche π è un G-
rivestimento e ψA e ψB sono G-isomorfismi.
D IMOSTRAZIONE . Lo spazio X è ottenuto dall’unione disgiunta di A e B incollando tra loro i
punti di A ∩ B. Ripetendo tale operazione sulle preimmagini di aperti banalizzanti si costruisce X. b
Più precisamente, X è lo spazio ottenuto come quoziente dall’unione disgiunta A t B incollando
b b b
−1
a ∈ πA
b (A ∩ B) con ϕ(ba). Siccome ϕ è un isomorfismo di rivestimenti si ha che Xb è un rivestimento di
−1 −1
X con proiezione π(x) = πA (x) se x ∈ A e π(x) = πB (x) se x ∈ B. Gli isomorfismi ψA
b b e ψB sono le
restrizioni, a A
beB b rispettivamente, della proiezione A btB b → (Ab t B)/
b ∼= X. b Se tutti i rivestimenti
sono G-rivestimenti e l’isomorfismo ϕ è un G-isomorfismo, l’azione di G è ben definita su X b e ψA e
ψB sono G-isomorfismi.
b Sia p : Y → X è un altro rivestimento tale che esistano isomorfismi
Vediamo infine l’unicità di X.
−1 −1
ξA : p (A) → A e ξB : p (B) → B
b b tali che su π −1 (A ∩ B) si abbia ξB ◦ ξ −1 = ϕ. La funzione
A A
F :X b → Y data da
ξ −1 ◦ ψ (x) x ∈ π −1 (A)
A A
F (x) =
ξ −1 ◦ ψ (x) x ∈ π −1 (B)
B B
è un isomorfismo di (G-)rivestimenti
Esercizio 7.11.4. Il Corollario 7.11.3 vale per l’omino coi baffi? (Esempio 7.8.9).
Esempio 7.11.5. S 2 è semplicemente connesso perché S 2 meno un punto è contraibile e quindi
semplicemente connesso. Inoltre due punti non sconnettono S 2 e quindi se x1 6= x2 ∈ S 2 si ha
S 2 = (S 2 \ x1 ) ∪ (S 2 \ x2 ) è un unione di aperti semplicemente connessi con intersezione connessa.
184 7. UN PIZZICO DI TOPOLOGIA ALGEBRICA: IL GRUPPO FONDAMENTALE E I SUOI AMICI
Esempio 7.11.6. π1 (RP2 ) = Z/2Z. Infatti, siccome S 2 è semplicemente connesso, esso è il ri-
vestimento universale di RP2 e Aut(S 2 → RP2 ) ha solo due elementi: l’identità e l’antipodale. Il
Teorema 7.8.26 conclude. (In particolare RP2 e CP1 non sono omeomorfi).
Esempio 7.11.7. Il gruppo fondamentale di una figura a “otto” o a “infinito” (cioè 8, ∞) è Z ∗ Z.
Infatti un “otto” è omeomorfo a due S 1 attaccati per un punto. π1 (S 1 ) = Z e π1 (un punto) = 1. Per
applicare Van Kampen si devono usare aperti e i lobi S 1 non sono aperti nell’otto. Poco male, basta
prendere intorni dei lobi con due baffetti e, al posto del punto, una piccola “x”.
Esempio 7.11.8. Il gruppo fondamentale di un toro bucato è Z ∗ Z infatti esso si retrae su un “otto”
e il Teorema 7.2.20 conclude.
Esempio 7.11.9. Il gruppo fondamentale di una superficie Σ2 di genere due (Figura 5, Sezione 6.2)
è dato dalla seguente presentazione
ha, b, c, d|aba−1 b−1 cdc−1 d−1 i.
D IMOSTRAZIONE . Σ2 è l’unione di due tori bucati X, Y attaccati lungo il bordo γ, considerando
un intorno del quale si descrive Σ2 come l’unione di due tori bucati che si intersecano lungo un cilin-
dretto. Il gruppo fondamentale del toro bucato X è il gruppo libero generato da due elementi a, b e γ è
omotopo al commutatore aba−1 b−1 . Stesso discorso per il secondo toro Y , che consideriamo generato
da c, d con γ omotopo a dcd−1 c−1 . Per Van Kampen, il gruppo fondamentale di Σ2 è generato dai
quattro elementi a, b, c, d e la relazione data da X ∩ Y identifica i due commutatori, quindi dobbiamo
imporre aba−1 b−1 = dcd−1 c−1 .
Calcolare il gruppo fondamentale di un grafo finito e connesso è facile, attraverso la seguente
ricetta, descritta via esercizi. Un albero è un grafo semplicemente connesso.
Esercizio 7.11.10. Dimostrare che in un grafo finito, il collasso a un punto di un albero è un’equi-
valenza di omotopia.
Esercizio 7.11.11. Dimostrare che ogni grafo finito e connesso contiene un albero massimale (ri-
spetto all’inclusione).
Esercizio 7.11.12. Dimostrare che collassando a un punto un albero massimale di un grafo finito e
connesso si ottiene un bouquet di S 1 .
Esercizio 7.11.13. Calcolare per induzione il gruppo fondamentale di un bouquet di S 1 usando
Van Kampen.
7.12. Esercizi
Esercizio 7.12.1. Sia f : [0, 2π] → S 1 data da f (t) = eit . Dimostrare che f è omotopa a una costante.
Esercizio 7.12.2. Sia f : [0, 2π] → S 1 data da f (t) = eit . Dimostrare che f non è omotopa a una
costante relativamente a {0, 2π}.
Esercizio 7.12.3. Sia f : (−π, π) → R2 data da f (t) = (0, tan 2t ). Identificando [−π, π]/{−π, π} con
S 1 , dimostrare che f ha un’estensione continua g : S 1 → RP2 . Dimostrare che g non è omotopica-
mente banale.
Esercizio 7.12.4. Sia f : (−π, π) → R2 data da f (t) = (0, tan 2t ). Identificando R2 con C e S 1
con [−π, π]/{−π, π}, dimostrare che f ha un’estensione continua g : S 1 → CP1 . Dimostrare che g è
omotopicamente banale.
Esercizio 7.12.5. Siano f (t) = eit cos(t) e g(t) = eit cos(2t), funzioni da S 1 = [0, 2π]/{0, 2π} a C.
Dimostrare che f e g sono omotope. Dimostrare che f e g sono omotope in C \ {1 + i}. Dimostrare
che f e g non sono omotope in C \ {1/2}.
7.12. ESERCIZI 185
p q
X Y
A B
X Y
Si dica se R è un rivestimento di X.
Esercizio 7.12.18. Siano X, Y come in figura. Si dica se X è un rivestimento di Y .
X Y
X Y
X Y
Esercizio 7.12.21. Si descrivano i rivestimenti universali dei seguenti grafi e si dica se sono omeo-
morfi.
Esercizio 7.12.29. Sia X una superficie, cioè una varietà topologica di dimensione due, connessa.
Dimostrare che il gruppo fondamentale di X meno un numero finito di punti è un gruppo libero.
Esercizio 7.12.30. Calcolare il gruppo fondamentale di RPn .
Esercizio 7.12.31. Dimostrare che CP1 è semplicemente connesso.
Esercizio 7.12.32. Dimostrare che CP2 è semplicemente connesso.
Esercizio 7.12.33. Dimostrare che CPn è semplicemente connesso.
Esercizio 7.12.34. Calcolare il gruppo fondamentale del toro, del toro meno un punto e del toro
meno due punti. Verificare che sono diversi tra loro.
Esercizio 7.12.35. Calcolare il gruppo fondamentale della sfera meno un punto, meno due punti e
meno tre punti. Verificare che sono diversi tra loro.
Esercizio 7.12.36. Calcolare il gruppo fondamentale della bottiglia di Klein.
Esercizio 7.12.37. Dimostrare che per n ≥ 2 sia S n che S n meno un punto sono semplicemente
connessi.
Esercizio 7.12.38. Dimostrare che se X è una varietà topologica di dimensione n ≥ 3 semplice-
mente connessa, allora X meno un numero finito di punti rimane semplicemente connessa.
Esercizio 7.12.39. Calcolare il gruppo fondamentale di una superficie di genere 3 (per esempio
quella dell’Esercizio 6.11.29).
Esercizio 7.12.40. Calcolare il gruppo fondamentale di R3 meno l’asse X.
Esercizio 7.12.41. Calcolare il gruppo fondamentale di R3 meno una circonferenza.
Esercizio 7.12.42. In R3 sia X = {x2 + y 2 = 1, z = 0} ∪ {x = 0, y = 0}. Calcolare il gruppo
fondamentale di X c .
Esercizio 7.12.43. Dimostrare che se una funzione continua f : D2 → D2 fissa i punti del bordo,
allora è suriettiva.
Esercizio 7.12.44. Dimostrare che S 3 e T 3 non sono omeomorfi.
Esercizio 7.12.45. Dimostrare che S 3 e RP3 non sono omeomorfi.
Esercizio 7.12.46. Dimostrare che RP3 e T 3 non sono omeomorfi.
Esercizio 7.12.47. Sia X una varietà topologia unidimensionale compatta. Calcolare π1 (X).
Esercizio 7.12.48. Sia X una varietà topologia unidimensionale compatta. Dimostrare che X è
omeomorfa a S 1 .
Esercizio 7.12.49. Siano X e Y due grafi finiti e connessi. Dimostrare che se X e Y hanno lo stesso
numero di lati e di vertici allora essi hanno lo stesso gruppo fondamentale.
Esercizio 7.12.50. Sia X un grafo finito e connesso. Sia V il numero dei vertici e L il numero dei
lati. Dimostrare che il gruppo fondamentale di X dipende solo da V − L.
Esercizio 7.12.51. Sia M una varietà topologia tridimensionale. Dimostrare che il gruppo fonda-
mentale di M e quello di M meno un punto coincidono. (Si usi Van Kampen.)
APPENDICE A
Notazione: Nel seguito indicheremo con “<” una relazione d’ordine stretto e useremo “≤” con
l’usuale significato di “minore o uguale”.
è ben ordinato. In quanto ogni sottoinsieme non vuoto o è il solo ∞ — e allora ∞ è il minimo —
oppure è un sottoinsieme di N (più eventualmente ∞) e quindi ha minimo.
Esercizio A.1.7. Dimostrare che l’insieme N ∪ {∞1 } ∪ {∞2 } con l’ordine
x, y ∈ N e x ≤ y per l’ordine naturale di N
x < ∞ ∀x ∈ N
1
x < ∞2 ∀x ∈ N
∞ <∞
1 2
è ben ordinato.
Definizione A.1.8. Sia X un insieme ben ordinato. Un punto x ∈ X è il massimo di X se ∀y ∈
X : y ≤ x.
189
190 A. MINICORSO DI ARITMENTICA ORDINALE
Chiaramente il massimo se esiste è unico, ma non tutti gli insiemi ben ordinati hanno un massimo.
Definizione A.1.11. Sia X un insieme ben ordinato e sia x ∈ X. Se x non è il massimo, l’insieme
Sx = {y ∈ X : y > x} (maggiore stretto) è non vuoto. In tal caso si definisce il successore di x come
s(x) = min Sx .
s(x) = x + 1
” − 1 = 0” ”3 + 1 = 7/2”
Esempio A.1.17. In N ∪ {∞1 } ∪ {∞2 } con l’ordine dell’Esercizio A.1.7 l’unico punto limite è ∞1 .
(∞2 = ∞1 + 1 è un successore.)
1
Esempio A.1.18. Sia X l’insieme {k − n+1 : k, n ∈ N} con l’ordine indotto da R. Gli elementi
limite sono gli elementi di N. Gli altri, tranne −1 che è il minimo, sono successori.
Teorema A.1.19 (Induzione transfinita). Sia α 6= ∅ un insieme ben ordinato. Sia P (x) una proposizione
che dipende da x ∈ α. Se
P (0) è vera
∀x ∈ α : (∀y < x P (y) è vera) ⇒ P (x) è vera
D IMOSTRAZIONE . Sia F l’insieme degli x ∈ α per cui P (x) è falsa. Se F non è vuoto allora ha
un minimo x0 ∈ F perché α è ben ordinato. Ma allora P (y) è vera per tutti gli y < x0 . Per ipotesi
induttiva ne segue che P (x0 ) è vera e dunque non può stare in F . Dunque F è vuoto.
A.1. LA CLASSE DEGLI ORDINALI 191
Si noti che l’induzione usuale è un caso particolare della transfinita (con α = N). Come l’usuale,
anche l’ipotesi induttiva transfinita si può rimpiazzare con un’ipotesi del tipo P (x) ⇒ P (x + 1), ma
solo per i successori, per i limiti si deve mantenere l’ipotesi induttiva generale:
P (0) è vera
∀x ∈ α : (P (x) è vera) ⇒ P (x + 1) è vera
∀x ∈ α limite : (∀y < x P (y) è vera) ⇒ P (x) è vera
Nella Definizione 0.4.7 si erano introdotti tutti i tipi di intervalli di insiemi ordinati. Nel mondo
degli insiemi ben ordinati però, ne bastano meno.
Definizione A.1.20 (Segmenti). Sia X un insieme ben ordinato. Un segmento di X è un insieme
del tipo:
[a, b) = {x ∈ X : a ≤ x < b} segmento generico
[0, b) = {x ∈ X : x < b} segmento iniziale
[a, ∞) = {x ∈ X : x ≥ a} segmento finale
Si noti che un segmento può avere un massimo anche se la sintassi è quella di “aperto in b” e ciò
succede precisamente tutte le volte che b è un successore. Quindi [a, b] non è altro che [a, b + 1):
[a, b] = {x ∈ X : a ≤ x ≤ b} = [a, b + 1)
(Se b è il massimo di X si ha [a, b] = [a, ∞)). Inoltre, siccome X è ben ordinato, ogni segmento ha un
minimo quindi non esistono “segmenti (a, b) aperti in a” in quanto (a, b) non è altro che [a + 1, b):
(a, b) = {x ∈ X : a < x < b} = [a + 1, b).
Definizione A.1.21. Siano X e Y due insiemi ben ordinati. Una funzione f : X → Y si dice
monotona se x > y ⇒ f (x) > f (y); f si dice immersione se è monotona e l’immagine di f è un
segmento di Y , si dice isomorfismo se è biunivoca e monotona. Due insiemi ben ordinati si dicono
isomorfi se esiste un isomorfismo tra loro.
Teorema A.1.22. Siano X e Y due insiemi non vuoti e ben ordinati. Una funzione f : X → Y è
un’immersione se e solo se per ogni 0 < x ∈ X si ha f (x) = min{y ∈ Y : f ([0, x)) < y}.
D IMOSTRAZIONE . Supponiamo che f sia un’immersione e sia x > 0. Per monotonia f (x) >
f ([0, x)). Se esistesse y ∈ Y tale che f ([0, x)) < y < f (x) allora, sempre per monotonia, y non starebbe
nell’immagine di f che quindi non sarebbe un segmento e dunque f non sarebbe un’immersione.
Viceversa, supponiamo che valga f (x) = min{y ∈ Y : f ([0, x)) < y}. In particolare, siccome
f (x) > f ([0, x)), se x > z allora f (x) > f (z). Quindi f è monotona. Vediamo adesso che l’immagine
di f è un segmento di Y . Sia I l’immagine di f e sia A il suo complementare. Per ogni x > 0 si deve
mostrare che A ∩ [f (0), f (x)] è vuoto. Se cosı̀ non fosse, tale insieme avrebbe un minimo y0 e detto
y1 = min{y ∈ I ∩ [f (0), f (x)] : y > y0 }, per definizione y1 sarebbe immagine di un punto x1 per il
quale non vale f (x1 ) = min{y ∈ Y : f ([0, x1 )) < y}.
Corollario A.1.23. Siano X e Y due insiemi non vuoti e ben ordinati. Allora ogni immersione di X in Y
è determinata dall’immagine di zero.
D IMOSTRAZIONE . Siano f, g : X → Y due immersioni tali che f (0) = g(0). Se f (z) = g(z) per
ogni z < x, allora f ([0, x)) = g([0, x)). Per il Teorema A.1.22, f (x) = min{y ∈ Y : f ([0, x)) < y} =
min{y ∈ Y : g([0, x)) < y} = g(x). Siccome f (0) = g(0), per induzione transfinita f (x) = g(x) per
ogni x ∈ X.
Un’immersione è sempre un’isomorfismo con l’immagine. Di particolare importanza nella teoria
dei buoni ordini sono i segmenti iniziali e le loro immersioni in segmenti iniziali.
192 A. MINICORSO DI ARITMENTICA ORDINALE
Teorema A.1.26. Siano α = [X] e β = [Y ] due ordinali. Allora uno dei due è un segmento iniziale
dell’altro.
D IMOSTRAZIONE . Se uno dei due tra X e Y è vuoto non v’è nulla da dimostrare. (∅ = [0, 0) è
segmento iniziale di tutto.) Supponiamo quindi X, Y non vuoti e denotiamo con 0 sia il minimo di
X che quello di Y . Supponiamo che β non sia un segmento iniziale di α e dimostriamo che α è un
segmento iniziale di β.
Dimostriamo per induzione transfinita che la frase P (x)= “Esiste un’immersione f : [0, x] → Y
con f (0) = 0” è vera per ogni x. P (0) è ovviamente vera. Se per ogni z < x esiste un’immersione
fz : [0, z] → Y tale che fz (0) = 0, per il Corollario A.1.23 tale immersione è unica. Ne segue che le
funzioni fz definiscono un’immersione f : [0, x) → Y con f (0) = 0. Quindi [0, x) è isomorfo a un
segmento iniziale di Y . Siccome Y non è isomorfo a [0, x) (stiamo supponendo che β 6≤ α), allora
f ([0, x)) 6= Y . Ponendo f (x) = min{y ∈ Y : f ([0, x)) < y} si ottiene un’immersione di [0, x] in un
segmento iniziale di Y . Quindi P (x) è vera per ogni x. Le immersioni fx : [0, x] → Y (uniche per il
Corollario A.1.23) definiscono un’immersione di X in un segmento iniziale di Y .
Il Teorema A.1.26 dice che dati due ordinali α, β si ha α ≤ β o β ≤ α e si può quindi parafrasare
dicendo che la classe1 degli ordinali è totalmente ordinata.
Teorema A.1.27. La classe degli ordinali è ben ordinata.
D IMOSTRAZIONE . Sia A una classe di ordinali e sia α ∈ A. Gli elementi di A minori di α non sono
altro che classi di equivalenza di ordini di segmenti iniziali [0, x) di α. Ad ogni segmento iniziale [0, x)
corrisponde il suo estremo superiore x. Quindi l’insieme degli elementi di A minori di α corrisponde
a un sottoinsieme di α. Siccome α è bene ordinato, ha un minimo. Tale minimo è ovviamente il
minimo di A.
Dato un ordinale si può quindi definire il suo successore come il più piccolo ordinale maggiore
di esso. Gli ordinali sono di tre tipi, come gli elementi
0=∅ lo zero, l’ordinale più piccolo
successore X è successore, se esiste Y : X = s(Y ), se e solo se X ha un massimo
limite
X è limite, se non è successore né vuoto
1Si è volutamente usata la parola “classe” al posto di “insieme” perché in genere “l’insieme” degli ordinali è troppo grosso
per essere catalogato come insieme senza incorrere in paradossi di tipo Russell.
A.2. GLI ORDINALI DI VON NEUMANN 193
e in generale
0=∅
α + 1 = α ∪ {α} = {γ ≤ α} = {γ < α + 1}
∀α limite si ha α = ∪
γ<α γ = {γ < α}
In particolare, ogni ordinale di Von Neumann è esattamente l’insieme dei suoi predecessori. Data una
famiglia di ordinali F = {γi }i∈I esiste sempre l’estremo superiore, detto anche limite dei γi
lim γi = sup F = ∪i γi .
i
Esempio A.2.2. Per come è definito, ω è il tipo d’ordine di N. Esso è il limite (o il sup, o l’unione)
degli ordinali finiti.
1
Esempio A.2.3. Il tipo d’ordine di {k − 1+n , n ∈ N, k = 1, 2} è ω + ω. Esso è il limite degli ordinali
ω + n.
Esempio A.2.4. Il tipo d’ordine dell’Esempio A.1.13 è ω + ω + ω + . . . .
Teorema A.2.5. Ogni ordinale ha uno e un solo rappresentante di Von Neumann.
D IMOSTRAZIONE . Procediamo per induzione transfinita. Il vuoto è un ordinale di Von Neu-
mann. Se X è di Von Neumann allora X ∪ {X}, che ha il tipo d’ordine di X + 1, è di Von Neumann.
Se ogni Y < X ha un rappresentante YV N di Von Neumann, allora l’unione
[
YV N
Y <X
194 A. MINICORSO DI ARITMENTICA ORDINALE
è di Von Neumann ed ha il tipo d’ordine di X. L’unicità segue dal fatto che due ordinali di Von
Neumann diversi stanno uno dentro l’altro e quindi hanno tipo d’ordine diverso.
Possiamo quindi identificare gli ordinali con gli ordinali di Von Neumann. Il fatto che gli ordinali
siano ben ordinati ci permette, per ogni proprietà P , di trovare il più piccolo ordinale con tale pro-
prietà, che non è altro che il minimo degli elementi con P . Per esempio ω è il primo ordinale limite, il
più piccolo ordinale non numerabile si chiama ω1 , il primo ordinale di cardinalità maggiore di ω1 si
chiama ω2 (e si può continuare).
Definizione A.2.6. Un ordinale cardinale è il più piccolo ordinale della sua classe di cardinalità.
Esempio A.2.7. ω1 è un cardinale. Sia ω che ω + 1 sono numerabili, ma solo ω è cardinale.
Esercizio A.3.8. Dimostrare che il prodotto è associativo. Per ogni α, β, γ si ha (αβ)γ = α(βγ) che
coincide col tipo d’ordine antilessicografico su α × β × γ. Si possono quindi omettere le parentesi e
scrivere αβγ.
Per la potenza bisogna stare un po’ attenti perché i prodotti infiniti non sono ben ordinati antiles-
sicograficamente di suo. (Cos’è l’ordine antilessicografico su un prodotto infinito?) È comodo quindi
dare direttamente una definizione per induzione.
Definizione A.3.9. Per ogni α, β ordinali si pone
α0 = 1
caso β = 0
β (β+1) β
α = α = α α caso successore
∪ γ
caso limite
γ<β α
A.4. Esercizi
Esercizio A.4.1. Dimostrare che l’insieme Z con l’ordine
0 ≤ x < y per l’ordine naturale di Z
x<y⇔ y < x < 0 per l’ordine naturale di Z
y < 0 ≤ x per l’ordine naturale di Z
Esercizio A.4.22. Dimostrare che ω1 con la topologia dell’ordine e R Euclideo non sono omeomorfi.
Esercizio A.4.23. Dimostrare che ω1 e ω1 + ω1 non sono omeomorfi.
Esercizio A.4.24. Dimostrare che ω e ω + 1 non sono omeomorfi.
Esercizio A.4.25. Dimostrare che 1 + ω e ω + 1 non sono omeomorfi.
Esercizio A.4.26. Dimostrare che ω + 1 e ω + 2 sono omeomorfi.
Esercizio A.4.27. Dimostrare che ω + 1 e ω + ω non sono omeomorfi.
Esercizio A.4.28. Dimostrare che ω + ω e ω + ω + ω non sono omeomorfi.
Esercizio A.4.29. Dimostrare che ω1 è compatto per successioni ma non è compatto.
Esercizio A.4.30. Dimostrare che ω1 non è omeomorfo a nessun suo elemento.
APPENDICE B
Successioni generalizzate
Le successioni usuali sono indicizzate con N, ma nulla osta che si usino insiemi ordinati più gene-
rali. Una delle proprietà principali di N nella teoria delle successioni è che dato n ∈ N, esiste sempre
m > n. Una successione (xi ) a valori in X può essere definita come una famiglia di punti indiciz-
zati da N o più semplicemente come una funzione x : N → X. Questi concetti possono essere estesi
considerando insiemi di indici più generali di N. Una volta introdotte le successioni generalizzate,
che sono apparentemente più complicate delle successioni usuali, avremo l’indubbio vantaggio di
semplificare molte dimostrazioni e di avere teoremi che non richiedono ipotesi di numerabilità.
Definizione B.1.10. Un ordinale α si dice cofinale in un insieme diretto X se esiste una α-successione
cofinale in X. La cofinalità di X, denotata con cof(X), è il più piccolo ordinale cofinale in X.
Esempio B.1.11. n è cofinale in ω + 1 per ogni n ∈ ω. La cofinalità di ω + 1 è 1.
Esempio B.1.12. n è cofinale in ω + 2 per ogni n ∈ ω. La cofinalità di ω + 2 è 1.
Esempio B.1.13. Se α ha un massimo (cioè se è un successore) allora ha cofinalità 1.
Esempio B.1.14. ω + ω ha cofinalità ω.
Teorema B.1.15. ω1 ha cofinalità non numerabile.
D IMOSTRAZIONE . Ricordiamo che ω1 è il più piccolo ordinale non numerabile. Consideriamo un
ordinale numerabile α e una α-successione xi in ω1 . Poniamo Xi = [0, xi ) < ω1 . Siccome ω1 è il primo
ordinale non numerabile, tutti gli Xi sono numerabili. Se (xi )i∈α fosse cofinale in ω1 si avrebbe
[
Xi = ω1
i∈α
e quindi avremmo ottenuto ω1 come unione numerabile di numerabili, il che lo renderebbe numera-
bile.
Corollario B.1.16. cof(ω1 ) = ω1 .
D IMOSTRAZIONE . Ovviamente ω1 è cofinale in ω1 ed essendo lui il primo non numerabile, visto
che cof(ω1 ) non è numerabile, si ha cof(ω1 ) = ω1 .
La cofinalità non è però una questione di cardinalità, ma di come “finisce” un ordinale:
Esempio B.1.17. ω1 + ω ha cofinalità ω.
Esempio B.1.18. ω1 + ω + 1 ha cofinalità 1.
D IMOSTRAZIONE . (xi ) è continua all’infinito se e solo se per ogni intorno A di x la sua preimma-
gine è un intorno di infinito, se e solo se xi ∈ A definitivamente. Avendo messo la topologia discreta
su I, se (xi ) è continua all’infinito, è continua ovunque.
In particolare abbiamo che la nozione di convergenza generalizzata si mantiene per composizione
con funzioni continue.
Teorema B.2.4. Sia (X, τ ) uno spazio topologico e sia A ⊆ X. Un punto x ∈ A è interno se e solo se per
ogni insieme diretto α, se (xi )i∈α è una α-successione convergente a x allora xi ∈ A definitivamente.
In particolare A è aperto se e solo se per ogni x ∈ A e per ogni insieme diretto α, se (xi )i∈α è una
α-successione convergente a x allora xi ∈ A definitivamente .
D IMOSTRAZIONE . Dire che x è interno ad A è equivalente per definizione a dire che A è un
intorno di x. Se xi → x ∈ A e A è un intorno di x allora per definizione di convergenza xi ∈ A
definivamente. Viceversa, supponiamo che A non sia un intorno di x, cioè x non è interno ad A. Sia
I = F(x) il filtro degli intorni di x.
Per ogni B ∈ I esiste xB ∈ B∩Ac perché x non è interno ad A. La I-successione (xB )B∈I converge
a x: per ogni intorno U di x, per ogni B > U si ha xB ∈ B ⊂ U ; quindi xB ∈ U definitivamente in
I. Quindi se A non è un intorno di x abbiamo trovato una successione xB che converge a x ma
xB ∈/ A.
Il seguente teorema ci dice che, se paghiamo il prezzo di passare alle successioni generalizzate, la
nozione di continuità topologica coincide con l’usuale definizione di continuità metrica.
Teorema B.2.5 (Continuità per α-successioni). Siano (X, τ ) e (Y, σ) due spazi topologici. Una funzio-
ne f : X → Y è continua in x ∈ X se e solo se per ogni insieme diretto α e per ogni α-successione (xi )i∈α che
converge a x si ha f (xi ) → f (x).
D IMOSTRAZIONE . Supponiamo f continua in x e sia xi → x un’α-successione. Per ogni intorno
A di f (x) si ha che f −1 (A) è un intorno di x e quindi x è interno a f −1 (A). Per il Teorema B.2.4 la suc-
cessione xi sta in f −1 (A) definitivamente in α e quindi la successione f (xi ) sta in A definitivamente
in α. Quindi f (xi ) → x.
Viceversa, se f non è continua in x, esiste un intorno A di f (x) tale che f −1 (A) non è un intorno
di x. Per il Teorema B.2.4 esiste un insieme diretto β e una β-successione xi tale che xi → x e xi ∈
(f −1 (A))c . Per cui f (xi ) ∈
/ A mentre f (x) ∈ A. Dunque
f (xi ) 6→ f (x).
Teorema B.2.6. Sia X = Πi Xi il prodotto di una famiglia di spazi topologici. Una successione generaliz-
zata in X converge se e solo se convergono le sue proiezioni.
D IMOSTRAZIONE . Segue immediatamente dai teoremi B.2.3 e 2.1.15.
Le definizioni di punto limite e punto di ricorrenza per successioni generalizzate (xi )i∈I si danno
esattamente come nel caso classico:
• x è un punto di ricorrenza di (xi ) se per ogni intorno U di x, la successione xi sta frequente-
mente in U (cioè se per ogni i0 esiste j > i0 con xj ∈ U ).
• x è un punto limite di (xi ) se esiste una sottosuccessione generalizzata (xf (j) ) che converge
a x.
Teorema B.3.8 (Teorema 3.4.6 generalizzato). Sia X uno spazio topologico e sia (xi )i∈I una successione
generalizzata a valori in X. Allora x ∈ X è un punto di ricorrenza di (xi )i∈I se e solo se è limite di una sua
sottosuccessione generalizzata.
D IMOSTRAZIONE . Se x è un punto limite di una sottosuccessione generalizzata di (xi ) allora
è immediato verificare che è un punto di ricorrenza di (xi ). Viceversa, supponiamo che x sia di
ricorrenza per (xi ). Definiamo J come l’insieme delle coppie (U, i) ove U è un intorno di x e i ∈ I è
tale che xi ∈ U . Come nell’Esempio B.3.4 rendiamo J un insieme diretto ponendo (U, i) ≥ (V, k) se e
solo se
U ⊆V e i ≥ k.
B.4. FILTRI, CONVERGENZA E CONTINUITÀ 203
La funzione f : J → I data da f (U, i) = i è monotona per come abbiamo definito l’ordine ed è finale
perché x è un punto di ricorrenza di (xi ).
La J-successione generalizzata yj = xf (j) è dunque una sottosuccessione generalizzata di (xi ).
Vediamo che converge a x. Per ogni intorno U di x, esiste i ∈ I tale che xi ∈ U perché x è di ricorrenza
per (xi ). D’altronde, per ogni j = (V, k) ≥ (U, i) si ha
yj = xf (j) = xk ∈ V ⊆ U
dunque yj ∈ U definitivamente. Quindi yj → x.
Questo teorema è la chiave per riscrivere tutte le dimostrazioni che hanno a che fare con aperti e
chiusi in salsa successioni generalizzate. Si noti in particolare che la nozione di punto di ricorrenza e
punto limite diventano equivalenti per le successioni generalizzate.
Definizione B.3.9. Uno spazio topologico X si dice compatto per successioni generalizzate se
ogni successione generalizzata in X ha una sottosuccessione generalizzata convergente.
Teorema B.3.10 (Teorema 3.4.9 generalizzato). Uno spazio topologico X è compatto se e solo se è
compatto per successioni generalizzate.
D IMOSTRAZIONE . Mostriamo prima che se X non è compatto allora non è compatto per succes-
sioni generalizzate. Sia U = {Uα } un ricoprimento aperto di X che non ammette un sottoricoprimento
finito. Sia I l’insieme delle unioni finite di elementi di U, ordinato per inclusione. Chiaramente I è un
insieme diretto perché se A, B ∈ I allora A∪B ∈ I e A∪B ≥ A, B. Siccome U non ha sottoricoprimen-
ti finiti, per ogni i ∈ I esiste xi ∈
/ i. Anche se la notazione è un po’ strana, non sta succedendo nulla
di strano: stiamo usando come insieme di indici per una successione una famiglia I di sottoinsiemi.
Quindi ha senso dire xi ∈ / i. Sia J un qualsiasi insieme diretto e f : J → I una funzione monotona e
finale. Consideriamo la sottosuccessione generalizzata yj = xf (j) .
Sia x ∈ X e sia Uα ∈ U tale che x ∈ Uα . Per ogni j ∈ J l’insieme f (j) ∪ Uα è un elemento di
I in quanto unione finita di elementi di U. Per finalità esiste k ∈ J tale che f (k) ≥ f (j) ∪ Uα e, per
monotonia, per ogni n ≥ k in J si ha
yn = xf (n) ∈
/ f (n) ⊇ f (k) ⊇ j ∩ Uα
in particolare
∃k ∈ J : ∀n ≥ k : yn ∈
/ Uα
e dunque la sottosuccessione generalizzata (yj )j∈J non converge a x. Siccome ciò vale per ogni x, la
sottosuccessione (yj )j∈J non converge a nessun limite. Siccome ciò vale per ogni J, la successione
iniziale (xi )i∈I non ha sottosuccessioni generalizzate convergenti.
Viceversa, supponiamo X compatto e sia (xi )i∈I una successione generalizzata. Esattamente
come nel Teorema 3.4.7, si mostra che essa ha un punto di ricorrenza. Per il Teorema B.3.8 tale punto
è un punto limite di una sottosuccessione generalizzata di (xi ) che quindi ha una sottosuccessione
generalizzata convergente.
O SSERVAZIONE B.3.11. Il Teorema B.3.10 può sembrare l’uovo di Colombo. Si deve però stare
attenti a questioni di cardinalità. Per esempio, in teoria della misura, la numerabilità di molti processi
è fondamentale e le successioni generalizzate perdono questa caratteristica.
Corollario B.5.2. Sia F = {Ai }i∈I una famiglia di sottoinsiemi di X. Se F ha la proprietà delle interse-
zioni finite (Definizione 3.3.1), allora F è contenuta in un filtro su X, il più piccolo dei quali si chiama filtro
generato da F.
D IMOSTRAZIONE . Si verifica immediatamente che la famiglia G dei soprainsiemi delle intersezio-
ni finite di elementi di F è un filtro (si noti che il vuoto non è un’intersezione finita per definizione,
ergo G 6= P(X)) ed è chiaramente contenuto in tutti i filtri contenenti F.
Corollario B.5.6. Ogni filtro su X è contenuto in un ultrafiltro. In particolare, gli ultrafiltri esistono.
D IMOSTRAZIONE . Sia F un filtro e sia M la famiglia dei filtri contenenti F, ordinata per inclusio-
ne. M è non vuota perché contiene almento F. Sia {Fi }i∈I una catena di filtri in M tale che Fi ⊆ Fj
se i ≤ j. L’unione degli Fi è un filtro. Quindi ogni catena in M ha un maggiorante. Per il Lemma di
Zorn, M ha un elemento massimale, che è un ultrafiltro per il Teorema B.5.5.
Definizione B.5.7. Uno spazio topologico X si dice compatto per ultrafiltri se ogni ultrafiltro in
X converge.
Teorema B.5.8 (Teoremi 3.4.9 e B.3.10 versione ultrafiltri). Uno spazio topologico X è compatto se e
solo se è compatto per ultrafiltri.
206 B. SUCCESSIONI GENERALIZZATE
D IMOSTRAZIONE . Supponiamo X non compatto. Sia {Ci } una famiglia di chiusi con la proprietà
delle intersezioni finite (Definizione 3.3.1) tali che ∩i Ci = ∅. Sia F il filtro generato da {Ci } e sia G un
ultrafiltro contenente F. Per ogni x ∈ X esiste i tale che x ∈ / Ci . Siccome Ci è chiuso esiste un intorno
U di x tale che U ∩ Ci = ∅. Siccome Ci ∈ G e G è un filtro, nessun elemento di G può stare in U , in
particolar G 6→ x. Visto che ciò vale per ogni x, l’ultrafiltro G non converge.
Viceversa, supponiamo che G sia un ultrafiltro in X non convergente. Allora ogni x ∈ X ha un in-
torno aperto Ux che non contiene elementi di G. Per il Lemma B.5.4 nessuna unione finita degli Ux con-
tiene elementi di G. Siccome G non è vuoto, il ricoprimento {Ux }x∈X non ammette sottoricoprimenti
finiti.
Lemma B.5.9. Se f : X → Y è una funzione e F un ultrafiltro in X, allora f (F) è un ultrafiltro in Y .
D IMOSTRAZIONE . Per il Lemma B.4.3 sappiamo già che f (F) è un filtro e a meno di restringerci
ai supporti possiamo supporre che F sia su X e che f sia suriettiva (e quindi f (F) è su Y ).
Sia A ⊂ Y . Allora Y = A ∪ Ac e quindi X = f −1 (A) ∪ f −1 (A)c . Siccome F è un ultrafiltro, uno
dei due sta in F. Quindi uno tra A e Ac sta in F.
Teorema B.5.10 (Teorema di Tychonoff). Un prodotto qualsiasi di spazi compatti è compatto.
D IMOSTRAZIONE . Sia {Xi }i∈I una famiglia di spazi compatti e sia X = Πi Xi . Sia F un ultrafiltro
in X. Ogni proiezione Fi = πi (F) è un ultrafiltro in Xi . Siccome Xi è compatto Fi converge a xi ∈ Xi .
Sia x = (xi ) ∈ X e vediamo che F → x. Sia V un intorno di x. Per come è fatta la topologia prodotto
possiamo supporre che V sia della forma Πi Ui con Ui intorno di xi , diverso da Xi solo per un numero
finito di indici. Siano i1 , . . . , in tali indici. Siccome Fik → xik , esiste Aik ∈ Fik contenuto in Uik . Gli
insiemi πi−1k
(Aik ) sono elementi di F. Essendo in numero finito, la loro intersezione A è ancora un
elemento di F . Siccome Aik ⊆ Uik , si ha A ⊆ V . Quindi F → x.
Corollario B.6.4. Sia F = {Ai }i∈I una famiglia di sottoinsiemi di X. Se ogni intersezione finita di
elementi di F è infinita, allora F è contenuta in un ultrafiltro non principale su X. In particolare gli ultrafiltri
non principali esistono.
D IMOSTRAZIONE . Sia U il filtro degli insiemi cofiniti e sia B = F ∪ U. Consideriamo un numero
finito di elementi di B. Quelli in F hanno intersezione infinita per ipotesi, quelli di U hanno interse-
zione cofinita e dunque l’intersezione di tutti è non vuota. Per il Corollario B.5.2, B è contenuto in
un filtro, che per il Teorema B.5.5 è contenuto in un ultrafiltro G. Siccome G contiene U, allora non
contiene nessun sottoinsieme finito di X. Per il Lemma B.6.3 G non è principale.
Infelicemente, in letteratura, per gli ultrafiltri non principali su N si usa spesso il simbolo ω, lo
stesso che si usa per il tipo d’ordine di N. Obtorto collo ci adegueremo a questa usanza.
Definizione B.6.5 (ω-convergenza). Sia ω un ultrafiltro non principale su N. Sia X uno spazio
topologico e sia (xn )n∈N una successione in X. Si dice che xn ω-converge a x
ω
xn → x
o che x è un’ω-limite di xn se per ogni intorno U di x si ha
{n ∈ N : xn ∈ U } ∈ ω.
Siccome ω è un ultrafiltro, se X è T2 l’ω-limite è unico... Ma non dipende solo da (xn ).
Esempio B.6.6. Sia xn = (−1)n la successione oscillante per antonomasia. Ebbene xn ha un ω-
limite. Infatti N = P t D è unione disgiunta dei pari e dispari. Siccome ω è un ultrafiltro su N, esso
contiene uno e uno solo tra D e P e la successione xn è costante su entrambi. Quindi xn ω-converge
a 1 o a −1. Quale dei due? Dipende da ω.
ω
Lemma B.6.7. Se xn → x nel senso usuale allora xn → x per ogni ultrafiltro non principale ω.
D IMOSTRAZIONE . Per ogni U intorno di X l’insieme {n : xn ∈ U } è cofinito e quindi sta in ω
perché ω è non principale.
Teorema B.6.8. Sia ω un ultrafiltro non principale su N. Allora ogni successione classica in uno spazio
compatto ha un ω-limite.
D IMOSTRAZIONE . Sia X uno spazio topologico. Una successione in X non è altro che una fun-
zione f : N → X. Quindi f (ω) è un ultrafiltro in X. Se X è compatto allora f (ω) converge per il
Teorema B.5.8. Se f (ω) → x allora per ogni intorno U di x esiste A ⊆ U con A ∈ f (ω). Ne segue che
f −1 (A) ∈ ω e siccome f −1 (U ) ⊇ f −1 (A) allora l’insieme f −1 (U ) = {n ∈ N : xn ∈ U } ∈ ω. Quindi
ω
xn → x.
Esempio B.6.9. La successione f (n) = sin(n) ha un ω-limite in [0, 1], che dipende da ω.
Esempio B.6.10. ω1 (il primo ordinale non numerabile) non è compatto, ma è compatto per suc-
cessioni. Quindi il viceversa del Teorema B.6.8 non è vero.
Un esempio di uso degli ω-limiti è la costruzione degli ultralimiti e dei coni asintotici. Fissiamo
un ultrafiltro non principale ω su N. Sia {(Xn , dn )}n∈N una famiglia di spazi topologici e sia on ∈ Xn
un punto base scelto in ogni Xn . Sia Xe lo spazio delle successioni costruite prendendo un punto per
ogni Xn
e = {(xn )n∈N : xn ∈ Xn }
X
(in altri termini X
e = Πn Xn ). Lo spazio X e ha un punto base o dato dalla successione dei punti base:
o = (on ). Su Xe definiamo una candidata distanza d attraverso gli ω-limiti
dω ((xn ), (yn )) = ω- lim d(xn , yn ).
208 B. SUCCESSIONI GENERALIZZATE
e ×X
La funzione dω è ben definita da X e → [0, ∞].
Sia X0 l’insieme dei punti che hanno una distanza finita da o = (on )
e
e0 = {x ∈ X
X e : dω (x, o) < ∞}.
Su X
e0 si pone la relazione d’equivalenza
x ∼ y ⇐⇒ d(x, y) = 0.
Il quoziente X b =X e0 / ∼, dotato della distanza dω , si chiama ultra-limite, o ω-limite degli spazi
metrici Xi .
Un caso particolare è quello del cono asintotico di uno spazio metrico fissato X. In questo caso
l’operazione che andiamo a fare è una formalizzazione dello zoom-out.
Sia (X, d) uno spazio metrico e sia o ∈ X un punto base. Sia λi → ∞ una successione di numeri
positivi, che utilizziamo come fattore di riscalamento ponendo
d(x, y)
di (x, y) = .
λi
Lo spazio metrico Xi = (X, di ) non è altro che un riscalamento di X per un fattore λi . Il punto base
rimane lo stesso. Il cono asintotico di X relativo alla scelta di ω, o, λi è l’ultra-limite degli spazi Xi .
Esempio B.6.11. Il cono asintotico di un compatto è un punto.
Esempio B.6.12. Il cono asintotico di Z è R (intuitivamente perché allontanandoci sempre più da
N vedremo i suoi punti avvicinarsi sempre di più.)
D IMOSTRAZIONE . Sia λi → ∞ una qualsiasi scelta dei fattori di scala. Scegliamo o = 0 come
punto base. Sia C(Z) il cono asintotico di Z. Per ogni x = [(xi )] 6= 0 il segno di x è definito come
±1 a seconda che l’insieme degli indici tali che xi ≶ 0 stia o meno in ω. Si verifica che il segno è ben
definito sulla classe di equivalenza. Definiamo
f (x) = segno(x)dω (0, x).
Essa è una ben definita funzione C(Z) → R, che si verifica essere un’immersione isometrica. Inol-
tre f è suriettiva perché per ogni r ∈ R, prendendo xn uguale alla parte intera di λn r si ha che
dω ([(xn )], 0) = r.
B.7. Esercizi
Esercizio B.7.1. Dimostrare che non definitivamente P equivale a frequentemente non P e viceversa.
Esercizio B.7.2. Dimostrare che un sottoinsieme di uno spazio topologico è chiuso se e solo se
contiene i limiti di tutte le sue successioni generalizzate.
Esercizio B.7.3. Dare un esempio di spazio topologico (X, τ ) che contenga un sottoinsieme A che
non sia chiuso ma tale che A contenga tutti i limiti di N-successioni in A.
Esercizio B.7.4. Dimostrare che lo spazio X ottenuto da R quozientando tutto Z a un sol punto
(Esempio 2.2.11) non è compatto esibendo una successione (xn )n∈N in X che non ha sottosuccessioni
generalizzate convergenti.
Esercizio B.7.5. Sia (en )n∈N la successione di funzioni in [0, 1][0,1] data dalla rappresentazione
binaria, cioè en (x) = 1, 0 a seconda che 2−n compaia o meno nell’espressione binaria di x. Nel-
l’Esempio 3.4.2 si è visto che (en )n∈N non ha sottosuccessioni classiche convergenti: esibire una
sottosuccessione generalizzata convergente a zero.
Esercizio B.7.6. Tradurre le condizioni di essere una funzione aperta/chiusa in termini di conver-
genza di successioni generalizzate.
B.7. ESERCIZI 209
Esercizio B.7.7. Dimostrare che se α è numerabile e (xi )i∈α è una α-successione in ω1 + ω1 che
tende a ω1 , allora xi = ω1 definitivamente in α.
Esercizio B.7.8. Dimostrare che se X è un insieme totalmente ordinato, allora
cof(cof(X)) = cof(X)
Esercizio B.7.9. Dimostrare che un ordinale ha cofinalità 1 se e solo se è un successore, se e solo se
ha un massimo.
Esercizio B.7.10. Sia (X, τ ) uno spazio topologico, sia x ∈ X e F(x) il filtro degli intorni di x. Si
dimostri che se {x} è aperto in X allora cof(F(x)) = 1.
Esercizio B.7.11. Dimostrare che negli spazi T2 il limite di filtri è unico.
Esercizio B.7.12. Dimostrare che una successione (generalizzata) converge se e solo se converge il
filtro delle sue code.
Esercizio B.7.13. Sia X un insieme e sia A ⊆ X non vuoto. Dimostrare che F = {B ∈ P(X) : A ⊆
B} è un filtro. Dimostrare che se A ha almeno due elementi allora F non è un ultrafiltro.
Esercizio B.7.14. Sia F un filtro su X tale che esista x ∈ X tale che x = ∩A∈F A. Dimostrare che se
F è un ultrafiltro allora {x} ∈ F. Se ne deduca che F è principale.
Esercizio B.7.15. Sia X uno spazio topologico e sia x ∈ X. Dimostrare che il filtro degli intorni di
x è un ultrafiltro se e solo se x è un punto isolato di X (cioè {x} è aperto).
Esercizio B.7.16. Dimostrare che non esistono ultrafiltri su N numerabili.
Esercizio B.7.17. Dimostrare che ogni cono asintotico di Q è omeomorfo a R.
Esercizio B.7.18. Dimostrare che ogni cono asintotico di R è omeomorfo a R.
Esercizio B.7.19. Dimostrare che ogni cono asintotico di Z2 è omeomorfo a R2 .
Esercizio B.7.20. Sia X = {(x − 1)2 + y 2 = 1} ∪ {(x + 1)2 + y 2 = 1}. Sia Y = {x2 + y 2 ≤ 1} ∪ X.
Siano X
e e Ye i rivestimenti universali. Dimostrare che i coni asintotici di X
e e Ye coincidono.