I
ELEMENTI DI ALGEBRA E GEOMETRIA
VOLUME III
ALGEBRA LINEARE E GEOMETRIA
Antonio Pasini
Ottobre 2018, revisione del testo del 1998
II
Indice
Capitolo 1. Spazi vettoriali. Definizione ed esempi . . . . . . . . . . . . . . . . . . . . . . . . . 1
1. Cos’ é un vettore ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2. Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3. Esempi di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4. Isomorfismi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5. Altri esempi di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6. Restrizioni a sottocampi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
7. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Capitolo 2. Sottospazi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1. Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2. Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3. Generatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4. Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Capitolo 3. Manipolazioni su insiemi di vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1. Equivalenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2. Il metodo di Gauss–Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3. Risoluzione di sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Capitolo 4. Dipendenza e indipendenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1. Definizioni e prime proprietá . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2. Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3. Qualche teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Capitolo 5. Basi e dimensioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
1. Basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2. Dimensioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3. Casi particolari ed esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4. Coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
III
Capitolo 6. Sistemi lineari. Una prima sintesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
1. Risolubilitá di sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2. Risoluzione di un sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3. Sistemi omogenei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Capitolo 7. Somme dirette e prodotti cartesiani . . . . . . . . . . . . . . . . . . . . . . . . . . 107
1. Somme dirette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
2. Complementari e codimensioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3. Somme e intersezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
4. Prodotti cartesiani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Capitolo 8. Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
1. Un prodotto scalare in Vn (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2. Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3. Qualche esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4. Spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5. Il prodotto scalare naturale per una base . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6. Il caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
7. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Capitolo 9. Ortogonalitá . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
1. Definizioni e prime proprietá . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
2. Basi ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
3. Ortogonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
4. Complementi ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
5. Iperpiani e loro vettori normali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
6. Ortogonalitá e sistemi omogenei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
7. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Capitolo 10. Sottospazi affini e sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
1. Sottospazi affini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
2. Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
3. Qualche esempio in RR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
4. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
Capitolo 11. Geometria affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
1. Generatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
IV
2. Indipendenza e basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
3. Intersezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
4. Generando sottospazi con rette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
5. Cambiando l’ origine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
6. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
Capitolo 12. Geometria euclidea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
1. Vettori normali ed equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
2. Parallelismo e intersezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
3. Ortogonalitá . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
4. Distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
5. Cambiando l’ origine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
6. Il caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
7. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
8. Segmenti e sfere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
9. Isometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
10. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
11. Segmenti e semirette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
12. Semispazi, angoli e simplessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
13. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
Capitolo 13. Trasformazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
1. Trasformazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
2. Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
3. Qualche teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
4. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
5. Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
6. Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
7. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
Capitolo 14. L’ algebra delle trasformazioni lineari . . . . . . . . . . . . . . . . . . . . . . . 279
1. Spazi di trasformazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
2. Algebre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
3. L’ algebra L(V) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
4. Versori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
5. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
Capitolo 15. L’ algebra delle matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
1. L’ algebra Mn (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
2. Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
3. Matrici inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
V
4. Coniugazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
5. Prodotti di matrici rettangolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
6. Suddivisioni in blocchi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
7. Vettori come matrici colonna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
8. Un altro espediente notazionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
9. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
Capitolo 16. Nuclei e retroimmagini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
1. Nucleo, nullitá e rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
2. Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
3. Il rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
4. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
5. Un’ applicazione all’ analisi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
Capitolo 17. Autovettori e autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
1. Sottospazi invarianti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
2. Autovettori e autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
3. Diagonalizzabilitá . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
4. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
Capitolo 18. Trasposte e aggiunte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
1. Il caso reale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
2. Il caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
3. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371
4. Trasposte di matrici in Mm,n (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
Capitolo 19. Trasformazioni ortogonali e unitarie . . . . . . . . . . . . . . . . . . . . . . . . 379
1. Il caso reale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
2. Il caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
3. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
Capitolo 20. Trasformazioni affini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
1. Definizione e prime proprietá . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
2. Punti fissi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389
3. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
Capitolo 21. Determinanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
1. Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
2. Proprietá elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
VI
3. Metodi di calcolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
4. Prodotti e inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
5. Il determinante di una trasformazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
6. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
7. Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
8. Il prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
Capitolo 22. Calcolo di autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
1. Il polinomio caratteristico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
2. Casi particolari ed esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430
3. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434
4. Riduzione a forma triangolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437
5. Forma normale di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
6. Diagonalizzazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446
7. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450
Capitolo 23. Forme bilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
1. Generalitá . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
2. Forme simmetriche in Vn (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457
3. Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462
4. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463
5. Polaritá e radicale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464
6. Forme sesquilineari e forme multilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . 467
Capitolo 24. Quadriche e coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
1. Sui polinomi di secondo grado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
2. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481
3. Generalitá sulle quadriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482
4. Quadriche reali non degeneri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 492
5. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498
6. Coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 500
7. Quadriche in V3 (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 503
8. Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 506
Capitolo 1
Spazi vettoriali. Definizione
ed esempi
1.1 Cos’ è un vettore ?
Trattiamo cose come vettori quando in qualche modo le sommiamo tra loro e
le moltiplichiamo per numeri, obbedendo a regole simili a quelle che governano
le analoghe operazioni tra numeri. Gli esempi che seguono dovrebbero servire a
spiegare quest’ idea.
Equazioni lineari. Poniamo di manipolare equazioni di primo grado (cioè,
lineari) in certe incognite x1 , x2 ,..., xn , per ricavarne altre equazioni dello stesso
genere come loro conseguenze. Possiamo sommarle. Per esempio, possiamo
sommare due equazioni
(i) a1 x1 + a2 x2 + ... + an xn = a
(ii) b1 x1 + b2 x2 + ... + bn xn = b
ottenendone come conseguenza
(iii) (a1 + b1 )x1 + (a2 + b2 )x2 + ... + (an + bn )xn = (a + b)
Oppure possiamo sceglierne una, per esempio la (i), e moltiplicarla per una
costante c, ottenendo una nuova equazione che, se c 6= 0, è equivalente alla (i):
(iv) ca1 x1 + ca2 x2 + ... + can xn = ca
Oppure, possiamo moltiplicare la (ii) per una costante d e addizionare alla (iv)
l’ equazione cosı̀ ottenuta, pervenendo alla
(v) (ca1 + db1 )x1 + ... + (can + dbn )xn = (ca + db)
che si dice combinazione lineare di (i) e (ii) mediante i coefficienti c e d.
Ovviamente, (v) è conseguenza della coppia (sistema) di equazioni (i) e (ii).
1
2 Capitolo 1
Viceversa, se c 6= 0, possiamo riottenere la (i) a partire da (v) ed (ii),
sottraendo dalla (v) la (ii) moltiplicata per d e dividendo poi il risultato per c.
Naturalmente, possiamo fare le stesse cose partendo da un numero arbitrario
di equazioni anzichè da due. Quando operiamo su equazioni lineari in questo
modo, limitandoci a sommarle e moltiplicarle per costanti, le stiamo trattando
come vettori.
Se invece per dedurre equazioni da altre equazioni ricorressimo anche ad
altre trasformazioni (per esempio, se elevassimo al quadrato ambo i membri
di un’ equazione, o li moltiplicassimo entrambi per una stessa espressione non
costante, o moltiplicassimo due equazioni membro a membro, o ...) allora non
le considereremmo più come vettori.
Funzioni. Lavorando con funzioni dall’ insieme R dei numeri reali ad R,
possiamo eseguire varie operazioni su esse: possiamo sommarle, moltiplicarle,
comporle, ... Finchè ci limitiamo a sommarle e moltiplicarle per costanti, le
trattiamo come vettori.
Poniamo di restringere il nostro interesse a quelle funzioni che sono polinomi.
La somma di due polinomi è un polinomio e, se moltiplichiamo un polinomio per
una costante, sempre un polinomio otteniamo. Finchè ci limitiamo ad eseguire
sui polimomi queste operazioni, li stiamo trattando come vettori.
Forze. Forze applicate ad uno stesso punto materiale possono essere trattate
come vettori. Se hanno la stessa direzione, possiamo comporle allo stesso modo
in cui addizioniamo segmenti orientati rappresentanti numeri reali
• - - -
F1 F2 F1 + F2
• - -
F1 F1 + F2 F2
Se hanno direzioni diverse, possiamo sommarle con la cosidetta ‘regola del
parallelogramma’
F2
1
F1 + F2
•
-
F1
Questa addizione è commutativa e associativa. La proprietà commutativa (F1 +
F2 = F2 + F1 ) è evidente. La proprietà associativa è meno ovvia. Per rendersi
conto di questa proprietà, può essere utile osservare che la somma F1 +F2 di due
forze F1 ed F2 , rappresentata nella figura precedente dalla freccia disposta lungo
la diagonale del parallelogramma individuato da F1 ed F2 , può anche pensarsi
ottenuta giustapponendo le freccie rappresentanti F1 ed F2
1.1. COS’ È UN VETTORE ? 3
F1
-
1
F2
1
cosı̀ •
- F2 oppure cosı̀ •
F1
come se le due forze F1 ed F2 agissero non insieme, ma una dopo l’ altra.
Dunque, dovendo comporre tre forze F1 , F2 , F3 ,
F2
• - F1
A
A
A
U F3
A
possiamo pensare di applicarle una dopo l’ altra:
F2 A
F
• - A 3
F1 A
U
A
È ora chiaro che l’ effetto (F1 + F2 ) + F3 della composizione di F1 + F2 con F3
F1 + F2
1
A F3
•
- A
A
U
A
è lo stesso che si ottiene componendo F1 con F2 + F3
F1 A
• -H A
H A
F2 + F3HHjU
A
Cioè, (F1 + F2 ) + F3 = F1 + (F2 + F3 ). Possiamo anche moltiplicare una forza
F per un coefficiente numerico k (uno ‘scalare’):
• - • - • •
F 2F −F −2F
La moltiplicazione per uno scalare k 6= 0 altera tutte le dimensioni allo stesso
modo (e, se k < 0, inverte anche i versi). Vale a dire, k(F1 + F2 ) = kF1 + kF2
(proprietà distributiva):
4 Capitolo 1
2F2 1 2F + 2F = 2(F + F )
1 2 1 2
F2 1
F1 + F2
-
• -
F1 2F1
Bene: quando trattiamo forze in questo modo, sommandole tra loro e molti-
plicandole per scalari, le trattiamo come vettori. Allo stesso modo posssiamo
trattare velocità, spostamenti, ...
1.2 Spazi vettoriali
Insomma, immaginando di riferirci ad un certo tipo V di oggetti, che quegli
oggetti meritino o no di essere chiamati “vettori” dipende dalle operazioni che
vogliamo poter eseguire su di essi. Se queste somigliano a quelle illustrate nei
precedenti esempi, allora V è un insieme di vettori. Fissiamo queste idee in una
definizione.
1.2.1 Definizione
Sia V un insieme non vuoto e sia K un campo (Volume 2, Capitolo 2; per
esempio, il campo R dei numeri reali o il campo C dei numeri complessi). Siano
date tre funzioni (‘operazioni’)
σ : V × V −→ V, ω : V −→ V, µ : K × V −→ V
ed un elemento O ∈ V. Supponiamo che σ, ω, µ ed O verifichino le seguenti
identità (ove scriviamo brevemente X + Y per σ(X, Y ), −X per ω(X) e x·X
per µ(x, X)):
(1) X + (Y + Z) = (X + Y ) + Z, (∀X, Y, Z ∈ V);
(2) X + Y = Y + X, (∀X, Y ∈ V);
(3) X + O = X, (∀X ∈ V);
(4) X + (−X) = O, (∀X ∈ V);
(5) (x + y)·X = (x·X) + (y·X), (∀x, y ∈ K, ∀X ∈ V);
(6) x·(X + Y ) = (x·X) + (x·Y ), (∀x ∈ K, ∀X, Y ∈ V);
(7) (xy)·X = x·(y·X), (∀x, y ∈ K, ∀X ∈ V);
(8) 1·X = X, (∀X ∈ V).
(la somma x + y in (5) e la moltiplicazione xy in (7) si intendono eseguite in K;
nella (8), il simbolo 1 designa l’ unità di K).
1.2. SPAZI VETTORIALI 5
Allora V con le operazioni σ, ω, µ e con la costante O si dice uno spazio
vettoriale sul campo K (o a coefficienti in K). Gli elementi di V si dicono vettori,
mentre gli elementi di K si dicono scalari.
L’ operazione σ (cioè +) si chiama somma vettoriale (brevemente, somma o
addizione). La funzione ω (cioè −) è detta passaggio all’ opposto e −X è detto
l’ opposto di X. L’ elemento O viene detto vettore nullo o anche zero di V.
Lo indicheremo sempre con questo simbolo, riservando il simbolo 0 per lo zero
di K. Chiamiamo µ(x, X) (cioè x·X) prodotto o moltiplicazione dello scalare x
per il vettore X. Si usa anche dire che x·X è un multiplo scalare di X o che è
proporzionale ad X.
La (1) e la (2) sono dette proprietà associativa e commutativa della somma.
La (5) e la (6) sono dette proprietà distributive. La (7) è la proprietà associativa
del prodotto per scalari. Possiamo riassumere le (1)-(4) dicendo che +, − ed
O strutturano V come un gruppo commutativo (Volume 2, Capitolo 6, Sezione
6.3). Dunque, uno spazio vettoriale è null’ altro che un gruppo commutativo
munito di una operazione di moltiplicazione per scalari verificante le (5)-(8).
Notazioni. Nel seguito scriverò quasi sempre xX, (x + y)X, x(X + Y ), ecc.
anzichè x·X, (x + y)·X, x·(X + Y ) ecc. Nell’ indicare il prodotto di uno scalare
x per un vettore X mi atterrò di solito alla convenzione di scrivere lo scalare a
sinistra ed il vettore a destra: xX. A volte scriverò Xx anzichè xX, ma solo
quando questa notazione risulterà vantaggiosa.
La (1) e la (7) permettono di risparmiare parentesi, scrivendo per esempio
X + Y + Z anzichè X + (Y + Z) o (X + Y ) + Z e xyX anzichè x(yX) o (xy)X,
come si fa con le analoghe operazioni tra numeri.
In analogia a convenzioni usuali per somme e prodotti di numeri, si stabili-
scono ‘precedenze’ tra le operazioni di somma, passaggio all’ opposto e molti-
plicazione per scalari. Per esempio, xX + yY sta per (xX) + (yY ) (e non per
x(X + yY ), che invece può scriversi come xX + xyY , per la (7)). La scrittura
−X + Y sta per (−X) + Y (e non per −(X + Y )). Con −xX si intende −(xX)
(che, però, è lo stesso che (−x)X: cfr. §1.2.2, (19)). La scrittura X − Y è un’
abbreviazione di X + (−Y ), che, per la proprietà commutativa, è lo stesso che
−Y + X. Cosı̀, −X − Y sta per (−X) + (−Y ).
Pn
Al solito, con i=1 Xi intendiamo X1 + X2 + ... + Xn .
Altre convenzioni. Nelle (1)-(8) abbiamo scelto la convenzione di indicare i
vettori (elementi di V) con lettere maiuscole e gli scalari (elementi di K) con
lettere minuscole. E cosı̀ continueremo a fare di qui in poi. Coerentemente con
la notazione adottata nel Volume 2, ove abbiamo scelto di indicare strutture
algebriche mediante lettere corsive maiuscole, per lo più denoteremo spazi vet-
toriali mediante lettere corsive maiuscole (come V) e insiemi di vettori mediante
6 Capitolo 1
maiuscole in grassetto (come V). Ma ci concederemo qualche deroga a questa
regola. Per esempio, spesso scriveremo
X∈V anzichè X ∈ V,
X⊆V anzichè X ⊆ V,
F :I→V anzichè F :I→V
e cosı̀ via. Insomma, eviterò i caratteri in grassetto tutte le volte che potrò.
1.2.2 Alcune conseguenze degli assiomi (1)-(8)
Grazie alla proprietà commutativa (2), la (3) e la (4) possono riformularsi come
segue (omettiamo le quantificazioni universali, per brevità):
(3) X +O =O+X =X
(4) X − X = −X + X = O
Le seguenti proprietà sono facili conseguenze delle (1)-(4) (al solito, si sottin-
tende che le variabili sono quantificate universalmente).
(9) X + Y = Z ⇐⇒ X = Z − Y
(10) X − Y = O ⇐⇒ X = Y
(11) X + Y = O ⇐⇒ X = −Y
(12) X + X = X ⇐⇒ X = O
(13) X + Y = X + Z ⇐⇒ Y = Z
(14) −(−X) = X
(15) −(X + Y ) = −X − Y
(16) −O = O
La deduzione di queste proprietà dalle (1)-(4) è già stata effettuata nel Volume
2 (Capitolo 1, §1.2.1; anche Capitolo 8). Infatti le (1)–(4) del presente capitolo
sono uguali alle (1)–(4) del Capitolo 1 del Volume 2 e le precedenti proprietà
(9) e (11)–(16) corrispondono alle (11.a, b), (13), (22), (17.a, b), (19), (21.a0 ) e
(15) del Capitolo 1 del Volume 2. (La (10) non compare esplicitamente tra le
proprietà considerate nel Capitolo 1 del Volume 2, ma la si ottiene subito dalla
(9) sostituendovi O ad X.)
L’ operazione di moltiplicazione tra scalari non ha alcun ruolo nelle (9)-
(16). Essa entra invece nelle proprietà seguenti. Per dedurle dovremo dunque
ricorrere anche alle (5)-(8) oltre che alle (1)-(4).
(17) 0·X = O
Dimostrazione. Per ogni X ∈ V risulta 0·X = (0 + 0)X = 0·X + 0·X (per (5)).
Quindi 0·X = O per (12). 2
(18) x·O = O
Dimostrazione. Per ogni x ∈ K risulta x·O = x(O + O) = x·O + x·O (per (6)).
Quindi x·O = O per (12). 2
(19) − xX = (−x)X = x(−X)
1.2. SPAZI VETTORIALI 7
Dimostrazione. Risulta xX + (−x)X = (x − x)X = 0·X = O per (5) e (17).
Inoltre xX + x(−X) = x(X − X) = x·O = O per (6), (4) e (18). Quindi
entrambe le espressioni xX + (−x)X e xX + x(−X) sono uguali a O, che è a
sua volta uguale ad xX − xX per (4). La conclusione segue da (13). 2
(20) xX = (−x)(−X)
Dimostrazione. Risulta (−x)(−X) = −(−xX) = xX per (19) e (14). 2
(21) − X = (−1)X
Dimostrazione. Da (19) e (8). 2
(22) x−1 (xX) = X (se x 6= 0)
Dimostrazione. Da (7) ed (8). 2
(23) xX = Y ⇐⇒ X = x−1 Y (se x 6= 0)
Dimostrazione. Sia x 6= 0. Se xX = Y allora x−1 xX = x−1 Y . Quindi X =
x−1 Y per (22). Viceversa, sia X = x−1 Y . Allora xX = x(x−1 Y ). Il secondo
termine è Y , per (7) ed (8). 2
(24) xX = O ⇐⇒ (X = O) ∨ (x = 0)
Dimostrazione. Sia xX = O. Se x 6= 0 allora X = x−1 O = O, per (23) con
Y = O e per (18). Viceversa, se X = O o x = 0, allora xX = O per (17) e (18).
2
(25) xX = xY ⇐⇒ X = Y (se x 6= 0)
Dimostrazione. Mi limito a provare l’ implicazione ⇒ (l’ altra implicazione è
banale). Sia xX = xY . Allora x(X − Y ) = O (per (19), (6) e (4)). Se x 6= 0
deve essere X − Y = O per (24) e quindi X = Y per (10). 2
(26) xX = yX ⇐⇒ x = y (se X 6= O)
Dimostrazione. L’ implicazione ⇐ è banale. Dimostriamo la ⇒. Sia xX = yX.
Allora (x − y)X = O (per (19), (5) e (4)). Se X 6= O, deve essere x − y = 0 per
(24). Quindi x = y. 2
Le deduzioni che abbiamo fornito per le (17)-(26) sono analoghe a deduzioni di
proprietà simili a queste considerate nel Capitolo 1 del Volume 2 (cfr. anche il
Capitolo 8 del Volume 2). Ma si tratta di analogie parziali. Infatti il prodotto
di vettori per scalari, agendo su argomenti di due tipi (scalari e vettori), è un’
operazione diversa da quelle considerate nel Volume 2, ove gli argomenti erano
sempre dello stesso tipo. E non possiamo manipolare scalari e vettori allo stesso
modo. Possiamo moltiplicare scalari tra sè o per vettori o dividere un vettore
X per uno scalare non nullo x (cioè moltiplicare X per x−1 ), ma non possiamo
moltiplicare due vettori, nè dividere per vettori (scritture quali XY , xX −1 o
X/Y sono nonsensi). Nemmeno possiamo sommare vettori a scalari (scritture
come X + x o x + yX sono nonsensi).
8 Capitolo 1
1.2.3 Combinazioni lineari
Dati nPvettori X1 , X2 ,..., Xn ed una sequenza di scalari x1 , x2 ,..., xn , l’ espres-
n
sione i=1 xi Xi (o il vettore che essa designa) si dice combinazione lineare dei
vettori X1 , X2 ,..., Xn con coefficienti x1 , x2 ,..., xn . Pn
Per lo più, quando si considera una combinazione lineare i=1 xi Xi si in-
tende che i vettori X1 , X2 ,..., Xn siano tra loro distinti. Ma questa non è una
regola rigida. Comunque, anche se i vettori X1 , X2 ,..., Xn non fossero tutti
distinti, usando la (5) (e, se necessario, la (2)) ci si può sempre ricondurre al
caso di vettori a due a due distinti. Per esempio, il vettore B compare due volte
nella combinazione lineare aA + b1 B + cC + b2 B. Ma (2) e (5) ci permettono di
riscriverla cosı̀: aA + (b1 + bP 2 )B + cC.
n Pm
Pn Ovviamente, Pm la somma i=1 xi Xi + i=1 yi Yi di due combinazioni lineari
x
i=1 i i X e y
i=1 i iY è una combinazione lineare dei vettori X1 , X2 ,..., Xn ,
Y1 , Y2 ,..., Ym coinvolti in quelle due combinazioni. (Si noti che in questa lista
di vettori potrebbero presentarsi ripetizioni anche se nessuna delle due liste X1 ,
X2 ,..., Xn e Y1 , Y2 ,..., Ym conteneva ripetizioni; nulla vieta infatti che qualche
vettore della prima lista possa anche ritrovarsi nella seconda.)
Per la proprietà distributiva (6), si ha
n
X n
X
(27) y( xi Xi ) = yxi Xi .
i=1 i=1
Cioè: moltiplicando per uno scalare una combinazione lineare di certi vettori si
ottiene ancora una combinazione lineare degli stessi vettori. Più in generale, da
(2), (5) e (6) (e, naturalmente, da (1),
P che peraltro è sottintesa nel modo stesso
in cui abbiamo definito il simbolo ) si ha:
m
X n
X n
X
(28) yj xj,i Xi = zi Xi
j=1 i=1 i=1
Pm
ove zi = j=1 yj xj,i . Cioè: una combinazione lineare di combinazioni lineari di
certi vettori è ancora una combinazione lineare di quegli stessi vettori. Siccome
per (21) il passaggio all’ opposto equivale ad una moltiplicazione per −1, segue
da (27) che l’ opposta di una combinazione lineare di certi vettori è ancora una
combinazione lineare di quei vettori:
n
X n
X
(29) − xi Xi = (−xi )Xi .
i=1 i=1
Nota. La lista delle operazioni elementari (Volume 1, Capitolo 5) da considerare
trattando con spazi vettoriali comprende la somma vettoriale, la moltiplicazione
tra uno scalare e un vettore, la conversione di un vettore nel suo opposto e le
operazioni eseguibili tra scalari. Oltre ai nomi delle operazioni elementari, il
vocabolario (Volume 1, Capitolo 5) contiene quattro tipi di simboli:
1) lettere maiuscole per variabili riferentesi a vettori;
2) costanti riferentesi a vettori;
1.3. ESEMPI DI SPAZI VETTORIALI 9
3) lettere minuscole per variabili riferentesi a scalari;
4) costanti designanti scalari.
Con un argomento induttivo simile a quelli usati nel Capitolo 5 del Volume 2
si può dimostrare che ogni espressione costruibile con questo vocabolario, se
non rappresenta uno scalare, rappresenta una combinazione lineare di quei suoi
argomenti che si riferiscono a vettori (la (28) contiene il passo induttivo di questa
dimostrazione). Insomma, nel presente contesto un’ espressione che contenga
riferimenti a vettori rappresenta sempre una combinazione lineare.
1.3 Esempi di spazi vettoriali
1.3.1 Gli spazi En (K) ed EOn (K)
Le equazioni lineari in date variabili x1 , x2 ,..., xn in un dato campo K forma-
no uno spazio vettoriale rispetto alla somma e alla moltiplicazione per scalari
definite in (iii) e (iv) della Sezione 1.1. Come passaggio all’ opposto possiamo
prendere la moltiplicazione per −1. Il ruolo di vettore nullo spetta all’ equazione
banale
0·x1 + 0·x2 + ... + 0·xn = 0
che abbrevieremo come 0 = 0. Come vettori prendiamo queste equazioni. K
è il campo degli scalari. Che le (1)-(8) valgano è ovvio. Dunque abbiamo uno
spazio vettoriale. Lo indichiamo col simbolo En (K), ove la lettera E dovrebbe
ricordarci la parola “equazioni”, n ci rammenta che consideriamo equazioni in
n incognite e K ci ricorda il campo il cui siamo.
Anzichè tutte le equazioni lineari in un campo K nelle variabili x1 , x2 ,...,
xn , possiamo
Pn limitarci a considerare le equazioni lineari omogenee, cioè quelle
del tipo i=1 ai xi = 0.
La somma di due equazioni lineari omogenee è ancora un’ equazione omo-
genea. Moltiplicando un’ equazione omogenea per uno scalare si ottiene ancora
un’ equazione omogenea. L’ equazione banale 0 = 0 è omogenea. Quindi le
operazioni di somma, moltiplicazione per scalari e passaggio all’ opposto, che
abbiamo definito in En (K), possono essere ristrette all’ ambito delle equazioni
lineari omogenee e, siccome le proprietà (1)-(8) valgono per quelle operazioni in
En (K), queste proprietà continuano a valere quando quelle operazioni vengono
ristrette ad equazioni omogenee. Quindi anche l’ insieme delle equazioni linea-
ri omogenee forma uno spazio vettoriale rispetto alle stesse operazioni definite
in En (K). Indicheremo questo spazio vettoriale con EOn (K), ove la lettera O
dovrebbe ricordarci la parola “omogenee”.
1.3.2 Gli spazi RR , C R e C C
Anche le funzioni dall’ insieme R dei numeri reali ad R costituiscono uno spazio
vettoriale (Sezione 1.1). Qui il campo degli scalari è il campo R dei numeri reali.
I vettori sono le funzioni da R a R. Il vettore nullo è la funzione costantemente
nulla. Indicheremo questo spazio vettoriale con RR .
10 Capitolo 1
Abbiamo considerato funzioni da R ad R. Ma possiamo anche considerare
funzioni dall’ insieme C dei numeri complessi a C o da R a C, prendendo in
un caso e nell’ altro il campo C dei numeri complessi come campo di scalari.
Indichiamo questi due spazi vettoriali con C R e C C rispettivamente.
1.3.3 Gli spazi P∞ (K) e Pn (K)
La somma di due polinomi in una data variabile x e a coefficienti in un campo
K è ancora un polinomio in x su K. Moltiplicando un polinomio in x su K
per un elemento di K otteniamo ancora un polinomio in x su K. Il polinomio
nullo (cioè, la funzione costante 0) ha il ruolo di vettore nullo. Come passaggio
all’ opposto prendiamo la moltiplicazione per l’ opposto −1 dell’ unità di K.
Che valgano le (1)-(8) per queste operazioni è ovvio. Quindi i polinomi in una
data variabile su un dato campo K formano uno spazio vettoriale su K, che
indicheremo con P∞ (K), modificando un po’ il simbolo usato nel Capitolo 6 del
Volume 2 per indicare il loro insieme. (L’ indice ∞ serve a rammentarci che
non abbiamo posto limitazioni al grado dei polinomi da considerare.)
Possiamo anche, fissato un numero naturale n, limitarci a considerare poli-
nomi P nella variabile x, di grado g(P ) ≤ n. (Di qui in poi, indicherò i polinomi
con lettere latine maiuscole anzichè con lettere greche, come invece facevo nel
Volume 2.)
Tra i polinomi di grado ≤ n c’ è anche il polinomio nullo, che ha grado
−∞ < n. Dati due polinomi P e Q, si ha g(P + Q) = max(g(P ), g(Q)) se
g(P ) 6= g(Q) e g(P + Q) ≤ g(P ) se g(P ) = g(Q) (Volume 2, Capitolo 5).
Inoltre, se k ∈ K non è 0, allora g(kP ) = g(P ). Dunque, la somma di due
polinomi di grado ≤ n è un polinomio di grado ≤ n, l’ opposto di un polinomio
di grado ≤ n ha grado ≤ n, e il prodotto di uno scalare per un polinomio di
grado ≤ n ha grado ≤ n.
Quindi le operazioni di somma, moltiplicazione per scalari e passaggio all’
opposto possono essere ristrette da P∞ (K) all’ insieme dei polinomi di grado
≤ n. Le proprietà (1)-(8), che già valgono in P∞ (K) per le operazioni di somma,
passaggio all’ opposto e moltiplicazione per scalari, continuano ovviamente a
valere se quelle operazioni vengono ristrette a polinomi di grado ≤ n. Dunque, i
polinomi di grado ≤ n, in una variabile e a coefficienti in K formano uno spazio
vettoriale su K. Indichiamo tale spazio con Pn (K).
Ci siamo limitati a considerare polinomi in una sola variabile. Ma, avremmo
anche potuto considerare polinomi in più variabili (due, tre o più; cfr. Sezione
1.7, Esercizi 1.2, 1.3 ed 1.4).
1.3.4 Lo spazio Vn (K)
Dato un campo K, sia K il suo insieme di elementi. Definiamo sull’ insieme Kn
delle n-ple di elementi di K una somma +, un passaggio all’ opposto − e un
1.3. ESEMPI DI SPAZI VETTORIALI 11
vettore nullo O ponendo
(x1 , x2 , ..., xn ) + (y1 , y2 , ..., yn ) =def (x1 + y1 , x2 + y2 , ..., xn + yn ),
−(x1 , x2 , ..., xn ) =def (−x1 , −x2 , ..., −xn ),
O =def (0, 0, ..., 0).
Prendiamo poi K come campo di scalari, definendo la moltiplicazione di una
n-pla per uno scalare k mediante la posizione
k(x1 , x2 , ..., xn ) =def (kx1 , kx2 , ..., kxn ).
È facile verificare che le (1)-(8) valgono per le operazioni cosı̀ definite (infatti,
queste proprietà vengono ereditate da analoghe proprietà delle operazioni di K).
Quindi Kn , con queste operazioni, forma uno spazio vettoriale a coefficienti in
K. Indicheremo questo spazio vettoriale col simbolo Vn (K) (ma alcuni autori
usano altri simboli: per esempio V (n, K), V ect(n, K); anche Kn ).
L’ i-esimo termine xi di una n-pla X = (x1 , x2 , ..., xn ) è detto i-esima
coordinata (o i-esima componente) del vettore X.
Dati m vettori X1 = (x1,i )ni=1 , X2 = (x2,i )ni=1 , ..., n
PmXm = (xm,i )i=1 di Vn (K),
le coordinate di una combinazione lineare X = j=1 kj Xj di questi vettori
sono espressioni lineari delle corrispondenti coordinate dei vettori X1 , X2 ,...,
Xm mediante gli stessi coefficienti k1 , k2 ,..., km utilizzati nella combinazione
lineare X:
m
X m
X m
X m
X
kj Xj = ( kj xj,1 , kj xj,2 , ..., kj xj,n ).
j=1 j=1 j=1 j=1
I seguenti vettori
U1 = (1, 0, 0, ..., 0, 0), U2 = (0, 1, 0, ..., 0, 0), ..., Un = (0, 0, 0, ..., 0, 1)
sono detti versori di Vn (K). Ogni vettore X ∈ Vn (K) è combinazione lineare
dei versori e le sue coordinate sono proprio i coefficienti di questa combinazione
lineare:
n
X
(x1 , x2 , ..., xn ) = xi U i .
i=1
Non abbiamo escluso la possibilità che n = 1: lo spazio V1 (K) è null’ altro che
il campo K, visto come spazio vettoriale su sè stesso.
Visualizzazione di V2 (R) e V3 (R). I vettori di V2 (R) e V3 (R) (ove R, al
solito, denota il campo dei numeri reali) possono visualizzarsi come punti del
piano o dello spazio. Ciò permette una raffigurazione ‘concreta’ delle operazioni
di V2 (R) e V3 (R).
Ci occuperemo solo di V3 (R), lasciando al lettore il caso di V2 (R). Fissato
nello spazio un sistema di riferimento cartesiano i punti dello spazio restano
individuati da terne di numeri reali, che ne danno le coordinate. Cosı̀, i punti
dello spazio vengono visti come terne di numeri reali, cioè come vettori di V3 (R).
12 Capitolo 1
L’ origine O = (0, 0, 0) del sistema di riferimento corrisponde al vettore nullo.
I tre versori U1 = (1, 0, 0), U2 = (0, 1, 0), U3 = (0, 0, 1) di V3 (R) corrispondono
ai tre punti che, unitamente ad O, fissano orientamento ed unità di misura per
ciascuno dei tre assi:
6
U3 •
O•
• -
• U2
U 1
(la figura vorrebbe rappresentare una situazione in cui l’ unità di misura è la
stessa per i tre assi). Si usa anche rappresentare un vettore P di V3 (R) con una
freccia dall’ origine O al punto P
6 P
O • -
Questo è solo un espediente per indicare la posizione del punto P . Ma risulta
utile per visualizzare la somma P + Q di due vettori P e Q. Siccome le coor-
dinate di P + Q si ottengono sommando le coordinate di Q alle corrispondenti
coordinate di P , la somma P +Q può costruirsi riportando sul punto P la freccia
che rappresenta Q, come se componessimo due spostamenti: prima andiamo da
O a P , e poi, ripartendo da P , eseguiamo uno spostamento uguale a quello da
OaQ
Q P + Q
* P
O •
(Questa costruzione è null’ altro che la ‘regola del parallelogramma’, già vista
nella Sezione 1.1 a proposito della composizione di forze.) Siccome le coordinate
dell’ opposto −P di un vettore P sono le opposte delle coordinate di P , l’ opposto
di P è il simmetrico di P rispetto ad O
1.3. ESEMPI DI SPAZI VETTORIALI 13
P
O •
−P
La differenza P − Q di due vettori P e Q si può rappresentare con una freccia
uguale a quella da Q a P . Ciò è evidente dalla seguente figura, oppure osservando
che P − Q è quel vettore X tale che Q + X = P
Q
@
@ R
*
P
O •
@@
R
P − Q
−Q
La moltiplicazione di un vettore P 6= O per uno scalare k ci dà un vettore
situato sulla retta per O e P , a distanza |k |d da O, ove d è la distanza di P da
O, dalla stessa parte di P se k > 0 e dalla parte opposta se k < 0. Nella figura
seguente sono rappresentati i casi di k = 2 e k = −1/2:
• 2P
•
P
− 12 P •O
•
(Qui abbiamo trovato più comodo rappresentare i punti con pallini anzichè con
freccie.) Insomma, le cose vanno in V3 (R) come nel caso delle forze, esaminato
nella Sezione 1.1. Cioè, le forze applicabili ad un dato punto materiale forma-
no uno spazio vettoriale del tutto simile ad V3 (R). Lo stesso per velocità o
spostamenti.
1.3.5 Ancora su equazioni e polinomi
Gli spazi En (K) e Vn+1 (K). Per individuare un’ equazione lineare in n
variabili
a1 x1 + a2 x2 + ... + an xn = a
basta dare la (n + 1)-pla (a1 , a2 , ..., an , a) formata dai suoi coefficienti e dal
suo termine noto. Le operazioni di somma e moltiplicazione per scalari ese-
guite su equazioni lineari si traducono nelle analoghe operazioni eseguite sulle
corrispondenti (n + 1)-ple.
Dunque, se vogliamo, possiamo vedere Vn+1 (K) come un modo semplificato
di rappresentare En (K), considerando una (n + 1)-pla (a1 , a2 , ..., an , a) come un’
14 Capitolo 1
Pn
abbreviazione di un’ equazione i=1 ai xi = a. Ai versori U1 , U2 , ..., Un , Un+1 di
Vn+1 (K) corrispondono le equazioni:
1·x1 + 0·x2 + ... + 0·xn = 0, (cioè x1 = 0),
0·x1 + 1·x2 + ... + 0·xn = 0, (cioè, x2 = 0),
..........................................
0·x1 + 0·x2 + ... + 1·xn = 0, (cioè, xn = 0),
0·x1 + 0·x2 + ... + 0·xn = 1, (cioè, 0 = 1).
Alle equazioni omogenee corrispondono le (n + 1)-ple con (n + 1)-esima coordi-
nata nulla.
Gli spazi EOn (K) e Vn (K). Se limitiamo il nostro interesse alle equazio-
ni lineari omogenee, possiamo trascurare il Ptermine noto (tanto, è sempre 0),
n
rappresentando un’ equazione omogenea i=1 i i = 0 solo mediante la n-
a x
pla (ai )ni=1 dei suoi coefficienti. Cosı̀, vediamo ora Vn (K) come un modo di
raffigurare EOn (K).
Gli spazi Pn (K) e Vn+1 (K). Sappiamo dal Capitolo 5 del Volume 2 che ogni
polinomio P non nullo di grado m ≤ n nella variabile x può rappresentarsi come
una sommatoria
Xm
P (x) = ai xi , (am 6= 0).
i=0
Pm
Quando m < n, possiamo aggiungere alla sommatoria i=0 ai xi altri n − m
monomi [Link]+1 , [Link]+2 ,..., [Link] , in modo da rendere P come una somma di
n + 1 monomi:
n
X
P (x) = ai xi , (am 6= 0 = am+1 = am+2 = ... = an ).
i=0
Supponiamo che il campo K cui ci riferiamo abbia un numero infinito di elementi
(per esempio, K = R o C). Allora i coefficienti a0 , a1 ,..., am ed il grado m di P
sono univocamente determinati da P (Volume 2, Capitolo 5). Possiamo dunque
associare a P la (n + 1)-pla (a0 , a1 , ..., an ) dei suoiPcoefficienti. Viceversa, ogni
n
(n + 1)-pla (a0 , a1 , ..., an ) individua un polinomio i=0 ai xi . Si ha
n
X n
X n
X
ai xi + bi x i = (ai + bi )xi ,
i=0 i=0 i=0
n
X n
X
k· ai xi = kai xi .
i=0 i=0
Quindi a somme di polinomi corrispondono somme di (n + 1)-ple ed alla molti-
plicazione di un polinomio per uno scalare corrisponde la moltiplicazione della
corrispondente
Pn (n + 1)-pla per quello scalare. Il polinomio nullo è reso come
i
i=0 0·x e corrisponde al vettore nullo (0, 0, ..., 0) di Vn+1 (K). Ai versori U1 ,
U2 , U3 ,..., Un+1 di Vn+1 (K) corrispondono i monomi 1, x, x2 ,..., xn di Pn (K).
In definitiva, Vn+1 (K) può essere visto anche come una raffigurazione di Pn (K).
1.4. ISOMORFISMI 15
1.3.6 Numeri complessi e numeri reali
I numeri complessi formano uno spazio vettoriale sul campo R dei numeri reali
se come somma, passaggio all’ opposto e moltiplicazione per scalari prendiamo l’
ordinaria addizione di numeri complessi, il passaggio all’ opposto di un numero
complesso e la moltiplicazione di un numero complesso per un numero reale
(Volume 2, Capitolo 3, Sezione 3.3). Lo 0 di C è il vettore nullo. Indicheremo
questo spazio vettoriale col simbolo CR .
Dalle cose dette nel Capitolo 3 del Volume 2 (Sezione 3.3) è anche chiaro
che questo spazio vettoriale può identificarsi con V2 (R).
1.4 Isomorfismi
Nel Capitolo 2 del Volume 2 si è data la nozione di isomorfismo tra due campi,
generalizzandola poi ad altre strutture algebriche (Volume 2, Capitolo 8). Quella
nozione esprimeva l’ idea di una indistinguibilità ‘formale’, ‘astratta’ di due
strutture; la possibilità cioè di prendere gli oggetti di una certa struttura come
nomi per gli oggetti di un’ altra struttura, di rappresentare una struttura con
un’ altra. Ed è questo che abbiamo fatto negli esempi discussi poco fa. Abbiamo
imitato En (K) e Pn (K) con Vn+1 (K), EOn (K) con Vn (K) e CR con V2 (R).
Per meglio fissare queste idee, riformuliamo la definizione di isomorfismo,
adattandola al caso degli spazi vettoriali.
1.4.1 Definizione
Siano V e V 0 spazi vettoriali sullo stesso campo di scalari K. Siano V e V0 i loro
insiemi di vettori ed indichiamo con σ, µ ed ω la somma, la moltiplicazione per
scalari ed il passaggio all’ opposto in V. Con σ 0 , µ0 ed ω 0 indichiamo le analoghe
operazioni in V 0 . Siano O ed O0 i vettori nulli di V e V 0 , rispettivamente. Una
funzione invertibile α : V → V0 è detta un isomorfismo da V a V 0 se:
(30) α(σ(X, Y )) = σ 0 (α(X), α(Y )), (∀X, Y ∈ V);
(31) α(µ(x, X)) = µ0 (x, α(X)), (∀X ∈ V, ∀x ∈ K);
(32) α(ω(X)) = ω 0 (α(X)), (∀X ∈ V);
(33) α(O) = O0 .
In breve, un isomorfismo tra V e V 0 è una corrispondenza biunivoca tra V e
V0 che conserva le operazioni. Scrivendo X + Y , xX e −X anzichè σ(X, Y ),
µ(x, X) ed ω(X) (come al solito) e anche α(X) + α(Y ), xα(X) e −α(X) anzichè
σ 0 (α(X), α(Y )), µ0 (x, α(X)) ed ω 0 (X), le condizioni (30), (31) e (32) possono
scriversi cosı̀:
(30) α(X + Y ) = α(X) + α(Y );
(31) α(xX) = x·α(X);
(32) α(−X) = −α(X).
(Abbiamo anche omesso le quantificazioni universali, lasciandole implicite.) Si
noti che (31) implica (32) e (33) (perchè −X = (−1)·X e O = 0·X, per (17) e
16 Capitolo 1
(21)). Sicchè nel dare la precedente definizione, basterebbe anche solo richiere
che α soddisfacesse (30) e (31).
Gli isomorfismi da V a V si dicono automorfismi di V. Se esiste un isomor-
fismo da V a V 0 , allora diciamo che V e V 0 sono isomorfi, e scriviamo V ∼
= V 0.
Con questa notazione, possiamo riassumere cosı̀ le cose dette in §1.3.5:
En (K) ∼
= Vn+1 (K), EOn (K) ∼
= Vn (K)
e, se K è infinito, anche Pn (K) ∼
= Vn+1 (K). Invece in 3.6 si è osservato che
CR ∼ V
= 2 (R).
1.4.2 Invertibilità e componibilità di isomorfismi
Sia α un isomorfismo da V a V 0 . Siccome α è una funzione invertibile, possiamo
considerare la sua inversa α−1 .
Proposizione 1.1 La funzione α−1 è un isomorfismo da V 0 a V.
Dimostrazione. Dobbiamo verificare che α−1 soddisfa le (30)-(33). Cominciamo
dalla (30). Siano X 0 , Y 0 arbirari vettori di V 0 . Dobbiamo dimostrare che
(i) α−1 (X 0 ) + α−1 (Y 0 ) = α−1 (X 0 + Y 0 ).
La (i) equivale a:
(ii) α−1 (X 0 ) + α−1 (Y 0 ) = α−1 (α(α−1 (X 0 )) + α(α−1 (Y 0 ))).
D’ altra parte, siccome α è un isomorfismo, si ha
(iii) α(α−1 (X 0 ) + α−1 (Y 0 )) = α(α−1 (X 0 )) + α(α−1 (Y 0 )).
Applicando α−1 ad entrambi i membri di (iii) si ottiene (ii) e quindi (i).
Dunque, α−1 verifica la (30).
Passiamo alla (31). Dobbiamo dimostrare che, per ogni vettore X 0 di V 0 e
per ogni scalare x ∈ K, risulta
(j) α−1 (xX 0 ) = xα−1 (X 0 ).
La (j) equivale a:
(jj) xα−1 (X 0 ) = α−1 (xα(α−1 (X 0 ))).
Ma α è un isomorfismo. Quindi
(jjj) xα(α−1 (X 0 )) = α(xα−1 (X 0 )).
Applicando α−1 ad entrambi i membri di (jjj) si ottiene (jj) e quindi (j).
Dunque, α−1 verifica la (31). Come si è osservato in precedenza, le proprietà
(32) e (33) seguono dalla (31). Sicchè anch’ esse valgono per α−1 . 2
Se β è un isomorfismo da V 0 ad un altro spazio vettoriale V 00 , possiamo consi-
derare la funzione composta βα.
1.5. ALTRI ESEMPI DI SPAZI VETTORIALI 17
Proposizione 1.2 La funzione βα è un isomorfismo da V a V 00 .
Dimostrazione. Ovviamente, βα è invertibile. Inoltre
β(α(X + Y )) = β(α(X) + α(Y )) = β(α(X)) + β(α(Y ))
β(α(xX)) = β(xα(X)) = xβ(α(X))
Cosı̀, βα verifica (30) e (31), e quindi anche (32) e (33). Vale a dire, è un
isomorfismo. 2
Le Proposizioni 1.1 ed 1.2 stabiliscono rispettivamente la simmetria e la tran-
sitività di ∼
=: se V ∼
= V 0 allora V 0 ∼
= V e se V ∼ = V0 ∼
= V 00 allora V ∼= V 00 . Vale
anche la proprietà riflessiva, V ∼
= V. Infatti l’ applicazione identità su V è un
automorfismo di V.
Nota. La definizione di isomorfismo che abbiamo ora data per spazi vettoriali
sembra una inutile ripetizione di cose già dette nel Volume 2. Ma non è cosı̀.
Dovremmo ricorrere al concetto generale di struttura algebrica (Volume 2, Ca-
pitolo 8, Sezione 8.13) per riunire dentro un’ unica cornice le cose che stiamo
dicendo e che diremo su spazi vettoriali con le cose che nel Volume 2 abbiamo
detto su campi, anelli e gruppi. Gli spazi vettoriali possono essere sistemati in
quella cornice e nel Volume 2 (Capitolo 8, Sezione 8.13) si sono visti due modi
per farlo. Però la cornice non ha le misure giuste, qualunque delle due soluzio-
ni si adotti: nessuna di esse si sposa perfettamente col modo in cui si è soliti
organizzare concetti e ragionamenti in algebra lineare. Quindi non insisterò in
raffronti con cose dette nel Capitolo 8 del Volume 2, anche quando le analogie
saranno palesi.
1.5 Altri esempi di spazi vettoriali
1.5.1 Lo spazio KI delle funzioni da I a K
Un’ n-pla (ai )ni=1 di elementi di un insieme K può vedersi come una funzione
α : {1, 2, ..., n} → K, ove α(i) = ai per i = 1, 2, ..., n. Sicchè l’ insieme Kn
dei vettori di Vn (K) può identificarsi con l’ insieme K{1,2,...,n} delle funzioni da
{1, 2, ..., n} a K. Se α e β sono le funzioni corrispondenti ai vettori A = (ai )ni=1
e B = (bi )ni=1 , la funzione γ che rappresenta la somma A + B è individuata dalla
clausola γ(i) = α(i) + β(i) (i = 1, 2, ..., n). L’ opposto −A di A è rappresentato
dalla funzione che assume in i = 1, 2, ..., n il valore −α(i), mentre il prodotto kA
di A per uno scalare k è rappresentato dalla funzione che assume in i il valore
kα(i) (i = 1, 2, ..., n). Queste osservazioni ci suggeriscono di generalizzare la
definizione di Vn (K) come segue.
18 Capitolo 1
Definizione. Siano I un insieme non vuoto e K un campo. Date due funzioni
F e G da I all’ insieme K degli elementi di K, definiamo la loro somma F + G
mediante la clausola:
(F + G)(x) =def F (x) + G(x), (∀x ∈ I).
Definiamo l’ opposta −F di una funzione F da I a K mediante la clausola
(−F )(x) =def −F (x), (∀x ∈ I)
e, dato un elemento k di K, definiamo kF mediante la clausola
(kF )(x) =def k·F (x) (∀x ∈ I)
Come vettore nullo prendiamo la funzione costante 0. È facile vedere che le
(1)-(8) valgono per queste operazioni di somma, passaggio all’ opposto e molti-
plicazione per scalari (infatti, queste operazioni ‘ereditano’ le (1)-(8) da analoghe
proprietà di K).
Abbiamo dunque costruito uno spazio vettoriale a coefficienti in K, ove i
vettori sono le funzioni da I a K. Indichiamo questo spazio con KI (per analogia
con la notazione KI , che indica l’ insieme delle funzioni da I a K).
Per esempio, Vn (K) = KI con I = {1, 2, ..., n}. Gli spazi vettoriali RR e C C
definiti in §1.3.2 sono altri casi particolari di questa costruzione (con K = R o
C ed I = R o C, rispettivamente).
Cambiando l’ insieme I. Sia I = {a1 , a2 , ..., an } un qualunque insieme
con n elementi. Possiamo identificare le funzioni da I a K con le funzioni
da {1, 2, ..., n} a K, associando ad una funzione F da I a K la funzione da
{1, 2, ..., n} a K che per i = 1, 2, ..., n assume il valore F (ai ) (come se, trovando
inutilmente ingombrante la scrittura F (ai ), decidessimo di abbreviarla scriven-
do i anzichè ai ). In altre parole, detta α la funzione da {1, 2, ..., n} ad I che, per
i = 1, 2, ..., n, associa ai ad i, ad ogni funzione F da I a K associamo la compo-
sizione F α. Abbiamo cosı̀ una corrispondenza biunivoca tra KI e K{1,2,...,n} .
Questa corrispondenza conserva le operazioni. Dunque
KI ∼
= K{1,2,...,n} = Vn (K)
Tutto questo si generalizza ad insiemi di cardinalità arbitraria (Volume 1, Capi-
tolo 8, Sezioni 8.4 ed 8.7; rammento che scrivendo card(I) = card(J) si intende
dire che gli insiemi I e J hanno la stessa cardinalità, cioè che si possono porre
in corrispondenza biunivoca):
Proposizione 1.3 Se card(I) = card(J), allora KI ∼
= KJ .
Dimostrazione. Sia α : I → J una corrispondenza biunivoca tra I e J. Per ogni
F ∈ KJ , poniamo β(F ) = F α ∈ KI . La funzione β cosı̀ definita da KJ a KI è
invertibile e si vede subito che definisce un isomorfismo da KJ a KI . 2
1.5. ALTRI ESEMPI DI SPAZI VETTORIALI 19
1.5.2 Lo spazio V I
Sia I un insieme non vuoto e sia V uno spazio vettoriale con campo di scalari K.
Possiamo definire un nuovo spazio vettoriale prendendo come vettori le funzioni
da I all’ insieme V dei vettori di V, esattamente come si è fatto per KI in §1.5.1.
Date due funzioni F, G ∈ VI ed uno scalare k ∈ K, definiamo F + G, −F e kF
mediante le clausole
(F + G)(x) =def F (x) + G(x), (∀x ∈ I)
(−F )(x) =def −F (x), (∀x ∈ I)
(kF )(x) =def k·F (x), (∀x ∈ I)
e prendiamo la funzione costante O come vettore nullo. Che si ottenga uno
spazio vettoriale a coefficienti in K è ovvio. Indicheremo questo spazio con V I .
In particolare, se V = V1 (K) allora V I = KI .
Come KI , anche V I è individuato da card(I) a meno di isomorfismi (cfr.
Proposizione 1.3): se card(I) = card(J), allora V I ∼ = V J . Per dimostrarlo basta
ripetere la dimostrazione della Proposizione 1.3.
1.5.3 Matrici
Poniamo V = Vn (K) ed I = {1, 2, ..., m}. Allora i vettori di V I sono m-ple
(Xk )m n
k=1 di n-ple Xk = (xk,i )i=1 di elementi di K. Possiamo rappresentare la
m
m-pla (Xk )k=1 di vettori di Vn (K) come una tabella di scalari, ove le righe
rappresentano i vettori X1 , X2 ,...., Xm :
x1,1 x1,2 ... x1,n
x2,1 x2,2 ... x2,n
...... ...... ... ......
xm,1 xm,2 ... xm,n
Una tabella siffatta si chiama una matrice di ordine (m, n) a coefficienti in K
(brevemente, una matrice m × n in K). La si indica col simbolo (xk,i )m,n k,i=1 . Gli
m,n
scalari xk,i sono detti coefficienti o valori della matrice (xk,i )k,i=1 . Se m = n,
si scrive (xk,i )nk,i=1 anzichè (xk,i )n,n
k,i=1 e la matrice si dice quadrata di ordine n.
D’ altra parte, possiamo leggere una matrice (xk,i )m,n k,i=1 come una sequenza
di n colonne lunghe m anzichè come una sequenza di m righe lunghe n. Quindi,
la stessa matrice (xk,i )m,n
k,i=1 che rappresenta la m-pla delle n-ple
X1 = (x1,i )ni=1 , X2 = (x2,i )ni=1 , ..., Xm = (xm,i )ni=1
può anche essere presa come rappresentante della n-pla delle m-ple
X10 = (xk,1 )m 0 m 0 m
k=1 , X2 = (xk,2 )k=1 , ..., Xn = (xk,n )k=1 .
È ora chiaro che Vn (K){1,2,...,m} ∼
= Vm (K){1,2,...,n} .
È anche chiaro che le matrici m × n in K formano esse stesse uno spazio
vettoriale, con le operazioni +, − e · definite cosı̀:
(xk,i )m,n m,n m,n
k,i=1 + (yk,i )k,i=1 =def (xk,i + yk,i )k,i=1 ,
20 Capitolo 1
−(xk,i )m,n m,n
k,i=1 =def (−xk,i )k,i=1 ,
k(xk,i )m,n m,n
k,i=1 =def (kxk,i )k,i=1 .
Come vettore nullo prendiamo la matrice m × n con tutti i coefficienti nulli.
La indichiamo con Om,n (con On se m = n) e la chiamiamo matrice nulla.
Indichiamo con Mm,n (K) questo spazio vettoriale, scrivendo brevemente Mn (K)
anzichè Mn,n (K) quando m = n. Da quanto si è detto sopra è chiaro che
Proposizione 1.4 Risulta Vn (K){1,2,...,m} ∼
= Mn,m (K) ∼
= Mm,n (K).
Una matrice (xk,i )m,n
k,i=1 può rappresentarsi anche come una nm-pla
x1,1 , x1,2 , ..., x1,n , x2,1 , ..., x2,n , ..., xm,1 , ..., xm,n ,
purchè ci si ricordi che i termini della mn-pla vanno raggruppati in m sequen-
ze di n termini consecutivi, corrispondenti alle righe della matrice. In questa
riscrittura è implicito un isomorfismo:
Proposizione 1.5 Risulta Mm,n (K) ∼
= Vmn (K)
Quindi, Vn (K){1,2,...,m} ∼
= Vmn (K).
1.5.4 Lo spazio VI (K)
Siano I, K e K come in §1.5.1. Data una funzione F da I a K, poniamo
I(F ) = {x ∈ I | F (x) 6= 0}. Ovviamente, I(F ) = ∅ se e solo se F è la funzione
costante 0. È facile vedere che
(34) I(F + G) ⊆ I(F ) ∪ I(G), (∀F, G ∈ KI ),
I
(35) I(kF ) = I(F ), (∀F ∈ K , ∀k ∈ K \ {0}).
Diciamo che una funzione F : I → K è quasi-nulla se I(F ) è finito o vuoto.
La funzione costante 0, essendo sempre nulla, è anche quasi-nulla. Per (34)
e (35), la somma di due funzioni quasi-nulle è quasi-nulla ed il prodotto di uno
scalare per una funzione quasi-nulla è una funzione quasi-nulla. In particolare, l’
opposta di una funzione quasi-nulla è quasi-nulla. Dunque, possiamo restringere
le operazioni di KI all’ insieme delle funzioni quasi-nulle. Le proprietà (1)-
(8), essendo quantificate universalmente, si conservano se riferite ad ambiti più
ristretti. Quindi restano valide se restringiamo le operazioni di KI all’ insieme
delle funzioni quasi-nulle. Sicchè, le funzioni quasi-nulle da I a K formano uno
spazio vettoriale su K. Lo indichiamo con VI (K). Come vedremo nel Capitolo
5, questo è il tipo più generale di spazio vettoriale.
Proposizione 1.6 Se card(I) = card(J), allora VI (K) ∼
= VJ (K).
1.6. RESTRIZIONI A SOTTOCAMPI 21
Dimostrazione. Sia α : I → J una corrispondenza biunivoca tra I e J. Per ogni
F ∈ KJ , poniamo β(F ) = F α, come nella dimostrazione della Proposizione 1.3.
La corrispondenza biunivoca β cosı̀ definita tra KJ e KI porta funzioni quasi-
nulle in funzioni quasi-nulle ed ogni funzione quasi-nulla da I a K appartiene
all’ immagine di β. Cioè, β induce una corrispondenza biunivoca tra l’ insieme
delle funzioni quasi-nulle da J a K e l’ insieme delle funzioni quasi-nulle da I a
K. Quindi, e siccome β è un isomorfismo da KJ a KI , β induce un isomorfismo
da VJ (K) a VI (K). 2
Proposizione 1.7 Se I è finito, allora VI (K) ∼
= Vn (K), ove n = card(I).
Dimostrazione. Supponiamo che I sia finito. Allora tutte le funzioni da I a K
sono quasi-nulle. Pertanto VI (K) = KI . D’ altra parte, se n = card(I), allora
KI ∼
= Vn (K) (§1.5.1). 2
Lo spazio V∞ (K). Una successione è una funzione che ha come dominio l’
insieme N dei numeri naturali. Quindi VN (K) è lo spazio vettoriale delle suc-
cessioni a valori in K con un numero finito di termini non nulli, cioè nulle da un
certo punto in poi. Scriveremo V∞ (K) anzichè VN (K).
Rammentiamo che un insieme è numerabile se può porsi in corrispondenza
biunivoca con N (Volume 1, Capitolo 8). Per la Proposizione 1.6,
Proposizione 1.8 Se I è numerabile, allora VI (K) ∼
= V∞ (K).
L’ isomorfismo tra V∞ (K) e P∞ (K). I vettori di V∞ (K) possono assimilarsi
a sequenze finite di elementi di K: se an è l’ ultimo termine diverso da 0 in
una succesione quasi-nulla A = (ai )∞ i=1 , possiamo associare ad A la (n + 1)-pla
(ai )ni=0 , rammentandoci che tutti i restanti termini di A sono 0. Viceversa, ogni
sequenza finita (ai )ni=0 rappresenta una successione quasi-nulla:
(a0 , a1 , ..., an , 0, 0, ..., 0, ...).
Sia ora P un polinomio in una sola variabile in K, di grado n ≥ 0, e supponiamo
che K sia infinito. Allora
Pn la sequenza a0 , a1 , ..., an di elementi di K per cui
vale l’ identità P (x) = i=0 ai xi è univocamente determinata da P (Principio
d’ Identità dei Polinomi; Volume 2, Capitolo 5). Quindi P , individuando una
sequenza finita di elementi di K, individua una funzione quasi-nulla da N a
K. Al polinomio nullo associamo la funzione costante nulla. È ora chiaro che
P∞ (K) ∼ = V∞ (K).
1.6 Restrizioni a sottocampi
Sia V uno spazio vettoriale su K e sia H un sottocampo di K (Volume 2, Capitolo
2). Evidentemente le (1)-(8) restano valide anche se ci limitiamo a scalari presi
in H. Otteniamo cosı̀, con lo stesso insieme di vettori di V e usando le stesse
22 Capitolo 1
operazioni di V, uno spazio vettoriale su H, che chiameremo restrizione di V a
H.
Per esempio, lo spazio CR definito in §1.3.6 è la restrizione di V1 (C) ad R.
Abbiamo osservato che CR ∼ = V2 (R). In generale, la restrizione di Vn (C) a R è
isomorfa a V2n (R): alla n-pla (a1 + ib1 , a2 + ib2 , ..., an + ibn ) si fa corrispondere
la 2n-pla (a1 , b1 , a2 , b2 , ..., an , bn ) ...
1.7 Esercizi
Esercizio 1.1 Si riscriva l’ espressione a(2(X + A) + x(−X + B)) + Y come
combinazione lineare di X, Y, A, B.
Risposta. (2a − ax)X + 1·Y + 2aA + axB.
(2)
Esercizio 1.2 Sia P∞ (K) l’ insieme dei polinomi in due variabili x, y a coeffi-
(2)
cienti in K. Verificate che P∞ (K), con le solite operazioni di somma, passaggio
all’ opposto e moltiplicazione per scalari, è uno spazio vettoriale su K e che, se
K è infinito, allora P∞ (K) ∼
(2)
= V∞ (K).
(2)
Traccia. Ogni polinomio P ∈ P∞ (K) nelle variabili x ed y è combinazione
u v
lineare di monomi del tipo x y e, se K è infinito, i coefficienti di questa com-
binazione lineare sono univocamente determinati da P . Quei monomi possono
disporsi in successione: 1, x, y, x2 , xy, y 2 , x3 , x2 y, xy 2 , y 3 , ....
(2)
Esercizio 1.3 Sia Pn (K) l’ insieme dei polinomi a coefficienti in K nelle due
(2)
variabili x, y e di grado ≤ n. Verificate che Pn (K), con le solite operazioni di
somma, passaggio all’ opposto e moltiplicazione per scalari, forma uno spazio
vettoriale e che, se K è infinito, allora Pn (K) ∼
(2)
= Vm (K) ove m = (n + 2)(n +
1)/2.
Traccia. Usiamo ora solo i monomi xu y v con u + v ≤ n. Questi sono (n +
2)(n + 1)/2.
(2)
Esercizio 1.4 Sia P On (K) l’ insieme costituito dai polinomi omogenei di gra-
do n nelle due variabili x, y, a coefficienti in K, e dal polinomio nullo. Si di-
(2)
mostri che P On (K), con le solite operazioni di somma, passaggio all’ opposto
e moltiplicazione per scalari, forma uno spazio vettoriale e che, se K è infinito,
allora P On (K) ∼
(2)
= Vn+1 (K).
Esercizio 1.5 Sia K un campo e sia H un suo sottocampo. Verificate che gli
elementi di K formano uno spazio vettoriale con H come campo di scalari e che
questo spazio vettoriale è la restrizione di V1 (K) ad H.
√
Esercizio 1.6 Sia K il sottocampo di C generato da 2 (Si veda il Capitolo 2
del Volume 2 per la nozione di “sottocampo generato da”). Verificate che K,
visto come spazio vettoriale sul campo Q dei razionali, è isomorfo a V2 (Q).
1.7. ESERCIZI 23
Esercizio 1.7 Sia K = GF (2) (Volume 2, Capitolo 2) e sia I un insieme non
vuoto. Prendiamo i sottoinsiemi di I come vettori, definendo la somma σ, il
passaggio all’ opposto ω e la moltiplicazione µ per scalari come segue:
σ(X, Y ) = (X \ Y ) ∪ (Y \ X), ω(X) = X, µ(0, X) = ∅, µ(1, X) = X.
Come vettore nullo prendiamo ∅. Verificate che si è cosı̀ definito uno spazio
vettoriale a coefficenti in K, isomorfo a KI .
Esercizio 1.8 Siano K ed I come nell’ esercizio precedente, ma limitiamoci
ora a considerare sottoinsiemi finiti di I (includendo ∅ tra essi, come al solito).
Verificate che si ottiene ora uno spazio vettoriale isomorfo a VI (K).
Esercizio 1.9 Sia R+ l’ insieme dei numeri reali positivi. Definiamo tre fun-
zioni
σ : R+ × R+ −→ R+ , ω : R+ −→ R+ , µ : R × R+ −→ R+ ,
ponendo σ(x, y) = xy, ω(x) = x−1 e µ(k, x) = xk . Prendiamo 1 come vettore
nullo. Verificate che queste operazioni definiscono uno spazio vettoriale a coef-
ficienti in R con R+ come insieme di vettori e dimostrate che questo spazio è
isomorfo a V1 (R).
Suggerimento. Per rispondere alla seconda domanda, considerate la funzione
esponenziale ex .
24 Capitolo 1
Capitolo 2
Sottospazi lineari
2.1 Definizione
Sia V uno spazio vettoriale su un campo K e sia X un insieme non vuoto di
vettori di V. Si dice che X è un sottospazio lineare di V se verifica le due
proprietà seguenti, dette proprietà di chiusura:
(1) X, Y ∈ X =⇒ X + Y ∈ X, (∀X, Y ∈ V)
(2) X ∈ X =⇒ xX ∈ X, (∀X ∈ V, ∀x ∈ K)
Sostituendo −1 ad x nella (2) si ottiene:
(3) X ∈ X =⇒ −X ∈ X, (∀X ∈ V)
Siccome si è assunto X 6= ∅, c’ è qualche vettore A ∈ X. Si ha 0·A ∈ X per (2).
Quindi,
(4) O∈X
Da (1) e (2) segue anche che
n
X
(5) X1 , X2 , ..., Xn ∈ X =⇒ xi Xi ∈ X
i=1
(∀X1 , X2 , ..., Xn ∈ V, ∀x1 , x2 , ..., xn P
∈ K e per ogni numero naturale n ≥ 1).
n
Infatti, xi Xi ∈ X per (2) e quindi i=1 xi Xi ∈ X applicando ripetutamente
(1).
In breve, la (5) dice che ogni combinazione lineare di vettori di X è ancora
un vettore di X. In particolare, ogni combinazione lineare di due vettori di X è
ancora un vettore di X:
(6) X, Y ∈ X =⇒ xX + yY ∈ X, (∀X, Y ∈ V, ∀x, y ∈ K)
Potremmo anche prendere la (5) o la (6) come definizione di sottospazio lineare.
Infatti da (5) possiamo riottenere (1) e (2): la (1) è un caso particolare della
25
26 Capitolo 2
(5) con n = 2 ed x1 = x2 = 1 (con x = y = 1) mentre la (2) è il caso particolare
della (5) con n = 1. Analogamente, ponendo x = y = 1 in (6) riotteniamo (1)
e ponendovi Y = O riotteniamo (2). Quindi, ciascuna delle due proprietà (5) e
(6) è equivalente alla coppia di proprietà (1) e (2).
Le (1)-(8) del Capitolo 1, essendo proprietà quantificate universalmente, si
conservano se le variabili che vi compaiono vengono fatte variare in ambiti più
ristretti di V. Quindi le operazioni di V, ristrette ad un sottospazio lineare X
di V, definiscono su X una struttura di spazio vettoriale a coefficienti in K,
che chiameremo spazio indotto da V su X, indicandolo con X . Ovviamente, i
sottospazi lineari di X sono i sottospazi lineari di V contenuti in X.
Mi prenderò spesso la libertà di identificare un sottospazio lineare X con lo
spazio vettoriale X su esso indotto, usando lo stesso simbolo per entrambi. Per
esempio, spesso scriverò X ⊆ Y, X ∩ Y, X ∪ Y, ... anzichè X ⊆ Y, X ∩ Y,
X ∪ Y, ...
2.2 Esempi
2.2.1 Sottospazi banali
Ogni spazio vettoriale V ammette sempre sè stesso e {O} come sottospazi lineari,
detti sottospazi banali di V. Per la (4), {O} è il minimo tra i sottospazi lineari di
V. Lo si chiama sottospazio nullo. Visto come spazio vettoriale, lo chiamiamo
spazio nullo. Chiameremo invece V sottospazio improprio. I sottospazi lineari
propri di V sono quelli diversi da V.
2.2.2 Sottospazi lineari di V2 (R) e V3 (R)
Se rappresentiamo i vettori di V2 (R) come punti del piano, allora i sottospazi
lineari non banali di V2 (R) sono rappresentati dalle rette per il punto O che si
è scelto come origine.
Infatti, sia A un vettore non nullo di un sottospazio lineare non banale
X di V2 (R). Per (2), X deve contenere tutti i multipli scalari di A, cioè i
vettori rappresentati dai punti della retta LA per O ed A. D’ altra parte, se
X contenesse qualche altro vettore B 6∈ LA , allora dovrebbe contenere anche la
retta LB per O e B. Ogni vettore X di V2 (R) può sempre rappresentarsi come
somma di due opportuni vettori XA ∈ LA e XB ∈ LB :
LB
XB • •X
• •
O XA LA
2.2. ESEMPI 27
Sicchè, per (1) avremmo X = V2 (R), contro l’ ipotesi che il sottopazio lineare
X non fosse banale. Per evitare l’ assurdo dobbiamo negare che X contenga
qualche vettore fuori di LA . Dunque X = LA .
Con ragionamenti simili (che lascio al lettore) si vede che, rappresentati i
vettori di V3 (R) come punti del solito spazio tridimensionale in cui viviamo, i
sottospazi lineari non banali di V3 (R) corrispondono alle rette per l’ origine O
ed ai piani per O.
Dunque, un piano o una retta non passante per O non rappresenta mai
un sottospazio lineare. L’ unione di due rette distinte o di due piani distinti
non è mai un sottospazio lineare, anche se entrambe quelle rette o quei piani
passassero per O.
2.2.3 Sottospazi lineari di Vn (K)
Soluzioni di equazioni lineari omogenee. Consideriamo un’ equazione
lineare omogenea in K in n incognite:
n
X
ai xi = 0.
i=1
Detta A la n-pla (ai )ni=1 dei suoi coefficienti, uso A anche come nome per questa
equazione (Capitolo 1, §1.3.4) ed indico con sol(A) la sua soluzione generale
(Volume 1, Capitolo 3, §3.3.3). Ovviamente, sol(A) è un insieme di vettori
di Vn (K) e contiene il vettore nullo perchè l’ equazione A è omogenea. Sicchè
sol(A) 6= ∅.
Proposizione 2.1 L’ insieme sol(A) è un sottospazio lineare di Vn (K).
Dimostrazione. Siano X = (xi )ni=1 ed Y = (yi )ni=1 soluzioni di A e sia z ∈ K.
Allora:
n
X n
X n
X
ai (xi + yi ) = ai xi + ai yi = 0 + 0 = 0,
i=1 i=1 i=1
n
X n
X
ai zxi = z· ai xi = z·0 = 0.
i=1 i=1
Sicchè le proprietà di chiusura (1) e (2) valgono per sol(A). 2
Se A è l’ equazione banale allora sol(A) = Vn (K).
Proposizione 2.2 Se A non è l’ equazione banale, allora sol(A) ∼
= Vn−1 (K).
Dimostrazione. Sia A non banale. Allora almeno uno dei suoi coefficienti a1 ,
a2 ,..., an è diverso da 0. Supponiamo per fissare le idee che sia an 6= 0. Allora
28 Capitolo 2
dall’ equazione A possiamo ricavare l’ n-esima incognita in funzione delle altre,
ottenendo cosı̀
n−1
X ai
xn = − xi .
i=1
an
Quindi sol(A) è l’ insieme
n−1
X ai
{(x1 , x2 , ..., xn−1 , − xi )}x1 ,x2 ,...,xn−1 ∈K .
i=1
an
L’ applicazione α : sol(A) −→ Vn−1 (K) definita ponendo
n−1
X ai
α(x1 , x2 , ..., xn−1 , − xi ) = (x1 , x2 , ..., xn−1 )
i=1
an
è un isomorfismo da sol(A) a Vn−1 (K). 2
Soluzioni di sistemi lineari omogenei. Consideriamo ora un sistema di
m ≥ 1 equazioni lineari omogenee in n incognite in K:
Pn
i=1 a1,i xi = 0
Pn
i=1 a2,i xi = 0
.......................
Pn
i=1 am,i xi = 0
che possiamo brevemente scrivere cosı̀:
n
X
ak,i xi = 0 (k = 1, 2, ..., m).
i=1
(Naturalmente, se m = 1 il sistema consite di una sola equazione.) Come prima,
possiamo prendere il vettore Ak = (ak,i )ni=1 come nome della k-esima equazione
del sistema. Indichiamo con M la m-pla (Ak )m n m
k=1 = ((ak,i )i=1 )k=1 . In pratica,
M è una matrice m × n (Capitolo 1, §1.5.3). Prendiamo M come un nome per
il sistema che stiamo considerando e indichiamo con sol(MTm ) la sua soluzione
generale (Volume 1, Capitolo 3, §3.3.3). Cioè sol(M ) = k=1 sol(Ak ).
Proposizione 2.3 L’ insieme sol(M ) è un sottospazio lineare di Vn (K).
Dimostrazione. Si può dimostrare questa proposizione con lo stesso ragiona-
mento usato per la Proposizione 2.1 (lascio i dettagli al lettore). Se non si vuole
ripetere quel ragionamento, la si deduca dal Lemma 2.7 della prossima Sezione
2.3 e dalla Proposizione 2.1. 2
Viceversa, ogni sottospazio lineare di Vn (K) è soluzione di qualche sistema di
equazioni lineari omogenee. Una dimostrazione di questa affermazione verrà
2.2. ESEMPI 29
data nel Capitolo 6. Comunque, già nei prossimi §§2.2.4 e 2.2.5 vedremo che i
sottospazi lineari non banali di V2 (R) sono precisamente le soluzioni generali di
equazioni lineari omogenee non banali in due incognite e che i sottospazi lineari
di V3 (R) sono le soluzioni generali di sistemi di equazioni lineari omogenee in
tre incognite.
2.2.4 Rette per O in V2 (R)
Si è visto in §2.2.2 che i sottospazi lineari non banali di V2 (R) sono le rette per
O. D’ altra parte, ogni equazione lineare omogenea in due incognite individua
un sottospazio lineare di V2 (R). Quindi una tale equazione, se non è l’ equazione
banale, individua una retta per O.
Più in dettaglio, consideriamo l’ equazione ax + by = 0. Cominciamo col
supporre b 6= 0. Allora questa equazione equivale alla y = cx, ove c = −b−1 a.
La sua soluzione è l’ insieme {(x, cx) | x ∈ R} dei multipli scalari x(1, c) del
vettore (1, c), cioè l’ insieme dei multipli scalari di (b, −a). Quest’ insieme è la
retta per O e per il punto (1, c), che indicheremo con Lc . Ovviamente, Lc è
anche la retta per O e per (b, −a). (Il numero c è detto coefficiente angolare
della retta Lc .)
È evidente che al variare di c otteniamo tutte le rette per O ad esclusione
dell’ asse delle ordinate, che invece corrisponde all’ equazione x = 0 (cioè, alla
ax + by = 0 con b = 0 6= a). L’ asse delle ascisse è la retta L0 , rappresentata
dall’ equazione y = 0.
L’ equazione banale 0·x + 0·y = 0 (cioè, 0 = 0) ha come soluzione generale
il sottospazio improprio V2 (R). Il sottospazio nullo può essere descritto da un
qualunque sistema di due equazioni omogenee non proporzionali; per esempio,
x + y = 0 ed x − y = 0.
2.2.5 Rette e piani per O in V3 (R)
Sappiamo da §2.2.2 che i sottospazi lineari non banali di V3 (R) sono le rette e i
piani passanti per O. E sappiamo da §2.2.3 che un sistema di equazioni lineari
omogenee in tre incognite in R individua un sottospazio lineare di V3 (R). Nei
seguenti paragrafi esamineremo la situazione più in dettaglio.
Un po’ di terminologia. Usiamo la convenzione di indicare con x, y e z
la prima, la seconda e la terza coordinata di un generico punto dello spazio
rispetto ad un dato sistema di riferimento. Diciamo orizzontali i piani paralleli
al piano individuato dai primi due assi del sistema e verticali quelli paralleli
all’ asse delle quote. I piani verticali per l’ origine O = (0, 0, 0) sono quelli che
contengono l’ asse delle quote. Il piano individuato dai primi due assi è l’ unico
piano orizzontale per O ed è rappresentato dall’ equazione z = 0. Lo chiamiamo
piano di base. Le rette parallele all’ asse delle quote le diciamo verticali. Cosı̀,
l’ asse delle quote è la retta verticale per O.
30 Capitolo 2
Piani per O. Consideriamo una singola equazione non banale
ax + by + cz = 0
e supponiamo per cominciare che c 6= 0. Allora questa equazione equivale alla
z = px + qy ove si è posto p = −c−1 a e q = −c−1 b. Evidentemente la sua
soluzione generale è un sottospazio lineare proprio. D’ altra parte, (1, 0, p) e
(0, 1, q) sono soluzioni particolari della nostra equazione. Quindi la soluzione
generale dell’ equazione, contenendo due vettori non nulli non proporzionali ed
essendo un sottospazio lineare proprio di V3 (R), è un piano: il piano passante
per i punti O, (1, 0, p) e (0, 1, q). In questo modo, al variare di p e q otteniamo
tutti i possibili piani non verticali per O. Dunque
Proposizione 2.4 I piani non verticali passanti per O sono le soluzioni gene-
rali delle equazioni del tipo ax + by + cz = 0 con c 6= 0.
Supponiamo ora c = 0. Si è supposto che l’ equazione ax + by + cz = 0 non
fosse quella banale. Quindi, uno almeno dei coefficienti a o b è 6= 0.
L’ insieme {(x, y, 0) | ax + by = 0} è un sottospazio lineare della soluzione
generale dell’ equazione ax + by + 0z = 0 (brevemente, ax + by = 0) e, siccome l’
equazione ax + by = 0 non è quella banale, quel sottospazio lineare è la retta per
O e per (b, −a, 0), che giace sul piano di base (cfr. §2.2.4). Indichiamo questa
retta con La,b .
Fissato un qualunque punto (u, v, 0) su La,b , tutti i punti (u, v, z) sono solu-
zioni dell’ equazione ax + by = 0. L’ insieme di questi punti è la retta verticale
passante per (u, v, 0). Dunque la soluzione generale della ax + by = 0 è formata
dalle rette verticali condotte per punti di La,b . Cioè, è il piano verticale passan-
te per La,b . Siccome al variare di a e b (escludendo però il caso a = b = 0) si
ottengono tutte le rette per O sul piano di base (cfr. §2.2.4), abbiamo cosı̀ tutti
i piani verticali per O. Cioè
Proposizione 2.5 I piani verticali per O sono le soluzioni generali delle equa-
zioni non banali del tipo ax + by = 0.
In particolare, le equazioni x = 0 ed y = 0 rappresentano rispettivamente il
piano verticale contenente l’ asse delle ordinate ed il piano verticale contenente
l’ asse delle ascisse.
Analogamente, un’ equazione non banale del tipo by + cz = 0 rappresenta
un piano passante per l’ asse delle ascisse mentre un’ equazione non banale del
tipo ax + cz = 0 rappresenta un piano passante per l’ asse delle ordinate.
Rette per O. Consideriamo ora un sistema di due equazioni non banali e non
proporzionali tra loro
a1 x + b1 y + c1 z = 0
a2 x + b2 y + c2 z = 0
Ciascuna di esse rappresenta un piano per O e, siccome le due equazioni non sono
equivalenti (infatti si è supposto che non siano proporzionali), esse individuano
2.2. ESEMPI 31
piani distinti. Sicchè la soluzione generale del sistema, essendo l’ intersezione di
due distinti piani per O, è una retta per O. Viceversa, data una retta L per O,
possiamo sempre pensare L come intersezione di due piani per O, che saranno
rappresentati da due equazioni lineari omogenee non proporzionali tra loro. Il
sistema di quelle due equazioni rappresenta L. In breve:
Proposizione 2.6 Le rette per O sono le soluzioni generali dei sistemi di due
equazioni lineari omogenee in x, y, z, non banali e non proporzionali fra loro.
Ci sono infiniti modi di scegliere due piani P1 , P2 tra gli infiniti piani con-
tenenti L in modo da avere L = P1 ∩ P2 . La scelta più semplice è prendere P1
e P2 passanti per qualcuno degli assi.
Per esempio, se L è la retta per O e per P = (a, b, c) e se b 6= 0 6= c,
possiamo scegliere come P1 il piano verticale per L (cioè il piano per O, P e
(a, b, 0), individuato dall’ equazione bx − ay = 0) e come P2 il piano per O, P
e (a, 0, c) (cioè il piano per L e per il secondo asse, individuato dall’ equazione
cx − az = 0). La retta L è cosı̀ rappresentata dal sistema
bx − ay = 0
cx − az = 0
Se invece c = 0, possiamo prendere il piano verticale per L (individuato dall’
equazione bx − ay = 0) ed il piano di base. Rappresentiamo cosı̀ L col sistema
bx − ay = 0
z=0
Infine, se b = 0, possiamo prendere il piano per O, P e (a, 1, c) (passante per
il secondo asse e rappresentato dall’ equazione cx − az = 0) ed il piano indivi-
duato dal primo e dal terzo asse (rappresentato dall’ equazione y = 0). Cosı̀,
rappresentiamo L col sistema
cx − az = 0
y=0
Sistemi di tre equazioni. Consideriamo ora il caso di tre equazioni lineari
omogenee non banali, nelle incognite x, y, z ∈ R. Supponiamo che nessuna di
esse sia conseguenza materiale delle altre (Volume 2, Capitolo 7, Sezione 7.3).
Cioè, il piano descritto da una qualunque di esse non contiene la retta descritta
dalle altre due. Sicchè quel piano e quella retta, passando entrambi per O, si
intersecano in O. Vale a dire, {O} è la soluzione del sistema.
Vedremo più avanti che un sistema di più di tre equazioni lineari omogenee
in tre incognite contiene sempre equazioni superflue, cioè equazioni che sono
conseguenze delle rimanenti equazioni del sistema. Sicchè ogni sistema di più di
tre equazioni lineari omogenee in tre incognite si riduce sempre ad un sistema
di al più tre equazioni.
32 Capitolo 2
2.2.6 Altri esempi
Ci limitiamo ad alcuni esempi presi dal Capitolo 1. Le dimostrazioni delle
affermazioni che faremo sono lasciate al lettore. Altri esempi saranno dati negli
esercizi della Sezione 2.5.
1. Lo spazio vettoriale EOn (K) delle equazioni lineari omogenee in n incognite
in K è un sottospazio lineare dello spazio En (K) di tutte le equazioni lineari
in n incognite in K. L’ isomorfismo tra En (K) e Vn+1 (K) considerato in §1.3.5
del Capitolo 1 fa corrispondere ad EOn (K) il sottospazio lineare sol(Un+1 ) di
Vn+1 (K), ove Un+1 è l’ (n + 1)-esimo versore di Vn+1 (K).
2. Lo spazio Pn (K) dei polinomi di grado ≤ n in una variabile in K è un
sottospazio lineare dello spazio P∞ (K) di tutti i polinomi in una variabile in K.
A sua volta P∞ (K) può vedersi come un sottospazio lineare di KK , ove K è l’
insieme degli elementi del campo K.
(m)
Più in generale, l’ insieme Pn (K) dei polinomi di grado ≤ n in m variabili
(m)
in K è un sottospazio lineare dello spazio P∞ (K) di tutti i polinomi in m
(m)
variabili in K (Capitolo 1, Esercizi 1.2 ed 1.3). A sua volta, P∞ (K) è un
sottospazio lineare di KI con I = Km .
3. Dato un insieme I 6= ∅, un campo K ed un elemento a ∈ I, le funzioni da I
a K che valgono 0 in a formano un sottospazio lineare di KI . Possiamo anche
prendere un sottoinsieme J di I e considerare le funzioni da I a K che valgono 0
su J. Otteniamo cosı̀ ancora un sottospazio lineare di KI che, se J 6= I, risulta
isomorfo a KI\J .
Ma vi sono altri modi di costruire sottospazi lineari di KI . Per esempio, l’
insieme delle funzioni da I a K costanti su un sottoinsieme J di I è un sottospazio
lineare di KI , e contiene il sottospazio lineare delle funzioni che valgono 0 su
J, considerato al paragrafo precedente. In particolare, l’ insieme delle funzioni
costanti su tutto I è un sottospazio lineare di KI . Anche lo spazio VI (K) delle
funzioni quasi-nulle da I a K (Capitolo 1, §1.5.4) è un sottospazio lineare di KI .
2.3 Generatori
2.3.1 Intersezioni di sottospazi lineari
Sia {Xi }i∈I una famiglia di sottospazi lineari di uno spazio vettoriale V.
T
Lemma 2.7 L’ intersezione i∈I Xi è un sottospazio lineare di V.
Dimostrazione.
T Per la (4), O ∈ Xi per ogni i ∈ I. Quindi O ∈ ∩i∈I Xi . Pertanto
X
i∈I i 6
= ∅ (rammentiamo che abbiamo stabilito la definizione di sottospazio
lineare solo in riferimento a sottoinsiemi non vuoti di V).
2.3. GENERATORI 33
T
Dati X, Y ∈ i∈I Xi edTx, y ∈ K, si ha xX +
TyY ∈ Xi per ogni i ∈ I,Tper (6)
in Xi . Quindi xX + yY ∈ i∈I Xi . Dunque in i∈I Xi vale la (6). Cioè i∈I Xi
è un sottospazio lineare di V. 2
Invece, come si è già osservato in §2.2.2 nel caso di V2 (R) e V3 (R), un’ unione
di sottospazi lineari non è mai un sottopazio lineare. Lo è se e solo se uno di
quei sottospazi contiene tutti gli altri (Sezione 2.5, Esercizio 2.13).
2.3.2 Il sottospazio lineare L(X)
Nel seguito supponiamo dati uno spazio vettoriale V ed un insieme X di vettori
di V. Indichiamo con LX la famiglia dei sottospazi lineari di V che contengono
X. Ovviamente, V ∈ LX . Quindi LX 6= ∅. Poniamo
\
L(X) =def (Y | Y ∈ LX ).
Nel seguente teorema parliamo del minimo di LX . Nel far ciò ci riferiamo alla
relazione d’ inclusione ⊆ tra sottoinsiemi di V, che è una relazione d’ ordine
(Volume 1, Capitolo 4, Sezione 4.5).
Teorema 2.8 La famiglia LX ammette minimo ed L(X) è il suo minimo.
Dimostrazione. Evidentemente X ⊆ L(X). Inoltre, L(X) è un sottospazio
lineare di V per il Lemma 2.7. Quindi L(X) ∈ LX . Siccome d’ altra parte
L(X) ⊆ Y per ogni Y ∈ LX , L(X) è il minimo di LX . 2
In breve, L(X) è il minimo sottospazio lineare di V contenente X. Chiamiamo
L(X) sottospazio lineare di V generato da X. Diciamo che un insieme X di
vettori è un insieme di generatori per un sottospazio lineare Y (o che genera Y,
o che è generante per Y) se Y = L(X).
Scritture come L({A1 , A2 , ..., An }), L({A, B}), L({A}) ecc. verranno abbre-
viate in L(A1 , A2 , ..., An ), L(A, B), L(A) ecc.
2.3.3 Proprietà dell’ operatore L
Manteniamo le notazioni del paragrafo precedente.
Proposizione 2.9 Dato un qualunque sottoinsieme X di V, risulta X = L(X)
se e solo se X è un sottospazio lineare di V.
Dimostrazione. Se X è un sottospazio lineare di V, allora X è evidentemente
il minimo di LX , cioè L(X) = X. Viceversa, se X = L(X), allora X è un
sottospazio lineare di V. 2
Dalla Proposizione 2.9 segue subito che
(7) L(L(X)) = L(X), (∀X ⊆ V).
34 Capitolo 2
L∅ è la famiglia di tutti i sottopazi lineari di V e, siccome {O} è il minimo tra
i sottopazi lineari di V, risulta L∅ = L{O} . Quindi
(8) L(∅) = {O}.
Inoltre
(9) X ⊆ Y =⇒ L(X) ⊆ L(Y), (∀X, Y ⊆ V).
Dimostrazione. SeT X ⊆ Y, allora T
ogni membro di LY contiene X. Quindi
LY ⊆ LX . Sicchè (Z | Z ∈ LY ) ⊇ (Z | Z ∈ LX ). Cioè L(X) ⊆ L(Y). 2
Si noti che se sostituiamo nella (9) a ⇒ la doppia implicazione ⇔, l’ asserzione
che ne risulta è falsa. È infatti molto facile trovare esempi ove L(X) ⊆ L(Y) (o
addirittura L(X) = L(Y)), e tuttavia X 6⊆ Y. Eccone uno.
Se A e B sono vettori di V3 (R) in uno stesso piano P per O, tra loro non
proporzionali, allora L(X) ⊆ L(A, B) (= P) per ogni sottoinsieme X di P
(avendosi anzi L(X) = L(A, B) se X non è contenuto in una retta per O),
mentre {A, B} ha solo quattro sottoinsiemi: {A, B}, {A}, {B} e ∅.
Volendo un’ asserzione analoga alla (9) ma stabilita nella forma ⇔, dobbiamo
accontentarci della seguente:
(10) X ⊆ L(Y) ⇐⇒ L(X) ⊆ L(Y), (∀X, Y ⊆ V).
(La freccia ⇒ segue subito da (8) e (7), mentre la freccia ⇐ è una banale
conseguenza di (8).) In particolare:
(11) X ∈ L(Y) ⇐⇒ L(X) ⊆ L(Y), (∀X ∈ V, ∀Y ⊆ V).
Dalla (10) si ha anche che
(12) L(X) = L(Y) ⇐⇒ (X ⊆ L(Y)) ∧ (Y ⊆ L(X)), (∀X, Y ⊆ V).
Nel caso di sottospazi lineari generati da singoli vettori si può dire di più:
(13) (X ∈ L(Y )) ∧ (X 6= O) =⇒ L(X) = L(Y ), (∀X, Y ∈ V).
Dimostrazione. Sia O 6= X ∈ L(Y ). Allora X = yY per qualche y ∈ K ed y 6= 0
perchè X 6= O (Capitolo 1, (24)). Quindi Y = y −1 X. Dunque Y ∈ L(X). La
conclusione L(X) = L(Y ) segue ora dalla (12). 2
Siano X, Y ⊆ V. Per il Lemma 2.7, L(X) ∩ L(Y) è un sottospazio lineare.
Inoltre
(14) L(X ∩ Y) ⊆ L(X) ∩ L(Y)
per la (9) applicata alle due inclusioni X ∩ Y ⊆ X e X ∩ Y ⊆ Y. Ma in generale
L(X ∩ Y) 6= L(X) ∩ L(Y).
Per esempio, dati in V3 (R) quattro vettori distinti non nulli A, B, C, D con
A non proporzionale a B e C non proporzionale a D, i piani L(A, B) ed L(C, D)
2.3. GENERATORI 35
o coincidono o si intersecano su una retta per O, mentre {A, B} ∩ {C, D} = ∅ e
quindi L({A, B} ∩ {C, D}) = {O}.
Oppure, siano A, B, C tre vettori in un piano P per O, a due a due non
proporzionali. Allora L(A, B) = L(B, C) = P, e quindi L(A, B) ∩ L(B, C) = P.
Mentre L({A, B} ∩ {B, C}) è la retta L(B).
(15.a) L(X) ∪ L(Y) ⊆ L(X ∪ Y), (∀X, Y ⊆ V).
(Questo si ottiene applicando (9) alle inclusioni X ⊆ X ∪ Y ed Y ⊆ X ∪ Y.) Ma
l’ insieme L(X) ∪ L(Y) non è quasi mai un sottospazio lineare (come osservato
alla fine del §2.3.1, lo è se e solo se uno dei due sottospazi L(X) od L(Y) contiene
l’ altro). Sicchè in genere L(X) ∪ L(Y) ⊂ L(X ∪ Y). Però
(15.b) L(L(X) ∪ L(Y)) = L(X ∪ Y), (∀X, Y ⊆ V).
Dimostrazione. Risulta L(L(X) ∪ L(Y)) ⊇ L(X ∪ Y) per la (9) applicata
all’ inclusione X ∪ Y ⊆ L(X) ∪ L(Y). Viceversa, da (9) e (15.a) si ottiene
L(L(X) ∪ L(Y)) ⊆ L(L(X ∪ Y)) e quindi L(L(X) ∪ L(Y)) ⊆ L(X ∪ Y)) per
(7). Siccome dunque ciascuno dei due insiemi L(L(X) ∪ L(Y)) ed L(X ∪ Y) è
contenuto nell’ altro, essi coincidono. 2
Si può definire una somma tra sottoinsiemi X e Y di V ponendo
X + Y =def {X + Y | X ∈ X, Y ∈ Y}.
Proposizione 2.10 Risulta X + Y = L(X ∪ Y) per ogni scelta di sottospazi
lineari X , Y di V.
Dimostrazione. Siano X , Y sottospazi lineari di V. Siccome X = X + {O} ⊆
X + Y e Y = {O} + Y ⊆ X + Y, si ha che X ∪ Y ⊆ X + Y. Dimostriamo che
X + Y è un sottospazio lineare di V.
Intanto, O = O + O ∈ X + Y. Quindi X + Y 6= ∅. Verifichiamo che X + Y
verifica la (6). Siano Z1 , Z2 arbitrari vettori di X + Y e z1 , z2 ∈ K. Allora
Z1 = X1 + Y1 e Z2 = X2 + Y2 per opportuni vettori X1 , X2 ∈ X ed Y1 , Y2 ∈ Y.
Risulta z1 X1 + z2 X2 ∈ X e z1 Y1 + z2 Y2 ∈ Y per (6) applicata ad X e Y. Ne
segue che z1 Z1 + z2 Z2 ∈ X + Y.
Dunque X + Y è un sottospazio lineare di V e contiene X ∪ Y. Pertanto,
X + Y ⊇ L(X ∪ Y). D’ altra parte, è ovvio che X + Y ⊆ L(X ∪ Y). Quindi
X + Y = L(X ∪ Y). 2
Da questa proposizione e dalla (15.b) si ottiene subito che
(15.c) L(X ∪ Y) = L(X) + L(Y), (∀X, Y ⊆ V).
2.3.4 Un’ altra descrizione di L(X)
Teorema 2.11 Sia X 6= ∅. Allora L(X) è l’ insieme di tutti i vettori che
possono essere espressi come combinazioni lineari di elementi di X.
36 Capitolo 2
Dimostrazione. Indichiamo con cl(X) l’ insieme di tutte le combinazioni lineari
di elementi di X. Ovviamente, cl(X) ⊆ L(X). Quindi, per dimostrare che
cl(X) = L(X) basta dimostrare che L(X) ⊆ cl(X).
Intanto, cl(X) è un sottospazio lineare. Infatti la somma di due combina-
zioni lineari di elementi di X è una combinazione lineare di elementi di X e
moltiplicando per uno scalare una combinazione lineare di elementi di X si ot-
tiene ancora una combinazione lineare di elementi di X. Dunque, le proprietà
di chiusura (1) e (2) valgono per cl(X).
Siccome poi ogni vettore è combinazione lineare di sè stesso (X = 1·X), si
ha anche X ⊆ cl(X). Quindi cl(X) è uno dei sottospazi lineari che contengono
X. Perciò cl(X) ⊇ L(X), che è il minimo tra i sottospazi lineari contenenti X.
2.
Tutte le proprietà considerate in §2.3.3 si possono dimostrare in modo diverso
da come abbiamo fatto, partendo dall’ uguaglianza L(X) = cl(X) anzichè dalla
definizione di L(X) come il minimo sottospazio lineare contenente X. Lascio i
dettagli al lettore.
2.4 Esempi
2.4.1 Esempi in V2 (R) e in V3 (R)
È chiaro da §2.2.2 che i sottospazi lineari non banali di V2 (R) sono quelli del
tipo L(A) con A vettore non nullo e che bastano due vettori non proporzionali
per generare tutto V2 (R). Quest’ ultima affermazione equivale a dire che le
due rette che congiungono O coi punti A e B possono scegliersi come assi di
un sistema di riferimento nel piano, prendendo A e B come punti unità sui due
assi. Infatti, dire che un punto X ha coordinate (x, y) rispetto a questo sistema
è come dire che, in quanto vettore, X = xA + yB.
yB xA + yB
*
B
•
- -
O A xA
In §2.2.2 si è anche visto che, in V3 (R), le rette per l’ origine O sono i sottospazi
lineari del tipo L(A) con A 6= O, mentre i piani per O sono i sottospazi lineari
del tipo L(A, B) con A e B non proporzionali. E che, se A, B, C sono vettori di
V3 (R) non appartenenti ad uno stesso piano per O, allora L(A, B, C) = V3 (R).
Quest’ ultima affermazione dice che le tre rette che congiungono O coi punti
A, B e C possono scegliersi come assi di un sistema di riferimento, prendendo A,
B e C come punti unità su ciascuno dei tre assi. Un punto ha coordinate (x, y, z)
rispetto a questo sistema se e solo se, in quanto vettore, è la combinazione lineare
xA + yB + zC di A, B e C.
2.4. ESEMPI 37
zC PP
PP
PP xA + yB + zC
C *
B
O •
P - -
A
PPP yB
xA PP
q
xA + yB
Naturalmente, qualunque altro insieme di vettori di V3 (R) non contenuti in uno
stesso piano per O genera tutto V3 (R). Per esempio, due rette sghembe o due
rette contenute in un piano non passante per O generano tutto V3 (R). Invece,
il sottospazio lineare generato da una retta non passante per O è il piano per O
e per quella retta. Il sottospazio lineare generato da due rette per O è il piano
che le contiene.
2.4.2 Esempi in Vn (K)
Generatori per Vn (K). Evidentemente, i versori U1 , U2 ,..., Un (Capitolo 1,
§1.3.4) generano tutto Vn (K). Ma possiamo generare Vn (K) in infiniti altri
modi. Per esempio, un qualunque insieme di vettori contenente tutti i versori
genera Vn (K). Diamo un esempio meno banale.
Pk
Per ogni k = 1, 2, ..., n, poniamo Vk = i=1 Ui . Si ha U1 = V1 e risul-
ta Uk = Vk − Vk−1 per k = 2, ..., n. Sicchè tutti i versori appartengono ad
L(V1 , V2 , ..., Vn ). Quindi L(V1 , V2 , ..., Vn ) ⊇ L(U1 , U2 , ..., Un ) per (10). Dunque
L(V1 , V2 , ..., Vn ) = Vn (K), perchè L(U1 , U2 , ..., Un ) = Vn (K).
Generatori per sol(A). La soluzione generale di un sistema di equazioni
lineari omogenee in n incognite in K è un sottospazio lineare di Vn (K) (Propo-
sizione 2.2). In §2.2.3 è implicitamente contenuta la descrizione di insiemi di
generatori per
Pquei sottospazi nel caso di una singola equazione. Infatti, sia A
n
l’ equazione i=1 ai xi = 0 e supponiamo an 6= 0. La sua soluzione sol(A) è l’
insieme di tutte le n-ple della forma
n−1
X
(x1 , x2 , ..., xn−1 , − a−1
n ai xi )
i=1
Pn−1
Una n-pla siffatta rappresenta una combinazione lineare i=1 xi Ei ove
Ei = Ui − a−1
n ai Un , (i = 1, 2, ..., n − 1).
Dunque, sol(A) = L(E1 , E2 , ..., En−1 ). Ma possiamo generare sol(A) in infiniti
altri modi. Intanto, potremmo aggiungere altri vettori di sol(A) alla lista E1 ,
E2 ,..., En−1 (per esempio, il vettore nullo, o anche tutti i vettori di sol(A)),
38 Capitolo 2
ottenendo cosı̀ un insieme più ampio di generatori per sol(A). Naturalmen-
te, si tratterebbe di un insieme ridondante, ma ciò non toglie che, comunque,
genererebbe sol(A).
Oppure, se ak 6= 0 per qualche k < n, possiamo ricavare la k-esima incognita
in funzione delle altre anzichè l’ n-esima, ottenendo una diversa rappresentazione
per le n-ple di sol(A) e quindi, imitando il procedimento precedente, anche un
diverso insieme di generatori per sol(A).
2.4.3 Altri esempi
1. Dato un insieme I 6= ∅ e un campo K, per ogni i ∈ I sia χi : I → K la
funzione che vale 1 in i e 0 in tutti gli altri elementi di I. Allora {χi }i∈I è un
insieme di generatori per VI (K). Infatti, dato F ∈ VI (K) e preso un qualunque
sottoinsieme finito J di P I contenente l’ insieme I(F ) degli elementi i ∈ I ove
F (i) 6= 0, risulta F = i∈J F (i)χi .
Quando card(I) = n < ∞, le funzioni χi corrispondono ai versori di Vn (K).
(Se I = {1, 2, ..., n}, esse sono proprio i versori di Vn (K).)
2. Ovviamente, i monomi xn (n = 0, 1, 2, ...) formano un insieme di generatori
per P∞ (K). Pn i
Poniamo invece Pn = i=0 x , per ogni n = 0, 1, 2.... Allora 1 = P0 ed
x = Pn − Pn−1 per ogni n > 0. Quindi L({Pn }∞
n
n=0 ) contiene tutti i monomi e,
perciò, genera P∞ (K). Pn
Analogamente, se prendessimo Pn = i=0 (−1)i xi , per n = 1, 2, 3, ... avrem-
mo xn = (−1)n (Pn − Pn−1 ). Quindi ...
3. Indichiamo con Ui l’ equazione xi = 0, per i = 1, 2, ..., n, e con Un+1 l’
equazione assurda 0 = 1. L’ insieme {Ui }n+1
i=1 genera En (K) (cfr. Capitolo 1,
§1.3.5). Invece, {Ui }ni=1 genera EOn (K).
2.4.4 Implicazioni tra equazioni
Un sistema di equazioni lineari in n incognite in un campo K è un insieme finito
di vettori di En (K) (notazione come in §1.3.1 del Capitolo 1).
Sia X un insieme di equazioni lineari in n incognite in K. Il sottospazio
lineare L(X) di En (K) generato da X è l’ insieme di tutte le equazioni che
possono dedursi da X eseguendo solo combinazioni lineari di equazioni.
Evidentemente, se A ∈ L(X), allora l’ equazione A è una conseguenza lo-
gica del sistema X (Volume 2, Capitolo 7, Sezione 7.3) e quindi è anche una
sua conseguenza materiale (Volume 2, Capitolo 7, Sezione 7.3), cioè sol(X) ⊆
sol(A).
Le equazioni lineari assurde (cioè, impossibili) sono quelle del tipo
0.x1 + 0.x2 + ... + [Link] = a
con a 6= 0. Dividendole per a, possiamo sempre portarle nella forma
0.x1 + 0.x2 + ... + [Link] = 1,
2.5. ESERCIZI 39
cioè 0 = 1. Quindi, il sottospazio lineare generato dall’ equazione 0 = 1 consiste
delle equazioni impossibili e dell’ equazione banale.
Se l’ equazione assurda 0 = 1 appartiene ad L(X), allora il sistema X è
impossibile. Vedremo alla fine del prossimo capitolo che è vero anche il viceversa:
se X è impossibile, allora L(X) contiene l’ equazione 0 = 1 (e quindi anche tutte
le equazioni impossibili). Vedremo più avanti anche che, se X è risolubile, allora
ogni equazione lineare che sia conseguenza materiale di X appartiene ad L(X).
Sicchè il problema di appurare se una certa equazione è o no conseguenza
di certe altre equazioni, che per equazioni non lineari può essere anche molto
difficile, nel caso lineare si riduce al problema di controllare se un certo vettore
dello spazio Vn+1 (K) (che è isomorfo ad En (K)) è o no combinazione lineare di
verti altri vettori di Vn+1 (K). E questa è una cosa facile a farsi, come vedremo.
Analogamente, per decidere se un certo sistema di equazioni lineari in n
incognite sia o no risolubile basta controllare se dai vettori di Vn+1 (K) che rap-
presentano quelle equazioni possiamo o no ottenere come combinazione lineare
il vettore (0, 0, ..., 0, 1), che rappresenta l’ equazione 0 = 1.
2.5 Esercizi
Pn
Esercizio 2.1 Siano U1 , U2 ,..., Un i versori di Vn (K), sia U = i=1 Ui ed
a ∈ K con a 6= 0, n. Per i = 1, 2, ..., n si ponga Ai = U − aUi . Si dimostri che
L({Ai }ni=1 ) = Vn (K).
Pn
Traccia. Risulta (n − a)U = i=1 Ai ed Ui = −a−1 (Ai − U ). Quindi...
Esercizio 2.2 Siano U1 , U2 ,..., Un i versori di Vn (K) e si ponga Ei = Ui −Ui+1
per i = 1, 2, ..., n − 1. Si dimostri che L({Ei }n−1
i=1 ) è la soluzione generale di un’
equazione lineare omogenea.
Traccia. Occorre prima di tutto trovare l’ equazione in questione. Dovrem-
mo cercare una proprietà condivisa da tutti i vettori Ei ed esprimibile con una
equazione lineare omogenea. Nel caso considerato, la somma delle coordinate
di ciascuno dei vettori E1 , P E2 ,..., En−1 è 0. Cioè, questi vettori sono soluzioni
n
particolari dell’ equazione i=1 xi = 0. Resta da vedere che essi generano la
soluzione generale di questa equazione. Allo scopo basta considerare un qua-
lunque insieme di vettori di cui già si sappia che genera la soluzione della nostra
equazione, e mostrare che...
Pn
Esercizio 2.3 Come in §2.4.2, sia A l’ equazione i=1 ai xi = 0. Supponiamo
che tutti i coefficienti di questa equazione siano 6= 0 e poniamo Ei,j = aj Ui −ai Uj
per 1 ≤ i < j ≤ n, ove U1 , U2 ,..., Un sono i versori di Vn (K). Si provi che
L(E1,2 , E2,3 , ..., En−1,n ) = sol(A).
Traccia. Si ha Ei,j+1 = a−1 −1
j aj+1 Ei,j + aj+1 ai Ej,j+1 , per i < j < n. Ne seque
che Ei,j+1 ∈ L(Ei,j , Ej,j+1 ). Pertanto Ei,j ∈ L(Ei,i+1 , Ei+1,i+2 , ..., Ej−1,j ) per
n−1
i < j ≤ n. Quindi L({Ei,j }1≤i<j≤n ) = L({Ei,i+1 }i=1 ). Ma risulta anche
L({Ei,j }1≤i<j≤n = sol(A). Quindi...
40 Capitolo 2
Esercizio 2.4 Sia X il sistema formato dalle due seguenti equazioni lineari
omogenee
Pn Pn
i=1 ai xi = 0, i=1 bi xi = 0,
con n > 2, an 6= 0 6= bn−1 e an−1 = bn = 0. Si ponga Ei = Ui + ci Un−1 + di Un
ove ci = −b−1 −1
n−1 bi e di = −an ai (i = 1, 2, ..., n − 2). Si dimostri che risulta
n−2
L({Ei }i=1 ) = sol(X).
Esercizio 2.5 Dati in uno spazio vettoriale V arbitrari vettori A, B, C, sia X =
{nA + (2n + 1)B + (3n + 2)C}∞n=1 . Si dimostri che L(X) = L(A − C, B + 2C).
(m)
Esercizio 2.6 Verificate che l’ insieme P On (K) costituito dai polinomi omo-
genei di grado n in m variabili in K e dal polinomio nullo è un sottospazio
(m)
lineare di Pn (K) (cfr. Capitolo 1, Esercizio 1.4).
Esercizio 2.7 Si consideri l’ insieme di tutti i polinomi omogenei di grado ≤ n
(m)
in m variabili in K. Questo insieme è un sottopazio lineare di Pn (K) ?
Risposta. Se n > 1, no. Invece, se n = 1, si.
Esercizio 2.8 Quali tra i seguenti insiemi di funzioni da R a R è un sottospa-
zio lineare di RR ?
1) L’ insieme delle funzioni monotone.
2) L’ insieme delle funzioni non decrescenti.
3) L’ insieme delle funzioni continue.
4) L’ insieme delle funzioni derivabili su tutto R.
5) L’ insieme delle funzioni limitate su un dato intervallo.
6) L’ insieme delle funzioni integrabili su un dato intervallo.
Risposta. Tutti, eccetto i primi due.
Esercizio 2.9 Sia Sα l’ insieme delle successioni a valori in R che tendono ad
uno stesso limite α, ove α sta per un numero reale o per +∞ o per −∞. Si
provi che Sα è un sottospazio lineare di RN se e solo se α = 0.
Esercizio 2.10 Verificate che le successioni convergenti formano un sottospa-
zio lineare di RN .
Esercizio 2.11 Una funzione f : R −→ R si dice a scala se Im(f ) è un
insieme finito e se, per ogni x ∈ Im(f ) \ {0}, la retroimmagine f −1 (x) di x è o
un punto o un intervallo (aperto, chiuso o semiaperto; non considero semirette
o R come intervalli). Si dimostri che l’ insieme delle funzioni a scala è un
sottospazio lineare dello spazio vettoriale delle funzioni da R a R.
Esercizio 2.12 Sia S il sottospazio lineare di RR formato dalle funzioni a
scala. Si dimostri che ciascuno dei seguenti sottoinsiemi di S genera S:
(a) l’ insieme delle funzioni caratteristiche di intervalli di arbitraria lunghezza;
2.5. ESERCIZI 41
(b) l’ insieme delle funzioni caratteristiche di intervalli di lunghezza almeno l,
ove l è un dato numero reale positivo;
(c) l’ insieme delle funzioni caratteristiche di intervalli di lunghezza al più l, ove
l è un dato numero reale positivo.
Traccia. Ogni funzione a scala è combinazione lineare di funzioni come in (a)
e ciascuna di queste, se non è come in (c), si può sempre ottiene sommando
opportune funzioni come in (c). Ogni funzione come in (c) si può ottenere come
sottrazione di due opportune dunzioni come in (b).
Esercizio 2.13 Per ogni n = 0, 1, 2, ..., sia Pn ∈ P∞ (K), di grado n. Si
dimostri che {Pn }∞
n=0 genera P∞ (K). Pn Pn+1
Traccia. Risulta xn+1 = a−1 n+1 (Pn+1 −
i
i=0 ai x ), ove Pn+1 =
i
i=0 ai x .
Quindi xn ∈ L({Pk }nk=0 ), per induzione.
Esercizio 2.14 Sia {Xi }i∈I una
S famiglia di sottospazi lineari di uno dato spazio
vettoriale. Si dimostri che i∈I Xi è un sottospazio lineare solo se qualche
membro della famiglia {Xi }i∈I contiene tutti gli altri.
Traccia. Dati due sottospazi lineari X e Y, supponiamo che X ∪ Y sia un
sottospazio lineare ma che X 6⊆ Y. Sia X ∈ X \ Y. Allora, X + Y ∈ X ∪ Y per
ogni Y ∈ Y, perchè X ∪ Y è lineare. Quindi X + Y = X 0 per qualche X 0 ∈ X
oppure X + Y = Y 0 per qualche Y 0 ∈ Y. Nel secondo caso, X = Y 0 − Y ∈ Y,
contro l’ ipotesi che X 6∈ Y. Pertanto, per ogni Y ∈ Y si verifica il primo caso,
cioè Y = X − X 0 per qualche X 0 ∈ X . Quindi, Y ⊆ X .
Esercizio 2.15 Siano X , Y, Z arbitrari sottospazi lineari di uno stesso spazio
vettoriale. Si dimostri che
(X + Y) + Z = X + (Y + Z),
X + Y = Y + X,
X + X = X,
X + Y = X ⇐⇒ Y ⊆ X .
Esercizio 2.16 Quali delle proprietà considerate nell’ Esercizio 2.15 restano
valide per arbitrari insiemi di vettori di uno stesso spazio vettoriale ?
Risposta. Solo le prime due.
Esercizio 2.17 Sia X un insieme di vettori di uno spazio vettoriale V. È vero
che X + X = X solo se X è un sottospazio lineare di V ?
Risposta. No. Per esempio, se V = V2 (R) e X = N2 ...
Esercizio 2.18 Sia V uno spazio vettoriale su K, non nullo. Si dimostri che V
è isomorfo a V1 (K) se e solo se i due sottospazi banali sono gli unici sottospazi
lineari di V.
Esercizio 2.19 Sia H un sottocampo di K. Verificate che Vn (H) è un sotto-
spazio lineare della restrizione di Vn (K) ad H.
42 Capitolo 2
Esercizio 2.20 Sia V uno spazio vettoriale e sia W lo spazio vettoriale indotto
da V su un suo sottospazio lineare. Sia I un insieme 6= ∅. Verificate che W I è
un sottospazio lineare di V I .
Capitolo 3
Manipolazioni su insiemi di
vettori
3.1 Equivalenze
3.1.1 Equivalenza tra insiemi di vettori
Dato uno spazio vettoriale V, due insiemi X e Y di vettori di V si dicono
equivalenti (in simboli, X ∼ Y) se L(X) = L(Y). Il chè, per la (12) del
Capitolo 2, equivale a dire che X ⊆ L(Y) ed Y ⊆ L(X).
Si sono già visti insiemi di vettori equivalenti nel Capitolo 2 (§§2.4.2 e
2.4.3(2), ed Esercizi 2.1,2. 3, 2.5 e 2.13, per esempio). Stabiliremo ora alcune
condizioni sufficienti per l’ equivalenza di due insiemi di vettori. Ci ricondurre-
mo a manipolazioni simili a quelle sommariamente descritte nelle traccie degli
Esercizi 2.1, 2.3 del Capitolo 2 e in §2.4.3(2) del Capitolo 2.
Alcune proprietà. Nel seguito si suppone dato uno spazio vettoriale V. Le
seguenti proprietà si intendono stabilite per ogni insieme X di vettori di V. La
prima è del tutto ovvia:
(1) X ∪ {O} ∼ X ∼ X \ {O}.
Qui non è necessario sapere se O appartiene o no a X. Se O 6∈ X allora
X \ {O} = X mentre, se O ∈ X, allora X ∪ {O} = X. In un caso o nell’ altro,
una delle due equivalenze stabilite in (1) si riduce ad una banalità. Insomma,
quel che la (1) dice può esprimesi cosı̀: possiamo inserire O in X se O 6∈ X,
oppure togliere O da X se O ∈ X; in un caso e nell’ altro, l’ insieme che ne
risulta è equivalente ad X.
(2) (X \ {Y }) ∪ {yY } ∼ X (∀Y ∈ X, ∀y ∈ K \ {0}).
43
44 Capitolo 3
(Questo si ottiene dalla (12) del Capitolo 2 osservando che, se y 6= 0, allora
L(Y ) = L(yY ); cfr. anche Capitolo 2, (13).)
(3) (X \ {Y }) ∪ {Y + Z} ∼ X (∀Y ∈ X, ∀Z ∈ L(X \ {Y })).
Dimostrazione. Se Y ∈ X e se Z ∈ L(X \ {Y }), allora Y + Z ∈ L(X) ed
Y = (Y +Z)−Z ∈ L({Y +Z}∪(X\{Y })). Quindi (X\{Y })∪{Y +Z} ⊆ L(X)
e X ⊆ L((X \ {Y }) ∪ {Y + Z}). La (3) segue da queste due inclusioni e dalla
(12) del Capitolo 2. 2
(4) Y ∈ L(X \ {Y }) =⇒ X \ {Y } ∼ X, (∀Y ∈ X)
Dimostrazione. Sia Y ∈ X ∩ L(X \ {Y }). Allora X = (X \ {Y }) ∪ {Y } ⊆
L(X \ {Y }). Pertanto L(X) = L(X \ {Y }) per la (12) del Capitolo 2. 2
La (2) dice che possiamo sostituire un qualunque vettore non nullo di un insieme
X con un suo qualunque multiplo scalare non nullo (cfr. (24) del Capitolo 1),
senza alterare il sottospazio lineare generato da X. Quando Y = O, la (2) si
riduce ad una futile banalità: se prima tolgo O e poi lo rimetto dove stava, non
cambio niente.
La (3) dice invece che, sommando ad un vettore di X una qualunque com-
binazione lineare di qualcuno dei rimanenti vettori di X si ottiene ancora un
insieme di vettori equivalente ad X.
La (4) ci permette di eliminare vettori superflui di X, vettori cioè che possano
ottenersi come combinazioni lineari di altri vettori di X.
Equivalenza elementare. In (1), (2), (3) e (4) si considerano i seguenti tipi
di modifiche su insiemi di vettori.
(i− ) Da X ad X \ {O}, se O ∈ X. (Cancellazione di O.)
(i+ ) Da X ad X ∪ {O}, se O 6∈ X. (Inserimento di O.)
(ii) Da X ad (X \ {Y }) ∪ {yY }, con Y ∈ X ed y ∈ K \ {0}. (Sostituzione di
un vettore con un suo multiplo 6= O.)
(iii) Da X ad (X \ {Y }) ∪ {Y + Z}, con Y ∈ X e Z ∈ L(X \ {Y }). (Aggiungere
ad un vettore una combinazione lineare di altri vettori di X.)
(iv) Da X ad X \ {Y }, con Y ∈ X ∩ L(X \ {Y }). (Togliere un vettore che sia
combinazione lineare di altri vettori di X.)
Chiamiamo queste modifiche elementari. Se un insieme di vettori Y si ottiene da
un’ altro insieme di vettori X mediante un numero finito di modifiche elementari,
o se Y = X, allora diremo che Y è elementarmente equivalente ad X e scriviamo
Y ≈ X. Per le (1)-(4), le modifiche elementari ci permettono di cambiare
qualcosa in un insieme di vettori senza alterare il sottospazio lineare da esso
generato. Quindi per ogni scelta di insiemi X, Y di vettori di V si ha che
(5) X≈Y ⇒ X∼Y
3.1. EQUIVALENZE 45
Lemma 3.1 La relazione ≈ è una relazione d’ equivalenza.
Dimostrazione. Dobbiamo provare che ≈ gode delle proprietà riflessiva, simme-
trica e transitiva (Volume 1, Capitolo 4). La proprietà transitiva è ovvia. La
proprietà riflessiva è stata assunta nella definizione stessa di ≈. Resta da pro-
vare la proprietà simmetrica. Assumiamo dunque Y ≈ X. Dobbiamo provare
che X ≈ Y.
Supponiamo intanto di essere passati da X a Y con una sola modifica ele-
mentare. Se la modifica eseguita è (i− ) o (i+ ), allora possiamo riottenere X
da Y eseguendo su Y la modifica (i+ ) o (i− ) rispettivamente (cioè (i− ) e (i+ )
possono vedersi l’ una come l’ ‘inversa’ dell’ altra). Se siamo passati da X a
Y con una modifica di tipo (ii) sostituendo Y con yY in X, allora possiamo
‘invertirla’ risostituendo yY con Y = y −1 (yY ), ritornando cosı̀ a X.
Poniamo invece di essere passati da X a Y con una modifica di tipo (iii),
sostituendo Y ∈ X con Y + Z ove Z ∈ L(X \ {Y }). Supponiamo intanto
che Y + Z 6∈ X \ {Y }. Allora possiamo ‘invertire’ la modificazione effettuata,
rimettendo Y = (Y + Z) − Z al posto di Y + Z e riottenendo cosı̀ X.
Supponiamo invece che Y + Z ∈ X \ {Y }. In questo caso Y = (Y + Z) − Z ∈
L(X \ {Y }) ed (X \ {Y }) ∪ {Y + Z} = X \ {Y }. Sicchè la modifica effettuata
ha semplicemente eliminato Y . Siamo cioè ricondotti al caso che si sia passati
da X a Y con una modifica di tipo (iv). Esaminiamo dunque questo caso.
Sia Y ∈ L(X \ {Y }) ∩ X ed Y = X \ {Y }. Supponiamo intanto che O 6∈ Y.
Poniamo Z = Y ∪ {O} (modificazione (i+ )). Possiamo ora sostituire Y ad O
in Z (modifica di tipo (iii), perchè Y = Y + O), riottenendo cosı̀ X. La coppia
delle due modifiche cosı̀ eseguite (da Y a Z e poi da Z a X) può essere presa
come l’ ‘inversa’ della modificazione di X in Y. Supponiamo invece che O ∈ Y.
Allora Y 6= O perchè Y 6∈ Y ed Y ∈ L(Y \ {O}). Sicchè possiamo eseguire una
modifica di tipo (iii) sostituendo O + Y a O in Y. L’ insieme cosı̀ ottenuto è
X \ {O}. Per ritrovare X ci basta ora eseguire la (i+ ) per reintegrare O (infatti
O ∈ X, perchè O ∈ Y = X \ {Y }). La coppia di queste due modifiche (da Y
ad X \ {O} e di qui ad X) ‘inverte’ la modificazione di X in Y.
In definitiva, se Y si ottiene da X con una sola modifica elementare t, allora
possiamo ritornare da Y a X o con una sola modifica elementare t0 o con una
coppia t0 = (t1 , t2 ) di modifiche elementari. Nell’ un caso e nell’ altro chiamiamo
t0 l’ inversa di t. Supponiamo ora di essere passati da X ad Y con una sequenza
t1 , t2 ,..., tm di modifiche elementari. Allora la sequenza t0m , t0m−1 ,..., t01 delle
loro inverse (eseguite in quest’ ordine) ci riporta da Y ad X. Quindi X ≈ Y. 2
Lemma 3.2 Si ha Y ∈ L(X) se e solo se X ∪ {Y } ≈ X.
Dimostrazione. Se X ∪ {Y } ≈ X, allora X ∪ {Y } ∼ X per la (5). E dunque
Y ∈ L(X).
Supponiamo che Y ∈ L(X). Se Y ∈ X, allora X ∪ {Y } = X, e non c’ è nulla
da provare. Sia invece Y 6∈ X. Se Y = O, allora il passaggio da X ad X ∪ {Y }
è una modifica di tipo (i+ ). Sicchè X ∪ {Y } ≈ X. Supponiamo invece Y 6= O.
Distinguiamo due casi.
46 Capitolo 3
Caso 1. O ∈ X. Allora, siccome Y + O = Y ∈ L(X \ {O}), il passaggio da X
ad (X \ {O}) ∪ {Y } è una modifica di tipo (iii). Da (X \ {O}) ∪ {Y } passiamo
a X ∪ {Y } (modifica di tipo (i+ ). Quindi X ∪ {Y } ≈ X.
Caso 2. O 6∈ X. Allora passiamo da X a X ∪ {O} (modifica di tipo (i+ )) e da
qui a X ∪ {Y } (modifica di tipo (iii)). Di nuovo, X ∪ {Y } ≈ X. 2
In virtù del seguente teorema, se ci limitiamo a considerare insiemi finiti di
vettori, possiamo sostituire alla relazione ∼ la più ‘concreta’ relazione ≈.
Teorema 3.3 Due insiemi finiti di vettori di V sono equivalenti se e solo se
sono elementarmente equivalenti.
Dimostrazione. Per la (5), dobbiamo solo provare che, dati due insiemi finiti X
e Y di vettori di V, se X ∼ Y, allora X ≈ Y.
Sia dunque X ∼ Y. Se dimostrassimo che X ≈ X ∪ Y ≈ Y, ne dedurremmo
che X ≈ Y perchè ≈ è una relazione di equivalenza (Lemma 3.1), ed avremmo
fatto.
Proviamo dunque che X ∪ Y ≈ X. Se Y ⊆ X allora X ∪ Y = X e non
v’ è nulla da dimostrare. Supponiamo invece che Y 6⊆ X e siano Y1 , Y2 , ..., Ym
i vettori di Y che non stanno in X. Siccome Y ∼ X, i vettori Y1 , Y2 , ..., Ym
appartengono ad L(X). Quindi
X ≈ X ∪ {Y1 } ≈ X ∪ {Y1 , Y2 } ≈ ... ≈ X ∪ {Y1 , Y2 , ..., Ym } = X ∪ Y,
applicando ripetutamente il Lemma 3.2. Da ciò segue che X ≈ X ∪ Y, per il
Lemma 3.1. In modo del tutto simile si vede che X ∪ Y ≈ Y. 2
Nota. Nella dimostrazione del Teorema 3.3 l’ ipotesi che X e Y siano finiti è
stata sfruttata solo in parte. Abbiamo usato solo la finitezza di Y \ X e X \ Y.
Sicchè, in generale, X ≈ Y se e solo se (X \ Y) ∪ (Y \ X) è finito e X ∼ Y.
Nota. Potremmo rendere il repertorio di modifiche elementari più spartano.
Per esempio, le modifiche di tipo (iv) possono sempre ottenersi realizzando prima
una modifica di tipo (iii) (con Z = −Y ) e poi operando la (i− ). Sicchè potremmo
depennare (iv) dalla lista. Oppure, possiamo rinuciare alla (i− ), conservandoci
invece la possibilità di eseguire modifiche di tipo (iv). Infatti O ∈ L(X) per
ogni insieme di vettori X (incluso il caso che X = ∅). Quindi la (i− ) è il caso
particolare di (iv) con Y = O.
Comunque, non mi interessa individuare una lista minimale di tipi di modi-
fiche. Teniamoci il repertorio che ho dato, anche se ridondante.
3.1.2 Equivalenza tra sequenze di vettori
Quando descriviamo un insieme finito o numerabile A elencandone gli elementi,
li diamo in sequenza: A = {A1 , A2 , ...}. Cioè, ci riferiamo ad A mediante una
3.1. EQUIVALENZE 47
qualche sequenza finita o infinita α = (A1 , A2 , ...). E rappresentiamo modifica-
zioni di A mediante modificazioni di α. Riadatteremo ora per sequenze le cose
dette per insiemi in §3.1.1.
Qualche convenzione. Dato uno spazio vettoriale V, sia α una sequenza (n-
pla o successione) di vettori di V e sia A l’ insieme dei termini di α. Scriveremo
L(α) per indicare il sottospazio lineare L(A) di V. Date due sequenze α e
β di vettori di V, se L(α) = L(β), allora diremo che α e β sono equivalenti,
e scriveremo α ∼ β. Cioè, due sequenze sono equivalenti se e solo se sono
equivalenti gli insiemi di vettori da esse descritti.
Modificazioni elementari. Le modifiche (i− ), (i+ ), (ii), (iii) ed (iv) operabili
su insiemi considerate in §3.1.1 trovano le loro analoghe nelle seguenti modifiche
di sequenze.
(I− ) Cancellare un termine nullo.
(I+ ) Inserire un termine nullo.
(II) Sostituire ad un termine un suo multiplo non nullo.
(III) Sommare ad un termine una combinazione lineare di altri termini della
sequenza.
(IV) Cancellare un termine che possa ottenersi come combinazione lineare di
altri termini della sequenza.
C’ è però qualche differenza tra queste modifiche e le loro analoghe per insiemi.
Per esempio, O potrebbe occorrere più volte in una sequenza α. In tal caso
occorrerebbe eseguire più volte una modifica di tipo (I− ) per produrre qualche
effetto sull’ insieme rappresentato da α, diciamolo A.
Inversamente, se O compare in α, allora eseguendo su α una modifica di tipo
(I+ ) non si produce alcun effetto su A. Similmente, se l’ i-esimo e il j-esimo
termine di α sono uguali, possiamo applicare la (IV) cancellando uno dei due
termini. Ma con ciò non si produce alcun effetto su A.
Come nel caso di modifiche operate su insiemi, anche nel caso di sequenze
le modifiche di tipo (IV) sono superflue: possiamo sempre ottenerle eseguendo
prima una modifica di tipo (III) e poi una di tipo (I− ). D’ altra parte, (I− )
è a sua volta un caso particolare di (IV). Infatti il vettore nullo è combinazio-
ne lineare di ogni insieme di vettori. Sicchè, se disponiamo di (III), è (I− ) a
diventare superflua.
È anche facile vedere che ogni modifica di tipo (III) può sempre realizzarsi
iterando modifiche del seguente tipo, che è un caso particolare di (III):
(III0 ) Sommare ad un termine un multiplo di un altro termine.
(Le cose invece non vanno esattamente cosı̀ con modifiche di tipo (iii) operate su
insiemi; cfr. Sezione 3.4, Esercizi 3.5 e 3.6.) Due sequenze possono differire anche
48 Capitolo 3
solo per l’ ordine in cui sono dati i loro termini. Possiamo dunque prevedere
anche modificazioni del seguente tipo:
(V) Cambiare l’ ordine in cui i termini sono elencati in una sequenza.
Le modificazioni dei tipi (I− ), (I+ ), (II), (III0 ) e (V) verranno dette modifiche
elementari. Non serve aggiungere le (III) ed (IV) a queste dal momento che,
come si è detto, possiamo sempre ottenere (III) ed (IV) da (III0 ) ed (I− ).
Se una sequenza β può ottenersi da una sequenza α con un numero finito di
modifiche elementari, allora diremo che β è elementarmente equivalente ad α e
scriveremo β ≈ α.
Proprietà della relazione ≈. Come nel caso degli insiemi, ≈ è una relazione
di equivalenza (cfr. Lemma 3.1) e, se α ≈ β, allora α ∼ β (cfr. (5)). Per
di più, se α e β sono sequenze finite, allora α ∼ β se e solo se α ≈ β (cfr.
Teorema 3.3). Lasciamo al lettore il compito di riadattare al caso di sequenze le
dimostrazioni dei Lemmi 3.1 e 3.2 e del Teorema 3.3. Del resto, gli analoghi dei
Lemmi 3.1 e 3.2 e del Teorema 3.3 per sequenze possono anche ottenersi come
banali conseguenze della seguente proposizione e dal fatto che il Lemma 3.1 ed
il Teorema 3.3 valgono per insiemi.
Proposizione 3.4 Due sequenze di vettori di uno stesso spazio vettoriale sono
elementarmente equivalenti se e solo se rappresentano insiemi elementarmente
equivalenti.
Traccia di Dimostrazione. Siano α e β due sequenze di vettori di uno stesso
spazio vettoriale e siano A e B gli insiemi da esse rappresentati. Dovremmo
innanzitutto dimostrare che
(∗) se possiamo ottenere β da α con una modifica elementare, allora A ≈ B; e
viceversa, se B è ottenibile da A con una modifica elementare, allora α ≈ β.
La dimostrazione della (∗) è concettualmente banale, ma un po’ lunga. Prefe-
risco tralasciarla e dò la (∗) per buona. Per (∗), se possiamo passare da α a β
con un certo numero di modifiche elementari, a ciascuna di queste corrispon-
dono una o più modifiche elementari degli insiemi rappresentati dalle sequenze
che quelle modifiche via via ci danno. Quindi B ≈ A. Viceversa, se possiamo
passare da A a B con un certo numero di modifiche elementari, a ciascuno degli
insiemi cosı̀ ottenuti possiamo associare una qualche sequenza che lo rappresenti
e possiamo passare da ciascuna di queste sequenze alla successiva mediante una
o più modifiche elementari. Quindi α ≈ β. 2
Diamo ora qualche esempio ad illustrazione della (∗). Siano A, B, α e β come
nella (∗). Quando la sequenza α di vettori su cui eseguiamo una qualche modifica
elementare τ non contiene ripetizioni, è immediato interpretare τ come una
modifica elementare operata sull’ insieme descritto da α.
3.2. IL METODO DI GAUSS-JORDAN 49
Per esempio, sia α = (A, B, C), con A, B, C a due a due distinti e C = A+B,
e sia τ la sottrazione di A da C (modifica di tipo (III0 )) che trasforma α in
(A, B, B). Possiamo vedere τ anche come una modifica elementare di tipo (iii)
che, operata sull’ insieme {A, B, C}, lo converte in {A, B}.
Se invece α presenta ripetizioni, le cose si complicano un po’. Per esempio,
sia ora α = (A, B, B) con A 6= B e A, B 6= O. Sottraiamo in α il secondo
termine dal terzo (modifica di tipo (III0 )). Otteniamo cosı̀ (A, B, O). In termini
di insiemi, siamo passati da {A, B} ad {A, B, O}, come se avessimo operato su
{A, B} la modifica (i+ ).
Vediamo infine un esempio di come una modificazione di un insieme possa
venire imitata da una o più modifiche operate su sequenze. Sia α = (A, B, C, A)
e β = (B, B, A, O), con C = A + B, A 6= B e O 6= A, B, e supponiamo
di sottrarre A + B da C in A = {A, B, C} trasformando cosı̀ A nella terna
B = {A, B, O} (modifica di tipo (iii)).
Possiamo ottenere lo stesso effetto anche operando su α. Per esempio, pos-
siamo sottrarre il primo termine dal terzo giungendo cosı̀ ad (A, B, B, A) e
poi sottrarre in questa sequenza il quarto termine dal primo, ottenendo cosı̀
(O, B, B, A), che rappresenta B (due modifiche di tipo (III0 )). È facile vedere
che vi sono molti altri modi di ottenere lo stesso risultato.
3.2 Il metodo di Gauss-Jordan
Per tutta questa sezione immaginiamo di aver fissato un campo K ed un numero
naturale n > 0, e poniamo V = Vn (K).
Sulle modificazioni elementari di sequenze di vettori si fonda il procedimento
detto di Gauss-Jordan. Lo si usa per sostituire ad una sequenza finita α di
vettori di V non tutti nulli un’ altra sequenza β di vettori di V, elementarmente
equivalente ad α, non più lunga di α e tale da fornire in modo immediato certe
informazioni sul sottospazio lineare L(α). Caratteristica peculiare di β è di
conformarsi ‘a squadra’. Spiegheremo fra poco cosa questo significhi.
3.2.1 Definizioni
Dato un vettore A = (ai )ni=1 di V non nullo, indichiamo con λ(A) il primo indice
i per cui ai 6= 0. Poniamo invece λ(O) = n + 1.
Diciamo λ(A) − 1 nullità iniziale di A. In parole povere, la nullità iniziale
di A è il numero di volte che 0 occorre in A all’ inizio. Per esempio, il vettore
(0, 0, 0, 1, 0, 1, 0) di V7 (R) ha nullità iniziale 3.
Diciamo che una sequenza β = (Bj )sj=1 di vettori non nulli di V è conformata
a squadra se
λ(B1 ) < λ(B2 ) < ... < λ(Bs−1 ) < λ(Bs ).
Sicchè, se β è conformata a squadra, allora
(6) λ(Bj ) ≥ j, (j = 1, 2, ..., s).
50 Capitolo 3
D’ altra parte, λ(Bj ) ≤ n per ogni j = 1, 2, ..., s perchè, per ipotesi, nessuno dei
vettori di β è nullo. Dunque
(7) s ≤ n.
Esempio. La seguente quintupla di vettori di V7 (R) è conformata a squadra:
(B1 ) 1 0 1 0 1 0 1
(B2 ) 0 −1 0 −1 0 −1 0
(B3 ) 0 0 0 −2 2 −1 1
(B4 ) 0 0 0 0 9 3 1
(B5 ) 0 0 0 0 0 0 −1
Qui abbiamo λ(B1 ) = 1, λ(B2 ) = 2, λ(B3 ) = 4, λ(B4 ) = 5 e λ(B5 ) = 7.
3.2.2 Descrizione della procedura di Gauss-Jordan
Il metodo di Gauss-Jordan è una procedura meccanica, che si fonda sull’ itera-
zione di due operazioni, che diciamo di ‘ripulitura’ e di ‘trasformazione’. Nella
descrizione che faremo di questa procedura, η e θ stanno per due sequenze di
vettori di V, sulle quali ci troviamo volta a volta ad operare. Invece ξ indicherà
una lista che veniamo via via formando, come un registro in cui annotare ogni
volta un nuovo vettore.
Sia α la sequenza di vettori che vogliamo trasformare in una lista β confor-
mata a squadra. Procediamo cosı̀:
(j) (START). In questo momento la lista ξ è vuota. Chiama η la sequenza α e
vai a (jj).
(jj) (RIPULITURA). Togli da η le eventuali occorrenze del vettore nullo. Fatto
questo, se non resta nulla di η vai a (jv). Sennò, chiama θ quel che resta di η.
Se θ consiste di un solo vettore, aggiungilo come ulteriore termine alla lista ξ e
vai a (jv). Altrimenti, vai a (jjj).
(jjj) (TRASFORMAZIONE). Permuta i vettori di θ, se necessario, in modo da
portare in prima posizione un vettore di minima nullità inziale. Sia X = (xi )ni=1
quel vettore che hai portato nella posizione iniziale e, detta h + 1 la lunghezza
di θ, siano
Y1 = (y1,i )ni=1 , Y2 = (y2,i )ni=1 , ..., Yh = (yh,i )ni=1
i rimanenti vettori di θ. Sia k = λ(X). Per come hai scelto X, risulta k ≤ λ(Yj )
per j = 1, 2, ..., h. Poni
yj,k
Xj = Yj − X.
xk
È ovvio che λ(Xj ) > k per ogni j = 1, 2, ..., h. Inoltre, Xj = Yj se λ(Yj ) > k.
Aggiungi alla lista ξ il vettore X come nuovo termine e chiama η la h-pla
3.2. IL METODO DI GAUSS-JORDAN 51
(Xj )hj=1 . Con questa nuova sequenza (più corta di θ di 1), rientra in (jj) e
ricomincia tutto daccapo.
(jv) (STOP). La sequenza che ora trovi in ξ è la lista β che volevi.
I vettori che veniamo via via inserendo in ξ hanno nullità iniziale sempre più
grande. Sicchè, in ogni momento, ciò che si trova in ξ risulta disposto a squadra.
Ad ogni tappa del procedimento, la lista η con cui usciamo da (jjj) è più corta
di quella con cui eravamo entrati in (jj). Sicchè prima o poi dobbiamo trovarci
nelle condizioni in cui (jjj) (o (jj)) ci ordina di fermarci. Per quel che si è detto
sopra, la lista β che troviamo in ξ quando ci fermiamo è conformata a squadra.
Proposizione 3.5 Risulta β ≈ α.
Dimostrazione. Per sveltire l’ esposizione, indichiamo con ξη la sequenza otte-
nuta scrivendo i vettori di η subito dopo quelli di ξ. Analogo significato diamo
a ξθ.
In (jj), per ottenere θ da η, ci limitiamo a cancellare occorrenze di O. E
queste sono modifiche elementari di tipo (I− ). Quindi la lista ξη, come essa è
al momento di entrare in (jj), è elementarmente equivalente a ciò che è ξθ al
momento in cui usciamo da (jj) per entrare in (jjj). D’ altra parte, anche le
operazioni che eseguiamo in (jjj) su θ sono modificazioni elementari (di tipo (V)
ed (III0 )). Sicchè ξθ, come è al momento di entrare in (jjj), è elementarmente
equivalente alla lista ξη formata da ξ (a cui nel frattempo si è aggiunto X) e da
quel che è η al momento in cui usciamo da (jjj) per rientrare in (jj). Cioè, alla
fine di ogni tappa, la lista ξη è elementarmente equivalente a quello che ξη era
all’ inizio di quella tappa.
Dunque, in ogni momento, la sequenza chiamata ξη in quel momento è ele-
mentarmente equivalente alla lista chiamata ξη in un qualunque altro momento.
In particolare, ciò che ξη è alla fine è elementarmente equivalente a ciò che era
all’ inizio. Ma al momento di partire ξ è vuota ed η = α. Invece, quando ci si
ferma, ξ = β ed è η ad essersi svuotata. Quindi β ≈ α. 2
Diciamo β una riduzione a squadra di α. Naturalmente, quale riduzione a squa-
dra si ottenga per α dipende anche da come volta a volta permutiamo i termini
di θ in (jjj). Quindi in generale si potranno trovare svariate riduzioni a squadra
per una stessa sequenza α. Esse comunque saranno tutte elementarmente equi-
valenti tra loro, per la Proposizione 3.5 e perchè ≈ è una relazione d’ equivalenza
(Lemma 3.1, riformulato per sequenze).
52 Capitolo 3
3.2.3 Un Esempio
Sia α la seguente quintupla di vettori di V6 (R):
(A1 ) 0 1 2 −1 5 0
(A2 ) 1 0 1 0 1 0
(A3 ) 1 −1 1 −1 1 −1
(A4 ) 0 0 1 2 −2 1
(A5 ) −1 2 −2 0 1 1
Con questa quintupla nel ruolo di η entriamo per la prima volta in (jj) e ne
usciamo subito senza eseguire alcuna operazione. Ci limitiamo a ribattezzare la
quintupla col nome θ. Entriamo in (jjj). Portiamo A2 al primo posto. Possiamo
farlo con la permutazione ciclica γ[1, 4, 5, 3, 2] (Volume 1, Capitolo 6), ove i
numeri 1, 2, ecc. stanno ad indicare i vettori A1 , A2 , ecc. Cosı̀ riordinata, θ
assume il seguente aspetto:
(A2 ) 1 0 1 0 1 0
(A3 ) 1 −1 1 −1 1 −1
(A5 ) −1 2 −2 0 1 1
(A1 ) 0 1 2 −1 5 0
(A4 ) 0 0 1 2 −2 1
Ribattezziamo le sue righe chiamandole X, Y1 , Y2 , Y3 , Y4 , per ritrovarci con le
istruzioni contenute in (jjj). Eseguiamo su θ le trasformazioni prescritte in (jjj),
passando cosı̀ alla seguente lista di vettori:
(X) 1 0 1 0 1 0
(X1 ) 0 −1 0 −1 0 −1
(X2 ) 0 2 −1 0 2 1
(X3 ) 0 1 2 −1 5 0
(X4 ) 0 0 1 2 −2 1
Obbedendo alle istruzioni contenute in (jjj), cominciamo a formare la lista ξ,
mettendovi intanto il vettore sopra indicato con X. I restanti vettori X1 , X2 ,
X3 , X4 formano la sequenza che, col nome di η, riconsegnamo a (jj). Come
prima, in (jj) non troviamo nulla da fare su questa sequenza. Sicchè ci limitiamo
a ribattezzarla θ, e la passiamo a (jjj). La sequenza con cui entriamo in (jjj) è
dunque
(X) 0 −1 0 −1 0 −1
(Y1 ) 0 2 −1 0 2 1
(Y2 ) 0 1 2 −1 5 0
(Y3 ) 0 0 1 2 −2 1
I vettori sono già disposti in ordine conveniente. Sicchè, senza permutare nulla,
eseguiamo le operazioni prescritte in (jjj). Ci ritroviamo cosı̀ con la lista
(X) 0 −1 0 −1 0 −1
(X1 ) 0 0 −1 −2 2 −1
(X2 ) 0 0 2 −2 5 −1
(X3 ) 0 0 1 2 −2 1
3.2. IL METODO DI GAUSS-JORDAN 53
Il primo vettore di questa sequenza viene messo in ξ, che cosı̀ viene a contenere
due vettori. Gli altri formano la terna che, col nome di η, viene riconsegnata a
(jj). Ancora una volta, in (jj) restiamo inoperosi. Ci limitiamo a passare quella
terna a (jjj).
(X) 0 0 −1 −2 2 −1
(Y1 ) 0 0 2 −2 5 −1
(Y2 ) 0 0 1 2 −2 1
In (jjj) la trasformiamo cosı̀
(X) 0 0 −1 −2 2 −1
(X1 ) 0 0 0 −6 9 −3
(X2 ) 0 0 0 0 0 0
Il primo di questi tre vettori passa come terza riga alla lista ξ. Con la coppia
degli altri due rientriamo in (jj). Ora, ci troviamo alle prese con un vettore nullo,
che (jj) ci impone di cancellare. Resta un solo vettore, che, secondo quanto (jj)
ci ordina, dobbiamo trasferire in ξ. Fatto questo non resta nulla e (jj) ci ordina
di fermarci. Nella lista ξ troviamo quattro vettori, che chiamiamo B1 , B2 , B3 ,
B4 :
(B1 ) 1 0 1 0 1 0
(B2 ) 0 −1 0 −1 0 −1
(B3 ) 0 0 −1 −2 2 −1
(B4 ) 0 0 0 −6 9 −3
Questa è β, la riduzione a squadra che volevamo per α.
3.2.4 Varianti
La formulazione che ho dato a (jjj) ci lascia liberi di scegliere come permutare
i termini di θ, quando questi vanno permutati. Ma possiamo togliere questo
margine di discrezionalità, prescrivendo per esempio di considerare sempre il
primo tra i vettori di θ di minima nullità iniziale e di scambiarlo col primo
vettore di θ. Cosı̀ irrigidita, la procedura diventa completamente meccanica,
adatta ad una macchina.
Se invece usiamo il metodo di Gauss-Jordan ‘a mano’, può convenirci arric-
chirlo con qualche variante adatta a noi. Per esempio, possiamo riservarci la
facoltà di moltiplicare in un qualunque momento una riga per un opportuno
scalare 6= 0 (modificazione di tipo (II)), se riteniamo che questo ci convenga.
Per esempio, potremmo non accontentarci della quadrupla β ottenuta in §3.2.3 e
volerla ‘migliorare’, moltiplicando B2 e B3 per −1 e B4 per −1/3. Otterremmo
cosı̀
(B1 ) 1 0 1 0 1 0
(B20 ) 0 1 0 1 0 1
(B30 ) 0 0 1 2 −2 1
(B40 ) 0 0 0 2 −3 1
54 Capitolo 3
Oppure, se troviamo che una riga è proporzionale o addirittura uguale ad un’
altra, possiamo eliminarla (modificazione di tipo (IV)).
A volte è utile non fermarsi ad una riduzione a squadra ma, applicando
una procedura simile a quella di Gauss-Jordan, andare oltre per avvicinarsi il
più possibile ad una conformazione ‘diagonale’. Per esempio, nella precedente
quaterna di vettori, possiamo sottrarre B40 da B30 ed 12 B40 da B20 , ottenendo cosı̀
(B1 ) 1 0 1 0 1 0
(B200 ) 0 1 0 0 3/2 1/2
(B300 ) 0 0 1 0 1 0
(B40 ) 0 0 0 2 −3 1
Ora possiamo sottrarre B300 da B1 , ottenendo cosı̀ la seguente quadrupla, che
chiamo γ
(B10 ) 1 0 0 0 0 0
(B200 ) 0 1 0 0 3/2 1/2
(B300 ) 0 0 1 0 1 0
(B40 ) 0 0 0 2 −3 1
Ora, nel riquadro formato dalle prime quattro colonne, valori non nulli compa-
iono solo sulla diagonale cosidetta ‘principale’. Siccome γ è ottenuta da β con
modifiche elementari e β ≈ α, risulta anche γ ≈ α.
3.3 Risoluzione di sistemi lineari
Un sistema di m equazioni lineari in n incognite in K, non tutte banali, è
rappresentato da una m-pla α di vettori di Vn+1 (K), non tutti nulli (Capitolo 1,
§1.3.5). Riducendo α a squadra col metodo di Gauss-Jordan, in realtà risolviamo
il sistema. Il seguente esempio dovrebbe bastare a spiegare questa affermazione.
3.3.1 Un esempio
Sia X il seguente sistema di cinque equazioni in cinque incognite nel campo R
dei numeri reali.
x2 + 2x3 − x4 + 5x5 = 0
x1 + x3 + x5 = 0
x1 − x2 + x3 − x4 + x5 = −1
x3 + 2x4 − 2x5 = 1
−x1 + 2x2 − 2x3 + x5 = 1
X è rappresentato proprio dalla quintupla α = (Aj )5j=1 di vettori di V6 (R) con-
siderata in §3.2.3. Le trasformazioni eseguite in §3.2.3 a partire da quella quin-
tupla rappresentano analoghe manipolazioni eseguite sul sistema X. In §3.2.4
si è infine pervenuti alla quadrupla che abbiamo chiamato γ. Essa rappresenta
il seguente sistema, che chiamo Y:
3.3. RISOLUZIONE DI SISTEMI LINEARI 55
x1 = 0
x2 + 23 x5 = 12
x3 + x5 = 0
2x4 − 3x5 = 1
Siccome α ≈ γ, i sistemi X e Y sono equivalenti (Capitolo 2, §2.4.4). Dun-
que sol(X) = sol(Y). Per determinare sol(Y), possiamo prendere t = −x5
come parametro libero in Y e ricavare le rimanenti incognite in funzione di t.
Otteniamo cosı̀ che
1 3 1 3
sol(Y) = {(0, + t, t, − t, −t)}t∈R
2 2 2 2
Insomma, Y è risolubile ma indeterminato. Le sue soluzioni possono essere
espresse in funzione di un solo parametro. E si noti che lo scarto tra numero di
incognite e numero di equazioni in Y è proprio 1.
Si noti anche che, mentre X consisteva di 5 equazioni, solo 4 ne sono rimaste
in Y. Una di esse è stata cancellata. Possiamo dire che si è persa l’ ultima
equazione di X. Infatti, se β è la riduzione a squadra di α ottenuta in §3.2.3,
riesaminando il calcolo eseguito in §3.2.3 si vede che i primi quattro vettori
A1 , A2 , A3 , A4 di α bastano per ottenere β (cfr. §3.2.3). Dunque, posto
α0 = (Aj )4j=1 , si ha α0 ≈ β (Proposizione 3.5). D’ altra parte è anche β ≈ α
(Proposizione 3.5). Quindi α ≈ α0 (per l’ analogo del Lemma 3.1 riferito a
sequenze). Quindi α ∼ α0 . Cioè L(α0 ) = L(α). Vale a dire, A5 ∈ L(α0 ).
D’ altra parte, i vettori di α rappresentano le equazioni di X. Quindi la
quinta equazione di X è combinazione lineare delle prime quattro (anzi, si può
mostrare che ogni equazione di X è combinazione lineare delle rimanenti quattro,
ma non insisto su questo). La quinta equazione di X è dunque superflua: non
dice nulla che già non sia detto dalle prime quattro equazioni. Le prime quattro
equazioni di X corrispondono ad Y mentre la quinta, che si è rivelata superflua,
è andata persa.
3.3.2 Risolubilità di un sistema
Sia X un sistema di m equazioni lineari in n incognite in K, non tutte banali,
sia α la m-pla di vettori di Vn+1 (K) che rappresenta X e sia β una riduzione a
squadra di α, ottenuta col metodo di Gauss-Jordan. Rammento che β, essendo
conformata a squadra, consiste di al più n + 1 vettori (per la (7)).
Proposizione 3.6 Il sistema X è risolubile se e solo se l’ ultimo vettore di β
ha nullità iniziale minore di n.
Dimostrazione. Sia β = (Bj )sj=1 e sia Y il sistema rappresentato da β. Il
sistema Y è equivalente ad X. In particolare, X è risolubile se e solo se Y è
risolubile.
Siccome β è conformata a squadra, il suo ultimo vettore Bs ha nullità iniziale
massima. Inoltre nessuno dei vettori che formano β è nullo. In particolare,
Bs 6= O. Sicchè, λ(Bs ) ≤ n + 1.
56 Capitolo 3
Se λ(Bs ) = n + 1, allora Bs rappresenta un’ equazione assurda (Capitolo 2,
§2.4.4). Quindi Y, contenendo un’ equazione assurda, non ammette soluzione.
Sia invece λ(Bs ) = ks ≤ n. In questo caso s ≤ n, perchè s ≤ ks per la (6).
Se ks = n, possiamo ricavare xn dall’ ultima equazione di Y e sostituire nelle
rimanenti equazioni.
Se invece ks < n, prenderemo le incognite xi (i = ks + 1, ks + 2, ..., n) come
parametri liberi, ricavando xks in funzione di esse dall’ ultima equazione di Y.
Poi sostituiamo nelle rimanenti equazioni di Y.
In un caso e nell’ altro ci riconduciamo ad un sistema di s − 1 equazioni nelle
n − 1 incognite xi con i 6= ks , rappresentato da una (s − 1)-pla di vettori di
Vn (K) conformata a squadra, ove tutti i vettori hanno le stesse nullità iniziali
dei corrispondenti vettori B1 , B2 ,..., Bs−1 di β. Sia ks−1 = λ(Bs−1 ). Possiamo
ora ricavare xks−1 in funzione di ... E cosı̀ via.
Alla fine, se s < n avremo ricavato s incognite xks , xks−1 , ..., xk1 in funzione
delle rimamenti n − s incognite, che giocano il ruolo di parametri liberi.
Se invece s = n, non resta alcuna incognita libera. In questo caso otteniamo
un determinato valore per ciascuna incognita.
Comunque, in un caso o nell’ altro, il sistema è risolubile (indeterminato nel
primo caso, determinato nel secondo). 2
Nella dimostrazione della Proposizione 3.6 sono anche implicite dimostrazioni
delle due seguenti proposizioni. Lascio al lettore il compito di esplicitarle.
Proposizione 3.7 Il sistema X è risolubile solo se β ha al più n termini.
Proposizione 3.8 Sia X risolubile. Allora X è determinato se e solo se β ha
esattamente n termini.
Teorema 3.9 Il sistema X è impossibile (se e) solo se l’ equazione assurda
0 = 1 può ottenersi come combinazione lineare delle equazioni di X.
Dimostrazione. Sia X impossibile. Per la Proposizione
Pn 3.6 il sistema Y che
corrisponde a β contiene un’ equazione impossibile i=1 0·xi = b 6= 0. Sicchè
l’ equazione assurda 0 = 1 appartiene ad L(Y). D’ altra parte, Y ∼ X perchè
β ∼ α. Quindi l’ equazione 0 = 1 appartiene ad L(X). 2
3.3.3 Commenti
Per risolvere un problema si possono seguire procedure ‘dirette’ o ‘asintotiche’.
Per esempio, una formula risolutiva (come quelle di Cardano, Volume 2, Capito-
lo 6, §6.5.1) è una procedura diretta; invece, i metodi di sezione e di punto fisso
(Volume 2, Capitolo 6, §§6.5.2, 6.5.5) sono procedure asintotiche. Il metodo di
Gauss Jordan rientra tra le procedure dirette. Il principale difetto delle proce-
dure dirette è che i percorsi di calcolo da esse prescritti non sempre permettono
di tenere sotto controllo i possibili guasti prodotti da errori di arrotondamento,
inevitabili in ogni calcolo.
3.4. ESERCIZI 57
Per esempio, sia axn = 1 l’ ultima equazione di una riduzione a squadra di
un sistema lineare e supponiamo che a 6= 0. Dunque, il sistema è risolubile.
Supponiamo però che |a| ≤ 10−7 e che la precisione dei nostri mezzi di calcolo
non ci consenta più di sei cifre dopo la virgola. Allora quell’ equazione assu-
merebbe per noi la forma 0·xn = 1 ed il sistema ci apparirebbe impossibile.
Questo non è sempre un dramma; in molti casi, le soluzioni che cosı̀ possiamo
aver perso non avrebbero avuto alcun interesse pratico. Ma si possono metter
in atto accorgimenti per limitare questi danni; e comunque, quando possibile
(per esempio, con un sistema che già sappiamo essere risolubile e determinato)
e quando ci sia motivo per ritenere rischioso il ricorso a procedure risolutive
dirette, si preferisce usare tecniche asintotiche. Ma questa è materia di Calcolo
Numerico.
3.4 Esercizi
Esercizio
Pn 3.1 Dati n vettori U1 , U2 ,..., Un di uno stesso spazio vettoriale, sia
U = i=1 Ui e, per i = 1, 2, ..., n, si ponga Ai = U − aUi , con 0 6= a 6= n (cfr.
Capitolo 2, Esercizio 2.1). Si descriva una sequenza di modifiche elementari che
faccia passare da {Ui }ni=1 ad {Ai }ni=1 .
Esercizio 3.2 Dati n vettori U1 , U2 ,..., Un di uno stesso spazio vettoriale, si
ponga Ei,j = aj Ui − ai Uj per 1 ≤ i < j ≤ n, con ai 6= 0 per i = 1, 2, ..., n (cfr.
Capitolo 2, Esercizio 2.3). Si descriva una sequenza di modifiche elementari che
faccia passare da {U1 } ∪ {Ei,j }1≤i<j≤n ad {Ui }ni=1 .
Esercizio 3.3 Dati tre vettori A, B, C di uno stesso spazio vettoriale, si trovino
modifiche elementari che trasformino {nA + (2n + 1)B + (3n + 2)C}∞ n=1 nella
coppia {A − C, B + 2C} (cfr. Capitolo 2, Esercizio 2.5).
Esercizio 3.4 Si provi che, se α è una sequenza finita, ogni sua modifica di
tipo (V) può sempre ottenersi con ripetuti scambi di termini consecutivi.
Soluzione. Ogni permutazione è prodotto di trasposizioni (Volume 1, Capitolo
6, Teorema 6.14) ed ogni trasposizione è prodotto di trasposizioni che scambiano
numeri consecutivi (Volume 1, Capitolo 6, Esercizio 6.13).
Esercizio 3.5 Sia (iii0 ) l’ analoga di (III0 ), ma formulata per insiemi. Si scopra
qualche insieme di vettori per il quale non ogni modifica elementare di tipo (iii)
può ottenersi iterando modifiche di tipo (iii0 ).
Suggerimento. {A, B, A + B}.
Esercizio 3.6 Si dimostri che la (i+ ) e le modifiche di tipo (iii0 ) sono sufficienti
a riprodurre ogni modifica di tipo (iii).
Esercizio 3.7 Data una sequenza α di vettori di Vn (K) ed un vettore A ∈
Vn (K), sia β una riduzione a squadra di α e siano α0 e β 0 le sequenze ottenute
58 Capitolo 3
aggiungendo A come nuovo termine ad α e a β. È vero che α0 e β 0 hanno le
stesse riduzioni a squadra ? È vero che A ∈ L(α) se e solo se β è una riduzione
a squadra di β 0 ?
Risposta. La risposta è si, ad entrambe le domande.
Esercizio 3.8 Sia X il sistema formato dalle sequenti n equazioni in n inco-
gnite in K,
n
X
xi = n + 1 − k, (k = 1, 2, ..., n).
i=k
Si dimostri che sol(X) = {(1, 1, ..., 1, 1)}.
Esercizio 3.9 Sia X il sistema formato dalle sequenti n equazioni in 2n inco-
gnite in K,
n
X
(x2i−1 − x2i ) = n + 1 − k, (k = 1, 2, ..., n).
i=k
Si dimostri che
sol(X) = {(x2 + 1, x2 , x4 + 1, x4 , ..., x2n + 1, x2n )}x2 ,x4 ,...,x2n ∈K .
Capitolo 4
Dipendenza e indipendenza
lineare
Se da un insieme X di vettori possiamo togliere dei vettori senza alterare il
sottospazio lineare generato da X, vorremmo dire che X è ‘ridondante’, che
contiene vettori ‘superflui’. Per esempio, se un’ equazione di un sistema lineare
X può ottenersi come combinazione lineare dalle altre equazioni di X, essa è
superflua, non dice nulla che già non sia detto dalle altre equazioni di X. La
possiamo togliere. Le equazioni che restano formano un sistema equivalente ad
X. Il concetto di dipendenza lineare, che ora definiremo, dà una formulazione
precisa a questa idea di ‘ridondanza’.
4.1 Definizioni e prime proprietà
Nel seguito V indica un dato spazio vettoriale e K è il suo campo di scalari.
4.1.1 Dipendenza lineare
Diciamo che un insieme X di vettori di V è linearmente dipendente (brevemente,
che è dipendente) se
(D1) (∃X ∈ X)(X ∈ L(X \ {X})).
Dalla (9) del Capitolo 2 si ha subito che, se X è linearmente dipendente e se
Y ⊇ X, allora anche Y è linearmente dipendente.
Il vettore nullo, essendo proporzionale ad ogni vettore, forma una coppia
dipendente con ogni vettore. Anzi, ogni insieme di vettori contenente il vetto-
re nullo è linearmente dipendente perchè O ∈ L(∅) (Capitolo 2, (8)). Sicchè
ogni sottospazio lineare di V è linearmente dipendente. In particolare, {O} è
dipendente. Anzi, O è l’ unico vettore X per cui {X} sia dipendente.
Anzichè dire di un insieme finito di vettori {X1 , X2 , ..., Xn } che è linearmente
dipendente si usa anche dire che i vettori X1 , X2 ,..., Xn sono dipendenti.
59
60 Capitolo 4
Nel Capitolo 2 ci siamo già presi la libertà di dire che due vettori sono
non proporzionali se nessuno dei due è proporzionale all’ altro. Diremo che due
vettori non nulli sono proporzionali quando uno dei due è proporzionale all’ altro.
Il chè, avendo supposto i due vettori non nulli, equivale a dire che ciascuno dei
due è proporzionale all’ altro (cfr. Capitolo 2, (13)). Dire di due vettori distinti
non nulli che sono dipendenti è come dire che sono proporzionali. (Invece O è
proporzionale ad ogni vettore, ma nessun vettore non nullo è proporzionale a
O.)
Proposizione 4.1 Un sottoinsieme X di V è linearmente dipendente se e solo
se Y ∼ X per qualche sottoinsieme proprio Y di X.
Dimostrazione. X sia dipendente e sia X ∈ X∩L(X\{X}). Allora X\{X} ≈ X
(modifica elementare di tipo (iv)). Quindi X \ {X} è un sottoinsieme proprio
di X equivalente ad X.
Viceversa, sia Y un sottoinsieme proprio di X equivalente ad X. Sia X ∈ X\
Y. Siccome X ∼ Y ed X ∈ X, risulta X ∈ L(Y). D’ altra parte, Y ⊆ X \ {X}.
Sicchè X ∈ L(X \ {X}) e pertanto X è dipendente. 2
Proposizione 4.2 Un sottoinsieme X di V è linearmente dipendente se e solo
se vale la seguente condizione:
(D2) si possono trovare vettori X1 , X2 , ...,PXn ∈ X a due a due distinti e scalari
n
x1 , x2 , ..., xn ∈ K non tutti nulli, tali che i=1 xi Xi = O.
Dimostrazione. Se X soddisfa la condizione (D2) non può essere vuoto. Del
resto, (D1) implica X 6= ∅. Sicchè possiamo supporre X 6= ∅.
Supponiamo che X contenga un solo vettore, diciamolo X. Per (18) e (24)
del Capitolo 1, la (D2) vale per {X} se e solo se X = O. D’ altra parte,
abbiamo già avuto modo di osservare che {X} è dipendente se e solo se X = O.
Sicchè quanto asserito dalla Proposizione 4.2 risulta vero se X consiste di un
solo vettore.
Supponiamo invece che X contenga almeno due vettori. Sia X dipendente.
Allora X ∈ L(X \ {X}) per qualche vettore X ∈ X. Sicchè esistono vettori
distinti Y1 , Y2 , ..., Ym ∈ X \ {X} e scalari y1 , y2 , ..., ym ∈ K tali che
m
X
(i) X = yi Yi .
i=1
Questo resta vero anche se X = O. In tal caso potrei prendere un qualunque
vettore Y ∈ X \ {O} e rappresentare X = O come X = 0·Y . Da (i) si ottiene
m
X
(ii) (−1)·X + yi Yi = O.
i=1
Questa è una combinazione lineare nulla di elementi distinti di X e i suoi coef-
ficienti non sono tutti nulli (infatti, il coefficente di X è −1). Dunque (D2)
vale.
4.1. DEFINIZIONI E PRIME PROPRIETÀ 61
Viceversa, valga (D2) e siano X1 , X2 ,..., Xn vettori di X a due a due distinti
ed x1 , x2 ,..., xn scalari non tutti nulli, tali che
n
X
(j) xi Xi = O.
i=1
Se n = 1, allora X1 = O (Capitolo 1, (24)), e quindi X è dipendente. Sia invece
n > 1. In tal caso possiamo supporre di avere elencato i vettori X1 , X2 ,..., Xn
in modo che quelli che nella (j) sono moltiplicati per scalari diversi da 0 siano
elencati per primi. Allora, di sicuro x1 6= 0 e da (j) si ricava
n
X
(jj) X1 = −x−1
1 xi Xi .
i=2
Siccome i vettori X1 , X2 ,..., Xn si sono supposti a due a due distinti, X1 6=
X2 , X3 , ..., Xn . Quindi (jj) dice che X1 è combinazione lineare di vettori di X
diversi da X1 . Cioè, X è dipendente. 2
Sia X finito e non vuoto e siano X1 , X2 ,..., Xn i suoi vettori, elencati senza
ripetizioni. Ogni combinazione lineare di vettori di X può pensarsi estesa a
tutti i vettori di X, assegnando ad un vettore un coefficiente nullo se esso già
non compariva esplicitamente in quella combinazione. In questo caso possiamo
riformulare la (D2) come segue:
n
_ n
X
(D20 ) (∃ni=1 xi ∈ K)( (xi 6= 0) ∧ xi Xi = O).
i=1 i=1
4.1.2 Indipendenza lineare
Diciamo che un insieme X di vettori di V è linearmente indipendente (breve-
mente, che è indipendente) se non è linearmente dipendente. Cioè se
(I1) (∀X ∈ X)(X 6∈ L(X \ {X})).
Dati certi vettori X1 , X2 ,..., Xn , diremo brevemente che essi sono indipendenti
per dire che {X1 , X2 , ..., Xn } è linearmente indipendente.
È evidente dalla definizione che ∅ è linearmente indipendente. È anche evi-
dente che, se X è linearmente indipendente e Y ⊆ X, allora anche Y è linear-
mente indipendente. Un insieme costituito da un singolo vettore X è linearmente
indipendente se e solo se X 6= O. Nessun insieme contenente O può essere li-
nearmente indipendente. Due vettori distinti formano una coppia indipendente
se e solo se non sono proporzionali.
Dalle Proposizioni 4.1 e 4.2 si hanno subito i due corollari seguenti.
Corollario 4.3 Un sottoinsieme X di V è linearmente indipendente se e solo
se L(Y) ⊂ L(X) per ogni Y ⊂ X.
62 Capitolo 4
Corollario 4.4 Un sottoinsieme X di V è linearmente indipendente se e solo
se
Xn
(I2) xi Xi = O =⇒ x1 = x2 = ... = xn = 0
i=1
per ogni scelta di vettori X1 , X2 , ..., Xn di X a due a due distinti e di scalari
x1 , x2 , ..., xn ∈ K.
Proposizione 4.5 Un sottoinsieme X di V è linearmente indipendente se e
solo se, per ogni scelta di vettori X1 , X2 , ..., Xn di X a due a due distinti e di
scalari x1 , y1 , x2 , y2 , ..., xn , yn ∈ K, si ha che
X n X n ^n
(I3) xi Xi = yi Xi =⇒ (xi = yi ).
i=1 i=1 i=1
Dimostrazione. Proviamo l’ affermazione “se”. Valga la condizione considerata
in questa proposizione. Dati arbitrari Pn vettori X1 , X2 ,..., Xn di X, a due a due
distinti, e scalari x1 , x2 ,..., xn , sia i=1 xi Xi = O. Quindi
n
X n
X
xi Xi = 0·Xi .
i=1 i=1
Allora xi = 0 per ogni i = 1, 2, ..., n, siccome stiamo assumendo valida l’ im-
plicazione (I3). Con ciò si è provata la (I2). Dunque X è indipendente, per il
Corollario 4.4.
Viceversa, sia X indipendente e siano X1 , X2 ,..., Xn vettori di X a due a
due distinti ed x1 , y1 , x2 , y2 , ..., xn , yn scalari tali che
Xn Xn
xi Xi = yi Xi .
i=1 i=1
Allora
Xn
(xi − yi )Xi = O.
i=1
Per il Corollario 4.4 si ha xi − yi = 0 per ogni i = 1, 2, ..., n. Cioè xi = yi per
ogni i = 1, 2, ..., n, come preteso nella (I3). 2
Se X è finito il Corollario 4.4 e la Proposizione 4.5 possono formularsi in modo
più stringato, analogamente a quel che si è fatto per la Proposizione 4.2. L’ insie-
me X consista di n vettori X1 , X2 ,..., Xn . Allora X è linearmente indipendente
se e solo
Xn
0 n
(I2 ) (∀i=1 xi ∈ K)( xi Xi = O =⇒ x1 = x2 = ... = xn = 0)
i=1
e ciò si verifica se e solo se
Xn X n
^
(I30 ) (∀ni=1 xi , yi ∈ K)( xi Xi = yi Xi =⇒ (xi = yi )).
i=1 i=1 i=1
4.2. ESEMPI 63
4.1.3 Dipendenza, indipendenza e isomorfismi
La seguente proposizione permette di trasportare ad arbitrari spazi vettoriali
isomorfi ad un dato spazio V ogni informazione che si abbia su insiemi linear-
mente dipendenti o indipendenti di vettori di V. Sfrutteremo questa possibilità
in alcuni degli esempi che discuteremo nella prossima sezione.
Siano V e W spazi vettoriali isomorfi e sia α un isomorfismo da V a W. Sia
X un insieme di vettori di V.
Proposizione 4.6 L’ insieme X è linearmente indipendente se e solo se la sua
immagine α(X) è linearmente indipendente.
Dimostrazione. Dato X ∈ X, risulta X ∈ L(X \ {X}) se e solo se α(X) ∈
L(α(X) \ {α(X)}), perchè α è un isomorfismo. 2
4.2 Esempi
4.2.1 In V2 (R) e V3 (R)
Due arbitrari vettori non proporzionali di V2 (R) generano tutto V2 (R) (Capitolo
2, §2.4.1). Quindi un insieme di più di due vettori di V2 (R) è sempre dipendente.
I sottospazi lineari di V3 (R) generati da due vettori non proporzionali sono i
piani per O (Capitolo 2, §2.4.1). Quindi tre vettori di V3 (R) sono indipendenti
se e solo se non appartengono ad uno stesso piano per O.
Tre vettori di V3 (R) non appartenenti ad uno stesso piano per O generano
tutto V3 (R) (Capitolo 2, §2.4.1). Quindi un insieme di più di tre vettori di
V3 (R) è sempre dipendente.
4.2.2 In Vn (K)
Siano U1 , U2 ,..., Un gli n versori di Vn (K) (Capitolo 1, §1.3.4)
Proposizione 4.7 L’ insieme {U1 , U2 , ..., Un } è linearmente indipendente.
Pn n
Dimostrazione. Siccome i=1 xi Ui = (xi )i=1 , una combinazione lineare dei
versori rappresenta O solo se i coefficienti della combinazione sono tutti nulli.
Per (I20 ), i versori sono indipendenti. 2
Proposizione 4.8 Una sequenza di vettori di Vn (K) conformata a squadra
rappresenta sempre un insieme di vettori linearmente indipendente.
Dimostrazione. Sia α = (Aj )m j=1 una sequenza di vettori di Vn (K) conformata a
squadra. Nessuno dei vettori di α è nullo, per definizione di sequenza conformata
a squadra (Capitolo 3, §3.2.1). Poniamo kj = λ(Aj ), per j = 1, 2, ..., m (Capitolo
3, §3.2.1). Cioè
Aj = (0, 0, ..., 0, aj,kj , aj,kj +1 , ..., aj,n )
64 Capitolo 4
ove aj,kj 6= 0. Si ha 1 ≤ k1 < k2 < ... < km ≤ n perchè α è a squadra.
Pm Sicchè
le n coordinate x1 , x2 ,..., xn di una combinazione lineare X = i=1 yi Ai dei
vettori di α possono descriversi cosı̀:
se i < k1 , allora xi = 0;
se k1 ≤ i < k2 , allora xi = a1,i y1 ;
se k2 ≤ i < k3 , allora xi = a1,i y1 + a2,i y2 ;
....................................P
m
se km ≤ i, allora xi = j=1 aj,i yj .
In particolare:
xk1 = a1,k1 y1 ,
xk2 = a1,k2 y1 + a2,k2 y2 ,
....................................
xkm = a1,km y1 + a2,km y2 + ... + am,km ym .
Se X = O, tutte le sue coordinate sono nulle. In particolare
a1,k1 y1 = 0,
a1,k2 y1 + a2,k2 y2 = 0,
....................................
a1,km−1 y1 + a2,km−1 y2 + ... + am−1,km−1 ym−1 = 0,
a1,km y1 + a2,km y2 + ... + am−1,km ym−1 + am,km ym = 0.
Questo è un sistema di m equazioni lineari omogenee in m incognite. Si vede
subito che, siccome aj,kj 6= 0 per j = 1, 2, ..., m, il vettore nullo di Vm (K) è l’
unica soluzione di questo sistema (il sistema è determinato).
Si è dunque provato che, se X = O, allora y1 = y2 = ... = ym = 0. Quindi
per (I30 ) i vettori A1 , A2 ,..., Am sono indipendenti. 2
Corollario 4.9 Ogni sequenza di vettori di Vn (K) non tutti nulli è equivalente
ad una sequenza i cui vettori formano un insieme linearmente indipendente.
Dimostrazione. Per ogni sequenza di vettori non tutti nulli di Vn (K), pos-
siamo considerare una sua riduzione a squadra. La conclusione segue dalla
Proposizione 3.5 del Capitolo 3 e dalla Proposizione 4.8 ora dimostrata. 2
L’ algoritmo di Gauss-Jordan ci appare ora come un espediente per sostituire
ad una sequenza α di vettori un’ altra sequenza formata da vettori linearmente
indipendenti e generante lo stesso sottospazio lineare L(α) generato da α.
4.2.3 In VI (K)
Le funzioni χi siano definite come in §2.4.3, 1 del Capitolo 2. È facile ve-
dere che l’ insieme {χi }i∈I è linearmente indipendente in VI (K). (Quando
I = {1, 2, ..., n}, questo lo si è già detto: Proposizione 4.7.)
4.2. ESEMPI 65
4.2.4 Esempi in En (K)
Sappiamo che Vn+1 (K) ∼ = En (K). Nell’ isomorfismo considerato in §1.3.5 del
Capitolo 1, agli n + 1 versori di Vn+1 (K) corrispondono le n + 1 equazioni
x1 = 0, x2 = 0, ..., xn = 0, 0 = 1.
I versori sono indipendenti (Proposizione 4.7). Quindi per la Proposizione 4.6
queste equazioni sono indipendenti in quanto vettori di En (K).
Più in generale, se i vettori di Vn+1 (K) che rappresentano certe equazioni di
En (K) sono indipendenti, allora quelle equazioni sono indipendenti (Proposizio-
ne 4.6). In particolare, se quei vettori, presi in un certo ordine, danno luogo ad
una conformazione a squadra, allora quelle equazioni sono indipendenti (Pro-
posizione 4.8). Per esempio, un sistema del seguente tipo, ove ai,i 6= 0 per ogni
i = 1, 2, ..., n, consiste di equazioni indipendenti:
n
X
ak,i xi = bk , (k = 1, 2, ..., n).
i=k
4.2.5 Il Principio d’ identità dei polinomi
Sia K un campo infinito. Il Principio d’ Identità per i polinomi in una sola
variabile (Volume 2, Capitolo 5, Corollario 5.5) può riformularsi cosı̀:
Proposizione 4.10 I monomi 1, x, x2 ,..., xn ,... formano un insieme linear-
mente indipendente di vettori di P∞ (K).
Dimostrazione. Per la Proposizione 4.5, dire che l’ insieme {xn }∞
n=0 è linearmen-
te indipendente in P∞ (K) è come dire che due polinomi di P∞ (K) coincidono
solo se hanno lo stesso grado e gli stessi coefficienti. E questo è appunto il
Principio di Identità per i polinomi in una sola variabile. 2.
Il Principio d’ Identità vale anche per polinomi in più variabili (Volume 2,
Capitolo 5, Corollario 5.11). Per polinomi in due variabili esso dice che i monomi
1, x, y, x2 , xy, y 2 , x3 , x2 y, xy 2 , y 3 , ..., xn y m , ...
formano un insieme linearmente indipendente nello spazio vettoriale di tutti
i polinomi a coefficienti in K nelle due variabili x ed y. Per polinomi in tre
variabili dice che i monomi
1, x, y, z, x2 , xy, xz, y 2 , yz, z 2 , x3 , x2 y, x2 z, xyz, ...
formano un insieme linearmente indipendente nello spazio vettoriale di tutti i
polinomi a coeffienti in K nelle tre variabili x, y, z. In generale, dice che i
monomi
xm1 m2 mn
1 x2 ...xn , (m1 , m2 , ..., mn ∈ N)
formano un insieme indipendente nello spazio di tutti i polinomi nelle variabili
x1 , x2 ,..., xn .
66 Capitolo 4
4.3 Qualche teorema
In questa sezione V sta per un arbitrario spazio vettoriale.
4.3.1 Un criterio di dipendenza
Teorema 4.11 Dato un insieme X di vettori di V, sia Y ⊆ L(X). Se card(Y) >
card(X) allora Y è linearmente dipendente.
Dimostrerò questo teorema nel prossimo paragrafo, ma prima voglio stabilire
una sua importante conseguenza:
Corollario 4.12 Siano X, Y insiemi linearmente indipendenti di vettori di V.
Se X ∼ Y, allora card(X) = card(Y).
Dimostrazione. Se X ∼ Y, allora Y ⊆ L(X) e X ⊆ L(Y). Dalla prima
inclusione e dal Teorema 4.11, rammentando che Y è indipendente, si ottiene che
card(Y) ≤ card(X). Analogamente, card(X) ≤ card(Y). Quindi card(X) =
card(Y). 2
Dimostrazione del Teorema 4.11. Tratterò separatamente i due casi, che
X sia finito e che X sia infinito.
Il caso finito. Supponiamo che X sia finito. Dunque X = {X1 , X2 , ..., Xn },
ove i vettori X1 , X2 ,..., Xn si pensano elencati senza ripetizioni (e quindi n =
card(X)). Sia Y ⊆ L(X), con card(Y) > n. Allora possiamo scegliere n + 1
distinti vettori Y1 , Y2 ,..., Yn , Yn+1 in Y. Siccome Y ⊆ L(X), si ha che
n
X
(a.1) Y1 = x1,i Xi ,
i=1
per certi scalari x1,1 , x1,2 , ..., x1,n . Se questi sono tutti nulli, allora Y1 = O e
quindi Y, contenendo O, è linearmente dipendente. Con ciò avremmo finito.
Altrimenti, uno almeno di quegli scalari è 6= 0. Possiamo sempre supporre
che l’ ordine in cui abbiamo elencato i vettori X1 , X2 ,..., Xn di X sia tale che
quei vettori che nella (a.1) sono moltiplicati per scalari diversi da 0 siano elencati
per primi. Allora x1,1 6= 0.
Sicchè possiamo passare da X all’ insieme {x1,1 X1 , X2 , ..., Xn } (modifica di
tipo (ii)) e da questo insieme a {Y1 , X2 , ..., Xn } (modifica di tipo (iii)). Si ha
cosı̀
(b.1) X ≈ {Y1 , X2 , ..., Xn }.
Quindi
(c.1) L(X) = L(Y1 , X2 , ..., Xn ).
4.3. QUALCHE TEOREMA 67
Sicchè Y2 ∈ L(Y1 , X2 , ..., Xn ) perchè Y2 ∈ L(X). Dunque
n
X
(a.2) Y2 = y2,1 Y1 + x2,i Xi ,
i=2
per opportuni scalari y2,1 , x2,2 , x2,3 , ..., x2,n . Se gli scalari x2,i sono tutti nulli,
allora Y2 è proporzionale ad Y1 . Quindi Y è linearmente dipendente ed abbiamo
finito.
Altrimenti, se uno almeno degli scalari x2,i è 6= 0, possiamo sempre supporre
che x2,2 sia proprio uno di essi, cioè x2,2 6= 0. In tal caso possiamo passare
dall’ insieme {Y1 , X2 , ..., Xn } ad {Y1 , x2,2 X2 , ..., Xn } (modifica di tipo (ii)) e da
questo insieme ad {Y1 , Y2 , X3 , ..., Xn } (modifica di tipo (iii)). Si ha dunque
{Y1 , X2 , ..., Xn } ≈ {Y1 , Y2 , X3 , ..., Xn }
e quindi
(b.2) X ≈ {Y1 , Y2 , X3 , ..., Xn },
per la (b.1). Quindi
(c.2) L(X) = L(Y1 , Y2 , X3 , ..., Xn ).
Dunque Y3 ∈ L(Y1 , Y2 , X3 , ..., Xn ) perchè Y3 ∈ L(X). Ne segue che
n
X
(a.3) Y3 = y3,1 Y1 + y3,2 Y2 + x3,i Xi ,
i=3
per opportuni scalari y3,1 , y3,2 , x3,3 , ..., x3,n . Se gli scalari x3,i sono tutti nulli,
allora Y3 ∈ L(Y1 , Y2 ) e pertanto Y è linearmente dipendente. Avremmo finito.
Altrimenti, se uno almeno degli scalari x3,i è 6= 0, possiamo sempre supporre
che sia x3,3 6= 0. Possiamo andare avanti nel processo di sostituzione degli Xi
con gli Yi sostituendo ora Y3 ad X3 . Otteniamo
(b.3) X ≈ {Y1 , Y2 , Y3 , X4 , ..., Xn },
da cui
(c.3) L(X) = L(Y1 , Y2 , Y3 , X4 , ..., Xn ).
Ora riprenderemmo da Y4 . E cosı̀ via. Si possono verificare due casi.
Caso 1. Ad un certo momento, prima di avere sostituito ciascuno degli Xi
con un corrispondente Yi , ci imbattiamo in un vettore Yk (k ≤ n) che risulta
combinazione lineare dei vettori Y1 , Y2 ,..., Yk−1 esaminati in precedenza. Ciò ci
basta per dire che Y è dipendente.
Caso 2. La fortunata combinazione di cui sopra non ci capita mai. Quindi siamo
costretti a sostituire i vettori X1 , X2 ,..., Xn coi vettori Y1 , Y2 ,..., Yn uno dopo
l’ altro. Arriviamo cosı̀ a concludere che
(b.n) X ≈ {Y1 , Y2 , ..., Yn }.
68 Capitolo 4
Quindi
(c.n) L(X) = L(Y1 , Y2 , ..., Yn ).
Però, anche se abbiamo esaurito i vettori di X, non abbiamo ancora esaurito
quelli di Y. Almeno uno è rimasto fuori, cioè Yn+1 . D’ altra parte, Yn+1 ∈ L(X).
Sicchè Yn+1 ∈ L(Y1 , Y2 , ..., Yn ), per (c.n). Dunque Y è dipendente.
Il caso infinito. Supponiamo ora che X sia infinito e sia Y ⊆ L(X), con
card(Y) > card(X). Ogni vettore di Y è combinazione lineare di un numero
finito di vettori di X. Per ogni Y ∈ Y scegliamo un sottoinsieme finito X(Y )
di X tale che Y ∈ L(X(Y )). (Qui, se X è più che numerabile, occorre l’
Assioma di Scelta (Volume 1, Capitolo 8); se invece X è numerabile, si può dare
un criterio per scegliere X(Y ); non entro in dettagli.) Dunque, indicato con
P0 (X) l’ insieme dei sottoinsiemi finiti di X e posto f (Y ) = X(Y ), abbiamo
una funzione f da Y a P0 (X). Ovviamente,
(i) Y = ∪(f −1 (X0 ) | X0 ∈ P0 (X)).
Per continuare la dimostrazione ci serve il seguente risultato di teoria degli
insiemi: data una qualunque famiglia infinita {Ai }i∈I di insiemi finiti, si ha che:
[
(∗) card( Ai ) ≤ card(I)
i∈I
(Quando I è numerabile, la (∗) è la Proposizione 8.12 del Capitolo 8 del Volume
1; invece, per dimostrare (∗) nel caso che card(I) > ℵ0 , occorre l’ Assioma di
Buon Ordinamento (Volume 1, Capitolo 8), ma non entro in dettagli.) Da (∗) e
dalla (5) del Capitolo 8 del Volume 1 si ottiene subito che ogni insieme infinito
ha la stessa cardinalità dell’ insieme dei suoi sottoinsiemi finiti. Quindi, siccome
X è infinito,
(ii) card(P0 (X)) = card(X)
Supponiamo che f −1 (X0 ) sia finito, per ogni X0 ∈ P0 (X). Allora card(Y) ≤
card(X) per (i), (∗) ed (ii), contro l’ ipotesi che card(Y) > card(X). Ne segue
che f −1 (X0 ) è infinito, per qualche X0 ∈ P0 (X). Ma X0 è finito ed abbiamo
già dimostrato il Teorema 4.11 nel caso finito. Dunque f −1 (X0 ) è dipendente.
Pertanto, Y è dipendente.
Alcuni corollari. Dal Teorema 4.11 si ha subito che:
Corollario 4.13 Se V ammette un insieme finito di n generatori, allora ogni
insieme di più di n vettori di V è linearmente dipendente.
Quindi:
Corollario 4.14 Sia V ∼= Vn (K). Allora un insieme di più di n vettori di V è
sempre linearmente dipendente.
4.3. QUALCHE TEOREMA 69
Questa affermazione ci era già nota nel caso di V2 (R) e V3 (R) (cfr. §4.2.2). Ma in
quei due casi l’ avevamo ottenuta da considerazioni sostanzialmente intuitive che
mal si prestavano a generalizzazioni. Il Corollario 4.14 ci dà invece la generalità
di cui abbiamo bisogno per chiudere alla svelta vari problemi di dipendenza o
indipendenza.
Per esempio, sfruttando gli isomorfismi En (K) ∼ = Vn+1 (K) ed EOn (K) ∼ =
Vn (K), dal Corollario 4.14 otteniamo che
Corollario 4.15 Un sistema di più di n + 1 equazioni lineari in n incognite
contiene sempre qualche equazione superflua. Ogni sistema di più di n equazioni
lineari omogenee in n incognite contiene equazioni superflue.
4.3.2 Due lemmi
I due lemmi seguenti verranno usati nella dimostrazione del prossimo teorema.
Lemma 4.16 Sia X un insieme linearmente indipendente di vettori di V e sia
X un vettore di V che non appartiene ad L(X). Allora X ∪ {X} è indipendente.
Dimostrazione. Presi n vettori distinti X1 , X2 , ..., Xn ∈ X, supponiamo che
n
X
(i) xX + xi Xi = O.
i=1
Pn
Risulta x = 0. Infatti, altrimenti, X = −x−1 i=1 xi Xi , contro l’ ipotesi che
X 6∈ L(X). Ma, allora, (i) diventa
n
X
(ii) xi Xi = O
i=1
e quindi x1 = x2 = ... = xn = 0, per l’ indipendenza di X. Dunque, X ∪ {X} è
indipendente, per (I2). 2
Lemma 4.17 Sia (Xn )∞ n=0 una successione di insiemi S
linearmente indipendenti
∞
di vettori di V, con Xn ⊆ Xn+1 per ogni n ∈ N. Allora n=0 Xn è indipendente.
S∞
Dimostrazione. Dati X1 , X2 , ..., Xm ∈ n=0 Xn , qualche Xn li contiene tutti.
Siccome Xn è indipendente,
m
X
xi Xi = O =⇒ x1 = x2 = ... = xm = 0
i=1
S∞
Quindi n=0 Xn è indipendente. 2
4.3.3 Eliminando generatori superflui
Teorema 4.18 Ogni insieme X di vettori di V contiene un sottoinsieme Y
linearmente indipendente e tale che Y ∼ X.
70 Capitolo 4
Dimostrazioni del Teorema 4.18. Dimostrerò questo teorema solo in due
casi particolari. Al caso generale dedicherò solo pochi cenni.
Un primo caso. Supponiamo che X sia contenuto in un sottospazio lineare
di V generato da un numero finito di vettori di V, diciamoli A1 , A2 , ..., An .
Se X ∼ ∅, non c’ è nulla da provare. Altrimenti, X contiene vettori non nulli.
Sia X1 un vettore non nullo di X. Se {X1 } ∼ X, allora prendiamo Y = {X1 }
e abbiamo fatto. Altrimenti, X 6⊆ L(X1 ). In questo caso, scegliamo X2 ∈
X \ L(X1 ). La coppia {X1 , X2 } è indipendente. Se {X1 , X2 } ∼ X, prendiamo
Y = {X1 , X2 } e abbiamo fatto. Altrimenti, sia X3 ∈ X \ L(X1 , X2 ). Per il
Lemma 4.16, l’ insieme {X1 , X2 , X3 } è indipendente. Se {X1 , X2 , X3 } ∼ X,
prendiamo Y = {X1 , X2 , X3 } e abbiamo fatto. Altrimenti ...
In questo modo, formiamo sottoinsiemi indipendenti di X via via più grandi
e ci fermiamo solo quando l’ ultimo insieme che abbiamo formato equivale ad X.
Ma tutti questi insiemi stanno in L(A1 , A2 , ..., An ). Pertanto, per il Teorema
4.11, nessuno di essi contiene più di n elementi. Sicchè, in al più n passi un
sottoinsieme indipendente di X equivalente ad X lo troviamo.
Un secondo caso. Supponiamo invece che X sia equivalente ad un insieme
numerabile. Per cominciare, supponiamo addirittura che X sia numerabile e
siano X0 , X1 , X2 , ... i suoi elementi, presi in un qualche ordine.
Possiamo sempre supporre che il vettore nullo, se appartiene a X, compaia
per primo nella lista X0 , X1 , X2 , .... Se X0 = O, poniamo Y0 = X1 , altrimenti
Y0 = X0 . Quindi Y0 6= O e pertanto l’ insieme {Y0 } è indipendente. Se L(Y0 ) =
L(X), prendiamo Y = {Y0 } e abbiamo fatto. Altrimenti, Xk 6∈ L(Y0 ) per
qualche Xk ∈ X. Sia Y1 il primo elemento di X che non sta in L(Y0 ). La
coppia {Y0 , Y1 } è indipendente. Se L(Y0 , Y1 ) = L(X), prendiamo Y = {Y0 , Y1 }
e abbiamo fatto. Altrimenti, Xk 6∈ L(Y0 , Y1 ) per qualche Xk ∈ X. Sia Y2 il
primo elemento di X che non sta in L(Y0 , Y1 ) ... E cosı̀ via. In questo modo,
estraiamo dalla sequenza (X0 , X1 , X2 , ...) una sottosequenza (Y0 , Y1 , Y2 , ...) tale
che, per ogni m = 0, 1, 2, ...,
(a) l’ insieme {Y0 , Y1 , ..., Ym } è indipendente;
(b) risulta L(Y0 , Y1 , ..., Ym ) = L(X0 , X1 , ..., Xkm ), ove Xkm è l’ elemento di X
che coincide con Ym ;
(c) se X 6∼ {Y0 , Y1 , ..., Ym }, allora Ym non è l’ ultimo termine della sequenza
(Y0 , Y1 , Y2 , ...) e il termine successivo è il primo elemento di X che non appartiene
ad L(Y0 , Y1 , ..., Ym ).
Per (c), la sequenza (Y0 , Y1 , Y2 , ...) si interrompe al termine Ym se e solo se
risulta {Y0 , Y1 , ..., Ym } ∼ X. Se questo è il caso, l’ insieme Y = {Y0 , Y1 , ..., Ym }
ha le proprietà richieste nel Teorema 4.18. Supponiamo invece che la sequenza
(Y0 , Y1 , Y2 , ...) sia infinita e poniamo
∞
[
Y = {Ym }∞
m=0 = {Y0 , Y1 , ..., Ym }
m=0
4.4. ESERCIZI 71
Risulta X ⊆ L(Y), per (b) e (c). Quindi, Y ∼ X. Inoltre, Y è indipendente
per (a) e per il Lemma 4.17. Anche in questo caso, abbiamo fatto.
Infine, senza più fare alcuna ipotesi sulla cardinalità di X, supponiamo che
X ∼ A per qualche insieme numerabile A = {An }∞ n=0 . Per ogni n ∈ N,
S∞sia Xn
un sottoinsieme finito di X tale che An ∈ L(Xn ) e poniamo X∞ = n=0 Xn .
Risulta A ⊆ L(X∞ ). Quindi X∞ ∼ X perchè A ∼ X ⊇ X∞ . Possiamo dunque
sostituire X con X∞ , cercando Y tra i sottoinsiemi di X∞ . D’ altra parte, X∞
è finito o numerabile, per la Proposizione 8.12 del Capitolo 8 del Volume 1. In
un caso e nell’ altro, sappiamo già che un sottoinsieme di X∞ con le proprietà
richieste esiste.
Due parole sul caso generale. Supponiamo invece che X non sia contenuto
in alcun sottospazio lineare di V finitamente generato e nemmeno sia equivalente
ad alcun insieme numerabile. Allora card(X) > ℵ0 . Per il Principio di Buon
Ordinamento (Volume 1, Capitolo 8), l’ insieme X è ben ordinabile. Sia Θ un
suo buon ordinamento. Appoggiandoci a Θ, possiamo proseguire come abbiamo
fatto nel paragrafo precedente quando supponevamo che X fosse numerabile.
Non entro in dettagli.
Un’ altra dimostrazione nel caso finito. Nei due casi particolari prece-
dentemente considerati, l’ insieme Y viene costruito aggiungendo sempre nuovi
elementi, finchè possibile. Ma, quando X è finito, si può ragionare in altro
modo, ottenendo Y per eliminazione di elementi superflui.
Sia dunque X = {X1 , X2 , ..., Xn }. Se X è indipendente, non c’ è nulla
da dimostrare. Altrimenti, qualche elemento di X è combinazione lineare de-
gli altri. Per esempio, sia Xn ∈ L(X1 , X2 , ..., Xn−1 ). Allora, posto X1 =
{X1 , X2 , ..., Xn−1 }, risulta X1 ∼ X. Se X1 è indipendente, prendiamo Y =
X1 e abbiamo finito. Altrimenti, qualche elemento di X1 è combinazione li-
neare degli altri. Per esempio, Xn−1 ∈ L(X1 , X2 , ..., Xn−2 ). Posto X2 =
{X1 , X2 , ..., Xn−2 }, risulta X2 ∼ X1 (∼ X). Se X2 è indipendente, prendia-
mo Y = X2 e abbiamo finito. Altrimenti ... E cosı̀ via. D’ altra parte, non
possiamo andare avanti all’ infinito. Quindi ...
4.4 Esercizi
Esercizio 4.1 Siano A1 , A2 ,..., An come nell’ Esercizio 2.1 del Capitolo 2. Si
dimostri che {Ai }ni=1 è linearmente indipendente.
Esercizio 4.2 Siano E1 , E2 ,..., En−1 come nell’ Esercizio 2.2 del Capitolo 2.
Si dimostri che {Ei }n−1
i=1 è linearmente indipendente.
Suggerimento. Abbiamo una conformazione a squadra.
Esercizio 4.3 Siano Ei,j come nell’ Esercizio 2.3 del Capitolo 2. Si veri-
fichi che, se n > 2, allora {Ei,j }1≤i<j≤n è linearmente dipendente, mentre
{Ei,i+1 }n−1
i=1 è sempre linearmente indipendente.
72 Capitolo 4
Esercizio 4.4 Siano E1 , E2 ,..., En−2 come nell’ Esercizio 2.4 del Capitolo 2.
Si verifichi che {Ei }n−2
i=1 è linearmente indipendente.
Pk
Esercizio 4.5 Sia Vk = i=1 Ui , come in §2.4.2 del Capitolo 2. Si verifichi
che {Vi }ni=1 è linearmente indipendente.
Suggerimento. La n-pla (Vi )ni=1 è come se fosse configurata a squadra: se
scriviamo le coordinate alla rovescia diventa a squadra.
Esercizio 4.6 Le righe della seguente tabella rappresentano una quintula di
vettori di V7 (R). Si dimostri che questa quintupla è linearmente indipendente
1 0 1 0 1 0 1
0 −1 0 −1 0 −1 0
1 −1 2 −2 0 0 0
1 3 9 0 0 0 0
−1 0 0 0 0 0 0
Suggerimento. Come nell’ Esercizio 4.5, avete una conformazione a squadra
‘rovesciata’.
Esercizio 4.7 Si dimostri che la seguente quaterna di vettori di V6 (R) è linear-
mente indipendente
0 1 0 1 0 1
−1 0 −1 0 −1 0
−1 2 −2 0 0 −1
3 9 0 0 0 1
Suggerimento. Permutando le colonne potete ottenere una conformazione a
squadra.
Esercizio 4.8 Sia I = {k1 , k2 , ..., km } un sottoinsieme non vuoto di {1, ..., n}.
Per ogni n-pla X = (xi )ni=1 di Vn (K) indichiamo con fI (X) la m-pla (yj )m j=1
definita ponendo yj = xkj , per j = 1, 2, ..., m. Si è cosı̀ definita una funzione
fI da Vn (K) a Vm (K). Sia X ⊆ Vn (K) e supponiamo che la restrizione di fI
ad X sia iniettiva. Si dimostri che, se fI (X) è linearmente indipendente, allora
anche X è linearmente indipendente.
Esercizio 4.9 Manteniamo le notazioni dell’ esercizio precedente, però suppo-
niamo addirittura che sia iniettiva la restrizione di fI ad L(X). Si provi che, in
questa ipotesi, X è linearmente indipendente se e solo se fI (X) è linearmente
indipendente.
Esercizio 4.10 Usando l’ Esercizio 4.8, si dimostri che la seguente quaterna
di vettori di V8 (R) è linearmente indipendente:
1 0 2 −1 0 1 4 0
2/3 0 −2 11 0 −1 √0 1
3/2
√ 1 3 0 0 0 2 −1
− 2 −1 0 1/2 −5 0 −3 0
4.4. ESERCIZI 73
Suggerimento. Considerate la seconda, quinta, sesta ed ottava colonna.
Pn i
Esercizio 4.11 Sia K infinito. Si ponga Pn = i=0 x . Si dimostri che l’
∞
insieme {Pn }n=0 di vettori di P∞ (K) è linearmente indipendente.
Pn
Esercizio 4.12 Sia K infinito. Si ponga Qn = i=0 (−1)i xi . Si dimostri che
anche l’ insieme {Qn }∞
n=0 è linearmente indipendente in P∞ (K).
Esercizio 4.13 Dati certi numeri reali a1 , a2 ,..., an a due a due distinti, sia
fi ∈ RR definita dalla clausola fi (x) = eai x , per i = 1, 2, ..., n. Si dimostri che
{fi }ni=1 è un insieme indipendente di vettori di RR .
Soluzione. Supponiamo che i numeri a1 , a2 ,..., an siano stati Pn dati in ordine
crescente: a1 < a2 < ... < an . Siano u1 , u2 , ..., un ∈ R tali che i=1 ui eai x =∀ 0.
Moltiplicando questa identità per e−an x e facendo tendere poi x a +∞ resta
un = 0. Si ripeta poi il ragionamento, moltiplicando ora per e−an−1 x . Si ottiene
un−1 = 0. E cosı̀ via. Quindi, per il Corollario 4.4, ...
Esercizio 4.14 Dati certi numeri reali a1 , a2 ,..., an a due a due distinti ed n
numeri naturali k1 , k2 ,..., kn , sia fi,j ∈ RR definita dalla clausola fi,j (x) =
xj eai x per i = 1, 2, ..., n e j = 0, 1, ..., ki . Si dimostri che {fi,j | i = 1, 2, ..., n, j =
0, 1, ..., ki } è un insieme indipendente di vettori di RR .
Suggerimento. Si ragioni come nella traccia dell’ Esercizio 4.13. Ora si
comincerà col dividere per xkn ean x , poi si dividerà per xkn −1 ean x ,...
Esercizio 4.15 Si dimostri che le funzioni cos x, sin x, cos 2x e sin 2x formano
in RR una quaterna linearmente indipendente.
Soluzione. Siano u1 , v1 , u2 , v2 ∈ R tali che
(i) u1 cos x + v1 sin x + u2 cos 2x + v2 sin 2x =∀ 0
Si sostituiscano i valori 0, π/4, π/2 e π al posto di x in questa identità. Si
ottiene cosı̀ un sistema di equazioni nelle incognite u1 , v1 , u2 , v2 , che ammette
(0, 0, 0, 0) come unica soluzione. Sicchè, per il Corollario 4.4,...
Ma si può anche procedere cosı̀. Derivando la (i) una, due, tre volte, si
ottengono le seguenti identità:
(ii) −u1 sin x + v1 cos x − 2u2 sin 2x + 2v2 cos 2x =∀ 0
(iii) −u1 cos x − v1 sin x − 4u2 cos 2x − 4v2 sin 2x =∀ 0
(iv) u1 sin x − v1 cos x + 8u2 sin 2x − 8v2 cos 2x =∀ 0
Quindi, sostituendo 0 ad x in (i)–(iv):
u1 + u2 = v1 + 2v2 = u1 + 4u2 = v1 + 8v2 = 0
La quaterna (0, 0, 0, 0) è l’ unica soluzione di questo sistema.
Nota. Con il secondo dei due metodi sopra usati e sfruttando un teorema sui
determinanti (Capitolo 21, §§21.3.5 e 21.7.2) si dimostra che l’ insieme
{cos ax | a ≥ 0} ∪ {sin ax | a > 0}
74 Capitolo 4
è indipendente. (Lo si può dedurre anche da un teorema sugli autovettori;
Capitolo 17, §17.2.4.) Quindi, per la Proposizione 4.5, ogni funzione che sia
combinazione lineare di funzioni di quella forma, lo è in un solo modo.
Esercizio 4.16 Le funzioni cos x, sin x, cos(x + 1) e sin(x + 1) formano in RR
una quaterna linearmente indipendente ?
Risposta. No. Infatti cos(x + 1) = (cos 1) cos x − (sin 1) sin x ...
Esercizio 4.17 Siano f1 , g1 , f2 , g2 ∈ CR definite come segue:
f1 (x) = cos x + i sin x,
g1 (x) = cos x − i sin x,
f2 (x) = cos 2x + i sin 2x,
g2 (x) = cos 2x − i sin 2x.
Si dimostri che la quaterna {f1 , g1 , f2 , g2 } è linearmente indipendente in C R .
Traccia. Si cominci col mostrare che cos x, sin x, cos 2x e sin 2x sono indipen-
denti anche in quanto vettori di C R (sappiamo già dall’ Esercizio 4.15 che sono
indipendenti in quanto vettori di RR ). Siano poi u1 , v1 , u2 , v2 ∈ C tali che
u1 f1 + v1 g1 + u2 f2 + v2 g2 = O.
Essendo cos x, sin x, cos 2x, sin 2x linearmente indipendenti, il Corollario 4.4 ci
dà un sistema di quattro equazioni lineari omogenee nelle incognite u1 , v1 , u2 ,
v2 . Questo sistema è determinato. Quindi, sempre per il Corollario 4.4,...
Esercizio 4.18 Dei tre insiemi di funzioni considerati nell’ Esercizio 2.12 del
Capitolo 2, ce n’ è qualcuno che possa essere indipendente ?
Risposta. No. Per esempio, l’ insieme delle funzioni caratteristiche di inter-
valli di lunghezza ≥ 1 è equivalente all’ insieme delle funzioni caratteristiche di
intervalli di lunghezza ≥ 2, che è in esso propriamente contenuto.
Capitolo 5
Basi e dimensione
5.1 Basi
Nel seguito V sta per un dato spazio vettoriale su un certo campo K.
5.1.1 Tre proprietà equivalenti
Parleremo ora di sottoinsiemi di V massimali o minimali rispetto a certe pro-
prietà (Volume 1, Capitolo 5, Sezione 5.5). Nel far ciò, ci riferiamo alla relazione
d’ inclusione ⊆ tra sottoinsiemi di V.
Sia X ⊆ V. Se X genera V (cioè se L(X) = V) e se è minimale rispetto
a questa proprietà, allora dirò che X è generante minimale. Se invece X è
massimale tra i sottoinsiemi di V linearmente indipendenti, allora dirò che X è
indipendente massimale.
Proposizione 5.1 Per ogni insieme X di vettori di V le seguenti asserzioni si
equivalgono:
(i) X è generante minimale;
(ii) X è indipendente massimale;
(iii) X è indipendente e genera V.
Dimostrazione. Cominciamo col provare che (i) ⇒ (iii). Sia X generante mini-
male. Intanto, esso genera V. Dobbiamo solo dimostrare che è anche linearmente
indipendente. Se non lo fosse, avremmo Y ∼ X per qualche Y ⊂ X, per la Pro-
posizione 4.1 del Capitolo 4. Siccome X genera V ed Y ∼ X, anche Y genera V.
Ma questo è impossibile, perchè Y è sottoinsieme proprio di X, mentre abbiamo
supposto che X sia minimale rispetto alla proprietà di generare V. Dunque X
deve essere indipendente.
Proviamo che (ii) ⇒ (iii). Sia X indipendente massimale. Intanto, è in-
dipendente. Dobbiamo dimostrare che è anche generante. Se non lo fosse,
esisterebbe qualche vettore X ∈ V \ L(X). Per il Lemma 4.16 del Capitolo 4, l’
insieme X ∪ {X} è linearmente indipendente. Ma questo è impossibile, perchè
75
76 Capitolo 5
esso contiene propriamente X (infatti X 6∈ X), mentre X è massimale rispetto
alla proprietà di essere indipendente. Per evitare l’ assurdo, bisogna ammettere
che X generi V.
Infine, proviamo che (iii) ⇒ (i) ∧ (ii). Assumiamo che X sia linearmente
indipendente e che generi V. Se X non fosse minimale rispetto alla proprietà di
generare V, esisterebbe qualche Y ⊂ X tale che L(Y) = V. Ma allora X sarebbe
dipendente per la Proposizione 4.1 del Capitolo 4, mentre è indipendente. Sicchè
X deve essere minimale rispetto alla proprietà di generare V.
Se poi Y ⊃ X, è certo Y ∼ X perchè per ipotesi L(X) = V. Per la Propo-
sizione 4.1 del Capitolo 4, Y è linearmente dipendente. Quindi X è massimale
rispetto alla proprietà di essere indipendente. 2
5.1.2 Definizione
Una base di V è un sottoinsieme X di V che gode delle proprietà (i), (ii) o (iii)
della Proposizione 5.1 (tra loro equivalenti).
Sia S un sottospazio lineare di V. Dicendo che un certo sottoinsieme X di
S è una base di S intendiamo dire che esso è una base per lo spazio vettoriale
indotto da V su S. Dunque, dire che un sottoinsieme X di V è linearmente
indipendente è come dire che è una base per L(X).
5.1.3 Esistenza di basi
Ora possiamo riformulare cosı̀ il Teorema 4.18 del Capitolo 4:
Teorema 5.2 Ogni insieme di vettori di V contiene una base per il sottospazio
lineare che esso genera. In particolare, ogni insieme di generatori di V contiene
una base di V.
Analogamente,
Teorema 5.3 Ogni sottoinsieme linearmente indipendente di vettori di V è
contenuto in una base di V.
Dimostrerò questo teorema fra poco. Prima voglio stabilire il seguente corollario:
Corollario 5.4 Ogni spazio vettoriale ammette basi.
Dimostrazione. L’ insieme di tutti i vettori di V genera V e quindi contiene una
base di V (Teorema 5.2). Dunque, V ammette basi. Oppure, usando il Teorema
5.3: l’ insieme ∅, essendo indipendente, è contenuto in una base di V ... 2
Dimostrazione del Teorema 5.3. Tratterò solo il caso che V ammetta un
insieme finito o numerabile di generatori. Al caso generale dedicherò solo pochi
cenni.
5.1. BASI 77
Il caso di V finitamente o numerabilmente generato. Supponiamo che
V ammetta un insieme E di generatori, finito o numerabile, e siano E0 , E1 , E2 , ...
i vettori di E, presi in un qualche ordine. Sia X0 un insieme linearmente
indipendente di vettori di V.
Se L(X0 ) = V, allora X0 è già una base di V. Altrimenti, qualcuno dei vettori
Ek ∈ E non appartiene ad L(X0 ). Sia F1 il primo di essi che non appartiene
ad L(X0 ) e poniamo X1 = X0 ∪ {F1 }. Per il Lemma 4.16 del Capitolo 4,
l’ insieme X1 è indipendente. Se L(X1 ) = V, allora X1 è una base di V ed
essa contiene X0 . Se invece V = 6 L(X1 ), allora qualcuno dei vettori di E non
appartiene ad L(X1 ). Sia F2 il primo di essi che non appartiene ad L(X1 ) e
poniamo X2 = X1 ∪ {F2 }. Per il Lemma 4.16 del Capitolo 4, l’ insieme X2 è
indipendente ... E cosı̀ via. In questo modo estraiamo da E una sottosequenza
F = (F1 , F2 , F3 , ...) tale che,
(i) l’ insieme Xm = X0 ∪{F1 , F2 , ..., Fm } è indipendente, per ogni m = 1, 2, 3, ...;
(ii) se L(Xm ) 6= V, allora Fm non è l’ ultimo termine di F ed il termine successivo
è il primo dei vettori di E che non appartiene ad L(Xm ).
Per (ii), la sequenza F si interrompe solo quando Xm genera V. In tal caso, Xm
è una base di V e contiene X0 . Supponiamo invece S∞che F sia infinita (quindi
anche la sequenza E è infinita). Poniamo X∞ = n=0 Xn (= X0 ∪ F). Per
il Lemma 4.17 del Capitolo 4, l’ insieme X∞ è indipendente. D’ altra parte,
è chiaro da (ii) che E ⊆ L(X∞ ). Quindi X∞ genera V, siccome L(E) = V.
Sicchè, X∞ è una base di V.
Un’ altra dimostrazione. Nella dimostrazione precedente la base contenente
X0 viene costruita prendendo i necessari vettori dalla lista E, scegliendo ogni
volta il primo vettore utile. Dato X0 e data E, questa procedura ci dà un’ unica
base. Ma l’ insieme X0 , se non è già una base di V, si può estendere ad una
base di V in molti modi (anzi, in infiniti modi, se K è infinito). Insomma, l’
estensione di X0 ad una base di V è un problema ‘indeterminato’. Questo risulta
in piena luce dalla seguente dimostrazione, ove però assumiamo V finitamente
generato.
Supponiamo che V sia generato da un numero finito n di vettori e sia X0 un
insieme linearmente indipendente di vettori di V. Risulta card(X0 ) ≤ n per il
Teorema 4.11 del Capitolo 4. Poniamo m = card(X0 ).
Se L(X0 ) = V, allora X0 e’ gia’ una base di V. Altrimenti, esistono vettori
di V che non appartengono ad L(X0 ). Sia X1 uno qualunque di essi e poniamo
X1 = X0 ∪ {X1 }. Per il Lemma 4.16 del Capitolo 4, X1 e’ indipendente.
Se L(X1 ) = V, allora X1 e’ una base di V. Siccome X0 ⊂ X1 , X0 sta dentro
una base di V. Se invece V 6= L(X1 ), esistono vettori di V che non appartengono
ad L(X1 ). Sia X2 uno qualunque di essi e poniamo X2 = X1 ∪ {X2 }. Per il
Lemma 4.16 del Capitolo 4, X2 e’ indipendente.
Se L(X2 ) = V, allora X2 e’ una base di V. Se invece V 6= L(X2 ), esistono
vettori di V che non appartengono ad L(X2 ). Sia X3 uno qualunque di essi e
poniamo X3 = X2 ∪ {X3 }. E cosı̀ via.
78 Capitolo 5
In tal modo veniamo formando insiemi indipendenti via via piu’ grandi, tutti
contenenti X0 . D’ altra parte non possiamo formarne piu’ di n − m perche’ V,
essendo generato da n vettori, non contiene insiemi indipendenti formati da piu’
di n vettori (Capitolo 4, Teorema 4.11). Quindi il procedimento che abbiamo
descritto si blocca, al piu’ tardi al passo n − m. Ma, per come e’ congegnato,
puo’ bloccarsi solo quando i vettori che via via abbiamo aggiunto ad X0 vengono
a formare una base di V. Quindi possiamo ottenere una base di V aggiungendo
ad X0 opportuni vettori, in numero non superiore ad n − m.
Due parole sul caso generale. Supponiamo invece che V non ammetta al-
cun insieme finito o numerabile di generatori. Sia E un insieme di generatori
di V (per esempio, l’ insieme di tutti i vettori di V). Per il Principio di Buon
Ordinamento, E ammette un buon ordinamento. Dato un buon ordinamento Θ
di E, possiamo ancora imitare la prima delle due dimostrazioni precedenti rife-
rendoci a Θ (e, se E = V, ne risulta un’ imitazione della seconda dimostrazione.)
Non entro in dettagli.
Commenti. I Teoremi 5.2 e 5.3 (e, quindi, il Corollario 5.4) dipendono dal
Principio di Buon Ordinamento: esso ci dice che possiamo definire un buon
ordinamento su ogni insieme, ma non ci dice come. Cosı̀, il Corollario 5.4 ci
assicura che ogni spazio vettoriale ammette basi, ma non ci dice in generale
come trovarle. La situazione che ne deriva è un po’ paradossale. Consideriamo
per esempio lo spazio RR delle funzioni da R a R. Sappiamo che ammette
basi; ma non se ne sa descrivere nemmeno una. Comunque, una base di RR
dovrebbe essere enorme: si può dimostrare infatti che essa dovrebbe avere la
stessa cardinalità dell’ insieme RR .
5.2 Dimensioni
Dal Corollario 4.12 del Capitolo 4 si ha subito il seguente teorema:
Teorema 5.5 Tutte le basi di uno stesso spazio vettoriale hanno la stessa car-
dinalità.
La cardinalità delle basi di un dato spazio vettoriale V viene detta dimensione
di V. La indichiamo con dim(V). Non userò mai lettere latine minuscole per
dimensioni infinite. Cosı̀, se scrivo dim(V) = n, intendo che n è un numero
naturale, cioè che V ha dimensione finita. Spesso, per essere più esplicito, per
dire che V ha dimensione finita n userò la scrittura convenzionale dim(V) =
n < ∞. Nel Capitolo 8 del Volume 1 si è indicata con ℵ0 la cardinalità di un
insieme numerabile. Se dim(V) = ℵ0 , dirò che V ha dimensione numerabile.
La dimensione dim(S) di un sottospazio lineare S di V è la dimensione dello
spazio vettoriale indotto da V su S, cioè la cardinalità di un insieme indipendente
di generatori di S. Per il Teorema 5.2, risulta dim(L(X)) ≤ card(X) per ogni
insieme X di vettori di V.
5.2. DIMENSIONI 79
5.2.1 Rette, piani e iperpiani
Se V = V2 (R), i suoi sottospazi lineari di dimensione 1 sono le rette per O. Se
V = V3 (R) i suoi sottospazi lineari di dimensione 1 e 2 sono le rette ed i piani
per O.
In generale, sia V un arbitrario spazio vettoriale di dimensione > 1. Diremo
rette (di V per O) i sottospazi lineari di V di dimensione 1. Se dim(V) > 2,
diremo piani (di V per O) i sottospazi lineari di V di dimensione 2.
Se V ha dimensione finita n > 0, i suoi sottospazi lineari di dimensione n − 1
sono detti iperpiani (per O). Quando n ≤ 3 questa terminologia si sovrappone a
quella prima stabilita per sottospazi di dimensione 1 e 2. Se n = 3 gli iperpiani
di V sono i suoi piani. Se n = 2, gli iperpiani sono le rette. Per evitare questi
bisticci di parole, per lo più si evita di usare il termine “iperpiano” quando
n ≤ 3.
5.2.2 Sottospazi di dimensione finita
Nel seguito S indica un sottospazio lineare di un arbitrario spazio vettoriale V
(senza escludere l’ eventualità che S = V) e supponiamo che dim(S) = n < ∞.
Proposizione 5.6 Le seguenti asserzioni si equivalgono per ogni sottoinsieme
X di S di cardinalità n:
(i) X è linearmente indipendente;
(ii) X genera S;
(iii) X è una base di S.
Dimostrazione. Siccome (iii) ⇒ (i) ∧ (ii), basta provare che (i) ⇒ (iii) e che
(ii) ⇒ (iii).
Proviamo che (i) ⇒ (iii). Sia X linearmente indipendente. Per il Teorema
5.3, X è contenuto in qualche base Y di S. Siccome dim(S) = n, è card(Y) = n.
Ma allora Y = X perchè card(X) = n e perchè n < ℵ0 .
Proviamo che (ii) ⇒ (iii). Sia L(X) = S. Per il Teorema 5.2, X contiene
una base Y di S. Come sopra, si ottiene che Y = X. 2
Per esempio, se S è un piano, ogni coppia di vettori di S non proporzionali è
una base di S; se S ha dimensione 3, ogni terna di vettori di S non appartenenti
ad uno stesso piano è una base di S.
Corollario 5.7 Sia S 0 un sottospazio lineare di V contenuto in S. Se dim(S 0 ) =
n, allora S 0 = S.
Dimostrazione. Sia dim(S 0 ) = n e sia X una base di S 0 . Allora X è anche una
base di S, per la Proposizione 5.6. Quindi S 0 = S. 2
80 Capitolo 5
5.3 Casi particolari ed esempi
5.3.1 Basi di Vn (K)
Gli n versori di Vn (K) formano un insieme linearmente indipendente (Capitolo
4, Proposizione 4.7). Siccome essi generano Vn (K), essi costituiscono una base
di Vn (K). Sicchè dim(Vn (K)) = n.
Perciò, e per la Proposizione 5.6, qualunque insieme di n vettori di Vn (K)
che sia linearmente indipendente o che generi Vn (K) è una base di Vn (K). Per
esempio, i vettori A1 , A2 ,..., An considerati nell’ Esercizio 2.1 del Capitolo 2
(e nell’ Esercizio 4.1 del Capitolo 4) formano una base di Vn (K). I vettori V1 ,
V2 ,..., Vn considerati nell’ Esercizio 4.5 del Capitolo 4 danno un’ altra base.
Per la Proposizione 4.8 del Capitolo 4, ogni n-pla di vettori di Vn (K) confor-
mata a squadra è linearmente indipendente. Quindi forma una base di Vn (K).
Evidentemente, lo stesso è vero di ogni n-pla che assuma una conformazione
a squadra quando si cambi l’ ordine in cui scrivere le coordinate. (Le n-ple
considerate negli Esercizi 4.5 e 4.6 del Capitolo 4 sono esempi di questo tipo.)
5.3.2 Soluzioni di equazioni lineari omogenee
Sia A un’ equazione lineare omogenea non banale in n incognite in K. Si è visto
in §2.4.2 del Capitolo 2 che sol(A) = L(α) ove α è una (n − 1)-pla di vettori
conformata cosı̀
1 0 ...... 0 −a1 /ak 0 ...... 0 0
0 1 ...... 0 −a2 /ak 0 ...... 0 0
... ... ...... ... ..... ... ...... ... ...
... ... ...... ... ..... ... ...... ... ...
0 0 ...... 1 −ak−1 /ak 0 ...... 0 0
0 0 ...... 0 −ak+1 /ak 1 ...... 0 0
... ... ...... ... ..... ... ...... ... ...
... ... ...... ... ..... ... ...... ... ...
0 0 ...... 0 −an−1 /ak 0 ...... 1 0
0 0 ...... 0 −an /ak 0 ...... 0 1
Qui a1 , a2 ,..., an sono i coefficienti di A ed ak è uno di quelli che sono 6= 0.
Se k = n, la sequenza α è conformata a squadra. Quindi è costituita da n−1
vettori indipendenti (Capitolo 4, Proposizione 4.8). Se invece k < n, possiamo
comunque fare assumere ad α una conformazione a squadra permutando le ulti-
me n − k + 1 colonne con la permutazione ciclica γ[n, n − 1, ..., k + 1, k]. In ogni
caso, α è formata da n − 1 vettori indipendenti. Quindi dim(sol(A)) = n − 1.
Cioè,
Proposizione 5.8 Il sottospazio sol(A) di Vn (K) è un iperpiano.
5.3. CASI PARTICOLARI ED ESEMPI 81
5.3.3 Il rango di una sequenza di vettori
Sia α una sequenza finita di vettori di Vn (K) non tutti nulli. Sia β una sua
riduzione a squadra ottenuta col metodo di Gauss-Jordan. Combinando la Pro-
posizione 3.5 del Capitolo 3 con la Proposizione 4.8 del Capitolo 4 si ottiene
che
Proposizione 5.9 I vettori di β formano una base di L(α).
Quindi,
Corollario 5.10 Tutte le riduzioni a squadra di α hanno lunghezza dim(L(α)).
Diciamo dim(L(α)) rango di α. Indichiamo questo numero con rank(α). Indi-
chiamo invece con l(α) la lunghezza di α e con card(α) il numero dei vettori di
α, contati prescindendo da eventuali ripetizioni presenti in α.
Evidentemente, l(α) ≥ card(α) e vale l’ uguaglianza se e solo se α non
presenta ripetizioni. Per il Corollario 4.12 del Capitolo 4 si ha che card(α) ≥
rank(α). Dal Corollario 5.9 e dalla Proposizione 5.6 si ha poi che
Corollario 5.11 I vettori di α sono indipendenti se e solo se card(α) = rank(α).
Esempio. Sia α la seguente quaterna di vettori di V5 (R):
1 2 3 2 1 (A1 )
3 2 1 2 3 (A2 )
1 1 0 −1 −1 (A3 )
3 3 4 5 5 (A4 )
La trasformiamo cosı̀:
1 2 3 2 1 (A1 )
0 −4 −8 −4 0 (A2 − 3A1 )
0 −1 −3 −3 −2 (A3 − A1 )
0 −3 −5 −1 2 (A4 − 3A1 )
e poi cosı̀:
1 2 3 2 1 (A1 )
0 −4 −8 −4 0 (A2 − 3A1 )
0 0 −1 −2 −2 (A3 − A1 − 14 (A2 − 3A1 ))
0 0 1 2 2 (A4 − 3A1 − 34 (A2 − 3A1 ))
Infine,
1 2 3 2 1 (A1 )
0 −4 −8 −4 0 (A2 − 3A1 )
0 0 −1 −2 −2 (− 14 A1 − 14 A2 + A3 )
0 0 0 0 0 (−A1 − A2 + A3 + A4 )
82 Capitolo 5
Quindi
1 2 3 2 1 (A1 )
(i) 0 −4 −8 −4 0 (A2 − 3A1 )
0 0 −1 −2 −2 (− 14 A1 − 14 A2 + A3 )
è una riduzione a squadra di α. Inoltre,
(ii) O = −A1 − A2 + A3 + A4
Ne segue che α è linearmente dipendente, con rank(α) = 3. Le tre righe di (i)
formano una base di L(α). Ma esse sono combinazioni lineari solo di A1 , A2 e
A3 . Quindi (i) è anche una riduzione a squadra di (A1 , A2 , A3 ). Sicchè, anche
questa terna è una base di L(α) ed A4 è combinazione lineare di A1 , A2 , A3 .
E infatti da (ii) vediamo che A4 = A1 + A2 − A3 . Ma la (ii) mostra anche
che ciascuno dei vettori di α può essere espresso come combinazione lineare dei
rimanenti tre. Ne segue che ogni terna di vettori di α è una base per L(α).
5.3.4 Polinomi
In questa sezione si assume che il campo K sia infinito.
I monomi 1, x, x2 ,..., xn ,... formano una base di P∞ (K) (Capitolo 4,
Proposizione 4.10). Quindi P∞ (K) ha dimensione numerabile.
Altre basi di P∞ (K) sono state date negli Esercizi 4.11 e 4.12 del Capitolo
4 (cfr. anche Capitolo 2, §2.4.3 ed Esercizio 2.13). Ovviamente, se ne possono
dare infinite altre. Per esempio, qualunque successione (Pn )∞ n=0 di polinomi
con g(Pn ) = n forma una base di P∞ (K). Lascio la dimostrazione di questa
affermazione al lettore. (Potremmo dire che una successione di polinomi di
questo tipo è conformata come una ‘squadra infinita’.)
(n)
Sia P∞ (K) lo spazio vettoriale dei polinomi nelle n variabili x1 , x2 ,..., xn
(n)
in un dato campo K. I monomi xm 1 m2
1 x2 ...xn
mn
formano una base di P∞ (K)
(Capitolo 4, §4.2.5). Essi sono tanti quante le n-ple di numeri naturali. Queste
formano una totalità numerabile (Volume 1, Capitolo 8, Corollario 8.14). Sicchè
(n)
P∞ (K) ha dimensione numerabile.
5.3.5 I versori di VI (K)
Siano I un insieme e K un campo. Per ogni i ∈ I, sia χi la funzione da I a K che
associa 1 ad i e 0 ad ogni elemento di I diverso da i. L’ insieme {χi }i∈I genera
VI (K) (Capitolo 2, §2.4.3). Esso è anche indipendente (Capitolo 4, §4.4.3).
Quindi è una base di VI (K). Ne segue che dim(VI (K)) = card(I).
Chiamiamo le funzioni χi versori di VI (K). Quando I = {1, 2, ..., n}, esse
sono proprio i versori di Vn (K). In genere, se card(I) = n < ∞, allora VI (K) ∼
=
Vn (K) e un isomorfismo tra questi due spazi può costruirsi partendo da una
funzione biiettiva α : {1, 2, ..., n} −→ I e facendo corrispondere al versore i-
esimo di Vn (K) il versore χα(i) di VI (K). (Capitolo 1, §§1.5.1 ed 1.5.4).
5.4. COORDINATE 83
5.4 Coordinate
Nel seguito, dato uno spazio vettoriale V, un insieme di cardinalità uguale a
dim(V) ed una base E di V, supponiamo data una corrispondenza biunivoca tra
I ed E. Vale a dire, prendiamo gli elementi di I come indici per i vettori di E,
intendendo che ad indici diversi corrispondano vettori diversi.
Quando dim(V) = n < ∞, supponiamo che I = {1, 2, ..., n}. La corri-
spondenza tra I e E dà un ordinamento di E. Cioè, E è pensata come n–
pla, E = (Ei )ni=1 , non come insieme. Analogamente, quando dim(V) = ℵ0 ,
prendiamo I = N e diamo i vettori di E in successione, E = (En )∞ n=0 .
5.4.1 Definizioni
Data una base E = (Ei )i∈I di V, per ogni vettore X di V esistono un sottoin-
sieme finito J di I e scalari xi (i ∈ J) tali che
X
(∗) X = xi Ei
i∈J
P P
e, per la Proposizione 4.5 del Capitolo 4, se X = i∈J xi Ei = i∈J 0 yi Ei ,
allora xi = yi per ogni i ∈ J ∩ J 0 , xi = 0 per ogni i ∈ J \ J 0 ed yi = 0 per ogni
i ∈ J 0 \ J. Quindi, l’ insieme I(X) = {i ∈ J | xi 6= 0} dipende solo da X e
non dal particolare insieme J scelto in (∗). Lo si chiama supporto di X. Esso
è il minimo sottoinsieme J di I che possiamo scegliere in (∗). Se J = I(X),
chiamo la sommatoria (∗) rappresentazione P essenziale di X rispetto ad E (con
la convenzione di prendere la scrittura i∈∅ xi Ei come una rappresentazione
essenziale di O).
P
Sia X = i∈I(X) xi Ei la rappresentazione essenziale di X. Posto xi = 0
per ogni i ∈ I \ I(X), chiamo rappresentazione uniforme di X rispetto ad E la
scrittura
X
(∗∗) X = xi E i
i∈I
Avverto però che, quando I è infinito, questa scrittura non sta a significare una
somma su I, ma la si deve prendere solo come un espediente per riferirsi ad una
qualunque rappresentazione (∗) di X senza dover specificare l’ insieme J degli
indici. (Invece, quando I è finito, la sommatoria (∗∗) va intesa alla lettera; in
questo caso non si sta ad insistere sulla distinzione tra (∗) e (∗∗) e nulla vieta
che (∗) e (∗∗) coincidano.)
I coefficienti xi in (∗∗) si dicono coordinate (o anche componenti) di X rispetto
ad E. Indicherò con (X)E la famiglia delle coordinate di X rispetto ad E, cioè
(X)E =def (xi )i∈I
5.4.2 Esempi
1. In P∞ (K), consideriamo il polinomio P (x) = x3 − x + 1. Presa la successione
E = (1, x, x2 , ...) come base di P∞ (K), la scrittura 1−x+x3 è la rappresentazione
84 Capitolo 5
essenziale di P rispetto ad E. Le altre rappresentazioni di P come combinazione
lineare di vettori di E si ottengono da questa aggiungendo addendi nulli:
1 − x + 0·x2 + x3 , 1 − x + x3 + 0·x4 , 1 − x + 0·x2 + x3 + 0·x4 , ...
La rappresentazione uniforme di P rispetto ad E è
1 − x + 0·x2 + x3 + 0·x4 + 0·x4 + ...
e la successione delle coordinate di P rispetto ad E è (1, −1, 0, 1, 0, 0, ...).
2. Sia U = (Ui )ni=1 la base dei versori di Vn (K). Le coordinate di un vettore
di Vn (K) rispetto ad U sono proprio le sue coordinate definite come in §1.3.4
del Capitolo 1. Cambiamo la base, prendendo come nuova base la n–pla E =
(Ei )ni=1 , ove
E1 = (1, 1, 1, ..., 1, 1) (= U1 + U2 + ... + Un )
E2 = (0, 1, 1, ..., 1, 1) (= U2 + ... + Un )
E3 = (0, 0, 1, ..., 1, 1) (= U3 + ... + Un )
.............................................
En = (0, 0, 0, ..., 0, 1) (= Un )
(che questi vettori formino una base di Vn (K) è ovvio; cfr. §5.3.1). Consideriamo
il vettore A = U1 −U2 = (1, −1, 0, 0, ..., 0) (= (A)U ). Risulta A = E1 −2E2 +E3 .
Quindi, (A)E = (1, −2, 1, 0, 0, ..., 0, 0).
Si noti che Un = En , Un−1 = En−1 − En , Un−2 = En−2 − En−1 , ... Quindi,
(Un )E = (0, 0, ..., 0, 1) (= (Un )U )
(Un−1 )E = (0, 0, ..., 0, 0, 1, −1)
(Un−2 )E = (0, 0, ..., 0, 1, −1, 0)
.......................................
(U2 )E = (0, 1, −1, 0, ..., 0)
(U1 )E = (1, −1, 0, 0, ..., 0)
5.4.3 L’ isomorfismo con VI (K)
Dato uno spazio vettoriale V su un campo K, sia E = (Ei )i∈I una sua base.
Dato X ∈ V, la famiglia (X)E = (xi )i∈I delle sue coordinate rispetto ad E è la
funzione quasi-nulla da I a K (Capitolo 1, §1.5.4) che associa ad ogni P i ∈ I il
valore xi . Viceversa, sia f una funzione quasi-nulla da I a K. Allora i∈I f (i)Ei
è la rappresentazione uniforme di un vettore di V ed (f (i))i∈I è la famiglia di
coordinate di questo vettore rispetto ad E. Dunque la funzione, diciamola ηE ,
che associa ad ogni vettore X di V la funzione quasi-nulla (X)E realizza una
corrispondenza biunivoca tra l’ insieme dei vettori di V e l’ insieme delle funzioni
quasi-nulle da I a K. In particolare, ηE fa corrispondere al vettore Ei di E il
versore χi di VI (K).
Non è difficile vedere che ηE è addirittura un isomorfismo da V a VI (K).
(Lascio la verifica di questa affermazione al lettore). Lo chiamo l’ isomorfismo
naturale per la base E. Riassumendo,
5.4. COORDINATE 85
Teorema 5.12 Risulta V ∼ = VI (K). In particolare, se dim(V) = n < ∞, allora
V∼= Vn (K). Se invece dim(V) = ℵ0 , allora V ∼
= V∞ (K).
Questo teorema ci permette di tradurre problemi posti in uno spazio vettoriale
di dimensione finita in problemi formulati per un qualche Vn (K), come del resto
abbiamo già fatto più volte, passando per esempio da En (K) o da Pn (K) a
Vn+1 (K), oppure da EOn (K) a Vn (K).
Un’ altra conseguenza del Teorema 5.12 è che ogni spazio vettoriale V su R di
dimensione ≥ 4 ha ‘in piccolo’ proprietà del tutto simili a quelle del solito spazio
tridimensionale in cui viviamo; cioè, i sottospazi lineari di V di dimensione 2 o
3 sono isomorfi rispettivamente a V2 (R) e V3 (R).
5.4.4 Isomorfismi ed uguaglianza di dimensioni
Siano V e W spazi vettoriali su uno stesso campo K di scalari.
Lemma 5.13 Supponiamo che dim(V) = dim(W) e siano E = (Ei )i∈I e F =
(Fi )i∈I basi di V e W, rispettivamente. Allora esiste un unico isomorfismo ϕ
da V a W tale che ϕ(Ei ) = Fi per ogni i ∈ I.
−1
Dimostrazione. La composizione ϕ = ηF ηE dell’ isomorfismo naturale da V a
VI (K) con l’ inverso dell’ isomorfismo naturale da W a VI (K) è un isomorfismo
da V a W con le proprietà richieste. Resta da vedere che è l’ unico con quelle
proprietà.
Sia ψ : V → W un isomorfismo
P tale che ψ(Ei ) = Fi per ogni i ∈ I. Dato un
vettore X ∈ V, sia X = i∈I xi Ei la sua rappresentazione uniforme. Allora,
P P P
ψ(X)
P = ψ( i∈I xi Ei )P= i∈I xi ψ(Ei ) = i∈I xi Fi =
= i∈I x i ϕ(Ei ) = ϕ( i∈I x i Ei ) = ϕ(X)
Quindi ψ(X) = ϕ(X), per ogni X ∈ V. Cioè, ψ = ϕ. 2
Lemma 5.14 Sia ϕ : V → W un isomorfismo e sia E = (Ei )i∈I una base di
V. Allora l’ immagine ϕ(E) = (ϕ(Ei ))i∈I di E mediante ϕ è una base di W.
Dimostrazione. Per la Proposizione 4.6 del Capitolo
P 4, l’ insieme
P ϕ(E) è linear-
mente indipendente
P in W. Inoltre, ϕ(X) = ϕ( x E
i∈I i i ) = i∈I xi ϕ(Ei ) per
ogni vettore X = i∈I xi Ei di V. Quindi Im(ϕ) ⊆ L(ϕ(E)). Ma la funzione
ϕ, essendo un isomorfismo, è suriettiva. Pertanto ϕ(E) genera W e, quindi, è
una base di W. 2
Teorema 5.15 Si ha V ∼
= W se e solo se dim(V) = dim(W).
Dimostrazione. La parte “se” è il Lemma 5.13 mentre la parte “solo se” segue
dal Lemma 5.14 osservando che card(ϕ(E)) = card(E), per l’ iniettività di ϕ.
2
86 Capitolo 5
5.4.5 Cambi di base e automorfismi
Supponendo che dim(V) = n < ∞, siano E = (Ei )ni=1 e F = (Fi )ni=1 due basi di
V e, per i = 1, 2, ..., n, poniamo (ak,i )nk=1 = (Fi )E . Cioè
n
X
(1) Fk = Ei ai,k , (k = 1, 2, ..., n).
i=1
(Ci siamo presa la libertà di scrivere gli scalari a destra anzichè a sinistra; questa
deroga dalla prassi a cui finora ci siamo attenuti porterà qui qualche vantaggio.)
Cambi di base. Dato un vettore X ∈ V, sia (xi )ni=1 = (X)E la sua n–pla di
coordinate rispetto ad E e sia (yi )ni=1 = (X)F , cioè,
n
X
(i) X = Fi yi .
i=1
Sostituendo le (1) in (i) si ottiene
n X
X n n X
X n
(ii) X = ( Ek ak,i )yi = ( ak,i yi )Ek .
i=1 k=1 k=1 i=1
Pn
D’ altra parte, X = i=1 Ei xi . Quindi,
n
X n X
X n
(iii) Ek xk = ( ak,i yi )Ek
k=1 k=1 i=1
e, pertanto,
n
X
(2) xk = ak,i yi , (k = 1, 2, ..., n).
i=1
Si noti che in (1) e (2) compare la stessa matrice (ak,i )nk,i=1 . In (1) quella matrice
ci fornisce i vettori della ‘nuova’ base F come combinazioni lineari dei vettori
della ‘vecchia’ base E e le n-ple delle coordinate rispetto ad E dei vettori di F
sono le colonne della matrice. Invece (2) ci dà le ‘vecchie’ coordinate (relative ad
E) esprimendole come funzioni lineari delle ‘nuove’ (relative ad F); i coefficienti
di queste espressioni sono dati dalle righe della matrice.
Un esempio. Data E come nel secondo esempio di §5.4.2, la matrice che fa
passare da U ad E è questa
1 0 0 .... 0 0
1 1 0 .... 0 0
1 1 1 .... 0 0
... ... ... .... ... ...
1 1 1 .... 1 0
1 1 1 .... 1 1
5.4. COORDINATE 87
mentre questa è quella che riporta E in U:
1 0 0 .... 0 0 0
−1 1 0 .... 0 0 0
0 −1 1 .... 0 0 0
... ... ... .... ... ... ...
0 0 0 .... 1 0 0
0 0 0 .... −1 1 0
0 0 0 .... 0 −1 1
Quindi le relazioni
x1 = y1
x2 = y1 + y2
................
xn−1 = y1 + y2 + ... + yn−1
xn = y1 + y2 + ... + yn−1 + yn
ci danno le coordinate rispetto ad U in funzione di quelle rispetto ad E, mentre
le sequenti relazioni ci restituiscono le coordinate rispetto ad E in funzione di
quelle rispetto ad U:
y1 = x1
y2 = −x1 + x2
y3 = −x2 + x3
................
yn = −xn−1 + xn
Automorfismi. Le uguaglianze (2) possono anche leggersi in un altro modo.
Sia ϕ l’ automorfismo di V che porta E in F (Lemma 5.13). Come prima, ponia-
mo (xi )ni=1 = (X)E . Ora però indichiamo con (yi )ni=1 la n–pla delle coordinate
di ϕ(X) rispetto ad E, cioè
n
X
(j) ϕ(X) = Ei yi
i=1
Risulta (X)E = (ϕ(X))F . Quindi
n
X
(jj) ϕ(X) = Fi xi
i=1
Sostituendo le (1) in (jj) si ottiene
n X
X n n X
X n
(jjj) ϕ(X) = Ek ak,i xi = ( ak,i xi )Ek
i=1 k=1 k=1 i=1
da cui, paragonando con (j),
n
X
(3) yk = ak,i xi , (j = 1, 2, ..., n).
i=1
88 Capitolo 5
Abbiamo cosı̀ espresso le coordinate del ‘nuovo’ vettore ϕ(X) in funzione delle
coordinate del ‘vecchio’ vettore X, ma senza cambiare la base. (Infatti, le
coordinate le diamo rispetto ad E.)
Nota. In questa sottosezione abbiamo supposto che dim(V) < ∞, ma quel che
si è detto può essere ripetuto per spazi di dimensione infinita, salvo precisare
cosa debba intendersi per ‘matrice infinita’. Ma non entro in dettagli.
5.5 Esercizi
Esercizio 5.1 Sia A = {An }∞ 2 3 2
n=0 con An = (n, n , n , n , n). Si calcoli dim(L(A)).
Soluzione. Il sottoinsieme A ⊆ V5 (R), essendo infinito, è linearmente dipen-
dente (Capitolo 4, Teorema 4.11). Tutti i suoi vettori soddisfano le equazioni
x1 = x5 ed x2 = x4 . Quindi A è contenuto nel sottospazio lineare S definito
da quelle due equazioni. Si ha dim(S) = 3 (Capitolo 2, Esercizio 2.4). Sicchè
dim(L(A)) ≤ 3 per il Corollario 5.7. Dunque una base B di L(A) sarà formata
da al più tre vettori. Il Teorema 5.2 ci assicura che possiamo formarla con vettori
di A. Cerchiamola. Riducendo a squadra la terna α = (A1 , A2 , A3 ) otteniamo
ancora una terna. Sicchè rank(α) = 3 e pertanto la terna α è indipendente
(Corollario 5.10). Quindi, dim(L(A)) = 3 ed L(A) = S.
Esercizio 5.2 Consideriamo la seguente quintupla di vettori di V7 (R), che,
essendo conformata a squadra, è linearmente indipendente.
(X1 ) 1 0 1 0 1 0 1
(X2 ) 0 1 0 1 0 1 0
(X3 ) 0 0 0 2 −2 1 −1
(X4 ) 0 0 0 0 9 3 1
(X5 ) 0 0 0 0 0 0 1
Il Teorema 5.3 ci assicura che esistono due vettori X6 ed X7 tali che {Xi }7i=1 è
una base di V7 (R). Trovateli.
Soluzioni. Poniamo X = {Xi }5i=1 . Ci sono infinite coppie di vettori {A, B} tali
che X ∪ {A, B} sia una base di V. Per esempio, imitando la seconda dimostra-
zione data per il Teorema 5.3, scegliamo uno qualunque degli infiniti vettori che
non appartengono ad L(X), chiamiamolo A. Sia poi B un qualunque vettore
che non appartenga ad L(X ∪ {A}) (di nuovo, abbiamo infinite possibilità di
scelta). Per il Lemma 4.16 del Capitolo 4, l’ insieme X ∪ {A, B} è indipendente.
Quindi, per la Proposizione 5.6, esso è una base di V7 (R). Altrimenti, possiamo
dare A e B completamente a caso, controllando poi se la 7–pla cosı̀ formata è
indipendente. La probabilità di fallire è quasi nulla.
In alternativa, si può seguire la procedura indicata nella prima dimostrazione
del Teorema 5.3, appoggiandosi alla sequenza dei versori. Controlliamo se il
primo versore U1 di V7 (R) appartiene ad L(X). Non vi appartiene. Quindi
possiamo prenderlo. Controlliamo ora se il secondo versore U2 appartiene ad
L(X ∪ {U1 }). Non vi appartiene. Quindi possiamo prenderlo. Abbiamo cosı̀ un
5.5. ESERCIZI 89
insieme indipendente di sette vettori: X ∪ {U1 , U2 }. Siccome dim(V7 (R)) = 7,
quest’ insieme è una base di V7 (R).
Si osservi che, se dalla tabella formata dai vettori X1 , X2 ,..., X5 cancelliamo
la terza e la sesta colonna, otteniamo ancora una conformazione a squadra.
Quindi, se all’ insieme X aggiungiamo il terzo ed il sesto versore U3 ed U6 di
V7 (R) otteniamo un insieme indipendente che, contenendo 7 vettori, è un’ altra
base di V7 (R).
Esercizio 5.3 Sia A = (ai )ni=1 un vettore non nullo di Vn (K). Si trovi una
base di Vn (K) contenente A.
Soluzione. Scegliamo gli n − 1 vettori mancanti tra i versori U1 , U2 , ..., Un di
Vn (K). Siano i1 , i2 , ..., im gli indici i per i quali ai 6= 0, dati in ordine crescente.
Seguendo la procedura indicata nella prima dimostrazione del Teorema 5.3,
aggiungiamo i versori Ui con i 6= im .
Esercizio 5.4 Si verifichi che i seguenti quattro vettori formano una base di
V4 (R) e si determinino le coordinate di un generico vettore di V4 (R) rispetto ad
essa esprimendole in funzione delle sue coordinate rispetto alla base dei versori.
(A1 ) 1 −1 0 0
(B1 ) 1 1 0 0
(A2 ) 0 0 1 −1
(B2 ) 0 0 1 1
Suggerimento. Per rispondere alla seconda domanda, si trovi la matrice che
dà i versori come combinazioni lineari dei vettori A1 , B1 , A2 , B2 . Si noti che,
dati due vettori non proporzionali U e V e posto A = U + V e B = −U + V ,
risulta U = 2−1 (A − B) e V = 2−1 (A + B). Quindi, la matrice che cerchiamo è
...
Esercizio 5.5 Siano V1 , V2 ,..., Vn come nell’ Esercizio 4.5 del Capitolo 4. La
n-pla di vettori E = (Vi )ni=1 è una base di Vn (K) (cfr. §5.3.1). Si determinino
le coordinate di un generico vettore di Vn (K) rispetto ad E esprimendole in
funzione delle sue coordinate rispetto alla base dei versori.
Risposta. La matrice che fa passare da E ad U è:
1 −1 0 .... 0 0 0
0 1 −1 .... 0 0 0
0 0 1 .... 0 0 0
... ... ... .... ... ... ...
0 0 0 .... 1 −1 0
0 0 0 .... 0 1 −1
0 0 0 .... 0 0 1
Esercizio 5.6 Sia E = (Vi )ni=1 come nell’ esercizio precedente e siano A1 ,
A2 ,..., An come nell’ Esercizio 2.1 del Capitolo 2. La n–pla F = (Ai )ni=1 è una
90 Capitolo 5
base di Vn (K). Si determinino le coordinate di un generico vettore di Vn (K)
rispetto ad F esprimendole in funzione delle sue coordinate rispetto ad E.
Risposta. Posto (xi )ni=1 = (X)E ed (yi )ni=1 = (X)F , risulta
k−1 n
X 2a + i X a+n+i
yk = xi + xi , (k = 1, 2, ..., n)
i=1
a(n − a) a(n − a)
i=k
Esercizio 5.7 Sia V = P∞ (K), con K infinito. Per ogni n = 0, 1, 2, ... si ponga
n
X xk
En = .
k!
k=0
La successione E = (En )∞
n=0 è una base di P∞ (K) (§5.3.4). Si determinino le
coordinate del monomio xn rispetto a questa base.
Esercizio 5.8 Per i = 1, 2, ..., n, si ponga
i
X n
X
fi (x) = ekx − ekx , (x ∈ R).
k=1 k=i+1
Si dimostri che l’ insieme F = {fi }ni=1 di vettori di RR è linearmente indipen-
dente.
Soluzioni. Una verifica diretta come nell’ Esercizio 4.13 del Capitolo 4 sarebbe
qui troppo faticosa. È meglio cercare qualche scorciatoia.
Si ponga gk (x) = ekx , x ∈ R. Sappiamo dall’ Esercizio 4.13 del Capitolo 4
che l’ insieme G = {gk }nk=1 è linearmente indipendente. Possiamo ricavare le gk
come combinazioni lineari delle fi . Quindi F ∼ G. Per la Proposizione 5.6 ...
Oppure, per l’ indipendenza di G e per il Teorema 5.12, abbiamo un isomor-
fismo L(G) ∼ = Vn (R) in cui alle funzioni g1 , g2 ,..., gn corrispondono i versori
U
Pi1 , U 2 ,..., U
Pnn. In questo isomorfismo alla funzione fi corrisponde il vettore
k=1 U i − i=k+1 Ui di Vn (R). Questi vettori sono indipendenti ...
Esercizio 5.9 Sia K un campo infinito e sia α un polinomio in una sola varia-
bile in K, di grado n > 1. L’ anello K(α) definito in §8.1.6 del Capitolo 8 del
Volume 2 può anche vedersi come uno spazio vettoriale a coefficienti in K. Si
dimostri che questo spazio vettoriale è isomorfo a Vn (K).
Traccia. I monomi 1, x, ..., xn−1 ne sono una base.
Esercizio 5.10 (La cardinalità di un campo finito) Sia K un campo fini-
to. Si dimostri che card(K) è una potenza della caratteristica di K. (Cfr.
Volume 2, Capitolo 2, Esercizio 2.7).
Traccia. K è uno spazio vettoriale sul suo sottocampo minimo K0 . D’ altra
parte, K0 ∼
= GF (p) ove p = ch(K). Quindi card(K) = pn ove n è la dimensione
di K in quanto spazio vettoriale su K0 .
Capitolo 6
Sistemi lineari. Una prima
sintesi
Nei capitoli precedenti si è parlato spesso di sistemi lineari. Abbiamo ora gli
strumenti per darne un primo quadro d’ insieme, da completarsi in seguito. Dirò
di più sul caso omogeneo che non sul caso generale. Per una trattazione dei
sistemi non omogenei serve la nozione di sottospazio affine, che verrà introdotta
solo nel Capitolo 10. In quel capitolo concluderemo la discussione dei sistemi
lineari.
Mi baserò soprattutto su tecniche ‘alla Gauss-Jordan’. Nei Capitoli 9 e
12 vedremo un altro modo di trattare sistemi d’ equazioni lineari in R o C,
organizzato sul concetto di ortogonalità.
6.1 Risolubilità di sistemi lineari
6.1.1 Terminologia e notazioni
Sia M una matrice m × n a coefficienti in un campo K (Capitolo 1, §1.5.3).
La matrice M può essere vista sia come una m-pla di vettori di Vn (K) (cioè,
come la m-pla delle sue righe) che come una n-pla di vettori di Vm (K) (la n-pla
delle sue colonne). Dirò che nel primo caso leggiamo M per righe mentre nel
secondo caso la leggiamo per colonne. Indicherò con M − la m-pla delle righe di
M . Invece M | starà per la n-pla delle colonne di M .
Nel Capitolo 5, §5.3.3, abbiamo definito il rango rank(α) di una m-pla α di
vettori di Vn (K). Il rango rank(M − ) della m-pla delle righe di M verrà detto
rango per righe di M . Invece rank(M | ) sarà detto rango per colonne di M .
Vedremo più avanti (Capitolo 16, Teorema 16.23) che rank(M − ) = rank(M | ).
Ma per il momento non ho bisogno di questo risultato e non voglio farne uso.
Osservo invece che, per il Teorema 4.11 del Capitolo 4, risulta rank(M − ) ≤ m
e rank(M | ) ≤ n.
91
92 Capitolo 6
Sia X un sistema di m equazioni lineari in n incognite in K,
n
X
ak,i xi = bk , (k = 1, 2, ..., m).
i=1
Le m equazioni di X, viste come vettori di Vn+1 (K), formano una matrice con
m righe ed n + 1 colonne:
a1,1 a1,2 ..... a1,n b1
a2,1 a2,2 ..... a2,n b2
...... ...... ..... ...... ....
...... ...... ..... ...... ....
am,1 am,2 ..... am,n bm
Indichiamo questa matrice con Mc (X) e la chiamiamo la matrice completa del
sistema X. Siccome le righe di Mc (X) rappresentano le equazioni di X, risulta
rank(Mc (X)− ) = dim(L(X)).
Chiamiamo rank(Mc (X)− ) rango di X. Anzichè rank(Mc (X)− ) scriveremo
brevemente rank(X).
Nell’ ultima colonna di Mc (X) sono elencati i termini noti delle equazioni
di X. Se cancelliamo questa colonna da Mc (X) resta la matrice (ak,i )m,n
k,i=1 , che
viene detta matrice incompleta di X. La indicherò col simbolo Mi (X).
Se in tutte le equazioni di un sistema lineare X non omogeneo sostituiamo i
termini noti con 0, otteniamo un sistema omogeneo, che indicherò con XO , e che
viene detto sistema omogeno associato ad X. Ovviamente, Mi (X) = Mi (XO ),
mentre Mc (XO ) si ottiene da Mc (X) sostituendovi l’ ultima colonna con la
colonna nulla.
È ovvio che l’ aggiunta di una colonna nulla non altera il rango per colon-
ne di una matrice. Nemmeno ne altera il rango per righe, come si può vedere
facilmente se si tiene presente l’ algoritmo di Gauss-Jordan. (Se usassimo l’
uguaglianza tra il rango per righe ed il rango per colonne di una matrice, otter-
remmo subito la seconda asserzione dalla prima; ma per ora dobbiamo ignorare
quell’ uguaglianza.) Dunque:
rank(Mi (X)| ) = rank(Mc (XO )| ), rank(Mi (X)− ) = rank(XO ).
6.1.2 Condizioni di risolubilità
Sia X sta un sistema di m equazioni non tutte banali in n incognite in K,
n
X
ak,i xi = bk , (k = 1, 2, ..., m)
i=1
Sia αc una riduzione a squadra di Mc (X)− ottenuta con l’ algoritmo di Gauss-
Jordan. Sia r la lunghezza di αc . Per il Corollario 5.10 del Capitolo 5, r =
rank(Mc (X)− ).
6.1. RISOLUBILITÀ DI SISTEMI LINEARI 93
Sia Ar l’ ultima riga di αc e sia ν(Ar ) la sua nullità iniziale (Capitolo 3,
§3.2.1). Siccome Ar 6= O, ν(Ar ) ≤ n. Se ν(Ar ) = n, il vettore Ar corrisponde ad
un’ equazione assurda ed il sistema X non è risolubile (Capitolo 3, Proposizione
3.6). In questo caso indichiamo con αi la sequenza di vettori di Vn (K) ottenuta
da αc cancellandone l’ ultima riga Ar e l’ ultima colonna e poniamo s = r − 1.
Se invece ν(Ar ) < n, il sistema X è risolubile (Capitolo 3, Proposizione
3.6). Ora indichiamo con αi la sequenza di vettori di Vn (K) ottenuta da αc
cancellandone l’ ultima colonna e poniamo s = r.
In ogni caso, αi è una riduzione a squadra di Mi (X)− , ottenuta facendo
ricadere su Mi (X)− gli effetti dell’ applicazione dell’ algoritmo di Gauss-Jordan
ad Mc (X)− . Quindi s = rank(Mi (X)− ). Riassumendo,
Teorema 6.1 rank(Mi (X)− ) ≤ rank(Mc (X)− ) ≤ 1 + rank(Mi (X)− ).
Se rank(Mc (X)− ) = rank(Mi (X)− ), allora X è risolubile.
Se invece rank(Mc (X)− ) = 1 + rank(Mi (X)− ), il sistema X è impossibile.
Quindi:
Corollario 6.2 Il sistema X è risolubile se e solo se rank(X) = rank(XO ).
Indichiamo con A1 , A2 , ..., An e B le colonne di Mc (X), cioè
Ai = (ak,i )m
k=1 per i = 1, 2, ..., n,
B = (bk )m
k=1 .
Cosı̀ possiamo riassumere le m equazioni di X in una sola equazione ‘vettoriale’:
n
X
Ai xi = B
i=1
(qui conviene scrivere gli scalari a destra dei vettori). È ora chiaro che sol(X) è
l’ insieme delle n-ple (xi )ni=1 che permettono di esprimere B come combinazione
lineare di A1 , A2 ,..., An . Dunque,
Lemma 6.3 Risulta sol(X) 6= ∅ se e solo se B ∈ L(A1 , A2 , ..., An ).
Possiamo ora dimostrare l’ analogo ‘per colonne’ del Teorema 6.1:
Teorema 6.4 rank(Mi (X)| ) ≤ rank(Mc (X)| ) ≤ 1 + rank(Mi (X)| ).
Se rank(Mc (X)| ) = rank(Mi (X)| ), allora X è risolubile.
Se invece rank(Mc (X)| ) = 1 + rank(Mi (X)| ), il sistema X è impossibile.
Dimostrazione. Ovviamente, L(Mi (X)| ) ⊆ L(Mc (X)| ). Siccome Mc (X)| con-
tiene una riga in più rispetto ad Mi (X)| , si possono presentare solo due casi.
1. Risulta rank(Mc (X)| ) = rank(Mi (X)| ). Quindi L(Mi (X)| ) = L(Mc (X)| )
per il Corollario 5.7 del Capitolo 5 ed X è risolubile, per il Lemma 6.3.
2. Risulta rank(Mc (X)| ) = 1 + rank(Mi (X)| ). Ora L(Mi (X)| ) 6= L(Mc (X)| ).
Per il Lemma 6.3, il sistema X è impossibile. 2
94 Capitolo 6
Come si è già detto, vedremo più avanti che il rango per righe ed il rango per
colonne di una matrice coincidono. Quindi i Teoremi 6.1 e 6.4 sono in realtà
lo stesso teorema presentato in due modi diversi. Lo si chiama Teorema di
Rouche–Capelli o di Kronecker–Capelli.
6.2 Risoluzione di un sistema
Nel §3.3.1 del Capitolo 3 si è mostrato che l’ algoritmo di Gauss-Jordan è anche
un metodo per risolvere sistemi lineari. In quel capitolo mi limitai a spiegare
la cosa con un esempio. Ora ne tratteremo con più sistematicità. Cominciamo
con lo stabilire un po’ di terminologia.
6.2.1 Configurazioni di vettori
Configurazioni perfettamente a squadra. Diremo che una m-pla α di
vettori di Vn (K) forma una squadra perfetta se si configura cosı̀:
a1,1 a1,2 a1,3 ..... a1,m−1 a1,m ..... a1,n
0 a2,2 a2,3 ..... a2,m−1 a2,m ..... a2,n
0 0 a3,3 ..... a3,m−1 a3,m ..... a3,n
..... ..... ..... ..... ..... ..... ..... .....
..... ..... ..... ..... ..... ..... ..... .....
0 0 0 ..... 0 am,m ..... am,n
ove ak,k 6= 0 per ogni k = 1, 2, ..., m. Ad ogni sequenza conformata a squadra si
può sempre fare assumere una configurazione a squadra perfetta con una qualche
permutazione delle colonne. Non dimostro questa affermazione. Mi limiterò ad
illustrarla con un esempio.
Esempio. Sia α la seguente quaterna di vettori di V6 (R).
1 −1 1 0 1 0
0 0 −2 2 −1 1
0 0 0 9 3 1
0 0 0 0 0 −1
Questa non è una squadra perfetta. Però se applichiamo alle colonne la permu-
tazione ciclica γ[6, 4, 3, 2], otteniamo la seguente quaterna, diciamola β, confor-
mata perfettamente a squadra.
1 1 0 0 1 −1
0 −2 2 1 −1 0
0 0 9 1 3 0
0 0 0 −1 0 0
6.2. RISOLUZIONE DI UN SISTEMA 95
Potevamo anche applicare alle colonne di α la permutazione ciclica γ[3, 2, 5] e
scambiare la quarta con la sesta colonna. Avremmo ottenuto cosı̀ un’ altra
quaterna γ, anch’ essa configurata come una squadra perfetta:
1 1 1 0 −1 0
0 −2 −1 1 0 2
0 0 3 1 0 9
0 0 0 −1 0 0
Naturalmente, β 6= α 6= γ. Anzi, β e γ non sono nemmeno equivalenti ad α
(cfr. Sezione 6.4, Esercizio 6.2). Tuttavia per certi scopi potremmo sostiture α
con β o con γ. Per esempio, supponiamo che α rappresenti un sistema lineare
omogeneo:
1·x1 − 1·x2 + 1·x3 + 0·x4 + 1·x5 + 0·x6 = 0,
0·x1 + 0·x2 − 2·x3 + 2·x4 − 1·x5 + 1·x6 = 0,
0·x1 + 0·x2 + 0·x3 + 9·x4 + 3·x5 + 1·x6 = 0,
0·x1 + 0·x2 + 0·x3 + 0·x4 + 0·x5 − 1·x6 = 0.
Se permutiamo le colonne di α trasformandola nella sequenza β, l’ effetto che
cosı̀ produciamo sul sistema è solo di disporne le variabili in ordine diverso dal
solito (il chè è certamente legittimo):
1·x1 + 1·x3 + 0·x4 + 0·x6 + 1·x5 − 1·x2 = 0,
0·x1 − 2·x3 + 2·x4 + 1·x6 − 1·x5 + 0·x2 = 0,
0·x1 + 0·x3 + 9·x4 + 1·x6 + 3·x5 + 0·x2 = 0,
0·x1 + 0·x3 + 0·x4 − 1·x6 + 0·x5 + 0·x2 = 0.
Configurazioni diagonali. Diremo che una m-pla α di vettori di Vn (K)
conformata a squadra ha una configurazione diagonale se ha il seguente aspetto:
a1,1 0 0 ..... 0 0 a1,m+1 ..... a1,n
0 a2,2 0 ..... 0 0 a2,m+1 ..... a2,n
0 0 a3,3 ..... 0 0 a3,m+1 ..... a3,n
..... ..... ..... ..... ..... ..... ..... ..... .....
..... ..... ..... ..... ..... ..... ..... ..... .....
0 0 0 ..... 0 am,m am,m+1 ..... am,n
ove ai,i 6= 0 per i = 1, 2, ..., m. Ogni m-pla di vettori che formi una squadra
perfetta si può sempre trasformare in una sequenza configurata in diagonale me-
diante un procedimento ‘alla Gauss-Jordan’ di cui abbiamo già dato un esempio
nel Capitolo 3, §3.2.4. Quell’ esempio dovrebbe bastare a spiegare come le cose
funzionano in generale.
6.2.2 Come si risolve un sistema
Sia X un sistema formato da un certo numero di equazioni lineari non tutte
banali, nelle n incognite x1 , x2 , ..., xn , riferentesi ad elementi di un dato campo
96 Capitolo 6
K. Mediante l’ algoritmo di Gauss-Jordan possiamo trasformare la sequenza
Mc (X)− in una sequenza a squadra, diciamola α. Sia m la lunghezza di α.
Cioè, m = rank(X).
Alla trasformazione di Mc (X)− in α corrisponde la trasformazione di X in
un sistema Y di m equazioni nelle stesse incognite x1 , x2 , ..., xn con Mc (Y)− =
α. Permutando opportunamente le variabili x1 , x2 , ..., xn , possiamo poi fare
assumere ad Mc (Y)− una configurazione a squadra perfetta
a1,1 a1,2 ..... a1,m ..... a1,n b1
0 a2,2 ..... a2,m ..... a2,n b2
..... ..... ..... ..... ..... ..... ....
..... ..... ..... ..... ..... ..... ....
0 0 ..... am,m ..... am,n bm
Il sistema Y assume il seguente aspetto:
n
X
ak,i xϕ(i) = bk , (k = 1, 2, ..., m),
i=k
ove ϕ è la permutazione di {1, 2, ..., n} che ho usato per ottenere la configurazione
di cui sopra. Possiamo ora procedere come esemplificato in §3.2.4 del Capitolo
3, trasformando Y in un altro sistema Z ad esso equivalente ma tale che, fermo
restando il nuovo ordinamento xϕ(1) , xϕ(2) , ..., xϕ(n) delle variabili, Mc (Z)− ha
configurazione diagonale:
c1,1 0 ..... 0 c1,m+1 ..... c1,n d1
0 c2,2 ..... 0 c2,m+1 ..... c2,n d2
..... ..... ..... ..... ..... ..... ..... ....
..... ..... ..... ..... ..... ..... ..... ....
0 0 ..... cm,m cm,m+1 ..... cm,n dm
(ck,k 6= 0 per k = 1, 2, ..., m.) Il sistema Z consiste delle seguenti m equazioni
n
X
ck,k xϕ(k) + ck,i xϕ(i) = dk , (k = 1, 2, ..., m),
i=m+1
Pn
ove se m = n le scritture i=m+1 ci,k xϕ(i) stanno per 0. Siccome ck,k 6= 0 per
ogni k = 1, 2, ..., m, le equazioni di Z equivalgono alle seguenti equazioni
n
dk X ck,i
(∗) xϕ(k) = + − xϕ(i) , (k = 1, 2, ..., m).
ck,k i=m+1
ck,k
Quando m = n le equazioni (∗) si riducono a queste:
xϕ(k) = dk /ck,k , (k = 1, 2, ..., m).
In questo caso il sistema Z è determinato e risulta
sol(Z) = (di /ci,i )ni=1 .
6.2. RISOLUZIONE DI UN SISTEMA 97
Sia invece m < n. Allora le (∗) ci danno xϕ(1) , xϕ(2) ,..., xϕ(m) in funzione di
xϕ(m+1) , xϕ(m+2) ,..., xϕ(n) . Quindi, scrivendo brevemente t1 , t2 , ..., tn−m per
xϕ(m+1) , xϕ(m+2) , ..., xϕ(n) ed indicando come al solito i versori di Vn (K) con
U1 , U2 ,..., Un , si ha
n−m
X
(1) sol(Z) = {P + ti Em+i | t1 , t2 , ..., tn−m ∈ K}
i=1
ove
m
X ck,i
(1.a) Ei = Uϕ(i) − Uϕ(k) , (i = m + 1, m + 2, ..., n),
ck,k
k=1
m
X dk
(1.b) P = Uϕ(k) .
ck,k
k=1
È evidente da (1) che P ∈ sol(Z). Ho dato per P la descrizione (1.b) perchè
ad essa mi hanno condotto le (∗). Vedremo nel Capitolo 10 che non c’ è alcun
bisogno di descrivere P in modo cosı̀ preciso: potremmo scegliere per P un
qualunque elemento di sol(Z). Ma per ora non insisto su questo punto. Os-
servo invece che, con le convenzioni stabilite nel Capitolo 2 (§2.3.3), possiamo
riscrivere la (1) cosı̀
sol(Z) = {P } + L(Em+1 , Em+2 , ..., En ).
D’ altra parte, il sistema Z è equivalente ad Y, che è a sua volta equivalente ad
X. Dunque
(2) sol(X) = P + L(Em+1 , Em+2 , ..., En ),
ove mi sono preso la libertà di scrivere P anzichè {P }. Insomma, sol(X) si
ottiene sommando il vettore P al sottospazio lineare L(Em+1 , Em+2 , ..., En ) di
Vn (K).
Non è difficile vedere che con una ulteriore permutazione delle coordinate
si può fare assumere alla (n − m)-pla (Ei )ni=m+1 una configurazione a squadra.
Quindi gli n − m vettori Em+1 , Em+2 ,..., En formano un insieme indipendente.
Pertanto:
(3) dim(L(Em+1 , Em+2 , ..., En )) = n − m.
Esempio. Sia X il seguente sistema di 3 equazioni in 7 incognite in R:
−x1 + 2x2 + 2x3 + x4 − x5 + x6 − x7 = 0
2x1 − x2 + 2x3 + x4 + x5 − x6 − x7 = 1
2x1 + 2x2 − x3 + x4 + x5 + x6 + x7 = −1
Eseguiamo su di esso le seguenti trasformazioni. Sommiamo alla terza ed alla
seconda equazione il doppio della prima. Dalla terza delle equazioni cosı̀ ottenute
98 Capitolo 6
sottraiamo il doppio della seconda. Abbiamo cosı̀ trasformato X nel seguente
sistema ad esso equivalente, diciamolo Y:
−x1 + 2x2 + 2x3 + x4 − x5 + x6 − x7 = 0
3x2 + 6x3 + 3x4 − x5 + x6 − 3x7 = 1
−9x3 − 3x4 + x5 + x6 + 5x7 = −3
Procediamo sommando alla seconda equazione di Y la terza moltiplicata per 2/3
ed alla prima la terza moltiplicata per 2/9. Infine, dalla prima delle equazioni
cosı̀ ottenute sottraiamo la seconda moltiplicata per 2/3. Otteniamo cosı̀ il
seguente sistema, diciamolo Z, ancora equivalente ad X:
−x1 − 13 x4 − 59 x5 + 19 x6 − 19 x7 = 0,
3x2 + x4 − 13 x5 + 53 x6 + 13 x7 = −1,
−9x3 − 3x4 + x5 + x6 + 5x7 = −1.
Da queste equazioni possiamo ricavare x1 , x2 ed x3 in funzione delle rimanenti
incognite, che vengono cosı̀ ad assumere il ruolo di variabili indipendenti:
x1 = − 31 x4 − 59 x5 + 19 x6 − 19 x7 ,
x2 = − 13 x4 + 19 x5 − 59 x6 − 19 x7 − 13 ,
x3 = − 13 x4 + 19 x5 + 19 x6 + 59 x7 + 19 .
Quindi X è risolubile, ha rango 3 e sol(X) = P + L(E4 , E5 , E6 , E7 ), ove
P = (0, −1/3, 1/9, 0, 0, 0, 0)
E4 = (−1/3, −1/3, −1/3, 1, 0, 0, 0),
E5 = (−5/9, 1/9, 1/9, 0, 1, 0, 0),
E6 = (1/9, −5/9, 1/9, 0, 0, 1, 0),
E7 = (−1/9, −1/9, 5/9, 0, 0, 0, 1).
6.3 Sistemi omogenei
6.3.1 La soluzione di un sistema omogeneo
Siano X e Z come in §6.2.2. Come in quella sottosezione, n è il numero delle
incognite del sistema X ed m = rank(X).
Ora però supponiamo che il sistema X sia omogeneo. Quindi anche Z è
omogeneo; pertanto, tutti i coefficienti dk nelle equazioni (∗) sono nulli. Il
vettore P definito in (1.a) è nullo e la (2) diventa
sol(X) = L(Em+1 , Em+2 , ..., En )
Ritroviamo che sol(X) è un sottospazio lineare di Vn (K), come già sapevamo
dal Capitolo 2, §2.2.3. Ma ora sappiamo di più. Infatti da (3) otteniamo che:
Teorema 6.5 Risulta dim(sol(X)) = n − rank(X).
6.3. SISTEMI OMOGENEI 99
Quindi:
Corollario 6.6 Se le equazioni di X sono indipendenti, dim(sol(X)) è la dif-
ferenza tra il numero delle incognite ed il numero delle equazioni di X.
In particolare, se X consiste di una sola equazione, allora sol(X) è un iperpiano
di Vn (K) (come già sappiamo dal Capitolo 5, Proposizione 5.8).
Corollario 6.7 Sia A un’ equazione lineare omogenea nelle stesse n incognite
di X. Risulta A ∈ L(X) se e solo se sol(A) ⊇ sol(X).
Dimostrazione. La parte “solo se” di questa affermazione ci è nota (Capitolo 2,
§2.4.4). Dimostriamo la parte “se”. Sia sol(A) ⊇ sol(X). Allora
sol(X ∪ {A}) = sol(X) ∩ sol(A) = sol(X)
Dal Teorema 6.5 segue che rank(X ∪ {A}) = rank(X). Quindi L(X ∪ {A}) =
L(X) per il Corollario 5.7 del Capitolo 5. Pertanto A ∈ L(X). 2
In altre parole, un’ equazione omogenea A è conseguenza materiale di un sistema
omogeneo X se e solo se ne è una combinazione lineare (cfr. Capitolo 2, §2.4.4).
6.3.2 Da sottospazi lineari a sistemi omogenei
Dato un sottospazio lineare S di Vn (K) di dimensione s con 0 < s < n, sia
{Bi }si=1 una base di S, con Bi = (bi,k )nk=1 per i = 1, 2, ..., s. Una n-pla X =
(xk )nk=1 appartiene ad S se e solo se
s
X
(4) xk = ti bi,k , (k = 1, 2, ..., n)
i=1
per opportuni scalari t1 , t2 , ..., ts ∈ K. Possiamo vedere le formule (4) come
equazioni nelle incognite t1 , t2 ,..., ts con le coordinate x1 , x2 , ..., xn di X in
ruolo di termini noti. Indichiamo con XX il sistema formato dalle equazioni
(4). La condizione X ∈ S equivale alla risolubilità di XX .
Con manipolazioni ‘alla Gauss-Jordan’ possiamo trasformare il sistema XX
in un sistema YX ad esso equivalente, del seguente tipo
c1,1 t1 + c1,2 t2 + ... + c1,s ts = ϕ1
c2,1 t1 + c2,2 t2 + ... + c2,s ts = ϕ2
...................................................
cr,1 t1 + cr,2 t2 + ... + cr,s ts = ϕr
0·t1 + 0·t2 + ... + 0·ts = ϕr+1
..............................................
0·t1 + 0·t2 + ... + 0·ts = ϕn
100 Capitolo 6
ove la matrice
c1,1 c1,2 ..... c1,s
c2,1 c2,2 ..... c2,s
.... .... ..... ....
.... .... ..... ....
cr,1 cr,2 ..... cr,s
è conformata a squadra (e quindi r ≤ s), mentre ϕ1 , ϕ2 ,..., ϕn sono espressioni
lineari omogenee nelle variabili x1 , x2 ,..., xn , dipendenti dalle manipolazioni
eseguite per trasformare XX in YX . In particolare:
n
X
(5) ϕr+k = ak,i xi
i=1
per opportuni scalari ak,1 , ak,2 , ..., ak,n e per ogni k = 1, 2, ..., n − r. Se fosse
ϕr+k 6= 0, la (r + k)-esima equazione
0·t1 + 0·t2 + ... + 0·ts = ϕr+k
del sistema YX sarebbe impossibile e quindi XX , che è equivalente a YX , sareb-
be impossibile. Dunque la risolubilità del sistema XX equivale alle condizioni
ϕr+1 = ϕr+2 = ... = ϕn = 0
che per le (5) possono essere scritte cosı̀:
n
X
(6) ak,i xi = 0, (k = 1, 2, ..., n − r).
i=1
Le (6) costituiscono un sistema, diciamolo X, di n−r equazioni lineari omogenee
nelle n incognite x1 , x2 , ..., xn . Dunque XX è risolubile se e solo se X ∈ sol(X).
D’ altra parte, XX è risolubile se e solo se X ∈ S. Quindi S = sol(X).
Proviamo che r = s. Si è già detto che r ≤ s. I coefficienti delle equazioni
che formano YX dipendono solo dalla base {Bi }si=1 che abbiamo scelto in S,
mentre i termini noti di quelle equazioni dipendono dalla scelta del vettore X.
Se X ∈ S, le soluzioni di YX ci danno tutti i modi di rappresentare X come
combinazione lineare dei vettori B1 , B2 , ..., Bs . Ma {Bi }si=1 è una base di S.
Quindi ogni vettore di S si rappresenta in un solo modo come combinazione
lineare di B1 , B2 , ..., Bs . Pertanto r = s, per la Proposizione 3.8 del Capitolo 3.
Dunque X consiste di esattamente n − s equazioni. Esse sono indipendenti.
Infatti, se non lo fossero, per il Teorema 6.5 avremmo dim(sol(X)) > n −
(n − s) = s. Ma sol(Y) = S e dim(S) = s. Quindi le equazioni di X sono
indipendenti.
Abbiamo supposto dim(S) > 0. Sia invece dim(S) = 0, cioè S = {O}.
Qualuque sistema di n equazioni indipendenti nelle n incognite x1 , x2 , ..., xn
ha {O} come soluzione completa (Capitolo 3, Proposizione 3.8). Per esempio,
possiamo prendere questo sistema:
x1 = x2 = ... = xn = 0
In definitiva:
6.3. SISTEMI OMOGENEI 101
Teorema 6.8 Sia S un sottospazio lineare di Vn (K) di dimensione s < n.
Allora S = sol(X) per qualche sistema X formato da m = n − s equazioni
lineari omogenee linearmente indipendenti.
Quindi,
Corollario 6.9 I sottospazi lineari di Vn (K) sono le soluzioni generali dei si-
stemi lineari omogenei in n incognite in Vn (K).
Pn
(Si noti che la soluzione dell’ equazione banale i=1 0·xi = 0 è Vn (K).) Dal
Teorema 6.8 e rammentando che la soluzione di un’ equazione lineare omogenea
non banale è un iperpiano, si ha subito quanto segue:
Corollario 6.10 Ogni sottospazio lineare di Vn (K) di dimensione s < n può
ottenersi come intersezione di n − s iperpiani.
6.3.3 Rappresentazioni cartesiane e parametriche
Una rappresentazione cartesiana di un sottospazio lineare S di Vn (K) è un siste-
ma X come nel Teorema 6.8. Invece n relazioni come le (4) di §6.3.2 si dicono
formare una rappresentazione parametrica di S.
Nel Teorema 6.8 si era supposto S diverso da {O} e da Vn (K), ma si può
parlare di rappresentazioni cartesiane anche per {O} e Vn (K). Come rappresen-
tazione cartesiana di Vn (K) prendiamo l’ equazione banale mentre un qualunque
sistema omogeneo determinato è una rappresentazione cartesiana di {O}.
Ci sono vari modi per ottenere una rappresentazione cartesiana di un sotto-
spazio lineare partendo da una sua rappresentazione parametrica.
Un approccio diretto. Dato un sottospazio lineare S di Vn (K) di dimensione
s, sia {Bk }sk=1 una sua base. Per il Teorema 6.8, una rappresentazione cartesiana
di S è un sistema di n − s equazioni di EOn (K), linearmente indipendenti e
soddisfatte da tutti i vettori di S. Siccome i vettori B1 , B2 , ..., Bs generano S e
le soluzioni di equazioni lineari omogenee sono sottospazi lineari di Vn (K) (anzi,
iperpiani, se l’ equazione non è quella banale), data un’ equazione A ∈ EOn (K),
risulta S ⊆ sol(A) se e solo se Bk ∈ sol(A) per ogni k = 1, 2, ..., s. Indicata con
(ai )ni=1 la n–pla dei coefficienti di A e con (bk,i )ni=1 la n–pla delle coordinate di
Bk , la condizione B1 , B2 , ..., Bs ∈ sol(A) si traduce nelle seguenti s equazioni:
n
X
(7) bk,i ai = 0, (k = 1, 2, ..., s)
i=1
Questo è un sistema di s equazioni nelle n incognite a1 , a2 , ..., an . La matrice
incompleta del sistema (7) ha per righe i vettori B1 , B2 , ..., Bs che, per ipotesi,
sono indipendenti. Quindi la soluzione di (7) ha dimensione n−s (Teorema 6.5).
Sia {A1 , A2 , ..., An−s } una base per la soluzione di (7). I vettori A1 , A2 , ..., An−s
rappresentano equazioni linearmente indipendenti soddisfatte da S ed ogni altra
102 Capitolo 6
equazione soddisfatta da S è una loro combinazione lineare. Quindi, esse ci
danno una rappresentazione cartesiana di S.
Esempio. Sia S = L(B1 , B2 , B3 ) con
B1 = (1, 0, 1, 0, 1), B2 = (1, 2, 0, 1, 2), B3 = (1, −1, 1, 2, 2)
Qui, la matrice incompleta del sistema (7) è:
1 0 1 0 1
1 2 0 1 2
1 −1 1 2 2
che, con manipolazioni alla Gauss-Jordan diventa
1 0 0 5 4
0 −1 0 2 1
0 0 −1 5 3
I due vettori (−5, 2, 5, 1, 0) e (−4, 1, 3, 0, 1) formano una base per la soluzione
generale di (7). Quindi il sistema
−5x1 + 2x2 + 5x3 + x4 = 0
−4x1 + x2 + 3x3 + x5 = 0
è una rappresentazione cartesiana di S.
Un altro approccio. Le considerazioni con le quali in §6.3.2 siamo pervenuti
al Teorema 6.8 contengono un altro metodo per passare da una rappresentazione
parametrica ad una rappresentazione cartesiana: il sistema X ottenuto in §6.3.2
è appunto una rappresentazione cartesiana di S.
Esempio. Sia S = L(B1 , B2 , B3 ) con B1 , B2 , B3 come nell’ esempio precedente.
Le seguenti relazioni costituiscono una rappresentazione parametrica di S:
x1 = t1 + t2 + t3
x2 = 2t2 − t3
x3 = t1 + t3
x4 = t2 + 2t3
x5 = t1 + 2t2 + 2t3
Trattando questo insieme di relazioni come un sistema nelle incognite t1 , t2 , t3 ,
possiamo applicare la solita procedura di riduzione a squadra. In due righe
resterà 0 a destra del segno =. Quelle due righe ci daranno una rappresentazione
cartesiana di S.
Cominciamo col sottrarre la terza relazione dalla prima e dalla quinta. Cosı̀
otteniamo:
x1 − x3 = t2
x2 = 2t2 − t3
x3 = t1 + t3
x4 = t2 + 2t3
−x3 + x5 = 2t2 + t3
6.3. SISTEMI OMOGENEI 103
Sottraiamo ora la prima di queste relazioni dalla quarta e, moltiplicata per 2,
sottraiamola dalla seconda e dalla quinta. Otteniamo:
x1 − x3 = t2
−2x1 + x2 + 2x3 = −t3
x3 = t1 + t3
−x1 + x3 + x4 = 2t3
−2x1 + x3 + x5 = t3
Ora sommiamo la seconda relazione alla quinta e, moltiplicata per 2, alla quarta.
Otteniamo cosı̀:
x1 − x3 = t2
−2x1 + x2 + 2x3 = −t3
x3 = t1 + t3
−5x1 + 2x2 + 5x3 + x4 = 0
−4x1 + x2 + 3x3 + x5 = 0
Le ultime due relazioni ci danno una rappresentazione cartesiana di S (che
è proprio la stessa ottenuta col metodo ‘diretto’ esemplificato nel paragrafo
precedente; ma è un caso).
Un altro modo di eliminare i parametri. L’ eliminazione dei parametri
dalle relazioni (4) può essere fatta anche in modo più diretto. Da una delle (4)
possiamo ricavare qualcuno dei parametri in funzione degli altri e delle varia-
bili x1 , x2 , ..., xn . Supponiamo per esempio di avere ricavato t1 . Sostituendo
nelle rimanenti equazioni l’ espressione cosı̀ ottenuta per t1 , si ottengono n − 1
equazioni in t2 , t3 , ..., ts ed x1 , x2 , ..., xn . Da una di esse ricaviamo uno dei pa-
rametri t2 , t3 , ..., ts in funzione degli altri e di x1 , x2 , ..., xn . Se, per esempio,
abbiamo ricavato t2 , sostituendo nelle rimanenti equazioni l’ espressione ottenu-
ta per t2 ci rimangono n − 2 equazioni in t3 , t4 ,..., ts , x1 , x2 , ..., xn . Da una di
esse possiamo ricavare ... E cosı̀ via. Cosı̀, ci sbarazziamo di tutti i parametri
t1 , t2 ,..., ts uno dopo l’ altro, restando alla fine con n − s equazioni nelle n
incognite x1 , x2 , ..., xn , che ci danno una rappresentazione cartesiana di S. Si
può dimostrare che questo procedimento funziona sempre e che ci dà quel che
vogliamo; cioè, ad ogni passo troviamo sempre qualche parametro da eliminare
e le n − s equazioni che alla fine ci restano sono indipendenti. Ma non dò questa
dimostrazione.
6.3.4 L’ operatore eqO
Dato un sottoinsieme S di Vn (K), poniamo
eqO (S) =def {A ∈ EOn (K) | sol(A) ⊇ S}.
Ovviamente, eqO (L(S)) è un sottospazio lineare di EOn (K). Inoltre, eqO (L(S)) =
eqO (S) ed L(S) ⊆ sol(eqO (S)). Il Teorema 6.8 dice che
(8) L(S) = sol(eqO (S))
104 Capitolo 6
e che dim(L(S)) = n − dim(eqO (S)). Le rappresentazioni cartesiane di L(S)
sono le basi di eqO (S). Viceversa, il Corollario 6.7 dice che
(9) L(X) = eqO (sol(X))
per ogni X ⊆ EOn (K) (e dim(L(X)) = n − dim(sol(X)), per il Teorema 6.5).
Le equazioni non banali di eqO (S) hanno per soluzioni iperpiani di Vn (K)
contenenti S e, viceversa, ogni iperpiano di Vn (K) contenente S è rappresentato
da un’ equazione di eqO (S). Il Corollario 6.10 ci dice che L(S) è l’ intersezione
degli iperpiani che contengono S e che, anzi, per ottenere L(S) ne bastano
n − dim(L(S)), purchè (rappresentati da equazioni) indipendenti.
6.3.5 Da Vn (K) ad un qualunque V di dimensione n
Sia V un arbitrario spazio vettoriale di dimensione finita n su un campo K. La
scelta di una base E = (Ei )ni=1 di V ci dà un isomorfismo V ∼ = Vn (K) (Capitolo
5, §5.4.3) che ci permette di ripetere per sottospazi lineari di V tutto quello che
fin qui abbiamo detto per sottospazi lineari di Vn (K).
In particolare, sia S un sottospazio lineare di V di dimensione s < n. Un
sistema X formato da n−s equazioni lineari omogenee linearmente indipendenti
in n incognite x1 , x2 , ..., xn ∈ K è detto una rappresentazione cartesiana di S
rispetto ad E se, per ogni vettore X di V, risulta X ∈ S se e solo se (X)E ∈
sol(X) (ove, come nella Sezione 5.4 del Capitolo 5, con (X)E intendiamo la n–pla
delle componenti di X rispetto alla base E). Come rappresentazione cartesiana
di V prendiamo l’ equazione banale.
Ogni sottospazio lineare di V ammette rappresentazioni cartesiane rispetto
ad E e, viceversa, ogni sistema omogeneo in n incognite in K rappresenta rispetto
ad E un sottospazio lineare di V.
Se X è una rappresentazione cartesiana rispetto ad E di un sottospazio
lineare S di V e se scegliamo per V una nuova base F, possiamo ottenere una
rappresentazione cartesiana di S rispetto ad F sostituendo alle variabili nelle
equazioni di X le espressioni (2) del Capitolo 5, che danno le coordinate rispetto
ad E in funzione di quelle rispetto ad F.
6.4 Esercizi
Esercizio 6.1 Siano α, β e γ le tre quaterne di vettori di V6 (R) considerate
nell’ Esempio di §6.2.1. Si determinino rappresentazioni cartesiane per L(α),
L(β) e L(γ).
Risposta. Per esempio, le due seguenti equazioni danno una rappresentazione
cartesiana di L(α):
x1 + x2 = x1 + 5x3 + 2x4 − 6x5 = 0
Da esse si possono ricavare rappresentazioni per L(β) ed L(γ) permutando le
variabili allo stesso modo in cui in §6.2.1 abbiamo permutato le colonne di α
per ottenere β e γ. Otteniamo cosı̀
6.4. ESERCIZI 105
x1 + x6 = x1 + 5x2 + 2x3 − 6x5 = 0 (per L(β))
x1 + x5 = x1 + 5x2 − 6x3 + 2x4 = 0 (per L(γ))
Esercizio 6.2 Si dimostri che le tre quaterne di vettori considerate nell’ eser-
cizio precedente sono a due a due non equivalenti.
Soluzione. Basta paragonare le rappresentazioni cartesiane degli spazi lineari
da esse generati. Oppure si scriva β o γ di seguito ad α e si applichi l’ algoritmo
di Gauss-Jordan alla 8-pla di vettori cosı̀ ottenuta. Se fosse β ∼ α o γ ∼ α,
questa 8-pla avrebbe rango 4. Invece ...
Esercizio 6.3 Si dimostri che un sistema formato da due equazioni omogenee
non proporzionali è sempre equivalente ad un sistema come considerato nell’
Esercizio 2.4 del Capitolo 2 o ad un sistema che si riconduce ad un sistema di
quel tipo mediante una permutazione delle variabili.
Esercizio 6.4 Sia X il sistema formato dalle due sequenti equazioni nelle in-
cognite x1 , x2 , ..., xn , y1 , y2 , ..., yn ∈ C:
Pn Pn
k=1 (xk + iyk ) = 0 = k=1 (xk − iyk )
Evidentemente, rank(X) = 2. Si trovi una base di V2n (C) in modo che i suoi pri-
mi 2n−2 vettori formino una base di sol(X) e si determini una rappresentazione
cartesiana di sol(X) rispetto a questa nuova base di V2n (C).
Soluzione. Indichiamo con U1 , V1 , U2 , VP 2 , ..., Un , Vn i versori di V2n (C), inten-
n
dendo che (x1 , x2 , ..., xn , y1 , y2 , ..., yn ) = i=1 (xi Ui + yi Vi ), e poniamo
Ei = Ui − Un (i = 1, 2, ..., n − 1), En = Un ,
Fi = Vi − Vn (i = 1, 2, ..., n − 1), Fn = V n ,
Allora (E1 , F2 , E2 , F2 , ..., En , Fn ) è una base con le proprietà richieste. Rispet-
to ad essa X è rappresentato dalle equazioni un = vn = 0, ove si intende
che u1 , v1 , u2 , v2 , ..., un , vn rappresentino le coordinate di un vettore di V2n (C)
rispetto a quella base.
Esercizio 6.5 Sia X il seguente sistema di tre equazioni lineari omogenee nelle
99 incognite x1 , x2 , ..., x99 ∈ R.
x1 + x2 − x3 = 0
x1 − x2 + x3 = 0
−x1 + x2 + x3 = 0
Si verifichi che rank(X) = 3 e si trovi una base {Ei }99
i=1 di V99 (R) in modo che
{Ei }96
i=1 sia una base di sol(X).
Consiglio. Se il numero 99 fa impressione, lo si chiami n.
Esercizio 6.6PSiano X ed E1 , E2 , ..., E99 come nel precedente esercizio. Si
99 n
ponga Fk = i=k Ei per k = 1, 2, ..., 99. La 99-pla (Fi )i=1 è un’ altra base
di V99 (R). Si determini una rappresentazione cartesiana di sol(X) rispetto a
questa nuova base.
106 Capitolo 6
Suggerimento. Si parta da una rappresentazione cartesiana rispetto alla base
(Ei )99
i=1 e la si trasformi usando le (2) del Capitolo 5.
Esercizio 6.7 Siano U1 , U2 , U3 , U4 i primi quattro versori di V99 (R) e sia S il
sottospazio lineare di V99 (R) generato dai tre vettori
U1 − U2 + U4 , U2 − U3 + U4 , −U1 + U3 + U4 .
Si determini una rappresentazione cartesiana per S.
Capitolo 7
Somme dirette e prodotti
cartesiani
7.1 Somme dirette
7.1.1 Definizione e caratterizzazioni
Dato un campo K, sia V uno spazio vettoriale su K.
Teorema 7.1 Siano X e Y due insiemi linearmente indipendenti di vettori di
V. Le seguenti proprietà si equivalgono:
(i) L(X) ∩ L(Y) = {O};
(ii) X ∩ Y = ∅ ed X ∪ Y è linearmente indipendente;
(iii) per ogni scelta di X, X 0 ∈ L(X) ed Y, Y 0 ∈ L(Y), se X + Y = X 0 + Y 0 ,
allora X = X 0 ed Y = Y 0 .
Dimostrazione. Cominiciamo col dimostrare che (i) ⇒ (ii). (Un caso particolare
di questa implicazione è già stato considerato nel Capitolo 4, Lemma 4.16; in
quel lemma Y consisteva di un solo vettore.)
Supponiamo dunque che L(X) ∩ L(Y) = {O}. Se uno dei due insiemi X,
Y è vuoto, non c’ è nulla da provare. Supponiamo dunque che nè X nè Y
siano vuoti. Siccome sia X che Y sono indipendenti, nessuno di essi contiene O.
Quindi X ∩ Y = ∅, perchè, L(X) ∩ L(Y) = {O}. Siccome X ∩ Y = ∅, scegliendo
vettori in X ∪ Y, possiamo distinguere quelli presi in X da quelli scelti in Y.
Siano X1 , X2 , ..., Xn , Y1 , Y2 , ..., Ym vettori di X ∪ Y a due a due distinti, ove
gli Xi appartengono
Pn ad X e gli Yi ad Y. Siano x1 , x2 ,..., xn , y1 , y2 ,..., ym scalari
P m
tali che i=1 xi Xi + i=1 yi Yi = O. Possiamo riscrivere quest’ uguaglianza cosı̀:
n
X m
X
xi Xi = (−yi )Yi
i=1 i=1
107
108 Capitolo 7
Qui la prima sommatoria rappresenta un vettore di L(X) mentre la seconda
rappresenta un vettore di L(Y). D’ altra parte, quelle due sommatorie rappre-
sentano lo stesso vettore, diciamolo X. Quindi X ∈ L(X) ∩ L(Y). Siccome O
è l’ unico vettore che stia in L(X) ∩ L(Y), è X = O. Pertanto,
n
X m
X
xi Xi = O = (−yi )Yi .
i=1 i=1
Dalla prima di queste due uguaglianze e dall’ indipendenza di X si ricava che
x1 = x2 = ... = xn = 0 (Capitolo 4, Corollario 4.4). Analogamente, dalla
seconda uguaglianza si ottiene che y1 = y2 = ... = ym = 0. Per il Corollario 4.4
del Capitolo 4, l’ insieme X ∪ Y è indipendente. Dunque (i) ⇒ (ii).
Dimostriamo ora che (ii) ⇒ (i). Supponiamo dunque che X ∩ Y = ∅ e che
X ∪ Y sia indipendente. Sia Z P ∈ L(X) ∩ L(Y). Allora Z può esprimersi sia
n
come combinazionePlineare Z = i=1 xi Xi di vettori di X che come combina-
m
zione lineare Z = i=1 yi Yi di vettori di Y. Siccome X ∩ Y = ∅, queste due
combinazioni lineari coinvolgono vettori distinti. Possiamo porle nella forma
n
X m
X n
X
xi Xi + 0·Yi (= xi Xi = Z)
i=1 i=1 i=1
n
X m
X m
X
0·Xi + yi Yi (= yi Yi = Z)
i=1 i=1 i=1
D’ altra parte, X ∪ Y è indipendente. Quindi, per la Proposizione 4.5 del
Capitolo 4, xi = 0 per i = 1, 2, ..., n ed yi = 0 per i = 1, 2, ..., m. Sicchè Z = O.
La (i) è dimostrata. Dunque, (ii) ⇒ (i) e, pertanto, (i) ⇔ (ii).
Proviamo ora che (i) ⇔ (iii). Assumendo (i), sia X + Y = X 0 + Y 0 per
qualche X, X 0 ∈ L(X) e qualche Y, Y 0 ∈ L(Y). Allora X − X 0 = Y 0 − Y . Sicchè
X − X 0 ed Y 0 − Y sono due modi di rappresentare uno stesso vettore, diciamolo
Z. Siccome Z = X − X 0 si ha Z ∈ L(X). E siccome Z = Y 0 − Y si ha anche
Z ∈ L(Y). Insomma, Z ∈ L(X) ∩ L(Y). Quindi Z = O per (i). Cioè, X = X 0
ed Y = Y 0 .
Viceversa, valga (iii) e sia Z ∈ L(X) ∩ L(Y). Poniamo X = Y 0 = Z ed
Y = X 0 = O. I vettori X ed X 0 cosı̀ definiti appartengono ad L(X) mentre Y
ed Y 0 appartengono ad L(Y). Inoltre X + Y = X 0 + Y 0 . Quindi X = X 0 per
(iii). Cioè Z = O. La (i) è provata. Dunque (i) ⇔ (iii). 2
Dati due sottospazi lineari A e B di V, sia S = L(A ∪ B) il sottospazio lineare
da essi generato. Cioè S = A + B (Capitolo 2, (15.c)). Se A ∩ B = {O}, allora
diciamo che S è la somma diretta di A e B, oppure che A e B sono complementari
in S, o che ciascuno dei due è un complementare dell’ altro in S (non si faccia
confusione coi complementari nel senso insiemistico !). Scriveremo S = A ⊕ B
per dire che S è somma diretta di A e B.
Senza assumere che A∩B = {O}, siano X e Y basi di A e B, rispettivamente.
L’ insieme X ∪ Y genera la somma S = A + B di A e B e perciò contiene una
base di S (Capitolo 4, Teorema 4.18). Sicchè, dim(S) ≤ dim(A) + dim(B).
7.1. SOMME DIRETTE 109
Dal Teorema 7.1 si ha che
Corollario 7.2 Risulta S = A ⊕ B se e solo se l’ insieme X ∪ Y è una base di
S e per di più X ∩ Y = ∅.
Quindi:
Corollario 7.3 Se S = A ⊕ B allora dim(S) = dim(A) + dim(B).
Corollario 7.4 Supponiamo che A e B abbiano dimensione finita. Allora
S = A ⊕ B ⇐⇒ dim(S) = dim(A) + dim(B).
Dimostrazione. Per il Corollario 7.3, basta dimostrare la parte ⇐ di questa
equivalenza. Intanto, gli insiemi X e Y sono finiti perchè sono basi di A e B
che, per ipotesi, hanno dimensione finita. Ovviamente,
card(X) + card(Y) ≥ card(X ∪ Y)
e vale l’ uguaglianza se e solo se X ∩ Y = ∅. D’ altra parte, card(X) = dim(A),
card(Y) = dim(B) e card(X ∪ Y) ≥ dim(S) perchè X ∪ Y contiene una base
di S. Riassumendo,
(i) dim(A) + dim(B) ≥ card(X ∪ Y) ≥ dim(S)
(ii) dim(A) + dim(B) = card(X ∪ Y) ⇐⇒ X ∩ Y = ∅
Inoltre,
(iii) card(X ∪ Y) = dim(S) se se e solo se X ∪ Y è una base di S.
Supponiamo ora che dim(S) = dim(A) + dim(B). Allora
dim(A) + dim(B) ≥ card(X ∪ Y) ≥ dim(S)
per (i). Quindi X ∩ Y = ∅ per (ii) e X ∪ Y è una base di S per (iii). Pertanto
S = A ⊕ B, per il Corollario 7.2. 2
7.1.2 Componenti e proiezioni
Dal Teorema 7.1 segue anche che
Corollario 7.5 Si ha S = A ⊕ B se e solo se per ogni vettore X ∈ S esiste un’
unica coppia di vettori (AX , BX ) tale che AX ∈ A, BX ∈ B ed AX + BX = X.
Sia S = A ⊕ B. Dato X ∈ S, siano AX e BX come nel Corollario 7.5. Diciamo
questi due vettori le componenti di X in A e in B, rispettivamente.
Se per di più S = V, allora diciamo che AX è la proiezione di X su A lungo
la direzione B (brevemente, lungo B). E analogamente per BX , scambiando i
B
ruoli di A e B. La funzione πA : V −→ A che ad ogni vettore X di V associa la
sua proiezione su A lungo B è detta proiezione di V su A lungo B. È ovvio che
B
(1) X = πA (X) + πBA (X), (∀X ∈ V).
110 Capitolo 7
Valgono anche le seguenti identità:
B B B
(2.a) πA (X + Y ) = πA (X) + πA (Y ), (∀X, Y ∈ V),
B B
(2.b) πA (xX) = xπA (X), (∀X ∈ V, ∀x ∈ K).
Dimostrazione. Dalla (1) si ricava
B
xX + yY = xπA (X) + xπBA (X) + yπA
B
(Y ) + yπBA (Y ).
B B
Inoltre xπA (X) + yπA (Y ) ∈ A ed xπBA (X) + yπBA (Y ) ∈ B. Sicchè
B B B
πA (xX + yY ) = xπA (X) + yπA (Y ).
Ponendo in questa identità x = y = 1 si ottiene la (2.a). Ponendovi y = 0 si
ottiene la (2.b). 2
7.1.3 Esempi
1. Siano A e B due rette distinte di V2 (R) passanti per O. È ovvio che V2 (R) =
B
A ⊕ B. La proiezione AX = πA (X) di un vettore X su A lungo B si ottiene
mandando per X la parallela a B ed intersecando con A. E cosı̀ per BX =
πBA (X), scambiando A con B.
B
X
BX • •
• •
O AX A
Analogamente, due rette di V3 (R) per O sono complementari nel piano che esse
generano. Due piani di V3 (R) per O non sono complementari in V3 (R), siccome
si intersecano su una retta. Invece, se A è un piano di V3 (R) per O e B è una
B
retta di V3 (R) per O fuori di A, si ha V3 (R) = A⊕B. Le proiezioni AX = πA (X)
A
e BX = πB (X) di un vettore X su A e B si ottengono come indicato nella figura
seguente.
BX
•P
PPP
B PP X
•
O •P
PP
P
PP AX
• A
2. Dato uno spazio vettoriale V, sia E = {Ei }i∈I una sua base e sia {J, K} una
partizione di I in due classi. Poniamo A = L({Ej }j∈J ) e B = L({Ek }k∈K ).
Allora V = A ⊕ B, per il Corollario 7.2.
7.1. SOMME DIRETTE 111
B
Supponiamo che dim(V) = n < ∞. La proiezione πA di V su A lungo
B agisce sulla n-pla (X)E delle coordinate rispetto ad E di un vettore X an-
Pn quelle di indice k ∈ K. Per esempio, se n ≥ 3 e J = {1, 3}, allora
nullando
B
πA ( i=1 xi Ei ) = x1 E1 + x3 E3 .
3. Sia V = RR , sia A il sottospazio lineare delle funzioni costanti e, dato a ∈ R,
sia B il sottospazio lineare delle funzioni che valgono 0 in a. Evidentemente,
A ∩ B = {O}. D’ altra parte, per ogni funzione f da R a R, risulta f =
f (a) + (f − f (a)) ed f − f (a) ∈ B. Pertanto V = A + B. Sicchè, V = A ⊕ B.
7.1.4 Somme dirette con più addendi
Fin qui ci siamo limitati a considerare somme dirette di due sottospazi linea-
ri. Ma si possono considerare anche somme dirette di più di due sottospazi.
Mostrerò come questo possa farsi, sorvolando sui dettagli delle dimostrazioni.
Somme dirette di un numero finito di sottospazi. Siano A1 , A2 ,..., Am
sottospazi lineari di un dato spazio vettoriale V. Generalizziamo la definizione
di somma di due sottospazi lineari ponendo
m
X m
X
Ai =def { Xi | Xi ∈ Ai , i = 1, 2, ..., m}.
i=1 i=1
Pm Sm
Come per la somma
Pm di due sottospazi lineari, si ha i=1 Ai = L( i=1 Ai ).
Poniamo A = i=1 Ai . Se per ogni k = 1, 2, ..., m risulta
k−1
X m
X
( Ai + Ai ) ∩ Ak = {O}
i=1 i=k+1
allora si dice che A è somma diretta di A1 , A2 ,..., Am , e si scrive
A = A1 ⊕ A2 ⊕ ... ⊕ Am
o anche, più brevemente, A = ⊕m
i=1 Ai .
Proposizione 7.6 Per ogniSi = 1, 2, ..., m, sia Xi una base di Ai . Risulta
m
A = ⊕m i=1 Ai se e solo se i=1 Xi è una base di A e gli insiemi X1 , X2 ,...,
Xm sono a due a due disgiunti.
Traccia di dimostrazione. Con gli stessi argomenti usati per dimostrare l’
equivalenza di (i) e (ii) nel Teorema 7.1, si dimostra che
L(Xk ) ∩ L(X1 ∪ ... ∪ Xk−1 ∪ Xk+1 ∪ ... ∪ Xn ) = {O}
Sn
per ogni k = 1, 2, ..., n se e solo se i=1 Xi è indipendente e gli insiemi X1 ,
X2 ,..., Xn sono a due a due disgiunti. 2
Dalla Proposizione 7.6 si ottengono subito i due corollari seguenti:
112 Capitolo 7
Pn
Corollario 7.7 Se A = ⊕m
i=1 Ai , allora dim(A) = i=1 dim(Ai ).
dim(Ai ) < ∞ per i = 1, 2, ..., n, allora A = ⊕m
Corollario 7.8 Se P i=1 Ai se e
n
solo se dim(A) = i=1 dim(Ai ).
Proposizione 7.9 Risulta A = ⊕m i=1 Ai se e solo se per ogni X P∈ A esiste un’
m
unica m-pla (Xi )m
i=1 tale che Xi ∈ Ai per i = 1, 2, ..., m ed X = i=1 Xi .
Traccia di dimostrazione. Si generalizzi l’ argomento usato per mostrare l’
equivalenza di (i) e (iii) nel Teorema 7.1. 2
Supponiamo che A = ⊕m s
i=1 Ai . Sia {Ik }k=1 una partizione di {1, 2, ..., m}.
Usando la Proposizione 7.6 si deduce che
X
Ai = ⊕i∈Ik Ai , (per k = 1, 2, ..., s)
i∈Ik
s
X
(⊕i∈Ik Ai ) = ⊕sk=1 (⊕i∈Ik Ai ).
k=1
Ps P Pm
Quindi la ovvia relazione k=1 ( i∈Ik Ai ) = i=1 Ai si può riscrivere cosı̀
(3) ⊕sk=1 (⊕i∈Ik Ai ) = ⊕m
i=1 Ai .
La (3) si dice proprietà associativa delle somme dirette. In particolare, se m = 3,
considerando le due partizioni {{1, 2}, {3}} ed {{1}, {2, 3}} di {1, 2, 3},
(30 ) (A1 ⊕ A2 ) ⊕ A3 = A1 ⊕ (A2 ⊕ A3 ) = A1 ⊕ A2 ⊕ A3 .
Somme di famiglie arbitrarie di sottospazi. Sia {Ai }i∈I una qualunque
famiglia di sottospazi lineari di V. Indicata con F (I) la famiglia dei sottoinsiemi
finiti di I, si ponga
X X
Ai =def { Xj | J ∈ F (I), (∀j ∈ J)(Xj ∈ Aj )}.
i∈I j∈J
P
Risulta i∈I Ai = L(∪i∈I Ai ). Per ogni i ∈ I, sia Xi una base di Ai . Le due
condizioni seguenti si equivalgono:
P
(i) risulta ( i∈I\{k} Ai ) ∩ Ak = {O} per ogni k ∈ I;
S
(ii) gli P
insiemi Xi sono a due a due disgiunti e la loro unione i∈I P Xi è una
base di i∈I Ai (vale a dire, {Xi }i∈I è una partizione di una base di i∈I Ai ).
P
Se vale la (i) (equivalentemente, la (ii)), la somma i∈I Ai si dice somma
diretta della famiglia {Ai }i∈I e la si indica con ⊕i∈I APi .
La proprietà ‘associativa’ si generalizza cosı̀. Sia i∈I Ai = ⊕i∈I Ai e sia
{Ih }h∈H una partizione di I. Allora
(300 ) ⊕h∈H (⊕i∈Ih Ai ) = ⊕i∈I Ai .
7.2. COMPLEMENTARI E CODIMENSIONI 113
7.2 Complementari e codimensioni
7.2.1 Complementari
Sia V uno spazio vettoriale su un dato campo K. Se due sottospazi lineari A e
B di V sono complementari in V, cioè se V = A ⊕ B, allora diciamo brevemente
che ciascuno di essi è un complementare dell’ altro, o che sono complementari,
lasciando sottinteso che lo sono in V.
Lemma 7.10 Dati due sottospazi lineari A e A0 di V, se A ∩ A0 = {O} allora
A0 è contenuto in qualche complementare di A.
Dimostrazione. Siano X e X0 basi di A e A0 (naturalmente, X0 = ∅ se A0 =
{O}). Per il Teorema 7.1, X ∩ X0 = ∅ e X ∪ X0 è indipendente. Per il Teorema
5.3 del Capitolo 5, esiste un insieme Y di vettori di V, disgiunto da X ∪ X0 e
tale che X ∪ X0 ∪ Y sia una base di V. Poniamo B = L(X0 ∪ Y) (= A0 ⊕ L(Y)
per il Corollario 7.2). Per il Corollario 7.2, V = A ⊕ B. 2
Teorema 7.11 Ogni sottospazio lineare di V ammette complementari.
(Ovvio: si ponga A0 = {O} nel Lemma 7.10.) Un insieme indipendente di vettori
di V che non sia una base di V è contenuto in molte basi di V (Capitolo 5, seconda
dimostrazione del Teorema 5.3). Dunque, un sottospazio lineare proprio non
banale di V ammette molti complementari (anzi, ne ammette sempre almeno
card(K); cfr. Sezione 7.5, Esercizio 7.5). Invece V è l’ unico complementare di
{O} ed {O} è l’ unico complementare di V.
Corollario 7.12 Siano A e B sottospazi lineari di V. Se B ⊆ A allora B
ammette complementari in A.
(Basta applicare il Teorema 7.11 allo spazio vettoriale indotto da V su A.)
7.2.2 Codimensione
Sia A un sottospazio lineare di V. Se dim(V) < ∞, tutti i complementari di
A hanno dimensione dim(V) − dim(A) (Corollario 7.5). Se V ha dimensione
infinita, la scrittura dim(V) − dim(A) perde significato. Tuttavia resta vero che
Teorema 7.13 Tutti i complementari di A hanno la stessa dimensione.
Dimostrazione. Siano X e Y complementari di A. Indichiamo con ϕ la restrizio-
ne a Y della proiezione di V su X lungo A, vista come una funzione di codominio
X , e con ψ la restrizione a X della proiezione di V su Y lungo A, intesa come
una funzione di codominio Y.
X A A X
Dato Y ∈ Y si ha Y = πA (Y ) + πX (Y ). Quindi πX (Y ) = Y − πA (Y ).
Siccome Y ∈ Y e V = Y ⊕ A, risulta πYA (πX A
(Y )) = Y . Cioè ψ(ϕ(Y )) = Y .
114 Capitolo 7
Dunque ψϕ è l’ identità su Y. Analogamente, ϕψ è l’ identità su X . Pertanto
ϕ e ψ sono invertibili e sono l’ una l’ inversa dell’ altra. Per le (2.a) e (2.b) di
§7.1.2, ϕ è un isomorfismo da Y a X . Quindi dim(X ) = dim(Y). 2
La comune dimensione dei complementari di A si chiama codimensione di A
e la si indica con cod(A). Dato un sottospazio lineare A0 di A, indichiamo
con codA (A0 ) la codimensione di A0 nello spazio vettoriale A. La chiamiamo
codimensione di A0 relativa ad A. Per il Corollario 7.3,
(4) codA (A0 ) + dim(A0 ) = dim(A)
Inoltre,
(5) codA (A0 ) + cod(A) = cod(A0 )
Dimostrazione. Sia X 0 un complementare di A0 in A e sia X un complementare
di A in V. Allora
V = A ⊕ X = (A0 ⊕ X 0 ) ⊕ X = A0 ⊕ (X 0 ⊕ X ).
(La terza uguaglianza segue dalla (3’); essa ci dice che X + X 0 è un comple-
mentare di A0 .) Quindi cod(A0 ) = dim(X 0 ⊕ X ). Da ciò si ha subito la (5).
2
Sia invece B un qualunque altro sottospazio lineare di V. Allora,
(6) codA (A ∩ B) = codA+B (B)
Questa è una banale conseguenza della proposizione seguente:
Proposizione 7.14 I complementari di A ∩ B in A sono anche complementari
di B in A + B.
Dimostrazione. Sia X un complementare di A ∩ B in A. Allora
(i) X ∩ A ∩ B = {O}
(ii) X + (A ∩ B) = A
Da (i) e dal fatto che X ⊆ A segue che X ∩ B = {O}. Da (ii) segue invece che
X + B ⊇ A. D’ altra parte, B ⊆ X + B. Inoltre X + A ⊆ A + B perchè X ⊆ A.
Quindi, X + B = A + B. Pertanto, X è un complementare di B in A + B. 2
7.2.3 Iperpiani
Nel Capitolo 5 (§5.2.1) abbiamo definito gli iperpiani di uno spazio vettoriale V
di dimensione finita n > 0 come i suoi sottospazi lineari di dimensione n − 1.
Per il Teorema 7.11 ed il Corollario 7.4, essi sono proprio i sottospazi lineari di
V di codimensione 1. Possiamo ora estendere la nozione di iperpiano al caso di
spazi vettoriali di dimensione infinita.
Diremo che un sottospazio lineare di uno spazio vettoriale V è un iperpiano
di V se ha codimensione 1.
7.3. SOMME E INTERSEZIONI 115
Lemma 7.15 Dato un iperpiano S, sia A ∈ V \ S. Allora L(A) è un comple-
mentare di S.
Dimostrazione. Per il Lemma 7.10, A è contenuto in qualche complementare X
di S. D’ altra parte, dim(X ) = 1 perchè S è un iperpiano. Quindi X = L(A).
2
Proposizione 7.16 Gli iperpiani di V sono i suoi sottospazi lineari propri mas-
simali (cioè, sono gli elementi massimali nell’ insieme dei sottospazi lineari
propri di V, ordinato con la relazione ⊆).
Dimostrazione. Sia S un sottospazio lineare proprio massimale di V e sia A ∈
V \ S. Siccome S è massimale, S + L(A) = V. Quindi L(A) è un complementare
di S. Pertanto S è un iperpiano.
Viceversa, dato un iperpiano S di V, sia X un sottospazio lineare di V
contenente propriamente S. Preso A ∈ X \ S, risulta S + L(A) = V per il
Lemma 7.15. Quindi X = V. 2
7.3 Somme e intersezioni
7.3.1 Le relazioni di Grassmann
Teorema 7.17 Scelti comunque due sottospazi lineari A e B in uno stesso
spazio vettoriale, risulta
(7) dim(A + B) + dim(A ∩ B) = dim(A) + dim(B),
(7∗ ) cod(A + B) + cod(A ∩ B) = cod(A) + cod(B).
Dimostrazione. Dimostriamo la (7). Per la (6) si ha che
(i) codA (A ∩ B) = codA+B (B).
D’ altra parte,
(ii.a) dim(A) = dim(A ∩ B) + codA (A ∩ B)
(ii.b) dim(A + B) = dim(B) + codA+B (B)
per il Corollario 7.3. Da (ii.b) ed (i) segue che
dim(A + B) = dim(B) + codA (A ∩ B)
Aggiungendo dim(A ∩ B) ad entrambi i membri di questa uguaglianza si ottiene
che dim(A + B) + dim(A ∩ B) = dim(B) + codA (A ∩ B) + dim(A ∩ B). La (7)
segue subito da questa uguaglianza e da (ii.a).
Dimostriamo la (7∗ ). Da (5) si ottiene che
(j) cod(B) = cod(A + B) + codA+B (B)
Da (j) ed (i) segue che
cod(B) = cod(A + B) + codA (A ∩ B)
116 Capitolo 7
Sommando cod(A) ad ambo i termini di questa uguaglianza si ottiene
(jj) cod(A) + cod(B) = cod(A) + cod(A + B) + codA (A ∩ B)
D’ altra parte,
codA (A ∩ B) + cod(A) = cod(A ∩ B)
per (5). La (7∗ ) segue da questa uguaglianza e da (jj). 2
La (7) è detta relazione di Grassmann. La (7∗ ) è detta Relazione duale di Grass-
mann. La relazione di Grassmann è utile quando sia A che B hanno dimensione
finita, per calcolare dim(A ∩ B) a partire da dim(A) e dim(B) (che supponiamo
note) e da dim(A + B) (che in genere si calcola abbastanza facilmente). Una
volta nota la dimensione di A ∩ B, possiamo acquisire su A ∩ B altre informa-
zioni. (Per esempio, possiamo trovarne una base.) Darò un esempio di questo
modo di procedere nella prossima sottosezione.
La relazione duale di Grassmann è invece utile quando A e B hanno codi-
mensione finita.
7.3.2 Un esercizio svolto
Sia V uno spazio vettoriale di dimensione ≥ 6 sul campo R (ma quel che diremo
può ripetersi in ogni campo di caratteristica 6= 2 o 3). Dati in V sei vettori
indipendenti E1 , E2 , E3 , E4 , E5 , E6 , poniamo E = (Ei )6i=1 , W = L(E) e
A1 = E1 + E2 + E3 + E4 + E5 + E6 ,
A2 = E1 + E2 − E3 + E4 + E5 − E6 ,
A3 = E1 − E2 + E3 + E4 − E5 + E6 ,
A4 = −E1 + E2 + E3 − E4 + E5 + E6 ,
B1 = E1 − E2 + E3 − E4 + E5 − E6 ,
B2 = E1 + E2 + 2E3 + 2E4 + 3E5 + 3E6 ,
B3 = E1 + 2E2 + E3 + 2E4 + E5 + 2E6 ,
B4 = −3E1 + 3E2 − 2E3 + 2E4 − E5 + E6 ,
A = (A1 , A2 , A3 , A4 ),
B = (B1 , B2 , B3 , B4 ),
A = L(A),
B = L(B).
Vogliamo descrivere A ∩ B. Intanto, possiamo identificare W con V6 (R) identi-
ficando ciascun vettore di W con la 6-pla delle sue coordinate rispetto alla base
E di W. Possiamo cosı̀ applicare la procedura di Gauss-Jordan alle 6-ple che
rappresentano i generatori A1 , A2 , A3 , A4 di A ed i generatori B1 , B2 , B3 , B4 di
B. Cosı̀ si trova che dim(A) = 3 e dim(B) = 4.
Sicchè la quaterna B è una base di B, mentre uno dei quattro vettori di A
deve essere combinazione lineare degli altri tre e perciò ce ne possiamo sbaraz-
zare. Si vede che, d’ altra parte, ciascuna delle quattro terne di vettori estraibili
da A è linearmente indipendente. Sicchè ciascuna di queste terne è una base di
7.3. SOMME E INTERSEZIONI 117
A. Quindi ciascuno dei vettori A1 , A2 , A3 , A4 è combinazione lineare degli altri
tre. Possiamo dunque sbarazzarci di uno qualunque di essi. Sbarazziamoci di
A1 (per inciso, A1 = 12 (A2 + A3 + A4 )).
Riunendo un insieme di generatori di A con un insieme di generatori di B si
ottiene un insieme di generatori di A + B. Quindi
A + B = L(A2 , A3 , A4 , B1 , B2 , B3 , B4 ).
Però A + B ⊆ W e W ha dimensione 6. Quindi qualcuno dei 7 vettori A2 , A3 ,
A4 , B1 , B2 , B3 , B4 è superfluo, per il Teorema 4.11 del Capitolo 4. Ricorrendo
ancora una volta alla procedura di Gauss-Jordan, si scopre che A + B ha di-
mensione 6. DunqueA + B = W (Capitolo 5, Corollario 5.7). Dalla relazione di
Grassmann ricaviamo che
dim(A ∩ B) = dim(A) + dim(B) − dim(A + B) = 3 + 4 − 6 = 1.
Quindi A ∩ B è una retta. Per dirne di più, dobbiamo trovare un suo generatore.
Per l’ appunto, B1 + 2B3 = 3A1 6= O. Dunque A ∩ B = L(A1 ). Con ciò abbiamo
finito.
Ma, se non ci fosse venuto in mente di considerare B1 + 2B3 , come potevamo
fare ? Ci sono dei metodi standard per affrontare il problema dell’ intersezione
di due sottospazi lineari, che ora spiegherò, applicandoli al nostro esempio.
Paragone di due rappresentazioni parametriche. Affrontando il proble-
ma ‘a testa bassa’, partiamo dalla considerazione che i vettori X ∈ A ∩ B sono
quelli che possono rappresentarsi parametricamente sia cosı̀
(i.a) X = u1 A2 + u2 A3 + u3 A4 , (u1 , u2 , u3 , ∈ R)
che cosı̀
(i.b) X = v1 B 1 + v2 B 2 + v3 B 3 + v4 B 4 , (v1 , v2 , v3 , v4 ∈ R).
((i.a) ed (i.b) dicono rispettivamente che X ∈ A e che X ∈ B.) Da (i.a) ed (i.b)
si ottiene l’ equazione vettoriale
u1 A2 + u2 A3 + u3 A4 = v1 B1 + v2 B2 + v3 B3 + v4 B4
nelle incongnite u1 , u2 , u3 , v1 , v2 , v3 , v4 che, interpretata rispetto alla base E di
W, si traduce nel seguente sistema di 6 equazioni omogenee nelle 7 incognite
u1 , u2 , u3 , v1 , v2 , v3 , v4 :
u1 + u2 − u3 = v1 + v2 + v3 − 3v4
u1 − u2 + u3 = −v1 + v2 + 2v3 + 3v4
−u1 + u2 + u3 = v1 + 2v2 + v3 − 2v4
(ii)
u1 + u2 − u3 = −v1 + 2v2 + 2v3 + 2v4
u1 − u2 + u3 = v1 + 3v2 + v3 − v4
−u1 + u2 + u3 = −v1 + 3v2 + 2v3 + v4
118 Capitolo 7
Il sistema (ii) è indeterminato (consta di meno equazioni che incognite). Anche
senza risolverlo o calcolarne il rango, sappiamo che la sua soluzione ha dimen-
sione 1. Infatti i parametri presenti in una rappresentazione della sua soluzione,
figurando in u1 , u2 , u3 (ed in v1 , v2 , v3 e v4 ) intervengono anche in una rappre-
sentazione parametrica di A ∩ B. Ma, siccome A ∩ B ha dimensione 1, ogni sua
rappresentazione parametrica dipende da un solo parametro. Sicchè anche la
soluzione di (ii) dipende da un solo parametro, è cioè la retta L(C) generata da
un opportuno vettore
C = (c1 , c2 , c3 , d1 , d2 , d3 , d4 )
Pertanto
A ∩ B = L(c1 A2 + c2 A3 + c3 A4 ) = L(d1 B1 + d2 B2 + d3 B3 + d4 B4 ).
Per descrivere A ∩ B dobbiamo trovare C, o almeno le sue prime tre coordinate
c1 , c2 , c3 , oppure le sue ultime quattro coordinate d1 , d2 , d3 , d4 .
Sottraiamo la quarta equazione di (ii) dalla prima, la quinta dalla seconda
e la sesta dalla terza; otteniamo il seguente sistema
2v1 − v2 − v3 − 5v4 = 0
(iii) −2v1 − 2v2 + v3 + 4v4 = 0
2v1 − v2 − v3 − 3v4 = 0
Con manipolazioni ‘alla Gauss–Jordan’ trasformiamo (iii) nel seguente sistema:
2v1 − v2 − v3 − 5v4 = 0
(iv) 3v2 + 0·v3 + v4 = 0
v4 = 0
La soluzione generale del sistema (iv) è la retta di V4 (R) generata da (1, 0, 2, 0).
Quindi (d1 , d2 , d3 , d4 ) = t(1, 0, 2, 0). (Si trova anche che (c1 , c2 , c3 ) = t(1, 1, 1),
e quindi che C = t(1, 1, 1, 1, 0, 2, 0), ma questo ora non ci serve più).
In definitiva, A ∩ B = L(B1 + 2B3 ) (come avevamo già trovato). Però questo
metodo richiede troppi calcoli noiosi. Considerare rappresentazioni cartesiane
può aiutare a risparmiare lavoro.
Paragone di rappresentazioni parametriche e cartesiane. Nel nostro
caso, una rappresentazione cartesiana di A si trova subito. Si osservi intanto
che anche la terna di vettori E1 +E4 , E2 +E5 , E3 +E6 è una base di A. Da ciò si
deduce che il seguente sistema, diciamolo X, è una rappresentazione cartesiana
di A rispetto alla base E di W:
x1 = x4 , x2 = x 5 , x 3 = x6 .
Infatti queste equazioni, essendo soddisfatte da ciascuno dei vettori E1 + E4 ,
E2 + E5 , E3 + E6 , sono anche soddisfatte da ogni loro combinazione lineare.
Sicchè A ⊆ sol(X). D’ altra parte dim(sol(X)) = 3 (Capitolo 6, Corollario 6.6).
Perciò A = sol(X), perchè dim(A) = 3 (Capitolo 5, Corollario 5.7).
7.4. PRODOTTI CARTESIANI 119
Sia X ∈ B, cioè X = v1 B1 + v2 B2 + v3 B3 + v4 B4 . Le sei coordinate di X
rispetto ad E sono
x1 = v1 + v2 + v3 − 3v4 ,
x2 = −v1 + v2 + 2v3 + 3v4 ,
x3 = v1 + 2v2 + v3 − 2v4 ,
x4 = −v1 + 2v2 + 2v3 + 2v4 ,
x5 = v1 + 3v2 + v3 − v4 ,
x6 = −v1 + 3v2 + 2v3 + v4 .
Si ha X ∈ A se e solo se le sue coordinate soddisfano il sistema X, cioè se e solo
se:
v1 + v2 + v3 − 3v4 = −v1 + 2v2 + 2v3 + 2v4 ,
−v1 + v2 + 2v3 + 3v4 = v1 + 3v2 + v3 − v4 ,
v1 + 2v2 + v3 − 2v4 = −v1 + 3v2 + 2v3 + v4 .
Indichiamo con Y questo sistema. Esso ci dà una rappresentazione cartesiana
della retta A ∩ B di B rispetto alla base B di B. Risolvendolo, troviamo che
sol(Y) = L((1, 0, 2, 0)). Ma (1, 0, 2, 0) rappresenta B1 + 2B3 . E ritroviamo che
A ∩ B = L(B1 + 2B3 ).
7.4 Prodotti cartesiani
7.4.1 Prodotto cartesiano di due spazi
Siano V e W due spazi vettoriali su uno stesso campo di scalari. Indichiamo
con V e W i loro insiemi di vettori e con OV ed OW i loro vettori nulli. Per
ogni scelta di vettori X, X 0 ∈ V, Y, Y 0 ∈ W e di uno scalare x, poniamo
(X, Y ) + (X 0 , Y 0 ) =def (X + X 0 , Y + Y 0 ),
−(X, Y ) =def (−X, −Y ),
x(X, Y ) =def (xX, xY ),
e prendiamo (OV , OW ) come vettore nullo. Abbiamo cosı̀ definito una struttura
di spazio vettoriale su V × W. Chiamiamo questo spazio vettoriale prodotto
cartesiano di V e W e lo indichiamo col simbolo V × W.
La funzione da V × W a W × V che ad ogni coppia (X, Y ) ∈ V × W associa
la coppia (Y, X) è evidentemente un isomorfismo da V × W a W × V. Dunque
V ×W ∼ = W × V.
Il prodotto cartesiano VO = V × {OW } è l’ insieme delle coppie (X, OW ) con
X ∈ V ed è un sottospazio lineare di V × W. Analogamente, WO = {OV } × W
è il sottospazio lineare di V × W formato da tutte le coppie (OV , Y ) con Y ∈ W.
Siccome (X, Y ) = (X, OW ) + (OV , Y ) per ogni coppia (X, Y ) ∈ V × W e
siccome VO ∩ WO = {(OV , OW )}, si ha che
V × W = VO ⊕ WO
120 Capitolo 7
È ovvio che la funzione da V a VO che associa ad ogni vettore X di V la
coppia (X, OW ) è un isomorfismo da V a VO . Quindi V ∼
= VO . Analogamente,
W∼ = WO . (Per questo motivo, alcuni prendono i simboli × e ⊕ come sinonimi,
chiamando V × W “somma diretta” di V e W.)
7.4.2 Prodotto di un numero finito di spazi
La definizione di prodotto cartesiano si generalizza subito a prodotti di un nu-
mero arbitrario di spazi vettoriali. Siano V1 , V2 ,..., Vn spazi vettoriali su uno
stesso campo di scalari. Indichiamo con V1 , V2 ,..., Vn i loro insiemi di vettori
O2 ,..., O3 i loro vettori nulli. Per ogni scelta di elementi (Xi )ni=1 ed
e con O1 , Q
n n
(Yi )i=1 di i=1 Vi e di uno scalare x, poniamo
(Xi )ni=1 + (Yi )ni=1 =def (Xi + Yi )ni=1 ,
−(Xi )ni=1 =def (−Xi )ni=1 , x(Xi )ni=1 =def (xXi )ni=1 ,
e prendiamo (Oi )ni=1 come vettore Qn nullo. In tal modo abbiamo definito una
n
struttura di spazio vettoriale su i=1 Vi=1 . Chiamiamo questo spazio vettoriale
prodotto cartesiano di V1 , V2 ,..., Vn e lo indichiamo col simbolo
V1 × V2 × ... × Vn ,
Qn
o anche con i=1 Vi . Indico con V n il prodotto cartesiano di uno spazio vetto-
riale V per sè stesso n volte. Questo è null’ altro che lo spazio che nel §1.5.2 del
Capitolo 1 indicavamo con V {1,2,...,n} .
Proprietà associativa. Data una partizione {Ik }m
k=1 di {1, 2, ..., n}, risulta
m Y n
∼
Y Y
( Vi ) = Vi .
k=1 i∈Ik i=1
In particolare, (V1 × V2 ) × V3 ∼
= V1 × (V2 × V3 ) ∼
= V1 × V2 × V3 .
Proprietà commutativa. Data una permutazione ϕ di {1, 2, ..., n}, risulta
n n
Vϕ(i) ∼
Y Y
= Vi .
i=1 i=1
Prodotti cartesiani e somme dirette. Per k = 1, 2, ..., n, poniamo
Vk,O = {O1 } × ... × {Ok−1 } × Vk × {Ok+1 } × ... × {On }.
Qn
Evidentemente, Vk,O è unQsottospazio lineare di i=1 Vi ed è isomorfo a Vk .
n
Non è difficile vedere che i=1 Vi = ⊕ni=1 Vi,O .
7.5. ESERCIZI 121
7.4.3 Prodotti di famiglie arbitarie di spazi vettoriali
Sia {Vi }i∈I una famiglia di spazi vettoriali su uno stesso campo K di scalari.
Per ogni i ∈ I, indichiamo con Vi e con Oi l’ Q insieme dei vettori ed il vettore
nullo di Vi . Per ogni scelta di elementi F, G di i∈I Vi e di uno scalare x ∈ K,
definiamo F + G, −F ed xF mediante le clausole
(F + G)(i) = F (i) + G(i)) (∀i ∈ I),
(−F )(i) = −F (i), (∀i ∈ I),
(xF )(i) = xF (i), (∀i ∈ I),
e prendiamo come vettore nullo la funzione che ad ogni i ∈ I associaQOi . In
tal modo resta definita una struttura di spazio vettoriale sull’ insieme i∈I Vi .
Q si dice prodotto cartesiano della famiglia {Vi }i∈I e lo si indica col simbolo
Lo
i∈I Vi .
In particolare, quando tutti gli spazi Vi sono uguali ad uno stesso spazio
vettoriale V, la precedente definizione ci restituisce lo spazio V I definito in §1.5.2
del Capitolo 1.
7.5 Esercizi
Esercizio 7.1 Si deduca dal Teorema 7.1 che i quattro vettori considerati nell’
Esercizio 5.4 del Capitolo 5 formano una base di V4 (R).
Traccia. I primi due sono una base di L(U1 , U2 ) e gli altri due sono una base
di L(U3 , U4 ).
Esercizio 7.2 In RR , sia P1 (R) il sottospazio lineare dei polinomi di grado
≤ 1 e sia F0,1 il sottospazio lineare delle funzioni che valgono 0 sia in 0 che in
1. Si verifichi che RR = P1 (R) ⊕ F0,1 .
Esercizio 7.3 Siano P1 (R) e F0,1 come nel precedente esercizio. Siano P0 (R)
e F0 rispettivamente l’ insieme delle funzioni costanti da R ad R e l’ insieme
delle funzioni da R a R che valgono 0 in 0. Quale delle seguenti asserzioni è
vera ?
RR = P0 (R) ⊕ F0,1 ;
RR = P1 (R) ⊕ F0 ;
P0 (R) + F0,1 = P0 (R) ⊕ F0,1 .
Risposta. Solo la terza è vera.
Esercizio 7.4 Dato uno spazio vettoriale V su un campo K sia X un insieme
non vuoto e linearmente indipendente di vettori di V, ma non una base di V,
e sia Y un sottoinsieme di V disgiunto da X e tale che X ∪ Y sia una base
di V. Scelti due vettori A ∈ X e B ∈ Y, per ogni scalare a ∈ K si ponga
Ya = (Y \ {B}) ∪ {B + aA}. Si dimostri che Ya ∩ X = ∅, che X ∪ Ya è una
base di V e che, se a 6= b, allora L(Ya ) ∩ L(Yb ) = L(Y \ {B}).
Traccia. Si osservi che, se B + bA ∈ L(Ya ), allora
122 Capitolo 7
Pn
B + bA = xB + xaA + i=1 yi Yi
per certi vettori Y1 , Y2 , ..., Yn ∈PY \ {B} ed opportuni scalari x, y1 , y2 , ..., yn .
n
Sicchè (x − 1)B + (xa − b)A + i=1 yi Yi = O. Quindi ...
Esercizio 7.5 Sia V uno spazio vettoriale su un campo K. Si dimostri che ogni
sottospazio lineare non banale di V ammette almeno tanti complementari quanti
sono gli elementi di K.
Suggerimento. Si usi l’ Esercizio 7.4.
Esercizio 7.6 Siano A e B sottospazi lineari di V con A ∩ B = {O} e cod(A) =
dim(B) < ∞. Si dimostri che V = A ⊕ B.
Suggerimento. Lemma 7.10.
Esercizio 7.7 Siano A e B sottospazi lineari di V con A ⊂ B. Si dimostri che
esistono sottospazi lineari X di V tali che B + X = V e B ∩ X = A.
Traccia. Se Y è un complementare di B, allora il sottospazio lineare X = A⊕Y
risolve il problema.
Esercizio 7.8 Il Teorema 6.8 del Capitolo 6 ci dice che un sottospazio lineare di
codimensione m > 0 in uno spazio vettoriale V di dimensione finita può sempre
realizzarsi come intersezione di m iperpiani. Si dimostri che la stessa cosa è
vera in generale: qualunque sia la dimensione di V, ogni sottospazio lineare di
V di codimensione finita m > 0 può ottenersi come intersezione di m iperpiani.
Soluzione. Sia A un sottospazio lineare di V con 1 ≤ cod(A) < ∞. Sia
A1 6∈ A. Per il Lemma 7.10, L(A1 ) ammette un complementare A1 che contiene
A. Ovviamente, A1 è un iperpiano. Se cod(A) = 1 allora A = A1 e abbiamo
finito.
Altrimenti, sia A2 ∈ A1 \ A. Allora L(A2 ) ammette un complementare
A2 contenente A. Sicchè A ⊆ A1 ∩ A2 . Anche A2 è un iperpiano e risulta
cod(A1 ∩ A2 ) = 2 per la relazione duale di Grassmann. Se cod(A) = 2, allora
A = A1 ∩ A2 e abbiamo finito.
Altrimenti, sia A3 ∈ A1 ∩ A2 \ A. Allora L(A3 ) ammette un complementare
A3 contenente A. Sicchè A ⊆ A1 ∩ A2 ∩ A3 . Anche A3 è un iperpiano e risulta
cod(A1 ∩ A2 ∩ A3 ) = 3 per la relazione duale di Grassmann. Se cod(A) = 3,
allora A = A1 ∩ A2 ∩ A3 e abbiamo finito. Altrimenti ... E cosı̀ via.
Esercizio 7.9 Dato uno spazio vettoriale V ed una sua base E = {Ei }i∈I , sia
{Ej }j∈J una partizione di E. Si dimostri che V = ⊕j∈J L(Ej ).
Conseguenze. In particolare, V = ⊕i∈I L(Ei ). Quindi, VI (K) = ⊕i∈I Vi ove
Vi ∼
= V1 (K) per ogni i ∈ I.
Q
Esercizio 7.10 Una funzione F ∈ i∈I Vi si dice quasi-nulla se F (i) 6= Oi
solo per un numero finito di elementi i ∈ I, oppure F (i) = Oi per ogni i ∈ I. Si
dimostri
Q che l’ insieme delle funzioni quasi-nulle forma un sottospazio lineare
di i∈I Vi .
7.5. ESERCIZI 123
Esercizio
Q 7.11 Per ogni k ∈ I, si indichi con Vk,O il sottospazio lineare di
i∈I Vi costituito da quelle funzioni F tali che F (i) = Oi per ogni Pi ∈ I \ {k}.
Si dimostri che per ogni scelta di k ∈ I risulta Vk,O ∼ = Vk , che i∈I Vi,O =
⊕i∈I Vi,O e che i vettori di ⊕i∈I Vi,O sono proprio le funzioni quasi-nulle, definite
nell’ Esercizio 7.10.
Nota. Q Quando I è infinito e la famiglia {Vi }i∈I contiene infiniti membri non
banali, i∈I Vi contiene infiniti elementi che non sono funzioni
Q quasi-nulle. In
questo caso ⊕i∈I Vi,O è un sottospazio lineare proprio di i∈I Vi .
124 Capitolo 7
Capitolo 8
Prodotti scalari
8.1 Un prodotto scalare in Vn (R)
8.1.1 Il caso di n = 2
Rappresentiamo V2 (R) in un piano, con un riferimento cartesiano ortogonale e
con la stessa unità di misura per ascisse ed ordinate. Siccome i vettori di V2 (R)
sono rappresentati da punti del piano, prenderemo le parole “punto” e “vettore”
come sinonime.
Dato un vettore A = (a1 , a2 ) di V2 (R), indichiamo con kAk la distanza del
punto A da O, cioè la lunghezza del vettore A, p visto come una freccia da O ad
A. Per il teorema di Pitagora si ha che kAk = a21 + a22 .
a2
• A
•
O a1
Il numero kAk si dice anche norma di A. Ovviamente, kaAk= |a|·kAk per ogni
scalare a. In particolare, k−Ak = kAk. È anche ovvio che O è l’ unico vettore
di norma 0. Se B = (b1 , b2 ) è un altro vettore di V2 (R), la distanza tra i punti
A e B è misurata da kA − B k (che è uguale a kB − Ak).
B
•
@ A − B
@
@ R• A
O
•
@
@R A−B
@
Supponiamo A 6= O 6= B. Indichiamo con SA ed SB le semirette che uscendo
da O passano rispettivamente per A e B. Siano α e β gli angoli formati dall’
125
126 Capitolo 8
asse delle ascisse con SA e SB rispettivamente, prendendo come verso positivo
degli angoli il senso antiorario, tanto per fissare le idee.
SB
B
SA
* A
O
•
SB
b2
B
SA
a2
A
*
β
O α
O
• •
a1 b1
Risulta
a1 =kAk·cos α, a2 =kAk·sin α,
b1 =kB k·cos β, b2 =kB k·sin β.
Da queste relazioni, rammentando che
cos(α − β) = cos(β − α) = cos α cos β + sin α sin β
si ottiene che a1 b1 + a2 b2 =kA k·kB k·cos(AB)
d ove con AB d intendiamo l’ angolo
formato dai due vettori A e B, cioè l’ angolo tra SA e SB . (Siccome angoli
opposti ed angoli che differiscono di 2π hanno lo stesso coseno, non fa differenza
se AB
d è preso in senso orario o antiorario, da SA ad SB o viceversa.) Chiamiamo
prodotto scalare di A e B il numero a1 b1 + a2 b2 e lo indichiamo con hA, Bi.
Quindi,
p hA, Bi
k Ak = hA, Ai, cos AB
d =
kAk·kB k
(Cfr. Volume 2, Capitolo 3, Esercizio 3.3.) L’ angolo AB d è π/2 o 3π/2 se e
solo se hA, Bi = 0. Sicchè, se hA, Bi = 0 diciamo che A e B sono ortogonali.
Scriviamo A ⊥ B per dire che A e B sono ortogonali.
Si è supposto A 6= O 6= B per poter considerare l’ angolo AB. d Ma nulla
vieta di estendere la definizione hA, Bi = a1 b1 + a2 b2 al caso che A o B sia O.
Risulta hO, Xi = hX, Oi = 0 per ogni vettore X ∈ V2 (R). Diciamo che O è
ortogonale ad ogni vettore di V2 (R).
8.1. UN PRODOTTO SCALARE IN VN (R) 127
8.1.2 Il caso di n = 3
Con due applicazioni del teorema di Pitagora si vede che la distanza kAk da O
di un p
punto A = (a1 , a2 , a3 ) di V3 (R) (detta norma del vettore A) è data da
kAk= a21 + a22 + a23 .
• A
O •P
-
PP
PP
P
Dato un altro vettore B = (b1 , b2 , b3 ) di V3 (R) indichiamo con hA, Bi il numero
a1 b1 + a2 b2 + a3 b3pe lo chiamiamo prodotto scalare di A e B. Con questa
notazione, kAk = hA, Ai, come nel caso di n = 2. La distanza tra i punti A
e B è data da kA − B k.
Se A 6= O 6= B, risulta cos AB
d = hA, Bi/(kAk·kB k), come nel caso di n = 2.
(Ma la dimostrazione è ora più faticosa che in quel caso; la tralascio.)
Quando hA, Bi = 0 diciamo che A e B sono ortogonali e scriviamo A ⊥
B. Dalla definizione di prodotto scalare segue subito che il vettore nullo O è
ortogonale a tutti i vettori di V3 (R).
8.1.3 Il caso generale
Di norme e prodotti scalari possiamo parlare anche in Vn (R), per qualunque
n n
n ≥ 4. Dati due vettori A = (aP i )i=1 e B = (bi )i=1 di Vn (R), chiamiamo
n
prodotto scalare di A e B il numero i=1 ai bi e lo indichiamo col simbolo hA, Bi.
Poniamo
p pPn
kAk =def hA, Ai (= 2
i=1 ai ).
e chiamiamo questo numero norma di A (anche lunghezza del vettore A, o distan-
za di A da O). Prendiamo kA − B k come distanza tra A e B e, se A 6= O 6= B,
definiamo l’ angolo AB
d tra A e B ponendo
d =def arccos hA, Bi
AB
kAk·kB k
(Nota che |hA, Bi| ≤ kAk·kB k, per il Teorema 8.1). Se hA, Bi = 0 scriviamo
A ⊥ B e diciamo che A e B sono ortogonali. Ovviamente, O ⊥ X per ogni
vettore X di Vn (R).
Resta il caso di n = 1. Quando n = 1 vettori e scalari sono la stessa cosa. Il
prodotto scalare di due vettori è ora il loro prodotto in quanto scalari e la norma
di un vettore è il suo modulo in quanto scalare.
128 Capitolo 8
8.2 Prodotti scalari
8.2.1 Definizione e prime proprietà
Il prodotto scalare che abbiamo ora definito in Vn (R) è solo un esempio, anche
se importante. Lo diciamo prodotto scalare standard. Il concetto generale di
prodotto scalare si basa su alcune proprietà del prodotto scalare standard, prese
come assiomi.
Sia V uno spazio vettoriale su R e sia V l’ insieme dei suoi vettori. Una
funzione Φ : V × V −→ R si dice un prodotto scalare se
(1) Φ(X, Y ) = Φ(Y, X), (∀X, Y ∈ V),
(2) Φ(X + Y, Z) = Φ(X, Z) + Φ(Y, Z), (∀X, Y, Z ∈ V),
(3) Φ(xX, Y ) = xΦ(X, Y ), (∀X, Y ∈ V, ∀x ∈ R),
(4) Φ(X, X) ≥ 0, (∀X ∈ V),
(5) Φ(X, X) = 0 ⇒ X = O, (∀X ∈ V).
È facile verificare che queste proprietà valgono per il prodotto scalare standard
(lascio queste verifiche al lettore). La (1) si chiama proprietà commutativa del
prodotto scalare. La (2) e la (3) si chiamano rispettivamente distributività (a
sinistra) ed omogeneità (a sinistra). La (4) e la (5) vengono dette proprietà di
positività.
D’ ora in poi useremo il simbolo hX, Y i anche per indicare un qualunque
prodotto scalare. Con questa notazione, le (1)–(5) si riscrivono cosı̀:
(1) hX, Y i = hY, Xi, (∀X, Y ∈ V),
(2) hX + Y, Zi = hX, Zi + hY, Zi, (∀X, Y, Z ∈ V),
(3) hxX, Y i = xhX, Y i, (∀X, Y ∈ V, ∀x ∈ R),
(4) hX, Xi ≥ 0, (∀X ∈ V),
(5) hX, Xi = 0 ⇒ X = O, (∀X ∈ V).
Dalle (1)–(5) si deduce subito che:
(6) hX, Y + Zi = hX, Y i + hX, Zi, (∀X, Y, Z ∈ V),
(7) hX, yY i = yhX, Y i, (∀X, Y ∈ V, ∀y ∈ R),
(8) hX, Oi = hO, Xi = 0 (∀X ∈ V).
La (6) si chiama distributività a destra. La si deduce da (1) e (2) cosı̀:
hX, Y + Zi = hY + Z, Xi = hY, Xi + hZ, Xi = hX, Y i + hX, Zi.
8.2. PRODOTTI SCALARI 129
Analogamente, da (1) e (3) si ottiene la (7), che viene detta omogeneità a de-
stra. La (8) segue dalla (3) e dalla (7) rammentando che O = 0·O. Applican-
do ripetutamente (2), (3), (6) e (7) si ottiene che, per ogni scelta di vettori
X1 , X2 , ..., Xm , Y1 , Y2 , ..., Ys e di scalari x1 , x2 , ..., xm , y1 , y2 , ..., ys ,
Xm s
X m,s
X
(9) h xi Xi , yi Yi i = xi yj hXi , Yj i
i=1 j=1 i,j=1
La (9) ricomprende le (2), (3), (6) e (7) come casi particolari. Infatti, se in essa
si pone m = 2, s = 1 ed x1 = x2 = y1 = 1 si riottiene la (2). Con m = s = 1 ed
y1 = 1 riotteniamo la (3). Analogamente per la (6) e la (7). Sicchè, potremmo
anche prendere (1), (9), (4) e (5) come definizione di prodotto scalare.
8.2.2 Norme e distanze
V. Siccome hA, Ai ≥ 0 per
Sia A un vettore di p pla (4), possiamo considerare la
sua radice quadrata hA, Ai. Poniamo kAk= hA, Ai e chiamiamo kAk norma
(anche lunghezza) del vettore A. Si ha che
(10) kX k = 0 ⇐⇒ X = O, (∀X ∈ V),
(11) kxX k = |x|·kX k, (∀X ∈ V, ∀x ∈ R).
(La (10) si ottiene da (5) e (8) mentre (11) segue da (3) e (7).) Dati due vettori
A e B chiamiamo distanza tra i punti A e B il numero kA − B k. Quindi kAk è
la distanza di A da O. Da (10) si ha subito che la distanza tra i punti A e B è
0 se e solo se A = B. (Come nella Sezione 8.1, anche qui le parole “vettore” e
“punto” vanno intese come sinonime; scegliamo l’ una o l’ altra a seconda delle
cose che vogliamo dire o di come vogliamo dirle.)
8.2.3 Ortogonalità
Diciamo che due vettori A, B ∈ V sono ortogonali, e scriviamo A ⊥ B, se
hA, Bi = 0. Per (5) e (8), il vettore nullo è l’ unico vettore che sia ortogonale a
tutti i vettori di V. Ed è anche l’ unico vettore che sia ortogonale a sè stesso.
Sia A un vettore non nullo di V. Dato un altro vettore X, vogliamo trovare
un vettore Y ∈ L(A) tale che X − Y ⊥ A. Vedremo ora che questo problema
ammette una unica soluzione.
Vogliamo che Y ∈ L(A). Vale a dire, Y = tA per qualche scalare t. Ma
vogliamo anche che X − Y ⊥ A. Cioè che hX, Ai − thA, Ai = 0. Ovvero,
t = hX, Ai/hA, Ai. Cioè
hX, Ai
Y = A.
hA, Ai
Questo è l’ unico vettore che risolve il problema. Lo chiamiamo proiezione
ortogonale di X sulla retta L(A) (o, brevemente, su A) e lo indichiamo col
⊥
simbolo πA (X).
130 Capitolo 8
⊥
Si vede subito che πA (X) = O se e solo se X ⊥ A. È anche ovvio che
⊥ ⊥
X = πA se e solo se X ∈ L(A). Se X 6∈ L(A), allora L(X − πA (X)) è una retta
⊥
e le coppie {A, X} ed {A, X − πA (X)} generano lo stesso piano.
⊥
Se V = V2 (R) o V3 (R), possiamo visualizzare πA (X) cosı̀. Mandiamo per il
punto X la perpendicolare alla retta L(A). Il punto in cui essa interseca L(A)
⊥
è πA (X). Se X 6= A, allora L(A, X) è un piano (è anzi V se V = V2 (R)) ed
⊥
L(X − πA (X)) è la perpendicolare alla retta L(A) condotta per O nel piano
L(A, X).
A L(A)
A X
⊥
L(X − πA (X))
A
A A
A A• πA
⊥
(X)
A *A A
O A•
A
A
A
8.2.4 La disuguaglianza di Cauchy-Schwartz
Teorema 8.1 Per ogni scelta di vettori X, Y in V si ha che
(12) |hX, Y i| ≤ kX k·kY k.
Dimostrazione. Se uno dei vettori X o Y è O, allora entrambi i membri della (12)
valgono 0, per la (8). In questo caso la (12) vale. Supponiamo che X 6= O 6= Y .
Per ogni scalare t ∈ R si ha che
(i) htX + Y, tX + Y i ≥ 0,
per la (4). Usando la (9) e la (1), si vede che
(ii) htX + Y, tX + Y i = hX, Xit2 + 2hX, Y it + hY, Y i.
Quindi la (i) equivale a
(iii) hX, Xit2 + 2hX, Y it + hY, Y i ≥ 0.
Siccome la (i) vale ∀t ∈ R, anche la (iii) vale ∀t ∈ R. Quindi il polinomio a
primo membro della (iii) si annulla al più una volta in R. Per note proprietà dei
polinomi di secondo grado in R, questa circostanza equivale alla diseguaglianza
hX, Y i2 − hX, XihY, Y i ≤ 0,
cioè
(120 ) hX, Y i2 ≤ hX, XihY, Y i,
che equivale alla (12). 2
8.2. PRODOTTI SCALARI 131
Proposizione 8.2 Vale l’ uguaglianza nella (12) se e solo se uno dei due vettori
X, Y è proporzionale all’ altro.
Dimostrazione. Supponiamo per esempio che X = tY per qualche scalare t.
Allora hX, Y i = thY, Y i (per la (3)) e kX k = |t|·kY k (per (11)), sicchè in (12)
vale l’ uguaglianza.
Viceversa, nella (12) valga l’ uguaglianza. Se X = O, allora X è proporzio-
nale ad ogni vettore, quindi anche ad Y . Analogamente se Y = O. Supponiamo
dunque che X 6= O 6= Y . Siccome per ipotesi vale l’ uguaglianza nella (12),
vale l’ uguaglianza anche nella (120 ). Rileggendo la dimostrazione del Teorema
8.1, vediamo che il valere dell’ uguaglianza in (120 ) comporta che il polinomio a
primo membro in (iii) si annulli per qualche valore t0 della variabile t. Sicchè
ht0 X + Y, t0 X + Y i = 0, per (ii). Quindi t0 X + Y = O per (5). Cioè Y = −t0 X.
2
La (12) (oppure la (120 ), ad essa equivalente) è detta disuguaglianza di Cauchy-
Schwartz.
8.2.5 Angoli
Siano X, Y vettori non nulli di V. La disuguaglianza di Cauchy–Schwartz ci
dice che
|hX, Y i|
≤ 1
kX k·kY k
d tra X ed Y cosı̀ (cfr. §§8.1.2 ed 8.1.3):
Questo ci autorizza a defire l’ angolo XY
d =def arccos hX, Y i
XY
kX k·kY k
(Si noti che, con questa definizione, 0 ≤ XY
d ≤ π.). Evidentemente, XY d = π/2
se e solo se hX, Y i = 0 (cioè, se e solo se X ⊥ Y ). Inoltre, siccome vale l’
uguaglianza in (12) se e solo se X ed Y sono proporzionali, risulta XY
d =0oπ
se e solo se X ed Y sono proporzionali.
8.2.6 La disuguaglianza triangolare
Teorema 8.3 Per ogni scelta di vettori X, Y in V si ha che
(13) kX + Y k ≤ kX k + kY k.
Dimostrazione. La (13) equivale alla disuguaglianza
kX + Y k2 ≤ (kX k + kY k)2 ,
che può anche scriversi cosı̀:
(i) hX + Y, X + Y i ≤ hX, Xi + hY, Y i + 2kX k·kY k.
132 Capitolo 8
Risulta hX + Y, X + Y i = hX, Xi + hY, Y i + 2hX, Y i per (9) e (1). Sicchè, la (i)
equivale a
(ii) hX, Y i ≤ kX k·kY k.
D’ altra parte, la (ii) segue subito da (12). Quindi (ii) è vera. Dunque anche
la (13) è vera. Infatti (13) equivale ad (i) che a sua volta equivale ad (ii). 2
Proposizione 8.4 Supponiamo che X, Y 6= O. Allora vale l’ uguaglianza nella
(13) se e solo se X = tY per qualche scalare t > 0.
Dimostrazione. Supponiamo che valga l’ uguaglianza in (13). Quindi
(i) hX, Y i = kX k·kY k.
(cfr. Teorema 8.3, dimostrazione). Pertanto
(ii) hX, Y i = |hX, Y i| = kX k·kY k.
Dalla Proposizione 8.2 segue che X ed Y sono proporzionali, cioè X = tY per
qualche scalare t (6= 0 perchè X 6= O). Sostituendo in (ii) e rammentando che
hY, Y i > 0 (perchè per ipotesi Y 6= O) si ottiene t =|t|. Dunque, t > 0.
Viceversa, sia X = tY con t > 0. Sostituendo in (i) vediamo che l’
uguaglianza è soddisfatta. Quindi vale l’ uguaglianza in (13). 2
La (13) è detta disuguaglianza triangolare (cfr. Volume 2, Capitolo 3, Proposi-
zione 3.4). Il perchè di questa denominazione è chiaro dalla seguente figura
Y
-
1
X
X + Y
•
Sostituendo Y − X e Z − Y al posto di X ed Y nella (13) si ottiene
(130 ) kZ − X k ≤ kY − X k + kZ − Y k.
Y Z −Y
• -•
1
Z
Y − X
Z − X
X •
Se pensiamo al prodotto scalare standard in V2 (R) o V3 (R), la (130 ) dice che la
lunghezza di un lato di un triangolo non supera la somma delle lunghezze degli
altri due lati; e vale l’ uguaglianza in (130 ) se e solo se il punto Y appartiene al
segmento di estremi X e Z, potendo anche coincidere con X o Z.
8.3. QUALCHE ESEMPIO 133
8.2.7 Segmenti
La precedente osservazione motiva questa definizione: dati due vettori A e B
di V, diciamo che un punto X sta tra i punti A e B se kB − Ak = kB − X k+
kX − Ak. Chiamiamo segmento di estremi A e B l’ insieme dei punti che stanno
tra A e B. Lo indichiamo col simbolo [A, B]. Si noti che questa definizione è
indipendente dall’ ordine in cui si prendono A e B. Cioè [A, B] = [B, A]. Si
noti anche che non abbiamo assunto A 6= B. Ovviamente, [A, A] = {A}.
Proposizione 8.5 Per ogni scelta di X ∈ V, le seguenti condizioni si equival-
gono:
(i) il punto X sta tra A e B;
(ii) risulta X = xA + yB per qualche scelta di numeri reali non negativi x, y
con x + y = 1.
(iii) risulta X = A + t(B − A) per qualche t ∈ R con 0 ≤ t ≤ 1;
Dimostrazione. Valga (i), cioè kB − Ak = kB − X k+ kX − Ak. Per la Pro-
posizione 8.4, B − X = s(X − A) per qualche numero reale s ≥ 0 (se s = 0,
allora X = B). Quindi X = xA + yB ove x = s/(1 + s) ed y = 1/(1 + s).
Evidentemente, x, y ≥ 0 ed x + y = 1, come richiesto in (ii). L’ equivalenza
di (ii) e (iii) è ovvia: si ponga t = y (quindi x = 1 − y = 1 − t ...). Resta da
dimostrare che (iii) implica (i). Valga (iii). Allora
kB − X k + kX − Ak = (|t − 1| +|t|)kB − Ak.
D’ altra parte, |t − 1| = 1 − t (perchè t ≤ 1) e |t| = t (perchè t ≥ 0). Quindi
kB − X k + kX − Ak = (1 − t + t)·kB − Ak =kB − Ak. 2
Pertanto,
(14) [A, B] = {A + t(B − A)}0≤t≤1 =
= {xA + yB | (x + y = 1) ∧ (0 ≤ x, y)}.
8.3 Qualche esempio
Fin qui, l’ unico esempio che abbiamo fornito di prodotto scalare è il prodot-
to scalare standard in Vn (R). Ma se ne possono dare molti altri. Qui ne
descriveremo tre. In §8.4.2 vedremo un modo per costruire infiniti altri esempi.
8.3.1 Un prodotto scalare tra funzioni
Dati due numeri reali a e b con a < b, indichiamo con [a, b] l’ intervallo chiuso di
R di estremi a e b ed indichiamo con C0 ([a, b]) l’ insieme delle funzioni continue
da [a, b] ad R. Questo insieme è un sottospazio lineare dello spazio vettoriale
R[a,b] di tutte le funzioni da [a, b] ad R (Capitolo 2, Esercizio 2.8). Indichiamo
134 Capitolo 8
con C0 ([a, b]) anche lo spazio vettoriale indotto da R[a,b] su C0 ([a, b]). Date due
funzioni f, g ∈ C0 ([a, b]), poniamo
Z b
Iab (f, g) = f (x)g(x)dx.
a
La funzione Iab : C0 ([a, b]) × C0 ([a, b]) −→ R cosı̀ definita è un prodotto scalare
in C0 ([a, b]). Verifichiamolo.
Che Iab verifichi la (1) è ovvio. L’ integrale di una somma di due funzioni è
la somma degli integrali di quelle funzioni. Quindi Iab verifica anche (2). La (3)
Rb Rb
segue dalla uguaglianza a kf (x)dx = k a f (x)dx. La (4) segue dal fatto che l’
integrale di una funzione non negativa è non negativo. Infine, anche la (5) vale
per Iab . Infatti, se f non è costantemente nulla su [a, b], allora (f (t))2 > 0 per
qualche t ∈ [a, b]. Siccome f è continua, risulta (f (x))2 > 0 per ogni x apparte-
nente ad un opportuno intervallo contenente t (teorema della Permanenza del
Rb
Segno). Ciò basta per concludere che a (f (x))2 d(x) > 0, cioè che Iab (f, f ) > 0.
Dunque Iab verifica tutte le proprietà (1)-(5). Cioè, è un prodotto scalare.
8.3.2 Prodotti scalari tra polinomi
Pn Pm
Dati in P∞ (R) due polinomi P (x) = i=0 ai xi e Q(x) = i
i=0 bi x , poniamo
k
X
hP, Qi = a i bi
i=0
ove k è il più piccolo tra n ed m. È immediato verificare che questo è un prodotto
scalare in P∞ (R). È l’ analogo del prodotto scalare standard in Vn (R). Ma non
è l’ unico prodotto scalare che possiamo considerare in P∞ (R).
R1
Per esempio, poniamo I01 (P, Q) = 0 P (x)Q(x)dx. Anche questo è un pro-
dotto scalare in P∞ (R). Lo si può verificare direttamente, tenendo presente nel
verificare la (5) che il polinomio nullo è l’ unico che valga 0 su tutto l’ inter-
vallo [0, 1]. Altrimenti, si può osservare che I01 è la restrizione ai polinomi del
prodotto scalare I01 su C0 ([a, b]) considerato nella precedente sottosezione.
Il prodotto P scalare I01 non è il prodotto scalare hP, Qi prima considerato.
n Pm
Infatti, se P = i=0 ai xi e Q(x) = i=0 bi xi , allora
n,m
X ai bj
I01 (P, Q) = .
i,j=0
i+j+1
In particolare,
1
I01 (xn , xm ) = .
n+m+1
8.4. SPAZI EUCLIDEI 135
8.3.3 Il prodotto scalare standard di VI (R)
Dato F ∈ VI (R), indichiamo con I(F ) l’ insieme degli indici i ∈ I per i quali
F (i) 6= 0 (come nel Capitolo 1, §1.5.4); vale a dire, I(F ) è il supporto di F
rispetto alla base dei versori di VI (K) (Capitolo 5, §§5.3.5 e 5.4.1). Dati due
vettori F, G ∈ VI (R), poniamo
X
hF, Gi = F (i)G(i), (ove J = I(F ) ∩ I(G))
i∈J
P
(con la solita convenzione che i∈J F (i)G(i) = 0 quando J = ∅). È facile
controllare che questo è un prodotto scalare in VI (R). Lo chiamiamo prodotto
scalare standard di VI (R). (Quando I = {1, 2, ..., n}, esso coincide col prodotto
scalare standard di Vn (R), considerato nella Sezione 8.1.)
Indicheremo il prodotto scalare standard di VI (R) col simbolo Φst . Scrive-
remo anche hF, Gist anzichè hF, Gi quando vorremo mettere in chiaro che Φst è
il prodotto scalare cui ci riferiamo.
8.4 Spazi euclidei
Uno spazio euclideo (reale) è uno spazio vettoriale V su R munito di un pro-
dotto scalare Φ. Lo indicheremo col simbolo (V, Φ). Chiamiamo (Vn (R), Φst )
spazio euclideo reale standard di dimensione n. Chiamiamo (V∞ (R), Φst ) spazio
euclideo reale standard di dimensione numerabile.
Siano (V, Φ) e (W, Ψ) due spazi euclidei. Diremo che un isomorfismo ϕ da
V a W è un isomorfismo da (V, Φ) a (W, Ψ) se conserva i prodotti scalari, cioè
se
(15) Ψ(ϕ(X), ϕ(Y )) = Φ(X, Y ), (∀X, Y ∈ V).
Prendendo la scrittura h..., ...i come abbreviazione sia di Φ(..., ...) che di Ψ(..., ...),
la (15) può riscriversi cosı̀:
hϕ(X), ϕ(Y )i = hX, Y i, (∀X, Y ∈ V).
Se ϕ conserva i prodotti scalari, allora conserva anche le norme, e quindi anche
le distanze:
(16) kϕ(X)k = kX k, (∀X ∈ V),
(160 ) kϕ(X) − ϕ(Y )k = kX − Y k, (∀X, Y ∈ V);
Inoltre, conservando i prodotti scalari, ϕ conserva la relazione di ortogonalità:
(17) ϕ(X) ⊥ ϕ(Y ) ⇐⇒ X ⊥ Y, (∀X, Y ∈ V).
Gli isomorfismi da (V, Φ) a (W, Ψ) vengono anche detti isomorfismi isometrici
da V a W. Più spesso, li si chiama isomorfismi ortogonali. Ma per il momento
non farò molto uso di questa terminologia.
136 Capitolo 8
Proposizione 8.6 Sia ϕ un isomorfismo da (V, Φ) a (W, Ψ). Allora ϕ−1 è un
isomorfismo da (W, Ψ) a (V, Φ).
Dimostrazione. Sappiamo già che ϕ−1 è un isomorfismo da W a V (Capitolo 1,
Proposizione 1.1). Dobbiamo solo dimostrare che per ogni scelta di X 0 , Y 0 ∈ W
risulta
hϕ−1 (X 0 ), ϕ−1 (Y 0 )i = hX 0 , Y 0 i,
vale a dire
hϕ−1 (X 0 ), ϕ−1 (Y 0 )i = hϕ(ϕ−1 (X 0 )), ϕ(ϕ−1 (Y 0 ))i,
(∀X 0 , Y 0 ∈ W). Ma questa identità si ottiene subito dalla (14) sostituendovi
ϕ−1 (X 0 ) ad X e ϕ−1 (Y 0 ) ad Y . 2
Se esiste un isomorfismo da (V, Φ) a (W, Ψ) diciamo che (V, Φ) e (W, Ψ) sono
isomorfi e scriviamo (V, Φ) ∼ = (W, Ψ) (per la Proposizione 8.6, non importa se
pensiamo ad isomorfismi da (V, Φ) a (W, Ψ) o da (V, Φ) a (W, Ψ)).
Se (U, Ξ) è un altro spazio euclideo e ψ è un isomorfismo da (W, Ψ) a (U, Ξ),
allora ψϕ è un isomorfismo da V a U (Capitolo 1, Proposizione 1.2). Esso è
anche un isomorfismo da (V, Φ) a (U, Ξ). (Lascio questa verifica al lettore.)
Riassumendo,
= (W, Ψ) =⇒ (W, Ψ) ∼
(V, Φ) ∼ = (V, Φ)
(V, Φ) ∼
= (W, Ψ) ∼ = (U, Ξ) =⇒ (V, Φ) ∼ = (U, Ξ)
Gli isomorfismi da (V, Φ) a (V, Φ) si dicono automorfismi di (V, Φ). Ovviamente,
l’ automorfismo identità di V è un automorfismo di (V, Φ), qualunque sia il
prodotto scalare Φ che si considera in V. Quindi, (V, Φ) ∼= (V, Φ).
8.5 Il prodotto scalare naturale per una base
Abbiamo iniziato la nostra discussione dei prodotti scalari con un esempio: il
prodotto scalare standard in Vn (R). Ne diamo ora una generalizzazione, dal-
la quale risulterà anche che in ogni spazio vettoriale in R si possono definire
prodotti scalari.
Sia V uno spazio vettoriale su R e siaP E = {Ei }i∈I unaP base di V. Dati
due vettori X ed Y di V, siano X = x E
i∈I i i ed Y = i∈I yi Ei le loro
rappresentazioni uniformi rispetto alla base E e siano I(X), I(Y ) i loro supporti
(Capitolo 5, §5.4.1). Poniamo,
X
hX, Y iE =def xi yi , (ove J = I(X) ∩ I(Y ))
i∈J
P
(con la convenzione che i∈J xi yi = 0 quando J = ∅). È facile verificare che
hX, Y iE verifica le (1)-(5) (lascio queste verifiche al lettore). Cioè, la funzione
che ad ogni coppia di vettori X, Y di V associa hX, Y iE è un prodotto scalare in
V. Indichiamo questa funzione con ΦE e la chiamiamo prodotto scalare naturale
per la base E.
8.5. IL PRODOTTO SCALARE NATURALE PER UNA BASE 137
Esempi. Il primo dei due prodotti scalari in P∞ (R) considerato in §8.3.2 è il
prodotto scalare naturale rispetto alla base formata dai monomi 1, x, x2 , ..., xn , ....
Il prodotto scalare standard di VI (R) (§8.3.3) è il prodotto scalare naturale
rispetto alla base dei versori di VI (R). In particolare, il prodotto scalare stan-
dard di Vn (R) è il prodotto scalare naturale rispetto alla base dei versori di
Vn (R).
8.5.1 Il simbolo di Kronecker
Definiamo il simbolo δi,j ponendo
1 se i = j
δi,j =def
0 se i 6= j
Lo si chiama simbolo di Kronecker. Esso risulta comodo per formulare in modo
conciso affermazioni della forma “se i = j allora ... se invece i 6= j allora ...”.
Ne facciamo subito uso nella proposizione seguente.
Proposizione 8.7 Dato uno spazio euclideo (V, Φ), sia E = {Ei }i∈I una base
di V. Risulta Φ = ΦE se e solo se
(18) Φ(Ei , Ej ) = δi,j , (∀i, j ∈ I).
Dimostrazione. La parte “solo se” di questa proposizione è ovvia. Dimostriamo
la parte “se”.
P Supponiamo che la P(18) valga per Φ. Dati due vettori X, Y ∈ V,
siano X = j∈J xj Ej ed Y = h∈H yh Eh loro rappresentazioni rispetto alla
base E (per esempio, le loro rappresentazioni essenziali). Allora,
XX
Φ(X, Y ) = xj yh Φ(Ej , Eh )
j∈J h∈H
per (9). Per la (18), questa uguaglianza può riscriversi cosı̀:
X
Φ(X, Y ) = xk yk
k∈K
ove K = J ∩ H. Dunque Φ(X, Y ) = hX, Y iE . 2
8.5.2 Isomorfismi tra prodotti scalari naturali
Dato uno spazio vettoriale V su R ed una sua base E = {Ei }i∈I , sia ϕE l’
isomorfismo da V a VI (R) considerato in §5.4.3 del Capitolo 5, che porta i
vettori Ei nei versori χi di VI (R). Il seguente lemma è ovvio.
Lemma 8.8 La funzione ϕE è un isomorfismo da (V, ΦE ) a (VI (R), Φst ).
Proposizione 8.9 Sia W un’ altro spazio vettoriale su R, della stessa dimen-
sione di V, e sia F una sua base. Allora (V, ΦE ) ∼
= (W, ΦF ).
138 Capitolo 8
Dimostrazione. Risulta (V, ΦE ) ∼
= (VI (R), Φst ) ∼
= (V, ΦE ) per il Lemma 8.8.
∼
Quindi (V, ΦE ) = (W, ΦF ). 2
Corollario 8.10 Prese comunque due basi E e F in uno stesso spazio vettoriale
V su R, risulta (V, ΦE ) ∼
= (V, ΦF ).
(Questo è un caso particolare della Proposizione 8.9). Dimostreremo nel prossi-
mo capitolo che, se V ha dimensione finita o numerabile, ogni prodotto scalare
in V può vedersi come prodotto scalare naturale rispetto ad una opportuna ba-
se. Combinando quel risultato con la Proposizione 8.8 ne dedurremo che due
spazi euclidei di dimensione finita o numerabile sono isomorfi se e solo se hanno
la stessa dimensione. In particolare, tutti i prodotti scalari definibili su uno
stesso spazio vettoriale di dimensione finita o numerabile danno luogo a spazi
euclidei isomorfi (ma in generale distinti; cfr. §8.3.2 e gli esempi della prossima
sottosezione).
8.5.3 Il caso di dimensione finita
Sia dim(V) = n < ∞ e sia E = {Ei }ni=1 una base di V. Siccome i vettori di E
sono in numero finito, possiamo tranquillamente lavorare con rappresentazioni
uniformi (Capitolo 5, §5.4.1). Cosı̀, la definizione di hX, Y iE assume il seguente
aspetto:
Pn
(19) hX, Y iE = i=1 xi yi ,
ove (xi )ni=1 = (X)E ed (yi )ni=1 = (Y )E (Capitolo 5, §5.4.1). Data un’ altra base
F = {Fi }ni=1 di V, sia (ai,j )ni,j=1 la matrice che fa passare da E a F (Capitolo
5, §5.4.5, (1)). Se (ui )ni=1 = (X)F e (vi )ni=1 = (Y )F , allora
n
X n
X
xk = ak,i ui , yk = ak,i vi
i=1 i=1
per k = 1, 2, ..., n (Capitolo 5, §5.4.5, (2)). Sostituendo in (19) si ottiene
n
X n
X
(20) hX, Y iE = ( ak,i ak,j )ui vj
i,j=1 k=1
In particolare,
n
X
(21) hFi , Fj iE = ak,i ak,j .
k=1
(come potevamo anche ottenere osservando che (ak,i )nk=1 = (Fi )E e (ak,j )nk=1 =
(Fj )E ). Dalla Proposizione 8.7 si ha subito quanto segue:
Proposizione 8.11 Si ha ΦE = ΦF se e solo se
n
X
(22) ak,i ak,j = δi,j , (∀i, j = 1, 2, ..., n).
k=1
8.6. IL CASO COMPLESSO 139
(Come potevamo
Pn vedere anche direttamente, paragonando la (20) con la formula
hX, Y iF = i=1 ui vi .)
Ritornando a Vn (R), sia U = (Ui )ni=1 la base dei versori di Vn (R). Come
abbiamo già osservato verso l’ inizio di questa sezione, il prodotto scalare stan-
dard Φst di Vn (R) è il prodotto scalare naturale per U. Sia E = {Ei }ni=1 un’
altra base di Vn (R) ed (ai,j )ni,j=1 la matrice che fa passare dalla base dei versori
alla base E. La (22) caratterizza il caso che ΦE = Φst .
Esempio. Sia n = 3 ed E = (E1 , E2 , E3 ), con
E1 = (cos θ, − sin θ, 0), E2 = (sin θ, cos θ, 0), E3 = (0, 0, η),
ove θ è un qualche angolo ed η = 1 o −1. È evidente che E è una base di V3 (R).
(La si ottiene dalla base dei versori eseguendo una rotazione di θ attorno ad U3 ,
nello stesso verso in cui, con una rotazione di π/2, si porterebbe U2 su U1 ; poi,
se η = −1, si scambia U3 col suo opposto.) Si vede subito che le (22) valgono
per E. Quindi ΦE = Φst .
Ma ΦE 6= Φst per infinite altre scelte di E. Per esempio, supponiamo che
i vettori E1 , E2 , E3 siano ottenuti dai versori U1 , U2 , U3 moltiplicandoli per
scalari a1 , a2 , a3 diversi da 0. Allora,
hX, Y iE = a−2 −2 −2
1 x1 y1 + a2 x2 y2 + a3 x3 y3 ,
ove x1 , x2 , x3 ed y1 , y2 , y3 sono le coordinate di X ed Y rispetto alla base dei
versori. Sicchè, se |ai | 6= 1 per almeno un i = 1, 2 o 3, allora ΦE 6= Φst .
Viceversa,
hX, Y ist = a21 u1 v1 + a22 u2 v2 + a23 u3 v3
ove u1 , u2 , u3 e v1 , v2 , v3 sono le coordinate di X ed Y rispetto ad E. (Tuttavia,
(V3 (R), ΦE ) ∼ = (V3 (R), Φst ), per il Lemma 8.8.)
8.6 Il caso complesso
8.6.1 Un prodotto scalare in Vn (C)
Dati in Vn (C) due vettori A = (ai )ni=1 e B = (bi )ni=1 , chiamiamo prodotto scalare
di A e B il numero complesso
n
X
ai bi
i=1
ove bi indica il coniugato di bi . Indichiamo questo numero col simbolo hA, Bi.
Non potendo visualizzare Vn (C) quando n ≥ 2, non possiamo appoggiare
questa definizione a motivazioni intuitive. Però, come vedremo, essa permette
di ripetere in Vn (C) gran parte di quello che si è detto per prodotti scalari in
spazi vettoriali su R, salvo marginali modifiche.
140 Capitolo 8
In generale, hA, Bi è un numero complesso. Però
n
X n
X
hA, Ai = ai ai = (|ai |)2
i=1 i=1
e questo è sempre un numero reale, positivo se A 6= O (ed è 0 se A = O).
Indichiamo la sua radice quadrata (reale) con kAk (come nel caso reale) e la
chiamiamo norma di A, o anche lunghezza del vettore A, o distanza del punto
A da O. Prendiamo kA − B k come distanza tra A e B.
Se hA, Bi = 0, diciamo che A e B sono ortogonali e scriviamo A ⊥ B. (Più
avanti, definiremo anche l’ angolo tra due vettori). Ovviamente, O ⊥ X per
ogni vettore X di Vn (C).
Se n = 1, vettori e scalari sono la stessa cosa. In questo caso, il prodotto
scalare di due vettori è il prodotto del primo per il coniugato dell’ altro, visti
come scalari. La norma di un vettore di V1 (C) è il suo modulo in quanto numero
complesso.
8.6.2 Prodotti scalari
Diciamo prodotto scalare standard il prodotto scalare definito in Vn (C) come in
§8.6.1. Come nel caso reale, per definire prodotti scalari in generale prendiamo
alcune proprietà del prodotto scalare standard e le promuoviamo al rango di
assiomi.
Sia V uno spazio vettoriale su C e sia V l’ insieme dei suoi vettori. Una
funzione Φ : V × V −→ C si dice un prodotto scalare se
(1)∗ Φ(X, Y ) = Φ(Y, X), (∀X, Y ∈ V),
(2) Φ(X + Y, Z) = Φ(X, Z) + Φ(Y, Z), (∀X, Y, Z ∈ V),
(3) Φ(xX, Y ) = xΦ(X, Y ), (∀X, Y ∈ V, ∀x ∈ C),
(4) (Φ(X, X) ∈ R) ∧ (Φ(X, X) ≥ 0), (∀X ∈ V),
(5) Φ(X, X) = 0 ⇒ X = O, (∀X ∈ V).
(In definitiva, abbiamo mantenuto gli stessi assiomi che nel caso reale, salvo
una piccola modifica nell’ assioma (1).) È facile controllare che queste proprietà
valgono per il prodotto scalare standard in Vn (C). (Lascio questa verifica al
lettore.)
Manteniamo per queste proprietà le stesse denominazioni che nel caso reale
(distributività, omogeneità a sinistra, positività). Però chiamiamo la (1)∗ semi-
commutatività. Come nella Sezione 8.1, useremo il simbolo hX, Y i per indicare
un qualunque prodotto scalare. Cosı̀ possiamo riscrivere la (1)∗ e le (2)-(5) in
questo modo:
(1)∗ hX, Y i = hY, Xi, (∀X, Y ∈ V),
8.6. IL CASO COMPLESSO 141
(2) hX + Y, Zi = hX, Zi + hY, Zi, (∀X, Y, Z ∈ V),
(3) hxX, Y i = xhX, Y i, (∀X, Y ∈ V, ∀x ∈ C),
(4) (hX, Xi ∈ R) ∧ (hX, Xi ≥ 0), (∀X ∈ V),
(5) hX, Xi = 0 ⇒ X = O, (∀X ∈ V).
Da (1)∗ e (2)-(5) si deduce che:
(6) hX, Y + Zi = hX, Y i + hX, Zi, (∀X, Y, Z ∈ V),
(7)∗ hX, yY i = yhX, Y i, (∀X, Y ∈ V, ∀y ∈ C),
(8) hX, Oi = hO, Xi = 0 (∀X ∈ V).
La (6) si chiama distributività a destra. Essa si ricava dalla (1)∗ e dalla (2) cosı̀:
hX, Y + Zi = hY + Z, Xi = hY, Xi + hZ, Xi = hY, Xi + hZ, Xi =
= hX, Y i + hX, Zi.
Analogamente, da (1)∗ e da (3) segue la (7)∗ , che viene detta semi-omogeneità
a destra. La (8) si deduce da (3) e (7)∗ come nel caso reale.
Applicando ripetutamente (2), (3), (6) e (7)∗ si ottiene che, per ogni scelta
di vettori X1 , X2 , ..., Xm , Y1 , Y2 , ..., Ys e di scalari x1 , x2 , ..., xm , y1 , y2 , ..., ys , vale
la seguente uguaglianza:
Xm s
X m,s
X
(9)∗ h xi Xi , yi Yi i = xi y j hXi , Yj i.
i=1 j=1 i,j=1
La (9)∗ ricomprende le (2), (3), (6) e (7)∗ , come nel caso reale. Sicchè, potremmo
anche prendere (1)∗ , (9)∗ , (4) e (5) come definizione di prodotto scalare in spazi
vettoriali a coefficienti in C.
Norme e distanze. Datopun vettore A di V, hA, Ai è un numero reale ≥ 0,
per la (4). Poniamo kAk = hA, Ai e chiamiamo kAk norma (anche lunghezza)
del vettore A.
Le proprietà (10) ed (11) di §8.2.2 continuano a valere nel caso complesso.
La (10) si dimostra nel caso complesso proprio come nel caso reale. La (11) si
dimostra quasi come nel caso reale (l’ unica differenza è data dal fatto che ora
dobbiamo usare la (7)∗ anzichè la (7)).
Dati due vettori A, B, chiamiamo kA − B k distanza tra i punti A e B. In
particolare, kAk è la distanza di A da O. Per la (5), la distanza tra due punti
A e B è 0 se e solo se A = B.
Ortogonalità. Siano A, B vettori di V. Diciamo che A e B sono ortogonali, e
scriviamo A ⊥ B, se hA, Bi = 0. Come nel caso reale, il vettore nullo è l’ unico
vettore che sia ortogonale a tutti i vettori di V. Anzi, è l’ unico vettore che sia
ortogonale a sè stesso.
142 Capitolo 8
Teorema 8.12 (disuguaglianza di Cauchy–Schwartz) Per ogni scelta di
vettori X, Y di V, risulta
(12) |hX, Y i| ≤ kX k·kY k.
Dimostrazione. Se hX, Y i = 0, la (12) è banale. Supposto hX, Y i =
6 0, poniamo
Z = xX − yY con x = hY, Xi ed y reale. Da (4) segue che hZ, Zi ≥ 0. Usando
la (9)∗ e la (1)∗ , si vede che
(i) hZ, Zi = xxhX, Xi − xyhX, Y i − yxhY, Xi + yyhY, Y i.
Sicchè
(ii) xxhX, Xi − xyhX, Y i − yxhY, Xi + yyhY, Y i ≥ 0.
Ma si è posto x = hY, Xi (= hX, Y i per (1)∗ ) e, per ipotesi, y è reale (e perciò
y = y). Quindi, (ii) diventa:
(iii) |hX, Y i|2 · kX k2 − 2y |hX, Y i|2 + y 2 kY k2 ≥ 0
Si noti che nel primo membro di (iii), visto come un polinomio di secondo grado
in y, tutti i coefficienti sono reali. Inoltre, la disuguaglianza (iii) vale per ogni
y ∈ R. Quindi, come nel caso reale,
(iv) 4·|hX, Y i|4 − 4·|hX, Y i|2 · kX k2 · kY k2 ≤ 0
Dividendo la (iv) per 4·|hX, Y i|2 (il chè è legittimo perchè, per ipotesi, hX, Y i =
6
0), si ottiene la disuguaglianza
|hX, Y i|2 − kX k2 · kY k2 ≤ 0,
che equivale alla (12). 2
Si noti che l’ analoga della (120 ) assume ora il seguente aspetto
(120 )∗ hX, Y ihX, Y i ≤ hX, XihY, Y i.
Proposizione 8.13 Vale l’ uguaglianza in (12) se e solo se uno dei due vettori
X o Y è proporzionale all’ altro.
Dimostrazione. La parte “se” di questa proposizione si dimostra come nel caso
reale. La lascio al lettore. Dimostriamo la parte “solo se”.
Supponiamo che in (12) valga l’ uguaglianza. Se X = O, allora X è propor-
zionale ad Y . Analogamente se Y = O. Supponiamo dunque che X 6= O 6= Y e
prendiamo Z, x ed y come nella dimostrazione del Teorema 8.12. Siccome per
ipotesi in (12) vale l’ uguaglianza, deve essere hZ, Zi = 0. Quindi Z = O per
(5). Cioè xX = yY . Ma x = hX, Y i. Quindi, se x = 0, l’ ipotesi che in (12)
valga l’ uguaglianza porta che ||X||·||Y || = 0. Ma questo è impossibile, avendo
supposto che X 6= O 6= Y . Pertanto, x 6= 0. Quindi X = x−1 yY . 2
8.6. IL CASO COMPLESSO 143
Teorema 8.14 (disuguaglianza triangolare) Per ogni scelta di vettori X,
Y in V si ha che
(13) kX + Y k ≤ kX k + kY k.
Dimostrazione. La dimostrazione segue da vicino quella data nel caso reale, ma
ne differisce in alcuni punti (si veda anche la dimostrazione della Proposizione
3.4 del Capitolo 3 del Volume 2). Intanto, la (13) equivale alla
(i) hX + Y, X + Y i ≤ hX, Xi + hY, Y i + 2kX k· kY k,
perchè la (13) coinvolge solo numeri reali non negativi. Per (2), (6) ed (1)∗ ,
hX + Y, X + Y i = hX, Xi + hY, Y i + hX, Y i + hX, Y i
Sicchè, la (i) equivale alla disuguaglianza
(ii) hX, Y i + hX, Y i ≤ 2kX k·kY k.
D’ altra parte, hX, Y i+hX, Y i è il doppio della parte reale del numero complesso
hX, Y i (Volume 2, Capitolo 3, (10)). La parte reale di un numero complesso x
non supera mai il modulo di x (Volume 2, Capitolo 3, (9)). Quindi,
hX, Y i + hX, Y i
≤ |hX, Y i|
2
Da ciò e dalla disuguaglianza di Cauchy-Schwartz (12) si ottiene la (ii). Siccome
(ii) equivale a (13), la (13) è vera. 2
Proposizione 8.15 Supponiamo che X, Y 6= O. Allora vale l’ uguaglianza
nella (13) se e solo se X = tY per qualche numero reale t > 0.
Dimostrazione. La dimostrazione è simile a quella della Proposizione 8.4, salvo
qualche dettaglio. La parte “se” è ovvia. Dimostriamo la parte “solo se”.
Supponiamo che
(i) kX + Y k = kX k + kY k
Quindi
hX, Y i + hX, Y i
(ii) = kX k·kY k
2
(cfr. Teorema 8.14, dimostrazione). D’ altra parte, come si è osservato nella
dimostrazione del Teorema 8.14,
hX, Y i + hX, Y i
(iii) ≤ |hX, Y i| = kX k·kY k
2
Da (ii) e (iii) segue che vale l’ uguaglianza in (12). Quindi X = tY per qualche
numero complesso t, per la Proposizione 8.13. Sostituendo tY ad X in (i) si
ricava che |t+1| =|t| +1. Ne segue che t è un numero reale non negativo (Sezione
8.7, Esercizio 8.9), quindi positivo, perchè t 6= 0 essendo X 6= O per ipotesi. 2
144 Capitolo 8
Segmenti. Come nel caso reale, dati due vettori A e B, diciamo che un punto
X sta tra i punti A e B se kB −Ak = kB −X k +kX −Ak. Chiamiamo segmento
di estremi A e B l’ insieme dei punti che stanno tra A e B e lo indichiamo col
simbolo [A, B]. Dalla Proposizione 8.15 si ottiene che
[A, B] = {A + t(B − A) | (t ∈ R) ∧ (0 ≤ t ≤ 1)} =
= {xA + yB | (x + y = 1) ∧ (x, y ∈ R) ∧ (0 ≤ x, y)}.
Angoli. La (12) ci permette anche di definire l’ angolo XY
d tra due vettori
X, Y 6= O:
d =def arccos |hX, Y i|
XY
kX k·kY k
Si noti però che, in questo modo, si conviene di prendere sempre XY
d compreso
tra 0 e π/2 mentre, nel caso reale, l’ angolo tra due vettori poteva assumere
anche valori compresi tra π/2 e π. Precisamente, nel caso reale, sostituendo
uno dei due vettori col suo opposto, l’ angolo risulta aumentato o diminuito di
π/2. Nel caso complesso, questo lo si perde.
8.6.3 Spazi euclidei
Uno spazio euclideo complesso è uno spazio vettoriale V su C munito di un
prodotto scalare Φ. Come nel caso reale, lo indichiamo col simbolo (V, Φ).
Anche in VI (C) si definisce un prodotto scalare standard, in modo analogo a
come abbiamo fatto per VI (R) in §8.3.3:
X
hF, Gi = F (i)G(i), (ove J = I(F ) ∩ I(G))
i∈J
Come nel caso reale, indichiamo questo prodotto scalare col simbolo Φst . Quan-
do I = {1, 2, ..., n}, esso coincide col prodotto scalare considerato in §8.6.1.
Chiamiamo (Vn (C), Φst ) spazio euclideo complesso standard di dimensione n.
Chiamiamo (V∞ (C), Φst ) spazio euclideo complesso standard di dimensione nu-
merabile.
Isomorfismi tra spazi euclidei complessi si definiscono come nel caso reale, e
godono delle stesse proprietà. Lascio al lettore il compito di ripetere nel caso
complesso le cose dette nella Sezione 8.4 per il caso reale. L’ unica differen-
za rispetto al caso reale è in un dettaglio terminologico: nel caso complesso
all’ espressione “isomorfismo ortogonale” si preferisce la locuzione isomorfismo
unitario.
8.7. ESERCIZI 145
8.6.4 Il prodotto scalare naturale per una base
Il prodotto scalare naturale rispetto ad una base E si definisce nel caso complesso
come nel caso reale, salvo che nella formula che definisce hX, Y iE compaiono le
coniugate delle coordinate di Y :
X
hX, Y iE =def xi y i , (ove J = I(X) ∩ I(Y ))
i∈J
La (19) diventa
n
X
(19)∗ hX, Y iE = xi y i ,
i=1
mentre la (20) diventa:
n
X n
X
(20)∗ hX, Y iE = ( ak,i ak,j )ui v j .
i,j=1 k=1
A parte piccole modifiche come queste, tutto quanto detto nella Sezione 8.5 su
prodotti scalari naturali può ripetersi per il caso complesso. Lascio i dettagli al
lettore.
8.7 Esercizi
Esercizio 8.1 Sia A = (a, b) un vettore non nullo di V2 (R). Descrivete l’
insieme dei vettori ortogonali ad A.
Risposta. È la retta L(B), ove B = (b, −a).
Esercizio 8.2 Sia ax + by + cz = 0 l’ equazione di un piano P di V3 (R) per O.
Quale è la perpendicolare a P per O ?
Risposta. È la retta L(A) ove A = (a, b, c).
Esercizio 8.3 Siano A, B vettori di uno spazio euclideo, reale o complesso,
con A 6= O. Verificate che
⊥
L(B − πA (B)) = {X | (X ∈ L(A, B)) ∧ (X ⊥ A)}.
Esercizio 8.4 Sia A un vettore non nullo di uno spazio euclideo (V, Φ), reale
o complesso, e sia P un piano per O contenente A. Si dimostri che i vettori di
P ortogonali ad A formano una retta.
Definizione. Quella retta è chiamata la perpendicolare ad L(A) condotta per
O in P.
Esercizio 8.5 Siano X ed Y vettori non nulli e distinti di uno spazio euclideo
reale. Posto Z = X − Y , si dimostri che
kZ k = kX k·cos XZ
d + kY k·cos ZY
d.
146 Capitolo 8
Esercizio 8.6 (Teorema di Pitagora) Sia V uno spazio euclideo, reale o com-
plesso, e siano X, Y , Z vettori di V. Si dimostri che
X − Y ⊥ Y − Z =⇒ kX − Z k2 = kX − Y k2 + kY − Z k2
Traccia. Risulta hX −Z, X −Zi = hX −Y +Y −Z, X −Y +Y −Zi. Sviluppando
il prodotto scalare a secondo membro ...
Esercizio 8.7 Sia V uno spazio euclideo reale o complesso e siano A, B vettori
distinti di V. Si dimostri che per ogni X ∈ V risulta
⊥ ⊥
A + πB−A (X − A) = B + πA−B (X − B).
⊥
Nota. Poniamo Y = A + πB−A (X − A). In V2 (R) e in V3 (R), il segmento
[Y, X] è l’ altezza del triangolo di vertici A, B, X, relativa alla base [A, B].
Esercizio 8.8 Sia V uno spazio euclideo reale. Si deduca la disuguaglianza
triangolare dagli Esercizi 8.6 e 8.7, senza usare la disuguaglianza di Cauchy-
Schwartz.
Nota. È chiaro dalla dimostrazione del Teorema 8.3 che in spazi euclidei reali
la disuguaglianza di Cauchy-Schwartz può ricavarsi dalla disuguaglianza trian-
golare. Dunque negli Esercizi 8.6-8.8 è implicita un’ altra dimostrazione della
disuguaglianza di Cauchy-Schwartz nel caso reale.
Esercizio 8.9 Dalla Proposizione 8.4 riferita a V2 (R) si deduca che, se un
numero complesso x soddisfa la seguente condizione
(∗) |1 + x | = 1 + |x |
allora x è reale e non negativo.
Soluzione. Visto C come spazio vettoriale su R, la relazione (∗) puo’ riscriversi
cosı̀: kU + X k = kU k+kX k, ove U ed X corrispondono rispettivamente ad 1 ed
x. Dunque X = tU per qualche numero reale t ≥ 0, per la Proposizione 8.2.
Cioè, x = t.
Naturalmente, il risultato può ottenersi anche per via diretta. Si riscriva (∗)
cosı̀:
p √
(1 + x)(1 + x) = 1 + xx
Se ne deduce che R(x) =|x|. Quindi ...
Esercizio 8.10 Siano X ed Y vettori di uno spazio euclideo reale. Si dimostri
che:
hX + Y, X + Y i − hX, Xi − hY, Y i
(23) hX, Y i = =
2
hX, Xi + hY, Y i − hX − Y, X − Y i
=
2
8.7. ESERCIZI 147
Esercizio 8.11 Siano X ed Y vettori di uno spazio euclideo complesso. Si
dimostri che:
(24)+ hX, Y i + hX, Y i = hX + Y, X + Y i − hX, Xi − hY, Y i =
= hX, Xi + hY, Y i − hX − Y, X − Y i
(24)− hX, Y i − hX, Y i = i(hX + iY, X + iY i − hX, Xi − hY, Y i) =
= i(hX, Xi + hY, Y i − hX − iY, X − iY i).
Esercizio 8.12 Siano X, Y vettori non nulli di uno spazio euclideo reale. Si
dimostri che:
X Y
k − k2 = 2(1 − cos XY
d)
||X|| ||Y ||
Nota. In particolare, quando ||X|| = ||Y || = 1, si ha
||X − Y ||2 = 2(1 − cos XY
d)
Questo mette in relazione la distanza tra punti di una sfera di raggio 1 con l’
angolo formato dalle rette che li congiungono col centro.
Esercizio 8.13 Siano (V, Φ) e (W, Ψ) spazi euclidei, reali o complessi, e sia ϕ
un isomorfismo da V a W soddisfacente la (16), cioè conservante le norme. Si
dimostri che ϕ è un isomorfismo da (V, Φ) a (W, Ψ).
Suggerimento. Si usino gli Esercizi 8.10 ed 8.11.
Esercizio 8.14 Dato uno spazio vettoriale V su R o C, siano E e F due sue
basi e sia ϕ = ϕ−1F ϕE (cfr. §8.5.2). Si dimostri che ϕ è un automorfismo di
(V, ΦE ) se e solo se ΦE = ΦF .
Esercizio 8.15 Dato un vettore Z = (xk + iyk )nk=1 di Vn (C), poniamo:
ZR = (x1 , y1 , x2 , y2 , ..., xn , yn ) (∈ V2n (R))
Verificate che kZ k = kZR k, ove le norme sono quelle definite dai prodotti scalari
standard in Vn (C) e V2n (R) rispettivamente.
Esercizio 8.16 In V3 (R) sia E = (E1 , E2 , E3 ) con
E1 = (cos θ, − sin θ, 0), E2 = (sin θ, cos θ, 0), E3 = (0, 0, −1).
(Cfr. §8.5.4). Verificate che E si ottiene ruotando la base dei versori di un
angolo θ attorno all’ asse delle quote, e poi invertendo l’ orientamento dell’
asse delle quote. Si usi questo fatto per dimostrare che ΦE = Φst .
Esercizio 8.17 Lo spazio vettoriale P2 (R) dei polinomi in R di grado ≤ 2 è un
sottospazio lineare di P∞ (R) ed il prodotto scalare I01 definito in P∞ (R) come
in §8.3.2 induce un prodotto scalare su P2 (R), che continueremo ad indicare
con I01 . Si trovino due polinomi P1 e P2 di grado rispettivamente 1 e 2 tali che,
posto F = {1, P1 , P2 }, risulti I01 = √
ΦF . √
Risposta. Deve essere P1 (x) = ± 3(1 − 2x) e P2 (x) = ± 5(1 − 6x + 6x2 ).
148 Capitolo 8
Esercizio 8.18 Sia C0 ([0, π]) lo spazio vettoriale delle funzioni dall’ intervallo
[0, π] di R ad R, continue su tutto [0, π]. Si definisca un prodotto scalare su
C0 ([0, π]) ponendo
2 π
Z
hf, gi = f (x)g(x)dx, (f, g ∈ C0 ([0, π])).
π 0
Si ponga f1 (x) = sin x ed f2 (x) = cos x, per x ∈ [0, π]. Si dimostri che f1 ⊥ f2
e che kf1 k = kf2 k = 1.
Capitolo 9
Ortogonalità
9.1 Definizioni e prime proprietà
Nel seguito (V, Φ) è un arbitrario spazio euclideo, reale o complesso. Con hX, Y i
intendiamo Φ(X, Y ). Spesso ci prenderemo anche la libertà di abbreviare (V, Φ)
in V, lasciando Φ sottinteso.
9.1.1 Il complemento ortogonale di un insieme
Dato un insieme X di vettori di V, poniamo
X⊥ =def {Y | (∀X ∈ X)(Y ⊥ X)}.
Chiamiamo X⊥ il complemento ortogonale di X (o anche, brevemente, l’ or-
togonale di X). La denominazione “complemento ortogonale” troverà una sua
motivazione più avanti (Teorema 9.16), nel caso in cui X sia un sottospazio
lineare di dimensione finita.
Scriverò brevemente X⊥⊥ , X⊥⊥⊥ , ecc. anzichè (X⊥ )⊥ , ((X⊥ )⊥ )⊥ , ecc.;
L(X)⊥ anzichè (L(X))⊥ . E, se X è un vettore di V, scriverò X ⊥ per intendere
{X}⊥ .
Esempio. Sia A un vettore non nullo dello spazio euclideo standard V2 (R).
Allora A⊥ è la perpendicolare ad L(A) condotta per O. Ovviamente, A⊥ = B ⊥
per ogni vettore non nullo B proporzionale ad A. Anzi, A⊥ = L(A)⊥ .
Se invece A è un vettore non nullo dello spazio euclideo standard V3 (R),
allora A⊥ (che è la stessa cosa che L(A)⊥ ) è il piano per O ortogonale ad L(A).
Siano poi A, B vettori non proporzionali di V3 (R). Allora {A, B}⊥ (che è uguale
ad L(A, B)⊥ ) è la retta per O perpendicolare al piano L(A, B).
9.1.2 Alcune proprietà dell’ operatore ⊥
(1) X⊥ ∩ X ⊆ {O}, (∀X ⊆ V).
149
150 Capitolo 9
Dimostrazione. Sia X ∈ X⊥ ∩ X. Allora X, in quanto appartenente ad X⊥ , è
ortogonale a tutti i vettori di X, quindi anche a sè stesso perchè X ∈ X. Sicchè
X ⊥ X. Cioè X = O, per la (5) del Capitolo 8. 2
(2) X⊥ = V ⇐⇒ X ⊆ {O}, (∀X ⊆ V).
Dimostrazione. L’ implicazione ⇐ è ovvia. Dimostriamo la ⇒. Sia X⊥ = V.
Allora X ⊆ X⊥ , quindi X ⊆ {O} per la (1). 2
(3) V ⊥ = {O}.
(Cioè O è l’ unico vettore ortogonale a tutti i vettori di V.)
Dimostrazione. Il vettore nullo è ortogonale a tutti i vettori di V (Capitolo 8,
(8)). Viceversa, se un vettore X è ortogonale a tutti i vettori di V, allora è
ortogonale anche a sè stesso, e quindi X = O, per la (5) del Capitolo 8. 2
(4) X ⊆ Y =⇒ X⊥ ⊇ Y⊥ , (∀X, Y ⊆ V).
Dimostrazione. Sia X ⊆ Y. Se un vettore è ortogonale a tutti i vettori di Y,
allora è anche ortogonale a tutti i vettori di X. Quindi Y⊥ ⊆ X⊥ . 2
(5) X⊥ = L(X)⊥ , (∀X ⊆ V).
Dimostrazione. Risulta X⊥ ⊇ L(X)⊥ , per (4) e perchè X ⊆ L(X). Resta da
dimostrare l’ inclusione
Pm inversa. Sia Y ∈ X⊥ e sia X un qualunque elemento
di L(X). Si ha X = i=1 xi Xi per opportuni vettori X1 , X2 , ..., Xm di X ed
opportuni scalari x1 , x2 ,..., xm . Siccome Y ⊥ Xi per ogni i = 1, 2, ..., m (perchè
Y ∈ X⊥ ), risulta Y ⊥ X (per le (2) e (3) del Capitolo 8). Data l’ arbitrarietà di
X ∈ L(X), si ha che Y ∈ L(X)⊥ . Sicchè X⊥ ⊆ L(X)⊥ . Dunque X⊥ = L(X)⊥ .
(6) X⊥ = L(X⊥ ), (∀X ⊆ V)
(cioè, X⊥ è un sottospazio lineare di V.) Pm
⊥
m ∈ X , sia Y =
Dimostrazione. Dati Y1 , Y2 , ..., YP i=1 yi Yi una loro combina-
m
zione lineare. Si ha hY, Xi = y hY
i=1 i i , Xi = 0 per ogni vettore X ∈ X,
per (2) e (3) del Capitolo 8 e perchè X ⊥ Yi per ogni i = 1, 2, ..., m. Dunque
Y ∈ X⊥ . 2
(7) L(X) ⊆ X⊥⊥ , (∀X ⊆ V).
Dimostrazione. Intanto, è una banale tautologia che ogni vettore di X è orto-
gonale a tutti i vettori che sono ortogonali a tutti i vettori di X. Quindi
(7.a) X ⊆ X⊥⊥ , (∀X ⊆ V).
Sostituendo L(X) ad X in (7.a) si ottiene
(7.b) L(X) ⊆ L(X)⊥⊥ , (∀X ⊆ V).
La (7) segue da (7.b) e da (5). 2
9.1. DEFINIZIONI E PRIME PROPRIETÀ 151
\
(8) X⊥ = X ⊥, (∀X ⊆ V).
X∈X
(Questa è una banale conseguenza della definizione di X⊥ .) Più in generale,
data una famiglia {Xi }i∈I di sottoinsiemi di V risulta
[ \
(9) ( Xi )⊥ = X⊥i
i∈I i∈I
Dimostrazione. Si ha i∈I Xi ⊇ Xj per ogni j ∈ I. Quindi ( i∈I Xi )⊥ ⊆ X⊥
S S
j
per (4), per ogni j ∈ I. Pertanto ( i∈I Xi )⊥ ⊆ i∈I X⊥
S T
i .
Resta da dimostrare che ( i∈I Xi )⊥ ⊇ i∈I X⊥
S T
i . Ma questo è ovvio. Infatti,
se Y ∈ X⊥ i Sper ogni i ∈ I, allora Y ⊥ X per ogni X ∈ Xi qualunque sia i ∈ I.
Cioè Y ∈ ( i∈I Xi )⊥ . 2
\ [
(10) ( L(Xi ))⊥ ⊇ L( X⊥ i ),
i∈I i∈I
T
Dimostrazione. Per ogni j ∈ I, risulta i∈I L(Xi ) ⊆ L(Xj ). Da ciò, usando (4)
e (5) si ottiene che ( i∈I L(Xi ))⊥ ⊇ L(Xj )⊥ = X⊥
T
j per ogni j ∈ I. Pertanto
( i∈I L(Xi )) ⊇ i∈I Xi . La (10) segue da questa inclusione e da (6). 2
⊥ ⊥
T S
Si noti che se in (4) scrivessimo ⇔ anzichè ⇒, l’ asserzione che ne risulterebbe
sarebbe falsa. In particolare, se X⊥ = Y⊥ , non è affatto detto che X = Y.
Questo è chiaro anche da (5). Infatti per (4) e (5), basta che L(X) ⊆ L(Y)
perchè X⊥ ⊇ Y⊥ . Ma l’ inclusione L(X) ⊆ L(Y) non ci dice certo che X ⊆ Y.
9.1.3 Insiemi ortogonali
Un sottoinsieme A di V è detto ortogonale (per il prodotto scalare Φ che abbiamo
assunto in V) se X ⊥ Y per ogni scelta di vettori distinti X, Y ∈ A. Banalmente,
∅ e i singoletti sono insiemi ortogonali. È anche ovvio che, se A è ortogonale,
allora anche A ∪ {O} è ortogonale.
Pm A1 , A2 , ..., Am vettori distinti di V formati un insieme ortogonale e sia
Siano
B = i=1 ti Ai una loro combinazione lineare.
Lemma 9.1 Per ogni i = 1, 2, ..., m, risulta hB, Ai i = ti hAi , Ai i.
Dimostrazione. Infatti, per (2) e (3) del Capitolo 8, si ha che
m
X
(i) hB, Aj i = ti hAi , Aj i, (∀j = 1, 2, ..., m).
i=1
D’ altra parte, hAi , Aj i = 0 per ogni scelta di indici distinti i, j ∈ {1, 2, ..., m}
perchè i vettori A1 , A2 , ..., Am sono a due a due ortogonali. Quindi
m
X
(ii) ti hAi , Aj i = tj hAj , Aj i, (∀j = 1, 2, ..., m).
i=1
Da (i) ed (ii) si ottiene la conclusione. 2
152 Capitolo 9
Corollario 9.2 Supponiamo per più che Ai 6= O per ogni i = 1, 2, ..., m. Allora
hB, Ai i
ti = , (∀i = 1, 2, ..., m).
hAi , Ai i
Dimostrazione. Se Ai 6= O allora hAi , Ai i =
6 0, per la (5) del Capitolo 8. La
conclusione si ottiene dal lemma precedente. 2
Se A 6= O, risulta
hB, Ai i ⊥
Ai = π A (B)
hAi , Ai i i
(Capitolo 8, §8.2.3). Quindi, per Corollario 9.2,
Corollario 9.3 Se Ai 6= O per ogni i = 1, 2, ..., m, allora
m m
X hB, Ai i X
⊥
B = Ai = πA (B).
i=1
hA i , Ai i i=1
i
Cioè B è la somma delle sue proiezioni ortogonali sui vettori A1 , A2 ,..., Am .
Possiamo ora dimostrare il seguente teorema:
Teorema 9.4 Un sottoinsieme ortogonale di V è linearmente indipendente se
e solo se non contiene il vettore nullo.
Dimostrazione. Sia A un sottoinsieme ortogonale di V. Se A è linearmente
indipendente, O 6∈ A, perchè nessun insieme indipendente contiene O.
Viceversa, supponiamo che O 6∈ A. Per il Corollario 9.2, ogni vettore di
L(A) si esprime in un solo modo come combinazine lineare di vettori di A.
Quindi A è indipendente, per la Proposizione 4.5 del Capitolo 4. 2
Corollario 9.5 Supponiamo che dim(V) = n < ∞ e sia A un insieme di n
vettori di V, tutti 6= O. Se A è ortogonale, allora è una base di V.
9.1.4 Proiezioni ortogonali
Le considerazioni che nel Capitolo 8 (§8.2.3) hanno permesso di definire la pro-
⊥
iezione ortogonale πA (X) di un vettore X su un altro vettore A possono essere
cosı̀ riassunte: A è un sottospazio lineare di V (cfr. (6)), risulta V = L(A)+A⊥
⊥
e quindi V = L(A) ⊕ A⊥ perchè L(A) ∩ A⊥ = L(A) ∩ L(A)⊥ = {O} per (1) e
⊥
(5). La proiezione ortogonale πA (X) di X su A è appunto la proiezione di X
su L(A) lungo la direzione di A⊥ . Cose simili possono dirsi più in generale.
Siano A1 , A2 , ..., Am vettori distinti di V non nulli e tra loro ortogonali.
Poniamo S = L(A1 , A2 , ..., Am ). L’ insieme {A1 ,T A2 , ..., Am } è una base di S
m
(Teorema 9.4). Inoltre S ⊥ = {A1 , A2 , ..., Am }⊥ = i=1 A⊥ i (per (5) e (8)).
Proposizione 9.6 Risulta V = S ⊕ S ⊥ .
9.1. DEFINIZIONI E PRIME PROPRIETÀ 153
Dimostrazione. Siccome S ∩ S ⊥ = {O} per (1) (e per (6)), dobbiamo solo
dimostrare che V = S + S ⊥ . Cioè dobbiamo dimostrare che, dato un qualunque
vettore X di V, esiste un vettore Y ∈ S tale che X − Y ∈ S ⊥ . Dobbiamo
trovarne uno. Il metodo che useremo per cercarlo ci mostrerà non solo che un
vettore con quelle proprietà esiste, ma ci dirà anche come deve essere fatto,
mostrando cosı̀ che non ce ne può essere più d’ uno (ma questo già lo sappiamo,
perchè S ∩ S ⊥ = {O}). Cerchiamo quell’ Y , dunque. Vogliamo che Y ∈ S. Per
il Corollario 9.3, ciò equivale a chiedere che
m
X hY, Ai i
(i) Y = Ai .
i=1
hAi , Ai i
Siccome S ⊥ = {A1 , A2 , ..., Am }⊥ , chiedere che X − Y ∈ S ⊥ è come chiedere
che X − Y ⊥ Ai per ogni i = 1, 2, ..., m. Cioè hX, Ai i = hY, Ai i per ogni
i = 1, 2, ..., m. Quindi la (i) può riscriversi cosı̀:
m
X hX, Ai i
(ii) Y = Ai .
i=1
hA i , Ai i
La (ii) ci dà l’ unico vettore con le proprietà richieste. 2
Sia X un vettore di V. La proiezione di X su S lungo la direzione di S ⊥ viene
detta proiezione ortogonale di X su S. La indichiamo col simbolo πS⊥ (X). Per
la (ii) della dimostrazione della Proposizione 9.6, risulta
m m
X hX, Ai i X
(11) πS⊥ (X) = Ai = ⊥
πA (X).
i=1
hAi , Ai i i=1
i
Cioè, la proiezione ortogonale di X su S è la somma delle proiezioni ortogonali
di X sui vettori A1 , A2 ,..., Am . Si noti che, mentre queste dipendono dalle rette
L(A1 ), L(A2 ),..., L(Am ), la loro somma dipende solo dallo spazio S che i vettori
A1 , A2 ,..., Am insieme generano.
Le due seguenti affermazioni sono ovvie:
(12) X = πS⊥ (X) ⇐⇒ X ∈ S
(13) πS⊥ (X) = O ⇐⇒ X ∈ S ⊥
Il vettore X − πS⊥ (X) è la proiezione di X su S ⊥ lungo la direzione di S.
Vediamone alcune proprietà. Intanto, è ovvio che
⊥
Proposizione 9.7 L’ insieme {Ai }m i=1 ∪ {X − πS (X)} è ortogonale ed è ele-
m
mentarmente equivalente ad {Ai }i=1 ∪ {X}.
Proposizione 9.8 Risulta L(X − πS⊥ (X)) = L(S ∪ {X}) ∩ S ⊥ .
Dimostrazione. Risulta L(X − πS⊥ ) ⊆ L(S ∪ {X}) ∩ S ⊥ perchè πS⊥ (X) ∈ S ed
X − πS⊥ (X) ∈ S ⊥ . Viceversa, supponiamo che Z ∈ L(S ∪ {X}) ∩ S ⊥ . Siccome
154 Capitolo 9
Z ∈ L(S ∪ {X}), risulta Z = tX + Z 0 per qualche scalare t e qualche Z 0 ∈ S.
Vale a dire, Z − tX ∈ S. Per il Corollario 9.3 si ha che
m
X hZ − tX, Ai i
Z − tX = Ai .
i=1
hAi , Ai i
D’ altra parte, hZ − tX, Ai i = −thX, Ai i, perchè Z ∈ S ⊥ . Quindi, per (11),
m
X hX, Ai i
Z = tX − t Ai = t(X − πS⊥ (X)).
i=1
hA i , Ai i
Cioè Z ∈ L(X − πS⊥ (X)). 2
Proposizione 9.9 La proiezione πS⊥ (X) è il punto di S a minima distanza da
X.
Dimostrazione. Sia Y ∈ S. Siccome, Y − πS⊥ (X) ∈ S e πS⊥ (X) − X ∈ S ⊥ , si ha
che Y − πS⊥ (X) ⊥ πS⊥ (X) − X. Quindi, per il Teorema di Pitagora (Capitolo 8,
Esercizio 8.6), ||Y − X||2 = ||Y − πS⊥ (X)||2 + ||πS⊥ (X) − X||2 . Se ne deduce che
||Y − X||2 ≥ ||πS⊥ (X) − X||2 e vale l’ uguaglianza se e solo se Y = πS⊥ (X). 2
9.2 Basi ortogonali
Sia (V, Φ) uno spazio euclideo. Una base ortogonale di (V, Φ) (brevemente, di
V) è una base di V ortogonale per Φ.
9.2.1 Coordinate
P
Data una base ortogonale E = {Ei }i∈I di (V, Φ), sia X = i∈I xi Ei la rap-
presentazione uniforme di un vettore X di V rispetto ad E (Capitolo 5, §5.4.1).
Per il Corollario 9.2, risulta
hX, Ei i
(15) xi = , (∀i ∈ I)
hEi , Ei i
e dal Corollario 9.3 si ha che
X hX, Ei i X
⊥
(16) X = Ei = πE (X)
hEi , Ei i i
i∈I i∈I
(con la convenzione che, quando I è infinito, le somme in (16) debbano intendersi
eseguite su sottoinsiemi finiti di I contenenti il supporto I(X) di X). È chiaro
da (15) che hX, Ei i 6= 0 se e solo se i ∈ I(X). La (15) ci dice anche che X è la
somma delle sue proiezioni ortogonali sui vettori di E. Abbiamo cosı̀ ritrovato
in generale una ben nota proprietà di V2 (R):
9.2. BASI ORTOGONALI 155
⊥
πE 2
(X)
6 * X
E2 6
• - -
O E1 ⊥
πE (X)
1
P P
Dati due vettori X, Y di V, siano X = i∈I xi Ei ed Y = i∈I P yi Ei le loro rap-
presentazioni uniformi rispetto ad E. Nel caso reale, hX, Y i = i,j∈I xi yj hEi , Ej i
(con la solita convenzione che, quando I è infinito, queste somme vanno in-
tese eseguite su sottoinsiemi di I contenenti tutti gli indici i, j per i quali
xi yj hEi , Ej i =
6 0). Quindi,
X
(17) hX, Y i = xi yi hEi , Ei i
i∈I
perchè E è ortogonale. Invece nel caso complesso si ottiene
X
(17)∗ hX, Y i = xi y i hEi , Ei i
i∈I
9.2.2 Basi ortonormali
Data una base E = {Ei }i∈I di V, indichiamo con ΦE il prodotto scalare naturale
per E (Capitolo 8, Sezione 8.5). Se E è ortogonale e se tutti i suoi vettori hanno
norma 1, allora diciamo che E è ortonormale. In altre parole, E è ortonormale
se hEi , Ej i = δi,j (ove δi,j è il simbolo di Kronecker (Capitolo 8, §8.5.1). Combi-
nando la (17) (nel caso complesso, la (17)∗ ) con la Proposizione 8.7 del Capitolo
8 si ottiene subito quanto segue:
Proposizione 9.10 La base E è ortonormale per lo spazio euclideo (V, Φ) se e
solo se Φ = ΦE .
Se E è ortogonale ma non ortonormale, si ponga E 0 i = kEi k−1 Ei per ogni i ∈ I
ed E0 = {E 0 i }i∈I . Ovviamente, E0 è ancora una base di V. Essa è ortonormale.
Infatti
0 se i 6= j
hEi , Ej i =
kEi k2 se i = j
e quindi
hEi , Ej i
hE 0 i , E 0 j i = = δi,j
kEi k·kEj k
Chiamiamo E0 la normalizzazione di E.
156 Capitolo 9
9.3 Ortogonalizzazione
Dimostreremo che ogni spazio euclideo di dimensione finita o numerabile am-
mette basi ortogonali. Otterremo questo risultato mediante un procedimento,
detto di Gram-Schmidt, che ora descriviamo.
9.3.1 Il procedimento di Gram-Schmidt
Alcune convenzioni. Mi prendo la libertà di usare il simbolo ω per riferirmi
indifferentemente ad un numero naturale positivo o al numero cardinale ℵ0 =
card(N). Sia k ∈ N. Se ω ∈ N, allora la scrittura k < ω ha il solito senso di
disuguaglianza tra numeri naturali. Se invece ω = ℵ0 , allora k < ω ci rammenta
solo che k ∈ N.
Introduciamo poi il simbolo (Ai )i<ω , che definiamo cosı̀. Se ω = n ∈ N, allo-
ra (Ai )i<ω sta ad indicare la n-pla (Ai )n−1
i=0 . Se invece ω = ℵ0 , allora (Ai )i<ω si-
gnifica la successione (Ai )∞
i=0 . Analogamente, con {Ai }i<ω intendiamo {Ai }n−1i=0
∞
quando ω = n ∈ N ed {Ai }i=0 quando ω = ℵ0 .
Scopo del procedimento. Sia α = (Ai )i<ω una sequenza di vettori di V,
a due a due distinti e formanti un insieme indipendente (e quindi tutti 6= O).
Vogliamo costruire un’ altra sequenza β = (Bi )i<ω di vettori di V con le seguenti
proprietà:
(18.1) Bi 6= O, (∀i < ω),
(18.2) l’ insieme {Bi }i<ω è ortogonale,
(18.3) (Bi )ki=0 ∼ (Ai )ki=0 , (∀k < ω).
Dalla (18.3) segue che
(18.4) β ∼ α.
(Lascio questa deduzione al lettore; si noti che quando ω = n ∈ N la (18.4) è
solo un caso particolare della (18.3).) Da (18.1) e (18.2), usando il Teorema 9.4,
si ha anche che
(18.5) l’ insieme {Bi }i<ω è linearmente indipendente.
Quindi, per (18.4) (e (18.2)):
(18.6) {Bi }i<ω è una base (ortogonale) di L(α).
Una sequenza β = (Bi )i<ω con le proprietà (18.1), (18.2) e (18.3) viene detta
una ortogonalizzazione di α.
Costruzione di β. Sia α = (Ai )i<ω come nel paragrafo precedente. L’ insieme
{Ai }i<ω è linearmente indipendente, per ipotesi. Quindi Ai 6∈ L(A0 , A1 , ..., Ai−1 )
per ogni intero positivo i < ω ed Ai 6= O per ogni i < ω. Per la (18.3), il vettore
9.3. ORTOGONALIZZAZIONE 157
B0 deve essere un multiplo di A0 , non nullo per (18.1). La scelta più semplice
è la seguente:
(18.7.0) B0 = A0
(si rammenti che A0 6= O). Dobbiamo ora scegliere B1 in modo che
(18.1.1) B1 6= O,
(18.2.1) B1 ⊥ B0 ,
(18.3.1) {B0 , B1 } ∼ {A0 , A1 }.
Siccome si è scelto B0 = A0 , la (18.3.1) equivale alla condizione
(18.3.1.a) {B0 , B1 } ∼ {B0 , A1 },
che a sua volta implica che
(18.3.1.b) B1 ∈ L(B0 , A1 ).
Per la Proposizione 9.8, per soddisfare (18.2.1) e (18.3.1.b) dobbiamo prendere
⊥
B1 = t(A1 − πB 0
(A1 )) con t 6= 0 per (18.1.1). La scelta più semplice è porre
⊥
(18.7.1) B1 = A1 − πB 0
(A1 ).
Scegliamo dunque B1 in questo modo. Per la Proposizione 9.7, B1 verifica
(18.2.1) e (18.3.1.a), che equivale alla (18.3.1). Quindi anche la (18.3.1) vale.
Siccome A1 6∈ L(A0 ) e B0 = A0 , risulta B1 6= O (per (13)), come richiesto dalla
(18.1.1). Dunque questa scelta di B1 va bene. Ora dobbiamo scegliere B2 in
modo che
(18.1.2) B2 6= O,
(18.2.2) B2 ⊥ B0 , B1 ,
(18.3.2) {B0 , B1 , B2 } ∼ {A0 , A1 , A2 }.
Per la (18.3.1), la (18.3.2) equivale alla condizione
(18.3.2.a) {B0 , B1 , B2 } ∼ {B0 , B1 , A2 },
che a sua volta implica che
(18.3.2.b) B2 ∈ L(B0 , B1 , A2 ).
Per la (11) e la Proposizione 9.8, per soddisfare (18.2.2) ed (18.3.2.b) dobbiamo
⊥ ⊥
prendere B2 = t(A2 − πB 0
(A2 ) − πB 1
(A2 )) con t 6= 0 per (18.1.2). La scelta
più semplice è porre
⊥ ⊥
(18.7.2) B2 = A2 − πB 0
(A2 ) − πB 1
(A2 ).
Scegliamo dunque B2 in questo modo. Per la Proposizione 9.7, B2 verifica
(18.2.2) e (18.3.2.a) e perciò anche (18.3.2), che equivale a (18.3.2.a). Siccome
A2 6∈ L(A0 , A1 ), dalla (18.3.1) e dalla (13) si ha che B2 6= O, come richiesto dalla
158 Capitolo 9
(18.1.2). Dunque questa scelta di B2 va bene. Ora è la volta di B3 . Dobbiamo
sceglierlo in modo che
(18.1.3) B3 6= O,
(18.2.3) B3 ⊥ B0 , B1 , B2 ,
(18.3.3) {B0 , B1 , B2 , B3 } ∼ {A0 , A1 , A2 , A3 }.
Come in precedenza, l’ unico modo di soddisfare (18.2.3) e (18.3.3) è prendere
⊥ ⊥ ⊥
B3 = t(A3 − πB 0
(A3 ) − πB 1
(A3 ) − πB 2
(A3 )) con t 6= 0 per (18.1.3). Facendo
sempre la scelta più semplice, poniamo
⊥ ⊥ ⊥
(18.7.3) B3 = A3 − πB0
(A3 ) − πB 1
(A3 ) − πB2
(A3 ).
Come, per per B1 e B2 , si vede subito che questa scelta di B3 va bene. È ora
chiaro come si procede. In generale, se k < ω, dopo avere definito B1 , B2 ,...,
Bk−1 in modo che per ogni h = 1, 2, ..., k − 1 siano soddisfatte le condizioni
(18.1.h) Bh 6= O,
(18.2.h) Bh ⊥ B0 , B1 , ..., Bh−1 ,
(18.3.h) {B0 , B1 , ..., Bh } ∼ {A0 , A1 , ..., Ah },
definiamo Bk cosı̀:
Pk−1 ⊥
(18.7.k) Bk = Ak − i=0 πBi
(Ak )
e con questa posizione risulta che
(18.1.k) Bk 6= O,
(18.2.k) Bk ⊥ B0 , B1 , ..., Bk−1 ,
(18.3.k) {B0 , B1 , ..., Bk } ∼ {A0 , A1 , ..., Ak }.
La sequenza β = (Bi )i<ω definita in questo modo è una ortogonalizzazione della
sequenza α.
Osservazioni. La clausola ricorsiva (18.7.k) descrive la sequenza β come se
essa crescesse su sè stessa. Cioè, il k-esimo termine Bk sembra dipendere in
modo essenziale dai termini B0 , B1 ,..., Bk−1 che lo precedono. In realtà non è
cosı̀. La (18.7.k) ci dà Bk in questa forma:
⊥
Bk = Ak − πL(B 0 ,B1 ,...,Bk−1 )
(Ak )
(cfr. (11)). Però L(B0 , B1 , ..., Bk−1 ) = L(A0 , A1 , ..., Ak−1 ) per la (18.3.k − 1).
Sicchè possiamo riscrivere la (18.7.k) cosı̀:
⊥
Bk = Ak − πL(A 0 ,A1 ,...,Ak−1 )
(Ak ).
Cosı̀, la dipendenza di Bk da B0 , B1 ,..., Bk−1 è svanita, in teoria. Ma in pratica
rimane. Infatti, per calcolare con (11) la proiezione di Ak su L(A0 , A1 , ..., Ak−1 )
ci serve una base ortogonale di questo spazio, ma {A0 , A1 , ..., Ak−1 } non è detto
che lo sia. Invece {B0 , B1 , ..., Bk−1 } è una base ortogonale di L(A0 , A1 , ..., Ak−1 ).
9.3. ORTOGONALIZZAZIONE 159
Cosı̀, per calcolare Bk ci appoggiamo ai vettori B1 , B2 ,..., Bk−1 , già calcolati,
anche se Bk in realtà non dipende da essi.
Nell’ Esercizio 9.11 (Sezione 9.7) suggerirò un altro modo per calcolare
proiezioni ortogonali, senza doversi appoggiare a basi ortogonali.
9.3.2 Esistenza di basi ortogonali
Teorema 9.11 Ogni spazio euclideo (reale o complesso) di dimensione finita o
numerabile ammette basi ortogonali.
Dimostrazione. Sia V uno spazio euclideo e supponiamo che V abbia dimensio-
ne finita o numerabile. Sia E una base di V. Siccome l’ insieme E è finito o
numerabile, possiamo disporne gli elementi in una sequenza (Ei )i<ω . Col pro-
cedimento di Gram-Schmidt possiamo costruire una ortogonalizzazione E0 di
questa sequenza. Per (18.6), E0 è una base ortogonale di V. 2
Corollario 9.12 Ogni spazio euclideo di dimensione finita o numerabile am-
mette basi ortonormali.
(Ovvio, per il Teorema 9.11 e perchè da ogni base ortogonale se ne ottiene una
ortonormale, per normalizzazione).
Corollario 9.13 Sia V uno spazio euclideo (reale o complesso) di dimensione
finita o numerabile. Allora V è isomorfo allo spazio euclideo standard (reale o
complesso) di dimensione dim(V).
Dimostrazione. Per il Corollario 9.12, V ammette una base E ortonormale per
il prodotto scalare Φ in esso considerato. Per la Proposizione 9.10, Φ = ΦE . La
conclusione segue dal Lemma 8.8 del Capitolo 8. 2
Quindi,
Corollario 9.14 Due spazi euclidei, entrambi reali o complessi e di dimensione
finita o numerabile, sono isomorfi se e solo se hanno la stessa dimensione.
Dato uno spazio euclideo (V, Φ), reale o complesso, sia S un sottospazio lineare
di V. È evidente che la restrizione di Φ ad S × S è un prodotto scalare sullo
spazio vettoriale indotto da V su S. Lo diciamo il prodotto scalare indotto da Φ
su S e continuiamo ad indicarlo col simbolo Φ. Lo spazio vettoriale S, munito
del prodotto scalare Φ indotto da Φ, viene detto lo spazio euclideo indotto da
(V, Φ) su S.
Corollario 9.15 Se S ha dimensione finita o numerabile, è isomorfo allo spazio
euclideo standard (reale o complesso) di dimensione dim(S).
(Ovvio, per il Corollario 9.13). In particolare, se (V, Φ) è uno spazio euclideo
reale e se dim(S) = 2 o 3, allora (S, Φ) è isomorfo allo spazio euclideo standard
160 Capitolo 9
V2 (R) o V3 (R). Quindi, quando operiamo in uno spazio euclideo reale, finchè ci
limitiamo a questioni riguardanti oggetti geometrici tutti contenuti in uno stesso
sottospazio lineare di dimensione 3, possiamo ragionare esattamente come se
avessimo a che fare con figure nel solito spazio tridimensionale in cui viviamo.
9.4 Complementi ortogonali
In §9.1.4, dato uno spazio euclideo V, abbiamo considerato un suo sottospa-
zio lineare S di dimensione finita. Supponendo che S ammettesse una base
ortogonale {A1 , A2 , ..., Am }, abbiamo potuto dimostrare che V = S ⊕ S ⊥ (Pro-
posizione 9.6). Ma il Teorema 9.11 ci assicura che tutti i sottospazi lineari di V
di dimensione finita ammettono basi ortogonali. Sicchè,
Teorema 9.16 Risulta V = S ⊕ S ⊥ , per ogni sottospazio lineare S di V di
dimensione finita.
Possiamo dunque definire la proiezione ortogonale πS⊥ (X) di un vettore X su di
un sottospazio lineare S di V come in §9.1.4, qualunque sia X e qualunque sia
S, purchè di dimensione finita.
Corollario 9.17 Sia X un sottoinsieme di V generante un sottospazio lineare
di V di dimensione finita. Allora V = L(X) ⊕ X⊥ .
(Facile, per (5) e per il Teorema 9.16.) Anche il seguente corollario è una banale
conseguenza del Teorema 9.16.
Corollario 9.18 Se S è un sottospazio lineare di V di dimensione finita, allora
dim(S ⊥ ) = cod(S).
Dimostreremo ora che, se ci si limita ad insiemi di generatori per sottospa-
zi lineari di dimensione finita, la (7) della Sezione 9.1 può essere migliorata.
Dopodichè potremo anche migliorare la (4) e la (10).
Teorema 9.19 Sia X ⊆ V. Se dim(L(X)) < ∞, allora L(X) = X⊥⊥
Dimostrazione. Sappiamo da (7) che L(X) ⊆ X⊥⊥ . Resta da dimostrare l’
inclusione inversa.
Sia Z ∈ X⊥⊥ . Per il Corollario 9.17, risulta Z = X + Y per certi vettori
X ∈ L(X) ed Y ∈ X⊥ . Siccome Z ∈ X⊥⊥ , è hZ, Y i = 0. D’ altra parte, si ha
anche hZ, Y i = hX, Y i + hY, Y i. Sicchè hX, Y i + hY, Y i = 0. Però hX, Y i = 0,
perchè X ∈ L(X) mentre Y ∈ X⊥ = L(X)⊥ . Sicchè hY, Y i = 0. Perciò Y = O.
E quindi Z = X. Pertanto Z ∈ L(X).
Dunque X⊥⊥ ⊆ L(X), e quindi L(X) = X⊥⊥ . 2
In particolare, se S è un sottospazio lineare di dimensione finita, allora S = S ⊥⊥ .
Da ciò si ottiene anche che S ⊥ = S ⊥⊥⊥ , e cosı̀ via.
9.5. IPERPIANI E LORO VETTORI NORMALI 161
Corollario 9.20 Siano X, Y sottoinsiemi di V generanti sottospazi lineari di
dimensione finita. Allora L(X) ⊆ L(Y) se e solo se X⊥ ⊇ Y⊥ .
Dimostrazione. Che L(X) ⊆ L(Y) implichi X⊥ ⊇ Y⊥ lo si vede subito com-
binando (4) con (5). (Questo anche se L(X) ed L(Y) hanno dimensione infi-
nita.) Supponiamo invece che L(X) ed L(Y) abbiano dimensioni finite e che
X⊥ ⊇ Y⊥ . Allora X⊥⊥ ⊆ Y⊥⊥ , per (4). Quindi L(X) ⊆ L(Y), per il Teorema
9.19. 2
In particolare, se S ed S 0 sono sottospazi lineari di dimensione finita, allora
⊥
S ⊆ S 0 se e solo se S ⊥ ⊇ S 0 .
Corollario 9.21 Supponiamo che V abbia dimensione finita. Allora
\ [
( L(Xi ))⊥ = L( X⊥ i ),
i∈I i∈I
per ogni famiglia {Xi }i∈I di sottoinsiemi di V.
Dimostrazione. Risulta ( i∈I X⊥ ⊥
X⊥⊥ (per la (9), sostituendo in
S T
i ) =
Ti∈I i
⊥ ⊥ ⊥
S
essa Xi a Xi ). Dunque, ( i∈I Xi ) = i∈I L(Xi ), per il Teorema 9.19. Da
ciò si ottiene che
[ \
(i) ( X⊥ i )
⊥⊥
= ( L(Xi ))⊥
i∈I i∈I
D’ altra parte, sempre per il Teorema 9.19,
[ [
(ii) ( X⊥ i )
⊥⊥
= L( X⊥ i )
i∈I i∈I
Le uguaglianze (i) e (ii) ci danno la conclusione. 2
9.5 Iperpiani e loro vettori normali
Il seguente corollario è un caso particolare del Corollario 9.17.
Corollario 9.22 Sia N ∈ V. Allora V = L(N ) ⊕ N ⊥ .
Dunque, se N 6= O il sottospazio lineare S = N ⊥ di V è un iperpiano (cfr.
Corollario 9.18). Il vettore N si dice un vettore normale dell’ iperpiano S.
Diciamo che un iperpiano S di V ammette vettore normale se S = N ⊥ per
qualche vettore N di V (necessariamente non nullo).
Lemma 9.23 Sia S un iperpiano. Un vettore N 6= O è un vettore normale di
S se e solo se L(N ) = S ⊥ .
162 Capitolo 9
Dimostrazione. Sia N un vettore normale di S. Cioè S = N ⊥ . Quindi N ⊥⊥ =
S ⊥ . Ma è L(N ) = N ⊥⊥ per il Teorema 9.19. Quindi L(N ) = S ⊥ .
Viceversa, sia L(N ) = S ⊥ per qualche vettore N 6= O. Allora N ⊥ = S ⊥⊥ ⊇
S per (7). Per concludere ci basta dimostrare che S = N ⊥ , cioè che S = S ⊥⊥ .
Supponiamo per assurdo che S ⊂ S ⊥⊥ . Allora S ⊥⊥ = V per la Proposizione
7.16 del Capitolo 7. Vale a dire, N ⊥ = V. Pertanto N = O per la (2) della
Sezione 9.1, contro l’ ipotesi che N 6= O. 2
Da questo lemma segue che se un iperpiano S ammette vettore normale allora
S ⊥ è una retta ed i vettori normali di S sono i vettori non nulli della retta S ⊥ .
Essi sono infiniti, ma sono tutti tra loro proporzionali. In considerazione di ciò,
capita spesso di parlare del vettore normale di S (al singolare), prendendone
uno come rappresentante di tutti gli altri. È un modo di esprimersi scorretto,
ma comodo.
Lemma 9.24 Sia S un iperpiano di V. Allora S ⊥ o è una retta o è {O}.
Dimostrazione. Risulta S + S ⊥ = S ⊕ S ⊥ per la (1) della Sezione 9.1. Sicchè
dim(S ⊥ ) è la codimensione di S relativa ad S + S ⊥ . Pertanto dim(S ⊥ ) ≤
cod(S) = 1 (Capitolo 7, (5)). Dunque S ⊥ è {O} oppure una retta. 2
Teorema 9.25 Un iperpiano S ammette vettore normale se e solo se S ⊥ 6=
{O}.
(Facile, per i Lemmi 9.23 e 9.24.) L’ eventualità che S ⊥ = {O} può verificarsi
(cfr. Sezione 9.7, Esercizio 9.14). Però,
Corollario 9.26 Se V ha dimensione finita, allora ogni suo iperpiano ammette
vettore normale.
Dimostrazione. Sia dim(V) < ∞ e sia S un iperpiano di V. Per il Corollario
9.18, S ⊥ è una retta. Quindi S ammette vettore normale, per il Teorema 9.25.
2
9.6 Ortogonalità e sistemi omogenei
La nozione di vettore normale ci permette di riformulare in modo molto conciso
vari risultati ottenuti nella Sezione 6.3 del Capitolo 6, ma limitatamente al
caso in cui il campo degli scalari sia R o C, o anche un qualunque sottocampo
di C. (Infatti, abbiamo definito prodotti scalari solo in spazi vettoriali reali o
complessi.)
Le considerazioni seguenti sono ambientate in (Vn (R), Φst ) e in (Vn (C), Φst );
ma, per il Corollario 9.15, potremmo anche riferirci ad arbitrari spazi euclidei
di dimensione finita, senza dovere cambiare nulla di quel che diremo.
9.6. ORTOGONALITÀ E SISTEMI OMOGENEI 163
9.6.1 Il caso reale
In questa sezione V = Vn (R), munito del prodotto scalare standard Φst .
Iperpiani ed equazioni omogenee. Sia S un iperpiano di V. Per il Corol-
lario 9.26 ed il Lemma 9.23, S ammette un vettore normale ed ogni vettore non
nullo A ∈ S ⊥ è un vettore normale per S. Sia dunque A un vettore normale
per S. Cioè
S = A⊥ = {X ∈ V | hX, Ai = 0}.
Sia (ai )ni=1 la n-pla delle coordinate di A ed indichiamo con x1 , x2 , ..., xn le
coordinate del vettore generico X di V. L’ equazione hX, Ai = 0, riscritta per
esteso, diventa:
n
X
ai xi = 0.
i=1
L’ iperpiano S è la soluzione generale di questa equazione ed il vettore A è
proprio la n-pla dei suoi coefficienti.
Viceversa, ogni equazione lineare omogenea in n incognite può riscriversi
nella forma abbreviata hX, Ai = 0, ove A è la n-pla dei suoi coefficienti. Quindi
la sua soluzione generale è A⊥ che, se A 6= O (cioè se l’ equazione non è quella
banale), è un iperpiano.
Da sottospazi lineari a sistemi omogenei. Dato un sottospazio lineare
S di V dimensione d < n, sia m = n − d. Cioè m = cod(S). Sappiamo
dal Teorema 6.8 del Capitolo 6 che S è la soluzione di un sistema formato da
m equazioni lineari omogenee (linearmente indipendenti). Ciascuna di quelle
equazioni rappresenta un iperpiano. Quindi S è intersezione di m iperpiani.
Nel Capitolo 7 (Esercizio 7.8) si è anche data una generalizzazione di questo
risultato. Ora invece ne darò una interpretazione in chiave di ortogonalità.
Abbiamo supposto che m = cod(S). Quindi, dim(S ⊥ ) = m (Corollario 9.18).
Data una base {A1 , A2 , ..., Am } di S ⊥ , dall’ uguaglianza S ⊥ = L(A1 , A2 , ..., Am )
si deduce che S ⊥⊥ = L(A1 , A2 , ..., Am )⊥ . Quindi, S ⊥⊥ = {A1 , A2 , ..., Am }⊥ =
T m ⊥ ⊥⊥
i=1 Ai (per (5) e (8)). D’ altra parte, S = S per il Teorema 9.19. Quindi
S è l’ intersezione degli m iperpiani ortogonali agli m vettori A1 , A2 ,..., Am :
m
\
S = A⊥
i
i=1
La condizione X ∈ A⊥ i si traduce in un’ equazione lineare omogenea avente Ai
come n-pla di coefficienti. Il sistema formato da queste m equazioni costituisce
una rappresentazione cartesiana di S, come nel Teorema 6.8 del Capitolo 6.
Le equazioni di questo sistema sono indipendenti. Infatti sono indipendenti i
vettori A1 , A2 ,..., Am , che le rappresentano.
164 Capitolo 9
Da sistemi omogenei a sottospazi lineari. Viceversa, dati m iperpiani S1 ,
S2 ,..., Sm , sia S la loro intersezione. T
Preso, per ogni i = 1, 2, ..., m, un vettore
m
Ai 6= O normale ad Si , abbiamo S = i=1 A⊥ ⊥
i = {A1 , A2 , ..., Am } . Quindi,
S ⊥ = {A1 , A2 , ..., Am }⊥⊥ = L(A1 , A2 , ..., Am ).
(La seconda di queste uguaglianze segue dal Teorema 9.19.) Per il Corollario
9.18,
cod(S) = dim(L(A1 , A2 , ..., Am )) ≤ m.
Quindi dim(S) ≥ n−m. Indichiamo con X il sistema formato dalle m equazioni
omogenee che esprimono le condizioni X ∈ A⊥ i (per i = 1, 2, ..., m). Ovviamente
S = sol(X). Siccome i vettori A1 , A2 , ..., Am sono proprio le righe della matrice
incompleta di X e siccome L(A1 , A2 , ..., An ) = S ⊥ , risulta
rank(X) = dim(S ⊥ ) = cod(S) = n − dim(S)
Abbiamo cosı̀ ritrovato per via geometrica il Teorema 6.5 del Capitolo 6. Ov-
viamente, dim(S) = n−m se e solo se dim(L(A1 , A2 , ..., Am ) = m, cioè se e solo
se i vettori A1 , A2 , ..., Am sono linearmente indipendenti. E questo ci restituisce
il Corollario 6.6 del Capitolo 6.
Implicazioni tra equazioni. Sia X un sistema di m equazioni lineari omoge-
nee in n incognite, riferite a numeri reali, e sia A un’ equazione lineare omogenea
nelle stesse n incognite. Supponiamo che Tmsol(X) ⊆ sol(A) e siano A1 , A2 , ..., Am
le equazioni di X. Quindi sol(X) = i=1 sol(Ai ). La soluzione sol(Ai ) dell’
equazione Ai è l’ iperpiano A⊥ i ortogonale al vettore Ai (come nel Capitolo 2,
§2.2.3, uso lo stesso simbolo per indicare un’ equazione omogenea e la n–pla dei
suoi coefficienti). Analogamente, sol(A) = A⊥ . L’ inclusione sol(A) ⊇ sol(X)
può riscriversi cosı̀:
m
\
A⊥ ⊇ A⊥
i = {A1 , A2 , ..., Am }
⊥
i=1
Quindi
A ∈ L(A) = A⊥⊥ ⊆ {A1 , A2 , ..., Am }⊥⊥ = L(A1 , A2 , ..., Am )
per la (4) della Sezione 9.1 e per il Teorema 9.19. Pertanto, se sol(X) ⊆ sol(A),
allora A ∈ L(X). (Abbiamo cosı̀ ritrovato per via geometrica il Corollario 6.7
del Capitolo 6.)
9.6.2 Il caso complesso
Premetto una definizione. Sia X = (xi )ni=1 un vettore di Vn (C). Diciamo coniu-
gato di X il vettore (xi )ni=1 . Lo indicherò con X. Ovviamente, X = X per ogni
X ∈ Vn (C). Sia ora A = (ai )ni=1 un vettore non nullo di Vn (C). L’ equazione
9.7. ESERCIZI 165
hX, Ai = 0, che caratterizza i punti dell’ iperpiano A⊥ , se scritta per esteso
assume il seguente aspetto:
n
X
ai xi = 0.
i=1
Pn
Viceversa, data un’ equazione lineare omogenea non banale i=1 bi xi = 0, la
⊥
sua soluzione generale è l’ iperpiano B , ove B = (bi )ni=1 .
Dunque, tutto quello che si è detto nel caso reale può ripetersi nel caso
complesso quasi parola per parola. La sola differenza è che ora i coefficienti di un’
equazione ci danno non il vettore normale all’ iperpiano da essa rappresentato,
ma il suo coniugato.
9.7 Esercizi
Esercizio 9.1 Sia K = R o C e sia I un insieme infinito. Si dimostri che uno
spazio euclideo su K di dimensione card(I) ammette una base ortonormale se e
solo se è isomorfo a (VI (K), Φst ).
Esercizio 9.2 Sia I01 il prodotto scalare definito in P∞ (R) come in §8.3.2 del
Capitolo 8. Sia (Qn )∞ n ∞
n=0 un’ ortogonalizzazione di (x )n=0 nello spazio euclideo
1 ∞
(P∞ (R), I0 ) e sia (Pn )n=0 la normalizzazione di (Qn )∞
n=0 . Verificate che P0 è
1 o −1 e che P1 e P2 sono i polinomi richiesti nell’ Esercizio 8.17 del Capitolo
8.
Esercizio 9.3 Sia α = (Ai )i<ω come in §9.3.1 e siano β = (Bi )i<ω e β 0 =
(B 0 i )i<ω due sue ortogonalizzazioni. Si dimostri che esiste una sequenza τ =
(ti )i<ω di scalari non nulli tale che B 0 i = ti Bi per ogni i < ω.
Esercizio 9.4 Sia α come in §9.3.1. Diciamo che una ortogonalizzazione β
di α è una ortonormalizzazione di α se tutti i suoi vettori hanno norma 1.
Supponiamo che α sia finita, con n termini. Se lo spazio euclideo in cui α è
data è reale, quante sono le ortonormalizzazioni di α ? Quante sono nel caso
complesso ?
Risposta. Nel caso reale sono 2n . Invece nel caso complesso sono infinite.
Esercizio 9.5 Sia α = (Ai )i<ω come in §9.3.1 e supponiamo che per qual-
che ω 0 ≤ ω l’ insieme {Ai }i<ω0 sia ortogonale. Sia β = (Bi )i<ω una or-
togonalizzazione di α. Si dimostri che Bi è proporzionale ad Ai , per ogni
i < ω0 .
Esercizio 9.6 Ferme su α le ipotesi fatte nell’ esercizio precedente, sia ora
β = (Bi )i<ω l’ ortogonalizzazione di α ottenuta con la clausola ricorsiva (18.7.k)
a partire dalla posizione iniziale B0 = A0 . Si dimostri che Bi = Ai per ogni
i < ω0 .
166 Capitolo 9
Esercizio 9.7 Sia A un insieme infinito di vettori di uno spazio euclideo (V, Φ).
Indichiamo con A[⊥] l’ insieme dei vettori di V che sono ortogonali a tutti i
vettori di A o a tutti eccetto un numero finito di essi. Si dimostri che A[⊥] è
un sottospazio lineare di V.
Nota. Se A fosse finito, si avrebbe A[⊥] = V.
Esercizio 9.8 Siano A ed A[⊥] come nell’ esercizio precedente. Si dimostri
che, se A è ortogonale, allora L(A) ⊆ A[⊥] .
Esercizio 9.9 Mantenendo le ipotesi e le notazioni dell’ Esercizio 9.7, suppo-
niamo che A sia ortogonale e che O 6∈ A. Si dimostri che, per ogni vettore
X ∈ A[⊥] , esiste un unico vettore Y ∈ L(A) tale che X − Y sia ortogonale a
tutti i vettori di L(A).
Esercizio 9.10 (Matrici di Gram) Data in uno spazio euclideo, reale o com-
plesso, una m–pla di vettori α = (Ai )m m
i=1 , sia G(α) = (hAi , Aj i)i,j=1 . Si
−
dimostri che rank(G(α) ) = m se e solo se dim(L(α)) = m.
Traccia. Indichiamo con B1 , B2 ,..., P Bm le righe di G(α).PPer ogni m-pla di
m m
scalari ξ = (xi )mi=1 , si ponga X ξ = i=1 xi Ai ed Yξ = i=1 xi Bi . Risulta
m
Yξ = (hXξ , Aj i)j=1 . Sicchè Xξ = O ⇒ Yξ = O. Viceversa, se Yξ = O, allora Xξ
è ortogonale a tutti i vettori di α. D’ altra parte, Xξ ∈ L(α). Quindi Xξ = O.
Dunque Xξ = O ⇔ Yξ = O. Pertanto ...
Definizione. La matrice G(α) si chiama matrice di Gram di α.
Esercizio 9.11 Si dimostri il Teorema 9.16 senza usare il Teorema 9.11.
m
Pm = n < ∞ e sia α = (Ai )i=1 una base ordinata di S. Dato
Traccia. Sia dim(S)
X ∈ V ed Y = i=1 ti Ai ∈ S, affinchè X − Y sia ortogonale a tutti i vettori di
S occorre e basta che
m
X
ti hAi , Aj i = hX, Aj i, (∀j = 1, 2, ..., m).
i=1
Questo è un sistema di m equazioni in m incognite. La sua matrice incompleta
è la matrice di Gram G(α) di α (Esercizio 9.10). Risulta rank(G(α)− ) = m
(Esercizio 9.10). Quindi quel sistema è risolubile (Capitolo 6, Corollario 6.2) e
determinato (Capitolo 6, §6.2.2). Pertanto ...
Esercizio 9.12 Sia X un sottoinsieme di V generante un sottospazio lineare di
V di codimensione finita. Si dimostri che X⊥ = X⊥⊥⊥ .
Traccia. Siccome L(X) ∩ X⊥ = {O}, il sottospazio lineare X⊥ è un comple-
mentare di L(X) in L(X) ⊕ X⊥ . Quindi ...
Esercizio 9.13 Sia C0 ([a, b]) come in §8.3.1 del Capitolo 8 e sia A l’ insieme
Rb
delle funzioni f ∈ C0 ([a, b]) tali a f (x)dx = 0. Si dimostri che A è un iperpiano
di C0 ([a, b]).
Soluzione. È l’ iperpiano ortogonale alla funzione costante 1.
9.7. ESERCIZI 167
Esercizio 9.14 Sia C0 ([a, b]) come sopra, munito del prodotto scalare Iab come
in §8.3.1 del Capitolo 8 e sia B l’ iperpiano di C0 ([a, b]) formato dalle funzioni
f ∈ C0 ([a, b]) tali che f (a) = 0 (Capitolo 7, §7.1.3, ). Si dimostri che B non
ammette vettore normale.
Suggerimento. La costante nulla è l’ unica funzione g ∈ C0 ([a, b]) tale che
Rd
c
g(x)dx = 0 per ogni scelta di c, d con a < c ≤ d ≤ b.
Esercizio 9.15 Si usi il Teorema 9.4 per dimostrare che il seguente insieme di
vettori di RR è linearmente indipendente (cfr. Capitolo 4, Esercizio 4.15):
{cos nx}n∈N ∪ {sin nx}n∈N\{0}
Traccia. Basta dimostrare l’ indipendenza delle restrizioni di queste funzioni
a [0, 2π]. Queste restrizioni appartengono C0 ([0, 2π]) e formano un insieme
R 2π
ortogonale per il prodotto scalare I02π (f, g) = 0 f (x)g(x)dx. Quindi ...
Esercizio 9.16 Si dimostri che il seguente insieme di vettori di RR è linear-
mente indipendente:
{cos rx | r ∈ Q, r ≥ 0} ∪ {sin rx | r ∈ Q, r > 0}
Traccia. Dato un sottoinsieme finito {cos ri x}ki=1 ∪ {sin si x}hi=1 di quell’ in-
sieme, sia n il minimo comune multiplo dei denominatori dei numeri razionali
r1 , r2 , ..., rk , s1 , s2 , ..., sh . Si ponga y = x/n e si applichi l’ Esercizio 9.15.
168 Capitolo 9
Capitolo 10
Sottospazi affini e sistemi
lineari
D’ ora in poi prendiamo le parole “vettore” e “punto” come sinonime, scegliendo
l’ una o l’ altra a seconda di quel che dovremo dire.
10.1 Sottospazi affini
I sottospazi lineari non banali di V2 (R) sono le rette per O. Le altre rette del
piano si ottengono traslando quelle per O. Precisamente, se L è una retta non
per O ed L0 è la parallela ad L per O, allora L si ottiene traslando L0 su P , ove
P è qualunque punto di L, non importa quale.
@ P
@•
*
@ @
@
• @ L
O@ 0 @
@ L @
@
L0 , essendo una retta per O, è un sottospazio lineare di V2 (R). La retta L è l’
insieme dei vettori ottenuti sommando il vettore P ai vettori che costituiscono
L0 . Cioè, L = {P } + L0 .
Per esempio, la retta rappresentata dall’ equazione y = ax + b si ottiene
traslando L((1, a)) sul punto (0, b). La retta rappresentata dall’ equazione x = a
si ottiene traslando L((0, 1)) sul punto (a, 0).
Analogamente, le rette e i piani di V3 (R) si ottengono traslando i sottospazi
lineari di V3 (R) di dimensione 1 e 2, che sono le rette ed i piani di V3 (R) per O.
169
170 Capitolo 10
HH
@ HH
@ P H H
HH
*
@ H
@ H
@
P@
HH
• @ O HH
•H
@
O @ @ H
HH
@ H
H
Il concetto di sottospazio affine, che definiremo fra poco, è la naturale genera-
lizzazione di queste considerazioni.
10.1.1 Definizione
Nel seguito V sta ad indicare un dato spazio vettoriale. V è il suo insieme di
vettori e K il suo campo di scalari.
Traslazioni. Dato un vettore P ∈ V, indichiamo con τP la funzione da V a
V definita ponendo
τP (X) =def P + X, (X ∈ V)
Chiamiamo τP la traslazione di P e diciamo P + X traslato di X mediante P .
Dato un sottoinsieme A di V, il suo traslato mediante P è la sua immagine τP (A)
mediante τP , cioè l’ insieme {P + X | X ∈ A}. Vale a dire, τP (A) = {P } + A.
Abbrevieremo il simbolo {P } + A scrivendo P + A e scriviamo brevemente
−P + A anzichè (−P ) + A.
Sottospazi affini. I sottospazi affini di V sono i traslati dei sottospazi lineari
di V. Ovviamente, ogni sottospazio lineare di V è anche un sottospazio affine di
V. Infatti, è il traslato di sè stesso mediante il vettore nullo. In particolare, V
è un sottospazio affine di V. Lo diciamo sottospazio affine totale.
Dato un punto (cioè un vettore) P di V, il suo singoletto {P } è il traslato di
{O} mediante P , ed è dunque un sottospazio affine. Nel seguito ci prenderemo
spesso la libertà di identificare P con {P }, riferendoci al punto P anche quando,
a voler esser precisi, dovremmo parlare del singoletto {P } di P .
Lo spazio V ed i punti di V verranno detti sottospazi affini banali di V.
10.1.2 Proprietà elementari
Proprietà di traslazioni e traslati. Le seguenti proprietà delle traslazioni
sono facili a dimostrarsi. Lasciamo la loro dimostrazione al lettore.
(1) τO è l’ identità;
(2) τP τQ = τQ τP = τP +Q , per ogni scelta di vettori P, Q ∈ V.
(3) ogni traslazione è invertibile e risulta τP−1 = τ−P per ogni P ∈ V.
10.1. SOTTOSPAZI AFFINI 171
(Con la terminologia del Volume 2, Capitolo 8, possiamo esprimere le (1), (2)
e (3) dicendo che le traslazioni formano un gruppo (commutativo) isomorfo al
gruppo formato dai vettori di V rispetto a +, − e O.) Dalla (2) si ha subito che
(20 ) P + (Q + A) = (P + Q) + A, (∀P, Q ∈ V, ∀A ⊆ V)
La (2’) ci autorizza a scrivere brevemente P + Q + A anzichè P + (Q + A) o
(P + Q) + A.
(4) A ⊆ B ⇐⇒ P + A ⊆ P + B, (∀P ∈ V, ∀A, B ⊆ V)
Infatti, la traslazione τP è una funzione invertibile, sicchè la (4) segue da ovvie
proprietà delle funzioni. Dalla (4) si ha subito che
(5) A = B ⇐⇒ P + A = P + B, (∀P ∈ V, ∀A, B ⊆ V)
Per ogni famiglia {Ai }i∈I di sottoinsiemi di V e per ogni vettore P ∈ V risulta
[ [
(6) (P + Ai ) = P + Ai
i∈I i∈I
\ \
(7) (P + Ai ) = P + Ai
i∈I i∈I
La (6) segue dal fatto che l’ immagine mediante una qualunque funzione di
un’ unione di insiemi è l’ unione delle immagini di quegli insiemi (Volume 1,
Capitolo 3, Esercizio 3.3; qui la funzione da considerare è τP ). La (7) segue
invece dall’ invertibilità di τP e dal fatto che l’ immagine mediante una funzione
di un’ intersezione di insiemi è contenuta nell’ intersezione delle immagini di
quegli insiemi (Volume 1, Capitolo 3, Esercizio 3.3).
Proprietà di sottospazi affini. Di qui in poi A e B staranno ad indicare
sottospazi lineari di V. Quindi i loro traslati sono sottospazi affini. Le proprietà
che seguono si intendono asserite per ogni scelta di A e B tra i sottospazi lineari
di V e per ogni scelta dei punti P e Q.
(8) P ∈ P +A
Dimostrazione. Siccome A è lineare, O ∈ A. Quindi P + O ∈ P + A. Cioè
P ∈ P + A. 2
(9) P + A = A ⇐⇒ P ∈ A, (∀P ∈ V)
Dimostrazione. Sia P + A = A. È P ∈ P + A per (8). Quindi P ∈ A perchè
P + A = A. Cosı̀ l’ implicazione ⇒ nella (9) è provata. Resta da provare l’
implicazione inversa.
Sia P ∈ A. Si ha P +A ⊆ A per la linearità di A. Analogamente, −P +A ⊆
A, perchè anche −P ∈ A (perchè A è lineare). Da questa seconda inclusione,
traslando di P e applicando la (4), si ottiene A ⊆ P + A. Quindi P + A = A.
2
(10) P + A ⊆ Q + B ⇐⇒ (A ⊆ B) ∧ (P ∈ Q + B)
172 Capitolo 10
Dimostrazione. Sia P + A ⊆ Q + B. Risulta P ∈ P + A per la (8). Quindi
P ∈ Q + B, cioè P = Q + Y per qualche Y ∈ B. Dunque Q + Y + A ⊆ Q + B.
Da ciò, traslando di −Q − Y ed applicando la (4), si ottiene che A ⊆ −Y + B.
Però −Y + B = B per (9) e perchè −Y ∈ B (infatti Y ∈ B e B è lineare).
Quindi A ⊆ B. L’ implicazione ⇒ è dimostrata. Dimostriamo l’ implicazione
inversa.
Sia A ⊆ B e sia P ∈ Q + B, cioè P = Q + Y per qualche Y ∈ B. Dall’
inclusione A ⊆ B, traslando di P e usando (4), si ottiene che P + A ⊆ P + B =
Q + Y + B. Ma Y + B = B per (9). Quindi P + A ⊆ Q + B. 2
(11) P + A = Q + B ⇐⇒ (A = B) ∧ (P ∈ Q + B)
(Questa è una banale conseguenza di (10).)
(12) P + A = Q + A ⇐⇒ Q ∈ P + A
(Questo segue da (11), ponendovi B = A.)
(13) (P + A) ∩ (Q + A) 6= ∅ =⇒ P + A = Q + A
Dimostrazione. Sia (P +A)∩(Q+A) 6= ∅ e sia R ∈ (P +A)∩(Q+A). Riferendo
la (12) a P ed R e poi a Q ed R si ottiene che P + A = R + A = Q + A. Quindi
P + A = Q + A. 2
(14) (A ⊆ B) ∧ ((P + A) ∩ (Q + B) 6= ∅) =⇒ P + A ⊆ Q + B
Dimostrazione. Sia A ⊆ B ed R ∈ (P + A) ∩ (Q + B). Da (12) si ottiene
P + A = R + A ed R + B = Q + B. D’ altra parte, R + A ⊆ R + B, per (4) e
perchè A ⊆ B. Quindi P + A ⊆ Q + B. 2
(15) P + A = A ⇐⇒ O ∈ P + A
Questa proprietà si ottiene da (12) ponendovi Q = O. La si può esprimere
anche cosı̀:
Proposizione 10.1 Un sottospazio affine di V è un sottospazio lineare di V se
e solo se contiene O.
La seguente proposizione è l’ analoga del Lemma 2.7 del Capitolo 2.
Proposizione 10.2 L’ intersezione di una arbitraria famiglia di sottospazi af-
fini, se non è l’ insieme vuoto, è un sottospazio affine.
Dimostrazione. Sia {Ai }i∈I una famiglia di sottospazi
T lineari di V e, per ogni
iT∈ I, sia Pi un punto di V. Supponiamo che i∈I (Pi + Ai ) 6= ∅ e sia P ∈
i∈I (Pi + T i = P + Ai per ogni i ∈ I.T
Ai ). Per la (8), Pi + AT
Sicchè i∈I (Pi + Ai ) = P + i∈I Ai , per (7). Dunque i∈I (Pi + Ai ) è un
sottospazio affine. 2
10.1. SOTTOSPAZI AFFINI 173
10.1.3 Direzioni, dimensioni e parallelismo
Definizioni e terminologia. Sia SO un sottospazio lineare di V, sia P un
vettore di V e sia S = P + SO il sottospazio affine ottenuto traslando SO di
P . Per (8), P è un punto di S. Per (12), se sostituiamo P con un qualunque
altro punto Q di S, non cambia niente: si ha sempre S = Q + SO . Invece, per
(11), il sottospazio lineare SO è univocamente determinato da S. Chiamiamo
SO la direzione di S e diciamo la sua dimensione dimensione di S. Indichiamo
la dimensione di S col simbolo dim(S). La codimensione di S è la codimensione
cod(SO ) di SO . La indichiamo col simbolo cod(S).
Si noti che ∅ non è un sottospazio affine di V. Ma assegnamo una dimensione
anche a ∅, stabilendo la convenzione che dim(∅) = −1.
I sottospazi affini di V di dimensione 0 sono null’ altro che i punti (cioè i
vettori) di V. Quelli di dimensione 1 sono invece detti rette, mentre quelli di
dimensione 2 sono detti piani. Dunque le rette di V sono i sottospazi affini
del tipo P + L(A), ove A 6= O. I piani di V sono i sottospazi affini del tipo
P + L(A, B), ove A e B sono vettori non proporzionali.
Ovviamente, se V ha dimensione 2, tutti i suoi sottospazi affini non banali
sono rette. Se invece dim(V) = 3, allora i suoi sottospazi affini non banali sono
rette o piani. Si noti invece che uno spazio vettoriale di dimensione 1 ammette
solo sottospazi affini banali.
Diciamo che tre o più punti sono collineari se stanno tutti su una stessa
retta. Diciamo che tre o più punti sono complanari se stanno tutti su uno stesso
piano. Evidentemente, punti collineari sono anche complanari. Due rette sono
dette complanari se stanno in uno stesso piano.
I sottospazi affini di codimensione 1 sono detti iperpiani. Nel caso che
dim(V) = 2, gli iperpiani sono le rette. Se invece dim(V) = 3, allora gli iperpia-
ni sono i piani. Comunque, quando dim(V) ≤ 3 si preferisce evitare la parola
“iperpiano”.
Per dire che un sottospazio affine non banale S contiene un punto P si usa
anche dire che S passa per P . Analogamente, se dim(S) ≥ 2 e se L è una retta,
si usa dire che S passa per L per dire che L ⊆ S.
Due sottospazi affini non banali sono detti paralleli se la direzione di uno
dei due contiene la direzione dell’ altro. In particolare, due sottospazi affini di
ugual dimensione finita ≥ 1 sono paralleli se e solo se hanno la stessa direzione.
Ogni sottospazio affine non banale è parallelo a sè stesso, per convenzione. Si
noti che, a norma della definizione che abbiamo stabilito, se di due sottospazi
affini non banali uno contiene l’ altro, allora li dobbiamo dire paralleli.
Si dice che due distinti sottospazi affini non banali si intersecano se la loro
intersezione non è vuota. Per dire che una retta L interseca un sottospazio affine
non banale S si dice anche che L è incidente a (o con) S. Due rette distinte che
non siano nè parallele nè incidenti sono dette sghembe.
Qualche proprietà. Dato un sottospazio affine S, sia SO la sua direzione e
sia P ∈ S. Sicchè, S = P + SO . È ora ovvio che, dato un qualunque punto Q
174 Capitolo 10
di V,
(16) Q ∈ S ⇐⇒ Q − P ∈ SO
Siano S e S0 sottospazi affini con S ⊆ S0 . Allora
(17) dim(S) = dim(S0 ) < ∞ =⇒ S = S0
Dimostrazione. Preso P ∈ S ed indicate con SO e S0O le direzioni di S e S0 , si ha
S = P +SO e S0 = P +S0O . Sicchè SO ⊆ S0O per (4). Se dim(S) = dim(S0 ) < ∞,
allora dim(SO ) = dim(S0O ) < ∞ e perciò SO = S0O . Quindi S = S0 . 2
Proposizione 10.3 Siano S ed S0 due sottospazi affini non banali, paralleli e
supponiamo che nessuno dei due contenga l’ altro. Allora S ∩ S0 = ∅.
Dimostrazione. Siano SO ed S0O le direzioni di S ed S0 . Siccome S ed S0 sono
paralleli, uno dei due sottospazi lineari SO ed S0O contiene l’ altro. Supponiamo
che SO ⊆ S0O , per fissare le idee, e supponiamo per assurdo che S ed S0 abbiano
un punto P in comune. Allora S = P + SO e S0 = P + SO e quindi, siccome
SO ⊆ S0O , risulta S ⊆ S0 , contro le ipotesi. 2
Corollario 10.4 Siano S ed S0 sottospazi affini non banali con dim(S) =
dim(S0 ) < ∞. Se S ed S0 sono paralleli ma S 6= S0 , allora S ∩ S0 = ∅.
Dimostrazione. Se S ed S0 hanno un punto in comune, uno dei due contiene l’
altro per la Proposizione 10.3. Quindi S = S0 per (17). 2
Dato un sottospazio affine S di direzione SO e dato un punto P , P + SO è
l’ unico sottospazio affine contenente P , parallelo ad S e di direzione SO . Lo
diciamo il parallelo ad S per P .
Si noti che la direzione di un sottospazio affine non banale S è proprio il
parallelo ad S per O.
10.1.4 Rappresentazioni parametriche
Sia S un sottospazio affine di dimensione finita m ≥ 1 e sia SO la sua direzione.
Sia {B1 , B2 , ..., Bm } una base di SO e sia P un punto di S. Dunque S =
P + L(B1 , B2 , ..., Bm ), cioè S è l’ insieme dei punti che possono rappresentarsi
nella forma
m
X
(18) X = P+ t i Bi , (t1 , t2 , ..., tm ∈ K)
i=1
(In particolare, se P ∈ SO , allora S = SO = L(B1 , B2 , ..., Bn ), per (9).)
Supponiamo per di più che dim(V) = n < ∞. Scelta una base E di V, sia
(xi )ni=1 = (X)E la n–pla delle coordinate di un generico punto X rispetto alla
10.2. SISTEMI LINEARI 175
base E e poniamo (bk,i )ni=1 = (Bk )E per k = 1, 2, ..., m e (pi )ni=1 = (P )E . Per la
(18), il punto X appartiene ad S se e solo se
m
X
(19) xk = pk + bi,k ti , (k = 1, 2, ..., n)
i=1
per opportuni t1 , t2 , ..., tm ∈ K. Queste relazioni si dicono formare una rappre-
sentazione parametrica di S.
10.2 Sistemi lineari
In questa sezione supponiamo che V abbia dimensione finita n ≥ 2. Data
una base E di V, possiamo identificare ogni vettore X di V con la n-pla (X)E
delle sue coordinate rispetto ad E, scrivendo brevemente (xi )ni=1 = X anzichè
(xi )ni=1 = (X)E , come se V fosse Vn (K) ed E fosse la base dei versori di Vn (K).
10.2.1 Da sottospazi affini a sistemi lineari
Sia S un sottospazio affine non banale di V e sia SO la sua direzione. Sia s =
dim(S). Dunque s = dim(SO ) e sappiamo dal Capitolo 6 che SO è la soluzione
generale di un sistema di m = n − s equazioni lineari omogenee linearmente
indipendenti
n
X
(i) ak,i xi = 0, (k = 1, 2, ..., m)
i=1
Sia ora P = (pi )ni=1 un punto di S, arbitrario ma scelto una volta per tutte.
Dunque S = P + SO . Quindi un punto X = (xi )ni=1 appartiene ad S se e solo se
X − P ∈ SO , cioè se e solo se (xi − pi )ni=1 è una soluzione del sistema formato
dalle equazioni (i). Quindi X ∈ S se e solo se
n
X
ak,i (xi − pi ) = 0, (k = 1, 2, ..., m)
i=1
il chè è come dire che
n
X
(ii) ak,i xi = bk , (k = 1, 2, ..., m),
i=1
Pn
ove si è posto bk = i=1 ak,i pi , cioè bk è il valore che le espressioni a primo
membro delle (ii) vengono ad assumere quando al posto delle variabili si mettono
le coordinate di P .
Le equazioni (ii) descrivono dunque S, cioè S è la soluzione generale del
sistema (ii). I termini noti bk non dipendono dal punto P scelto in S. Infatti,
se Q = (qi )ni=1 è un altro punto di S, il punto Q − P = (qi − pi )ni=1 appartiene
176 Capitolo 10
ad SO , cioè è una soluzione delle (i), che formano il sistema omogeneo associato
ad (ii). Quindi
n
X n
X n
X n
X
ak,i qi = ak,i (qi − pi ) + ak,i pi = ak,i pi = bk
i=1 i=1 i=1 i=1
per k = 1, 2, ..., m. Siccome le equazioni (i) sono linearmente indipendenti,
anche le (ii) lo sono. In definitiva, si è dimostrato il seguente teorema, che
generalizza il Teorema 6.8 del Capitolo 6:
Teorema 10.5 Sia S un sottospazio affine non banale di V, e sia s = dim(S).
Allora S = sol(X) per un opportuno sistema, diciamolo X, formato da m = n−s
equazioni lineari indipendenti. La soluzione generale del sistema omogeneo XO
associato ad X è la direzione SO di S.
Un sistema lineare X tale che sol(X) = S e formato da equazioni linearmente
indipendenti, si dice una rappresentazione cartesiana di S. In particolare, se
s = n − 1 (cioè, se S è un iperpiano), allora X consiste di una sola equazione.
La diciamo l’ equazione dell’ iperpiano S anche se, ad essere precisi, dovremmo
dirla una equazione di S. (Infatti equazioni che differiscono per una costante
di proporzionalità 6= 0 sono equivalenti; quindi l’ equazione di un iperpiano è
individuata a meno di un fattore di proporzionalità 6= 0.)
10.2.2 Da sistemi lineari a sottospazi affini
Viceversa, supponiamo dato un sistema X di m equazioni lineari in n incognite
in K:
n
X
ak,i xi = bk , (k = 1, 2, ..., m).
i=1
Sia XO il sistema omogeneo associato ad X. Supponiamo che X sia risolubile.
Vale a dire, rank(X) = rank(XO ) (Capitolo 6, Corollario 6.2). Sia P ∈ sol(X).
Allora:
Lemma 10.6 Risulta sol(X) = P + sol(XO ).
(Cioè, la soluzione generale di X si ottiene sommando alla soluzione generale di
XO una soluzione particolare di X).
Dimostrazione. Siano p1 , p2 , ..., pn le coordinate di P . Per ipotesi,
n
X
ak,i pi = bk , (k = 1, 2, ..., m).
i=1
Quindi, per ogni scelta di vettori X = (xi )ni=1 ed Y = (yi )ni=1 si ha che
n
X n
X
ak,i xi = 0 =⇒ ak,i (pi + xi ) = bk ,
i=1 i=1
10.2. SISTEMI LINEARI 177
n
X n
X
ak,i yi = bk =⇒ ak,i (yi − pi ) = 0,
i=1 i=1
e ciò per ogni k = 1, 2, ..., m. Cioè X ∈ sol(XO ) solo se P + X ∈ sol(X),
ed Y ∈ sol(X) solo se Y − P ∈ sol(XO ). Dunque P + sol(XO ) ⊆ sol(X) e
−P + sol(X) ⊆ sol(XO ). Per la (4), la seconda di queste inclusioni equivale a
sol(X) ⊆ P + sol(XO ). Quindi sol(X) = P + sol(XO ). 2
Sappiamo dal Capitolo 2 che sol(XO ) è un sottospazio lineare di Vn (K). Sicchè,
ferme le convenzioni fatte all’ inizio della Sezione 10.2, possiamo identificare
sol(XO ) con un sottospazio lineare di V. Si ha dim(sol(XO )) = n − rank(XO )
(Capitolo 6, Teorema 6.5) e rank(XO ) = rank(X) per ipotesi. Dunque:
Teorema 10.7 sol(X) è un sottospazio affine di V, di dimensione n−rank(X)
e direzione sol(XO ).
10.2.3 Sintesi
Combinando i teoremi 5 e 7 si ottiene il seguente corollario, che generaliza il
Corollario 6.9 del Capitolo 6.
Corollario 10.8 I sottospazi affini non banali di V sono le soluzioni generali
di sistemi lineari in n incognite in K risolubili e non banali.
Abbiamo già osservato che gli iperpiani di V sono soluzioni generali di equazioni
lineari, necessariamente non assurde nè banali. Viceversa, per il Teorema 10.7,
la soluzione generale di una tale equazione è un iperpiano. Quindi:
Corollario 10.9 Gli iperpiani di V sono le soluzioni generali di equazioni li-
neari in n incognite in K non assurde nè banali.
Da ciò e dal Teorema 10.5 otteniamo la seguente generalizzazione del Corollario
6.10 del Capitolo 6:
Corollario 10.10 Ogni sottospazio affine non banale di V di dimensione s può
ottenersi come intersezione di n − s iperpiani.
(Del resto, questo poteva già ottenersi direttamente dal Corollario 6.10 del Ca-
pitolo 6, usando (7) per passare da intersezioni di iperpiani per O ad intersezioni
di iperpiani per qualche altro punto P 6= O.)
Ritorniamo ora alla (2) del Capitolo 6. Quella formula dice proprio che la
soluzione generale sol(X) del sistema X è il sottospazio affine passante per il
punto P (che è una particolare soluzione di X) e con L(Em+1 , Em+2 , ...En ) come
direzione. Dunque L(Em+1 , Em+2 , ..., En ) è la soluzione generale del sistema
omogeneo associato ad X, la differenza n − m è la dimensione del sottospazio
affine sol(X) e la (1) del Capitolo 6 ci dà una rappresentazione parametrica
di sol(X). La (1.b) del Capitolo 6 poteva dare l’ impressione che nella (2) di
178 Capitolo 10
quel capitolo il vettore P dovesse scegliersi in un modo molto particolare. È
ora chiaro che le cose non stanno cosı̀: un qualunque punto di sol(X) (cioè una
qualunque soluzione particolare di X) può svolgere il ruolo di P nella (2) del
Capitolo 6.
10.2.4 Implicazioni tra equazioni
Sia X un sistema di equazioni lineari in n incognite in K e sia E un’ equazione
lineare nelle stesse incognite. Sappiamo che, se E è combinazione lineare delle
equazioni di X, allora sol(X) ⊆ sol(E). Nel §2.4.4 del Capitolo 2 ho avvertito
che anche il viceversa è vero: se ∅ 6= sol(X) ⊆ sol(E), allora E è combinazione
lineare delle equazioni di X. Ma non l’ ho dimostrato. Nel Capitolo 6 (Corollario
6.7) abbiamo dimostrato questa affermazione nel caso di equazioni omogenee.
Ora possiamo affrontare la questione nella sua generalità.
Teorema 10.11 Siano E ed X un’ equazione lineare ed un sistema lineare nelle
incognite x1 , x2 , ..., xn ∈ K. Supponiamo che sol(E) ⊇ sol(X) 6= ∅. Allora
E ∈ L(X).
Dimostrazione. Per il Teorema 10.7, dim(sol(X)) = n − rank(X). Siccome
per ipotesi sol(E) ⊇ sol(X), il sottospazio affine sol(X) è anche la soluzione
generale del sistema X ∪ {E} formato dalle equazioni di X e da E. Quindi,
sempre per il Teorema 10.7, rank(X ∪ {E}) = n − dim(sol(X)) = rank(X).
Cosı̀ X ed X ∪ {E} generano lo stesso sottospazio lineare di En (K). Vale a dire,
E ∈ L(X). 2
Da questo teorema segue subito che
Corollario 10.12 Siano X e Y sistemi lineari risolubili, nelle stesse incognite
in K. Risulta sol(X) ⊆ sol(Y) se e solo se Y ⊆ L(X)
10.2.5 Parallelismo
Siano S ed S0 due sottospazi affini non banali di V, con dim(S) ≥ dim(S0 ).
Siano X ed X0 rappresentazioni cartesiane rispettivamente di S e di S0 e siano
XO ed X0O i sistemi omogenei associati rispettivamente ad X e ad X0 . Questi
costituiscono rappresentazioni cartesiane delle direzioni SO ed S0O di S e di S0 .
Supponiamo che S ed S0 siano paralleli. Sicchè S0O ⊆ SO , poichè si è supposto
dim(S) ≥ dim(S0 ). Quindi XO ⊆ L(X0O ) per il Corollario 10.13. Viceversa, se
XO ⊆ L(X0O ) allora S0O ⊆ SO e quindi S e S0 sono paralleli. In definitiva,
Proposizione 10.13 I due sottospazi affini S ed S0 sono paralleli se e solo se
XO ⊆ L(X0O ).
In particolare, S ed S0 siano iperpiani. Indichiamo con E ed E 0 le loro equazioni
0
e con EO ed EO le equazioni omogenee ad esse associate. Gli iperpiani S ed S0
0
sono paralleli se e solo se EO ed EO sono proporzionali.
10.2. SISTEMI LINEARI 179
10.2.6 Eliminazione dei parametri
Dato un sottospazio affine S di V dimensione m ≥ 1, sia SO la sua direzione. Sia
{B1 , B2 , ..., Bm } una base di SO e sia P un punto di S. Se (bk,i )ni=1 = Bk per
k = 1, 2, ..., m e (pi )ni=1 = P , le (19) di §10.1.4 ci danno una rappresentazione
parametrica di S. Possiamo riscrivere le (19) cosı̀:
m
X
xk − p k = bi,k ti = xk − pk , (k = 1, 2, ..., n)
i=1
pensandole ottenute dalla seguente rappresentazione parametrica di SO per
sostituzione di xk − pk ad yk :
m
X
yk = bi,k ti = xk − pk , (k = 1, 2, ..., n)
i=1
Da queste relazioni possiamo eliminare i parametri come spiegato nel Capitolo
6 (§6.3.3) ottenendo cosı̀ n − m equazioni lineari omogenee linearmente indipen-
denti, nelle n incognite y1 , y2 , ..., yn , che ci danno una rappresentazione carte-
siana di SO . Ma un punto X appartiene ad S se e solo se il punto Y = X − P
appartiene ad SO . Sicchè, sostituendo xk − pk ad yk nella rappresentazione
cartesiana ottenuta per SO si ottiene una rappresentazione cartesiana di S.
Esempio. Sia V = V5 (R) e S = P + L(B1 , B2 , B3 ) ove
B1 = (1, 0, 1, 0, 1)
B2 = (1, 2, 0, 1, 2)
B3 = (1, −1, 1, 2, 2)
P = (2, −3, 1, 0, 0)
(cfr. Capitolo 6, §6.3.3). Il sottospazio S ammette la seguente rappresentazione
parametrica
x1 = 2 + t1 + t2 + t3
x2 = −3 + 2t2 − t3
x3 = 1 + t1 + t3
x4 = t2 + 2t3
x5 = t1 + 2t2 + 2t3
che riscriviamo cosı̀:
x1 − 2 = t1 + t2 + t3
2+3 =
x 2t2 − t3
(i) x3 − 1 = t1 + t3
x4 = t2 + 2t3
x5 = t1 + 2t2 + 2t3
Posto y1 = x1 − 2, y2 = x2 + 3, y3 = x3 − 1, y4 = x4 , y5 = x5 , le (i) coincidono
con la rappresentazione parametrica considerata nel secondo esempio del §6.3.3
180 Capitolo 10
del Capitolo 6. Eseguendo su (i) le stesse manipolazioni che in quell’ esempio,
otteniamo
t2 = (x1 − 2) − (x3 − 1)
−t3 = −2(x1 − 2) + (x2 − 3) + 2(x3 − 1)
(ii) t1 + t3 = x3 − 1
0 = −5(x1 − 2) + 2(x2 + 3) + 5(x3 − 1) + x4
0 = −4(x1 − 2) + (x2 + 3) + 3(x3 − 1) + x5
Le ultime due relazioni di (ii) sono due equazioni lineari nelle cinque incognite
x1 , x2 , x3 , x4 , x5 , non proporzionali:
0 = −5x1 + 2x2 + 5x3 + x4 + 11
(iii)
0 = −4x1 + x2 + 3x3 + x5 + 8
Il sistema (iii) è una rappresentazione cartesiana di S.
In alternativa a questo metodo, possiamo ricavare i parametri t1 , t2 , t3 uno
dopo l’ altro. Oppure, possiamo scegliere un approccio ‘diretto’, come nel primo
esempio del §6.3.3 del Capitolo 6. Rimando per questo agli Esercizi 11.18 ed
11.19 del Capitolo 11.
10.3 Qualche esempio in RR
In questa sezione V è lo spazio vettoriale RR di tutte le funzioni da R ad R.
Useremo lettere maiuscole per indicare i vettori di V, cioè le funzioni da R ad
R. In particolare, Y sta ad indicare una funzione Y : R −→ R, incognita o
generica.
Gli esempi di sottospazi affini che ora considereremo sono in un certo senso
l’ analogo delle soluzioni generali di sistemi di equazioni lineari, che abbiamo
discusso nella sezione precedente.
10.3.1 L’ integrale indefinito
L’ insieme L delle funzioni costanti da R ad R è una retta di V per O. Pre-
cisamente, L = L(1), ove con 1 indichiamo la costante 1. È noto che L è la
soluzione generale dell’ equazione differenziale Y 0 = O. R
Sia F : R −→ R un vettore di V. Rammentiamo che F (x)dx indica l’
insieme delle primitive
R di F , cioè l’ insieme delle funzioni Y tali che Y 0 = F .
In altre parole, F (x)dx è la soluzione generale dell’ equazione differenziale
Y 0 = F. R R
Supponiamo cheR F (x)dx 6= ∅. Allora F (x)dx = G + L oveRG è un parti-
colare Relemento di F (x)dx, non importa quale. Vale a dire, se F (x)dx 6= ∅,
allora FR(x)dx è una retta di V, di direzione L. In altre parole, la soluzione
generale F (x)dx dell’ equazione Y 0 = F si ottiene sommando una soluzio-
ne particolare G di questa equazione alla soluzione generale L dell’ equazione
lineare omogenea Y 0 = O.
10.4. ESERCIZI 181
10.3.2 Equazioni differenziali lineari
Consideriamo l’ equazione differenziale lineare
n
X
(i) Fk Y (k) = F
k=0
ove F0 , F1 , ..., Fn , F ∈ V ed Y (k) sta ad indicare la derivata k-esima di Y , con
la convenzione che Y (0) = Y . La seguente è l’ equazione differenziale lineare
omogenea associata alla (i):
n
X
(ii) Fk Y (k) = O.
k=0
Indichiamo con S ed SO le soluzioni generali di (i) ed (ii), rispettivamente. Si
noti che SO 6= ∅, perchè O ∈ SO . È noto che
(k) (k)
(aY1 + bY2 )(k) = aY1 + bY2 , (∀Y1 , Y2 ∈ V, ∀a, b ∈ R, ∀k ∈ N)
Da ciò segue subito che SO è un sottospazio lineare di V. Supponiamo che S 6= ∅
e sia G ∈ S. Non è difficile vedere che, per ogni Y ∈ V,
Y ∈ S ⇐⇒ G − Y ∈ SO , Y ∈ SO ⇐⇒ G + Y ∈ S.
Dunque S = G + SO . Cioè, S è un sottospazio affine di direzione SO . In altre
parole, la soluzione generale della (i), se non è vuota, si ottiene sommando una
soluzione particolare di (i) alla soluzione generale di (ii).
Esempio. Consideriamo l’ equazione differenziale
(i) Y 0 + Y = x2 + 1
L’ equazione omogenea ad essa associata è
(ii) Y0+Y = O
ed ha per soluzione generale la retta {ce−x }c∈R , cioè L(F ), ove indichiamo con
F la funzione e−x . Invece, il polinomio G(x) = x2 − 2x + 3 è una soluzione
particolare della (i). Quindi la retta
G + L(F ) = {x2 − 2x + 3 + ce−x }c∈R
è la soluzione generale della (i).
10.4 Esercizi
Esercizio 10.1 Si verifichi che z = ax+by +c è l’ equazione del piano di V3 (K)
di direzione L((1, 0, a), (0, 1, b)) e passante per il punto (0, 0, c).
Traccia. L’ equazione z = ax + by rappresenta L((1, 0, a), (0, 1, b)) ed il punto
(0, 0, c) è una soluzione dell’ equazione z = ax + by + c.
182 Capitolo 10
Esercizio 10.2 Si dimostri che i piani di V3 (K) paralleli all’ asse delle quote
sono quelli rappresentati da equazioni in x, y, z del tipo ax + by + c = 0, ove
almeno uno dei coefficienti a o b è 6= 0.
Esercizio 10.3 Scelti a caso in V3 (R) un punto P e due vettori A, B non
proporzionali, si determini l’ equazione del piano P + L(A, B).
Esempio. Sia P = (1, 0, 1), A = (2, 1, 0) e B = (0, 1, 2). Allora L(A, B) è
rappresentato dall’ equazione x − 2y + z = 0. Infatti il vettore N = (1, −2, 1)
è ortogonale ad A e a B e pertanto L(A, B) = N ⊥ . Il piano P + L(A, B) è
rappresentato dall’ equazione
x − 2y + z = 2 (= 1·1 − 2·0 + 1·1 = hN, P i)
Esercizio 10.4 Per il Teorema 10.7, le rette di V3 (K) sono le soluzioni di si-
stemi di due equazioni lineari non proporzionali in tre incognite. Dato a caso un
tale sistema, trovate la direzione ed un punto della retta che esso rappresenta.
Esempio. Sia L la retta di V3 (R) rappresentata dal sistema
x − 2y + z = 2, x + y − 2z = 1
Allora L((1, 1, 1)) è la direzione di L e (4/3, −1/3, 0) è un punto di L.
Esercizio 10.5 Dati in V3 (R) un punto P ed un vettore A 6= O, si trovi una
rappresentazione cartesiana per la retta P + L(A).
Esempio. Sia A = (1, −2, 1) e P = (1, 2, −1). Il seguente sistema è una
rappresentazione di L(A):
x − z = 0, y + 2z = 0
Quindi, il sistema
x − z = 2, y + 2z = 0
è una rappresentazione cartesiana di L.
Esercizio 10.6 Sia L una retta di V3 (K) non parallela all’ asse delle quote. Si
trovi per L una rappresentazione cartesiana del seguente tipo:
ax + by = c, a 0 y + b0 z = c 0
Cioè, L è l’ intersezione di un piano parallelo all’ asse delle quote con un piano
parallelo all’ asse delle ascisse.
Soluzione. Sia L = P + L(A) ove P = (p1 , p2 , p3 ) ed A = (a1 , a2 , a3 ). Si ponga
a = −a2 , a0 = −a3 , b = a1 , b0 = a2 , c = −a2 p1 + a1 p2 , c0 = −a3 p2 + a2 p3 .
Esercizio 10.7 Verificate che il sistema
x = a, y=b
(visto come sistema in x, y, z) rappresenta la retta per (a, b, 0) parallela all’ asse
delle quote.
10.4. ESERCIZI 183
Esercizio 10.8 Dato a ∈ R, sia Sa,+∞ l’ insieme delle funzioni da R a R che
tendono ad a per x → +∞. Verificate che Sa,+∞ è un sottospazio affine di RR .
Soluzione. L’ insieme S0,+∞ delle funzioni che tendono a 0 per x → +∞ è
un sottospazio lineare di RR ed Sa,+∞ si ottiene traslando S0,+∞ mediante la
funzione costante a.
Esercizio 10.9 Data a ∈ R, sia Sa,0 l’ insieme delle funzioni che valgono a in
0. Verificate che Sa,0 è un iperpiano di RR .
Soluzione. S0,0 è un iperpiano lineare di RR (Capitolo 7, §7.1.3) e Sa,0 è
ottenuto traslando S0,0 mediante la funzione costante a.
Esercizio 10.10 Sia A un insieme non vuoto di vettori di un dato spazio
vettoriale V. Si dimostrino le seguenti affermazioni:
(i) l’ insieme A verifica la (8) se e solo se O ∈ A;
(ii) se O ∈ A e se A + A ⊆ A, allora A + A = A;
(iii) se A soddisfa (9), allora O ∈ A e A + A = A.
Esercizio 10.11 Si trovi un sottoinsieme A di R2 che non sia un sottospazio
lineare di V2 (R) e tuttavia tale che O ∈ A e A + A = A.
Suggerimento. Capitolo 2, Esercizio 2.17. Oppure: una qualunque delle
quattro parti in cui due rette per O dividono R2 . Oppure ...
Esercizio 10.12 Si mostri con qualche controesempio che gli enunciati (10),
(11) e (14) possono risultare falsi se si rinuncia all’ ipotesi che A e B siano
sottospazi lineari di V.
184 Capitolo 10
Capitolo 11
Geometria affine
Per tutto questo capitolo V sta ad indicare un dato spazio vettoriale su un dato
campo K.
11.1 Generatori
11.1.1 Rette e piani
Rette. Abbiamo descritto le rette di V come traslate di rette per O. In questo
modo una retta viene individuata dalla sua direzione e da un suo qualunque
punto. Ma possiamo individuare una retta anche indicando due suoi punti.
Siano P , Q punti distinti di V. Affinchè una retta L passi per P e Q occorre (e
basta) che la si possa rappresentare nella forma L = P +L(A), per un opportuno
vettore A tale che Q ∈ P + L(A), cioè tale che Q − P ∈ L(A). Affinchè ciò
avvenga occorre e basta che A sia (6= O e) proporzionale a Q − P . Siccome A ci
dà la direzione di L, esso è individuato a meno di un fattore di proporzionalità
6= 0. Possiamo dunque prendere A = Q − P . Quindi P + L(Q − P ) è l’ unica
retta che passa per P e Q. Indichiamola con Af (P, Q).
Af (P, Q) @ P
@•
@@
•
@R Q
•
@
O @ @
@R Q−P
@ @
@
Il generico punto P + t(Q − P ) = (1 − t)P + tQ della retta Af (P, Q) può vedersi
anche come una combinazione lineare sP + tQ di P e Q, ove s = 1 − t, e quindi
s + t = 1. D’ altra parte, dati due scalari s, t ∈ K con s + t = 1, la combinazione
lineare sP + tQ può mettersi nella forma P + t(Q − P ) e quindi rappresenta un
punto di Af (P, Q). Dunque
Af (P, Q) = {sP + tQ | s, t ∈ K, s + t = 1}
185
186 Capitolo 11
Piani. Siano P , Q, R tre punti di V, non collineari. In particolare, P , Q, R
sono a due a due distinti ed R 6∈ P + L(Q − P ), cioè R − P 6∈ L(Q − P ). Vale
a dire, R − P e Q − P non sono proporzionali.
Affinchè un piano S passi per P , Q ed R occorre (e basta) che lo si possa
rappresentare nella forma L = P + L(A, B) per opportuni vettori A e B, non
proporzionali e tali che Q, R ∈ P + L(A, B), cioè che Q − P, R − P ∈ L(A, B).
Affinchè ciò avvenga, siccome Q − P ed R − P non sono proporzionali, occorre
e basta che L(Q − P, R − P ) = L(A, B). Possiamo dunque prendere A = Q − P
e B = R − P . Quindi P + L(Q − P, R − P ) è l’ unico piano che passa per P e
Q. Indichiamolo con Af (P, Q, R).
H
HH
• Q HH
P *
HH
HH•HH
H
H
H H
HHH j•
* R
O • Q − P HH
HH
HHj R−P
Il generico punto P + s(Q − P ) + t(R − P ) = (1 − s − t)P + sQ + tR del piano
Af (P, Q, R) può vedersi anche come una combinazione lineare rP + sQ + tR di
P , Q ed R ove r = 1 − s − t, e quindi r + s + t = 1. D’ altra parte, dati tre
scalari r, s, t ∈ K con r + s + t = 1, la combinazione lineare rP + sQ + tR può
mettersi nella forma P + s(Q − P ) + t(R − P ) e quindi rappresenta un punto di
Af (P, Q, R). Dunque
Af (P, Q, R) = {rP + sQ + tR | r, s, t ∈ K, r + s + t = 1}
11.1.2 Il sottospazio affine Af (X)
Sia X un arbitrario sottoinsieme non vuoto di V. Indichiamo con AX la famiglia
dei sottospazi affini di V che contengono X. Ovviamente, V ∈ AX , quindi
AX 6= ∅. Poniamo
\
Af (X) =def (S | S ∈ AX )
Teorema 11.1 Af (X) è il minimo sottospazio affine di V contenente X e, dato
un qualunque punto P di X, risulta
Af (X) = P + L(−P + X)
Dimostrazione. Evidentemente, X ⊆ Af (X). Quindi Af (X) 6= ∅ e perciò
Af (X) è un sottospazio affine, per la Proposizione 10.2 del Capitolo 10. Sicchè
Af (X) ∈ AX e quindi Af (X) è il minimo di AX .
Sia P ∈ X. Quindi P ∈ Af (X) e perciò Af (X) = P + Af (X)O , ove con
Af (X)O indichiamo la direzione di Af (X). Siccome X ⊆ Af (X), si ha che
11.1. GENERATORI 187
−P + X ⊆ −P + Af (X) = Af (X)O . Quindi Af (X)O ⊇ L(−P + X) e pertanto
Af (X) ⊇ P + L(−P + X).
D’ altra parte X = P + (−P + X) ⊆ P + L(−P + X)). Sicchè il sottospazio
affine P + L(−P + X) è un membro di AX e perciò contiene Af (X), essendo
Af (X) il minimo di AX . Dunque P + L(−P + X) = Af (X). 2
Chiamiamo Af (X) il sottospazio affine generato da X. Diciamo che un insieme
X di punti genera un sottospazio affine S se S = Af (X). Per risparmiare
parentesi, abbrevio Af ({P0 , P1 , ..., Pm }) in Af (P0 , P1 , ..., Pm ).
In particolare, dati due punti distinti P e Q, il sottospazio affine Af (P, Q)
generato da {P, Q} è una retta e, dati tre punti non collineari P, Q, R, il sot-
tospazio affine Af (P, Q, R) da essi generato è un piano. È anche ovvio che
Af (P ) = P per ogni punto P .
Si noti che −P0 +{P0 , P1 , ..., Pm } = {O, P1 −P0 , P2 −P0 , ..., Pm −P0 }. Quindi
L(−P0 + {P0 , P1 , ..., Pm }) = L(P1 − P0 , P2 − P0 , ..., Pm − P0 }. Dunque, per il
Teorema 11.1:
(1) Af (P0 , P1 , ..., Pm ) = P0 + L(P1 − P0 , P2 − P0 , ..., Pm − P0 )
Si noti t2 , ..., tm ∈ K, posto xi = ti per i = 1, 2, ..., m ed x0 =
Pmche, dati t1 ,P m
1 − i=1 ti , risulta i=0 xi = 1 e
m
X m
X
P0 + ti (Pi − P0 ) = xi P i
i=1 i=0
Pm
Viceversa, dati x0 , x1 , ..., xm ∈ K con i=0 xi = 1 e posto ti = xi per i =
1, 2, ..., m, risulta
m
X m
X
x i P i = P0 + ti (Pi − P0 )
i=0 i=1
Quindi possiamo riscrivere la (1) anche cosı̀:
m
X m
X
(2) Af (P0 , P1 , ..., Pm ) = { x i Pi | xi = 1, x0 , x1 , ...xm ∈ K}
i=0 i=0
Proprietà dell’ operatore Af . Nel seguito X e Y sono arbitari sottoinsiemi
non vuoti di V. Le tre seguenti proprietà sono del tutto ovvie:
(3) X ⊆ Af (X)
(4) X ⊆ Y =⇒ Af (X) ⊆ Af (Y)
(5) Af (Af (X)) = Af (X)
La (5) ci dice che X è un sottospazio affine se e solo se Af (X) = X. Le due
proprietà che seguono sono facili conseguenze delle proprietà precedenti. Ne
lasciamo la dimostrazione al lettore.
(6) Af (Af (X) ∪ Af (Y)) = Af (X ∪ Y)
(7) X ⊆ Af (Y) ⇐⇒ Af (X) ⊆ Af (Y)
188 Capitolo 11
Per esempio, per (6), il sottospazio affine generato dall’ unione di due rette è
il sottospazio affine generato da quattro punti, presi due su una retta e due
sull’ altra. Per (7), invece, presi due punti distinti in un sottospazio affine S, la
retta che li congiunge sta tutta dentro S. Presi tre punti non collineari in un
sottospazio affine S, il piano da essi generato sta tutto dentro S.
(8) Af (X) ⊆ L(X)
Dimostrazione. Sia P ∈ X. Allora Af (X) = P +L(−P +X) per il Teorema 11.1.
D’ altra parte, −P + X ⊆ L(X) perchè P ∈ X. Quindi L(−P + X) ⊆ L(X).
Pertanto P + L(−P + X) ⊆ L(X), sempre perchè P ∈ X. 2
(9) L(Af (X)) = L(X)
(L’ inclusione ⊇ nella (9) segue subito da (3), mentre l’ inclusione ⊆ segue da
(8).) La (9) implica che
(10) Af (X) = L(X) ⇐⇒ O ∈ Af (X)
Quindi
(11) Af ({O} ∪ X) = L(X)
Per esempio, dati due punti distinti P e Q, se la retta Af (P, Q) non passa per
O allora L(P, Q) è il piano Af (O, P, Q) per i tre punti O, P e Q, cioè il piano
per O e per la retta Af (P, Q). Se invece la retta Af (P, Q) passa per O, allora
L(P, Q) = Af (P, Q).
Indichiamo con Af (X)O la direzione di Af (X). Sia P ∈ X. Allora,
(12) L(X) = L({P } ∪ Af (X)O )
Dimostrazione. Risulta Af (X)O = L(−P + X), per il Teorema 11.1. Siccome
−P +X ⊆ L(X), risulta anche Af (X)O ⊆ L(X). Quindi L(X) ⊇ {P }∪Af (X)O
e perciò
L(X) ⊇ L({P } ∪ Af (X)O )
D’ altra parte, L({P } ∪ Af (X)O ) ⊇ P + Af (X)O = Af (X) ⊇ X. Quindi
L({P } ∪ Af (X)O ) ⊇ L(X)
L’ uguaglianza (12) segue da queste due inclusioni. 2
Per esempio, dai due punti distinti P e Q, risulta Af (P, Q)O = L(Q − P ),
mentre L(P, Q) = L(P, Q − P ) = L({P } ∪ L(Q − P )).
(13) L(X) = Af (X)O ⇐⇒ O ∈ Af (X)
Dimostrazione. Dato P ∈ Af (X), risulta P ∈ Af (X)O se e solo se Af (X) =
Af (X)O , cioè se e solo se Af (X) è un sottospazio lineare. La conclusione segue
da (12). 2
(14) dim(Af (X)) ≤ dim(L(X)) ≤ dim(Af (X)) + 1
11.1. GENERATORI 189
(Questa è una ovvia conseguenza di (12).)
Sia P ∈ X. L’ insieme −P + X contiene O (infatti O = −P + P ∈ X).
Poniamo
(15) XP =def (−P + X) \ {O}
(Per esempio, se X = {P, Q, R} allora −P + X = {O, Q − P, R − P } ed XP =
{Q − P, R − P }.) Ovviamente, L(−P + X) = L(XP ). D’ altra parte, Af (X)O =
L(−P + X) per il Teorema 11.1. Quindi,
(16) Af (X)O = L(XP )
Il sottospazio generato da due sottospazi affini. Nella seguente proposi-
zione S ed S0 sono due sottospazi affini, SO ed S0O sono le loro rispettive direzioni
e P e Q sono punti di S ed S0 rispettivamente, arbitrari ma scelti una volta per
tutte.
Proposizione 11.2 Risulta Af (S ∪ S0 ) = P + L({Q − P } ∪ SO ∪ S0O ).
Dimostrazione. Per il Teorema 11.1 si ha che
Af (S ∪ S0 ) = P + L(−P + (S ∪ S0 )) = Q + L(−Q + (S ∪ S0 ))
Quindi, detta A la direzione di Af (S ∪ S0 ), risulta
A = L(−P + (S ∪ S0 )) = L(−Q + (S ∪ S0 ))
D’ altra parte, per la (6) del Capitolo 10 si ha che
−P + (S ∪ S0 ) = (−P + S) ∪ (−P + S0 ) = SO ∪ (Q − P + S0O )
perchè S = P + SO e S0 = Q + S0O . Analogamente,
−Q + (S ∪ S0 ) = (P − Q + SO ) ∪ S0O
Quindi A = L(SO ∪ (Q − P + S0O )) = L((P − Q + SO ) ∪ S0O ). Pertanto
A = L(SO ∪ S0O ∪ (P − Q + SO ) ∪ (Q − P + S0O )). Ma è ovvio che
L(SO ∪ S0O ∪ (P − Q + SO ) ∪ (Q − P + S0O )) = L({P − Q} ∪ SO ∪ S0O )
Pertanto A = L({Q − P } ∪ SO ∪ S0O ). 2
Poniamo d = dim(Af (S ∪ S0 )) e dO = dim(SO + S0O ). Dalla Proposizione 11.2
si ha subito che
Corollario 11.3 Risulta d = dO oppure d = dO + 1, a seconda che Q − P
appartenga o no ad SO + S0O .
190 Capitolo 11
Nel caso di sottospazi affini di dimensione finita la Proposizione 11.2 può anche
formularsi cosı̀:
(17) Af ((P + L(A1 , A2 , ..., Am )) ∪ (Q + L(B1 , B2 , ..., Bs ))) =
= P + L(Q − P, A1 , A2 , ..., Am , B1 , B2 , ..., Bs )
per ogni scelta di P, Q, A1 , A2 , ..., Am , B1 , B2 , ..., Bs in V. Per esempio,
Af ((P + L(A)) ∪ (Q + L(B))) = P + L(Q − P, A, B)
P + L(A) A P
•
AH • Q+B
AA HH
AU j• Q
H
P +A A •
A
Q + L(B)
B
A
O •H
A HH
A j
H
A A U Q−P
11.2 Indipendenza e basi
11.2.1 Indipendenza
Diciamo che un insieme X di punti di V contenente almeno due punti è geome-
tricamente indipendente se
Af (X − {P }) ⊂ Af (X), (∀P ∈ X)
Annoveriamo anche i singoletti tra gli insiemi geometricamente indipendenti,
per convenzione. Un insieme non vuoto di punti che non sia geometricamente
indipendente lo diremo geometricamente dipendente.
Per esempio, due punti distinti sono sempre geometricamente indipenden-
ti. Tre punti distinti sono geometricamente indipendenti se e solo se non so-
no collineari. E non è difficile rendersi conto che quattro punti distinti sono
geometricamente indipendenti se e solo se non sono complanari.
Sia X un sottoinsieme non vuoto di V. Dato P ∈ X, definiamo XP come
in (15). La seguente proposizione ci permette di ricondurre il problema della
dipendenza o indipendenza geometrica di un insieme di punti al problema della
dipendenza o indipendenza lineare di un insieme di vettori.
Proposizione 11.4 Le seguenti condizioni si equivalgono:
(i) L’ insieme X è geometricamente indipendente.
(ii) L’ insieme XP è linearmente indipendente per qualche P ∈ X.
(iii) L’ insieme XP è linearmente indipendente per ogni P ∈ X.
11.2. INDIPENDENZA E BASI 191
Dimostrazione. Se X è un singoletto, non c’ è nulla da dimostare. Supponiamo
che X consista di almeno due punti.
Dimostriamo prima l’ equivalenza di (ii) e (iii). Evidentemente (iii) implica
(ii). Proviamo che (ii) implica (iii). Sia XP linearmente indipendente e, per
assurdo, XQ sia linearmente dipendente, per qualche Q ∈ X \ {P }. Quindi, per
qualche R ∈ X \ {Q}, risulta
m
X
(j) R−Q = xi (Xi − Q)
i=1
per opportuni punti X1 , X2 , ..., Xm ∈ X \ {Q, R}, a due a due distinti, e per
certi scalari x1 , x2 , ..., xm ∈ K. Da (j) si ottiene
m
X
(jj) R−P +P −Q = xi (Xi − P + P − Q)
i=1
cioè
m
X m
X
(jjj) R−P = xi (Xi − P ) + (1 − xi )(Q − P )
i=1 i=1
Se R 6= P , la (jjj) contraddice l’ indipendenza lineare di XP . Quindi, R = P
e la (jjj) diventa
m
X m
X
(jv) O = xi (Xi − P ) + (1 − xi )(Q − P )
i=1 i=1
I vettori Xi − P sono a due a due distinti (perchè a due a due distinti sono i
punti Xi ) e diversi da O (perchè Xi 6= R = P ). Quindi, per l’ indipendenza
lineare di XP , tutti i coefficienti nella somma a secondo membro di (jv) sono
nulli. Cioè,
m
X
x1 = x2 = ... = xm = 0 = 1 − xi .
i=1
Ma questo è palesemente assurdo. Dunque, se (ii) vale anche (iii) deve valere.
Pertanto, (ii) ⇔ (iii).
Proviamo che (iii) implica (i). Supponiamo che XP sia linearmente indi-
pendente per ogni P ∈ X e, per assurdo, X sia geometricamente dipendente.
Sia dunque Q un punto di X tale che Af (X \ {Q}) = Af (X). Allora, preso un
qualunque punto P ∈ X \ {Q}, risulta L((X \ {Q})P ) = L(XP ) per (16). Ma
questo contraddice l’ indipendenza lineare di XP . Quindi, (iii) ⇒ (i).
Resta da dimostrare che (i) ⇒ (iii). Sia X geometricamente indipendente
e sia P ∈ X. Dato Y ∈ XP , sia X = Y + P . Allora X ∈ X \ {P } e risulta
L(XP \ {Y }) = L((X \ {X})P ). Se fosse L(XP \ {Y }) = L(XP ), avremmo
Af (X) = Af (X \ {X}) per (16), contro l’ ipotesi che valga (i). Sicchè L(XP \
{Y }) ⊂ L(XP ) per ogni Y ∈ XP . Cioè, XP è linearmente indipendente. 2
192 Capitolo 11
In particolare, m + 1 punti P0 , P1 , ..., Pm sono geometricamente indipendenti se
e solo se gli m vettori P1 − P0 , P2 − P0 ,..., Pm − P0 sono linearmente indipen-
denti. Siccome in ogni caso L(P1 − P0 , P2 − P0 , ..., Pm − P0 ) è la direzione di
Af (P0 , P1 , ..., Pm ), risulta dim(Af (P0 , P1 , ..., Pm )) ≤ m.
Corollario 11.5 I punti P0 , P1 , ..., Pm sono geometricamente indipendenti se e
solo se dim(Af (P0 , P1 , ..., Pm )) = m.
(Lascio la dimostrazione al lettore.) In particolare, due punti distinti sono sem-
pre geometricamente indipendenti, tre punti sono geometricamente indipendenti
se e solo se generano un piano, quattro punti sono geometricamente indipendenti
se e solo se non sono complanari, come si era già osservato.
Corollario 11.6 Dati m + 1 punti geometricamente indipendenti P0 , P1 ,...,
Pm , il sottospazio Af (P0 , P1 , ..., Pm ) è l’ unico sottospazio affine di dimensione
m che passi per tutti i punti P0 , P1 , ..., Pm .
Dimostrazione. Che dim(Af (P0 , P1 , ..., Pm )) = m segue dal Corollario 11.5.
Sia S un sottospazio affine di dimensione m contenente P0 , P1 , ..., Pm . Per (7),
S ⊇ Af (P0 , P1 , ..., Pm ). Sicchè S = Af (P0 , P1 , ..., Pm ) per la (17) del Capitolo
10. 2
In particolare, dati due punti distinti P e Q, la retta Af (P, Q) è l’ unica retta
passante per essi. Dati tre punti non collineari P , Q ed R, il piano Af (P, Q, R)
è l’ unico piano passante per essi.
11.2.2 Basi geometriche
Sia S un sottospazio affine di V. Diciamo che un insieme non vuoto B di
punti di V è una base geometrica di un sottospazio affine S se B genera S ed è
geometricamente indipendente. (Per esempio, due punti distinti sono una base
geometrica della retta che li congiunge; tre punti non collineari sono una base
geometrica per il piano che essi individuano.)
Per evitare ogni rischio di confusione, nel resto di questo capitolo userò la
locuzione base algebrica per riferirmi a basi come definite nel Capitolo 5.
Sia SO la direzione di S. Dalla Proposizione 11.5 si ottiene subito il seguente
Corollario 11.7 Un insieme di punti B = 6 ∅ è una base geometrica di S se e
solo se, per ogni (o per qualche) punto P ∈ B, l’ insieme di vettori BP è una
base algebrica di SO .
Sicchè, le basi geometriche di S sono quegli insiemi di punti B che possono
rappresentarsi come B = {P } ∪ (P + A) per qualche base algebrica A di SO e
qualche punto P di S. Per esempio, dato un qualunque sottospazio lineare S di
V ed una base algebrica A di S, l’ insieme {O} ∪ A è una base geometrica di S
in quanto sottospazio affine.
11.3. INTERSEZIONI 193
Dal Corollario 11.7 e dal fatto che ogni sottospazio lineare ammette una base
algebrica si ha subito che
Corollario 11.8 Ogni sottospazio affine ammette una base geometrica.
Dal Corollario 11.7 segue anche che
Corollario 11.9 Sia S un sottospazio affine. Ogni base geometrica di S con-
tiene esattamente 1 + dim(S) punti.
11.3 Intersezioni
Nel seguito S ed S0 sono due arbitrari sottospazi affini di V. Con SO ed S0O
indichiamo le loro rispettive direzioni.
11.3.1 La relazione di Grassmann
Supponiamo che S ∩ S0 6= ∅ e sia P ∈ S ∩ S0 . Allora S = P + SO ed S0 = P + S0O .
Quindi S ∩ S0 = P + (SO ∩ S0O ) per la (7) del Capitolo 10 ed Af (S ∪ S0 ) =
P + (SO + S0O ) per la Proposizione 11.2, ponendo in essa Q = P . Sicchè, per il
Teorema 7.17 del Capitolo 7 risulta
(18) dim(Af (S ∪ S0 )) + dim(S ∩ S0 ) = dim(S) + dim(S0 )
(18∗ ) cod(Af (S ∪ S0 )) + cod(S ∩ S0 ) = cod(S) + cod(S0 )
Questo se S ∩ S0 6= ∅. Se invece S ∩ S0 = ∅, allora le cose si complicano.
Per esempio, se S ed S0 sono rette sghembe, allora dim(Af (S ∪ S)0 ) = 3 per
la Proposizione 11.2. La (18) resta vera in questo caso, avendo convenuto che
dim(∅) = −1. (Se definiamo cod(∅) = 1 + dim(V), vale anche la (18∗ ).)
Se invece S ed S0 sono rette parallele distinte, allora Af (S ∪ S0 ) è un piano
(Proposizione 11.2) e la relazione (18) diventa falsa. (Naturalmente, anche la
(18∗ ) è falsa in questo caso).
11.3.2 Condizioni affinchè S ∩ S0 6= ∅
Teorema 11.10 Le seguenti condizioni si equivalgono:
(i) Si ha S ∩ S0 6= ∅.
(ii) Risulta P − Q ∈ SO + S0O per qualche scelta di P ∈ S e Q ∈ S0 .
(iii) Risulta P − Q ∈ SO + S0O per ogni scelta di P ∈ S e Q ∈ S0 .
Dimostrazione. Ovviamente, (iii) ⇒ (ii). Supponiamo che valga la (ii). Allora
Q−P = X+Y per opportuni vettori X ∈ SO ed Y ∈ S0O . Quindi P +X = Q−Y .
Ma P + X ∈ P + SO = S mentre Q − Y ∈ Q + S0O = S0 . Sicchè il punto P + X,
che è uguale a Q − Y , sta sia in S che in S0 . Cioè S ∩ S0 6= ∅. Dunque (ii) ⇒ (i).
Proviamo infine che (i) ⇒ (iii). Valga la (i) e sia R ∈ S ∩ S0 . Quindi S =
R+SO ed S0 = R+S0O . Pertanto, dati P ∈ S e Q ∈ S0 , esistono vettori X ∈ SO ,
194 Capitolo 11
Y ∈ S0O tali che P = R + X e Q = R + Y . Dunque Q − P = Y − X ∈ SO + S0O .
2
Combinando il Teorema 11.10 col Corollario 11.3 si ottiene subito il seguente
corollario:
Corollario 11.11 Se S ∩ S0 6= ∅ allora dim(Af (S ∪ S0 )) = dim(SO + S0O ). Se
invece S ∩ S0 = ∅ allora dim(Af (S ∪ S0 )) = 1 + dim(SO + S0O ).
11.3.3 Intersezione di due rette
Siano L = P + L(A) ed L0 = Q + L(B) due distinte rette di V. Le loro direzioni
sono LO = L(A) ed L0O = L(B). Risulta LO + L0O = L(A, B). Inoltre, per la
Proposizione 11.2,
Af (L ∪ L0 ) = P + L(Q − P, A, B) = Af (P, Q, P + A, Q + B)
Il sottospazio lineare L(A, B) ha dimensione 1 se e solo se A e B sono propor-
zionali, cioè se e solo se le rette L e L0 sono parallele. Se le rette L e L0 sono
parallele, allora L ∩ L0 = ∅ e Q − P 6∈ L(A)(= L(B)).
Supponiamo invece che L e L0 non siano parallele, cioè A e B non siano
proporzionali. Per il Corollario 11.11, le rette L e L0 sono sghembe se e solo se
dim(Af (L ∪ L0 )) = 3, cioè se e solo se Q − P 6∈ L(A, B). (Quindi, due rette
complanari sono sempre o incidenti o parallele; in particolare, non esistono rette
sghembe in spazi vettoriali di dimensione 2.)
Supponiamo che L e L0 siano incidenti. Detto R il punto in cui si intersecano,
dovrà essere R = P + tA ed R = Q + sB, per opportuni scalari t ed s. L’
intersezione R si trova risolvendo la seguente equazione ‘vettoriale’ nelle due
incognite t, s
(∗) P + tA = Q + sB (cioè, Q − P = tA − sB)
e sostituendo il valore trovato per t (o per s) nell’ espressione P + tA (o nell’
espressione Q + sB).
Il caso di dimensione finita. Supponiamo che dim(V) = n < ∞ e siano
(pi )ni=1 , (qi )ni=1 , (ai )ni=1 e (bi )ni=1 le n-ple delle coordinate di P , Q, A e B rispetto
ad una data base di V.
1. Supponiamo di aver visto che A e B non sono proporzionali. Dunque L e L0
non sono parallele. Resta da vedere se sono o no incidenti. La (∗) si traduce nel
seguente sistema di n equazioni nelle due incognite t ed s:
(i) qi − pi = ai t − bi s, (i = 1, 2, ..., n)
Sappiamo che il sistema (i) è risolubile (cioè L e L0 sono incidenti) se e solo
se Q − P ∈ L(A, B) (del resto, questo lo si può vedere anche dal Lemma 6.3
del Capitolo 6). In ogni caso, (i) ammette al più una soluzione (le rette L
11.3. INTERSEZIONI 195
e L0 hanno al più un punto in comune). Quindi troviamo in (i) almeno una
coppia di equazioni non proporzionali. Scelta una tale coppia di equazioni, se
le rimanenti n − 2 equazioni di (i) si ottengono come loro combinazioni lineari,
allora (i) è risolubile e determinato, le due rette L e L0 sono incidenti e, se
(t0 , s0 ) è la soluzione di (i), allora P + t0 A (= Q + s0 B) è l’ intersezione di L e
L0 . Altrimenti, (i) è impossibile e le due rette sono sghembe.
2. Nel paragrafo precedente si è supposto di conoscere A, B, P e Q. Supponiamo
invece che una delle due rette L e L0 , per esempio L0 , sia data mediante una
rappresentazione cartesiana
n
X
(j) ak,i xi = bk , (k = 1, 2, ..., n − 1)
i=1
e l’ altra sia data parametricamente, L = P + L(A). In tal caso possiamo
cercare l’ intersezione sostituendo le coordinate pi + tai del punto generico di L
al posto delle incognite nelle n − 1 equazioni del sistema (j) (come nel paragrafo
precedente, indichiamo con (pi )ni=1 ed (ai )ni=1 le n–ple delle componenti di P e
di A). In tal modo otteniamo un sistema di n − 1 equazioni nella sola incognita
t
n
X n
X
(jj) ( ak,i ai )t = bk − ak,i pi , (k = 1, 2, ..., n − 1)
i=1 i=1
Siccome L0 è data in rappresentazione cartesiana, a meno di non ricavare per
essa una rappresentazione parametrica, non siamo in grado di usare il Corollario
11.11 per decidere se L e L0 siano o no incidenti; nemmeno è facile capire ‘ad
occhio’ se L e L0 sono uguali o parallele. Per rendersi conto di come stanno le
cose non resta che esaminare (jj).
Se L ∩ L0 = ∅ il sistema (jj) è impossibile. Siccome (jj) contiene una sola
incognita, se è impossibile deve contenere due equazioni non proporzionali, le
rimanenti n − 3 equazioni ottenendosi da quelle due come combinazioni lineari.
Supponiamo invece che le due rette L ed L0 siano incidenti. Allora il sistema
(jj) è determinato e, siccome contiene una sola incognita, tutte le sue equazioni
sono tra loro proporzionali e, siccome per ipotesi L 6= L0 , almeno una di esse
non è banale. Da una qualunque delle equazioni non banali di (jj) ricaviamo t.
Se t0 è il valore cosı̀ ottenuto, il punto P + t0 A è l’ intersezione di L con L0 .
3. Infine, supponiamo che tanto L che L0 ci siano date in rappresentazione
cartesiana. In questo caso, prendendo insieme le n − 1 equazioni delle due rap-
presentazioni cartesiane, otteniamo un sistema di 2n−2 equazioni in n incognite.
Se L ed L0 sono incidenti, questo sistema è determinato perchè rappresenta l’
unico punto intersezione di L con L0 . In tal caso da esso possiamo estrarre
n equazioni indipendenti, dalle quali le rimanenti n − 2 equazioni del sistema
si otterranno come combinazioni lineari. Risolvendo il sistema formato dalle
n equazioni che avremmo scelte troveremmo l’ intersezione cercata. Se invece
196 Capitolo 11
L ∩ L0 = ∅, il sistema risulta impossibile. (Si è supposto che L 6= L0 ; se L = L0 ,
avremmo due sistemi di equazioni equivalenti; cfr. Capitolo 10, §10.2.4.)
Esempi. In V = V4 (R) consideriamo la retta L = P +L(A), ove P = (1, 0, 1, 0)
ed A = (1, 2, −1, −2).
1. Sia Q = (1, 2, 1, −2) e B = (1, 1, −1, −1). Risulta Q − P = (0, 2, 0, −2), e si
vede facilmente che Q − P ∈ L(A, B). Quindi la retta Q + L(B) interseca L.
L’ equazione vettoriale Q − P = tA − sB, che ci dà l’ intersezione di queste due
rette, si traduce in un sistema di quattro equazioni nelle due incognite t ed s
0 = t − s, 2 = 2t − s, 0 = −t + s, −2 = −2t + s
Qui, la terza e la quarta equazione si ottengono dalla prima e dalla seconda
moltiplicandole per −1. Quindi sono superflue. Sottraendo la prima equazione
dalla seconda si ottiene t = 2. Non c’ è bisogno di proseguire per ricavare
anche s. Il valore ottenuto per t basta: l’ intersezione delle due rette è il punto
P + 2A = (3, 4, −1, −4).
2. Sia invece M la retta di V4 (R) rappresentata dalle equazioni
(i) x1 − x4 = 0, x2 − x3 = 1, x2 + x4 = −1
Le coordinate del punto generico di L sono (1 + t, 2t, 1 − t, −2t). Sostituendole
in (i) otteniamo il sistema
1 + 3t = 0, 3t − 1 = 1, 0 = −1
che è evidentemente impossibile. Quindi L ∩ M = ∅. Resta da capire se L e M
sono sghembe o parallele. Se fossero parallele, il vettore A dovrebbe essere una
soluzione del sistema omogeneo
(ii) x1 − x4 = 0, x2 − x3 = 0, x2 + x4 = 0
che è una rappresentazione cartesiana della direzione di M. Ma la quaterna
delle coordinate di A non è una soluzione di (ii). Quindi L ed M sono sghembe.
11.3.4 Intersezioni di iperpiani con altri sottospazi
Nel seguito S = P + SO sarà sempre un iperpiano di V ed S0 = Q + S0O sarà
un qualunque altro sottospazio affine di V, non banale. Al solito, con SO ed S0O
indichiamo le direzioni di S ed S0 .
Proposizione 11.12 Se S0 non è parallelo a S, allora S ∩ S0 6= ∅.
Dimostrazione. Se S0 non è parallelo a S, allora S0O 6⊆ SO e quindi SO +S0O = V.
Perciò Q − P ∈ SO + S0O . Il Teorema 11.10 ci dà la conclusione. 2
Corollario 11.13 Sia L una retta non parallela ad S. Allora S ∩ L è un punto.
11.3. INTERSEZIONI 197
Dimostrazione. L ∩ S 6= ∅ per la Proposizione 11.12. Se poi L ∩ S contenesse
due punti P , Q, allora S conterrebbe tutta la retta Af (P, Q) (per (7)). Cioè, S
conterrebbe L, contro l’ ipotesi che L non sia parallela a S. 2
Se dim(V) < ∞, allora possiamo usare la (18) per calcolare dim(S ∩ S0 ).
Otteniamo cosı̀ il seguente corollario:
Corollario 11.14 Sia dim(V) < ∞. Se S0 non è parallelo ad S, allora
(19) dim(S ∩ S0 ) = dim(S0 ) − 1
In particolare, sia dim(V) = 3. Allora gli iperpiani di V sono i suoi piani. In
questo caso il Corollario 11.14 ci dice che due piani non paralleli si intersecano
in una retta e che, data una retta L ed un piano S, se L non è parallela ad S,
lo incontra in un solo punto.
Si osservi che la (19) potrebbe anche esprimersi dicendo che S ∩ S0 ha codi-
mensione 1 relativamente ad S0 , nel senso che la sua direzione ha codimensione
1 in SO . Formulata cosı̀, la (19) diventa significativa, e resta vera, anche se V
ha dimensione infinita. Ma non insisto su questo.
11.3.5 Un esempio
Sia V = V4 (R) e sia S l’ iperpiano rappresentato dall’ equazione
(i) x1 + x2 − x3 − x4 = 1
L’ equazione omogenea ad essa associata è
(ii) x1 + x2 − x3 − x4 = 0
e rappresenta la direzione di S.
1. Sia P = (1, 0, −1, 0) ed A = (1, 1, 2, 2). Consideriamo la retta L = P + L(A).
Siccome A non è una soluzione di (ii), la retta L non è parallela ad S. Quindi
essa interseca S in un solo punto. Il punto generico di L ha coordinate
(1 + t, t, −1 + 2t, 2t)
Sostituendole in (i) si ottiene l’ equazione 2t = 1. Quindi
3 1 1
( , , 0, 1) = P + A
2 2 2
è il punto intersezione di L con S.
2. Consideriamo invece il piano S0 = P +L(A, B), ove P ed A sono come sopra e
B = (2, 1, 0, −1). Sia ancora L = P +L(A). Siccome S0 ⊃ L ed L non è parallela
ad S, il piano S0 non è parallelo ad S. Pertanto S ∩ S0 è una retta (Corollario
11.14). Per trovarla, sostituiamo in (i) le coordinate (1+t+2s, t+s, −1+2t, 2t−s)
198 Capitolo 11
del punto generico di S0 . Otteniamo cosı̀ un’ equazione in s e t che ci permette
di ricavare s = 12 t − 14 . Cioè, la soluzione generale di tale equazione è l’ insieme
1 1
{P + tA + ( t − )B}t∈R .
2 4
Vale a dire,
1 1
S ∩ S0 = {P − B + t(A + B)}t∈R
4 2
0
Cioè, S ∩ S è la retta di direzione L(2A + B) passante per il punto P − 41 B.
11.4 Generando sottospazi con rette
Proposizione 11.15 Supponiamo che ch(K) 6= 2. Un insieme non vuoto S di
punti di V è un sottospazio affine di V se e solo se S contiene ogni retta che
passi per due punti distinti di S.
Dimostrazione. La parte “se” di questa affermazione è una ovvia conseguenza
di (4). Viceversa, supponiamo che Af (X, Y ) ⊆ S per ogni scelta di X, Y ∈ S.
Supponiamo intanto che O ∈ S. Allora L(X) = Af (O, X) ⊆ S per ogni X ∈ S.
Inoltre, dati in S due vettori X, Y non proporzionali, il punto Z = 21 (X + Y )
(che possiamo considerare, perchè ch(K) 6= 2) appartiene alla retta Af (X, Y ), e
quindi è contenuto in S. Pertanto anche X +Y ∈ S, dal momento che L(Z) ⊆ S.
Sicchè, S è un sottospazio lineare di V.
Supponiamo invece che O 6∈ S. Preso P ∈ S, poniamo SO = −P + S.
È evidente che anche SO contiene ogni retta che congiunga due suoi punti.
Pertanto SO è un sottospazio lineare di V, per quanto detto sopra. Ma S =
P + SO . Quindi S è un sottospazio affine. 2
Usando questa proposizione si può dimostrare che, dato un insieme non vuoto
X di punti di V, se ch(K) 6= 2 possiamo formare il sottospazio affine Af (X)
prendendo l’ unione delle rette che congiungono due arbitrari punti di X, poi l’
unione delle rette che congiungono due arbitrari punti di questo nuovo insieme,
e cosı̀ via. (Del resto, quando l’ insieme X è finito, questo lo si può dedurre
anche dalla (2), ferma l’ ipotesi che ch(K) 6= 2.) Non insisto su questo punto.
Mi limiterò a dare un esempio nell’ Esercizio 11.17 (Sezione 11.7).
Nota. Nella Proposizione 11.15 l’ ipotesi che ch(K) 6= 2 è essenziale. Sia
K = GF (2), per esempio. In questo caso le rette sono coppie di punti e ogni
terna di punti verifica la condizione considerata nella Proposizione 11.15. Ma
una terna di punti non è un piano: i piani qui hanno quattro punti.
11.5 Cambiando l’ origine
Se ci troviamo a considerare contemporaneamente due o più sottospazi affini S,
S0 ,... di uno stesso spazio vettoriale V e se essi passano tutti per uno stesso punto
11.5. CAMBIANDO L’ ORIGINE 199
P , allora, ‘visti’ da P , i sottospazi affini S, S0 ,... si comportano come se fossero
sottospazi lineari (cfr. (18) e (18∗ ), per esempio). È come se traslassimo la
struttura di V su P , prendendo P come nuova origine. Questo è il punto di vista
che implicitamente adottiamo quando, dati altri punti Q, R,..., rappresentiamo
i vettori Q − P , R − P ,... come freccie che partono da P anzichè da O
*• Q
P
* Q−P
•H
HH
O • j• R
H
HH
HH
R−P
j
11.5.1 Lo spazio vettoriale VP
Alle considerazioni precendenti si può dare una formulazione più precisa. Dato
uno spazio vettoriale V su un campo K, sia V il suo insieme di vettori e sia P ∈
V. Sia τP la traslazione di P (Capitolo 10, §10.1.1). Definiamo tre operazioni
σP : V × V −→ V, µP : K × V −→ V, ωP : V −→ V
mediante le clausole
σP (X, Y ) =def τP (τP−1 (X) + τP−1 (Y )) = X + Y − P, (X, Y ∈ V)
µP (x, X) =def τP (xτP−1 (X)) = xX + (1 − x)P, (x ∈ K, X ∈ V)
ωP (X) =def τP (−τP−1 (X)) = µP (−1, X) = −X + 2P, (X ∈ V)
P •HH •H
X HH
H• σP (X, Y ) = X + Y − P
H
H•
Y
O • •HX − P
HH HH
H
H• H• (X − P ) + (Y − P )
Y −P
• • •
P X µP (x, Y ) = xX − P (con x = 3/2)
X −P x(X − P )
O • • •
• • •
ωP (X) = −X + 2P P X
−X + P • • • X −P
O
200 Capitolo 11
Poniamo poi OP = P (= τP (O)). Si vede facilmente che V, con le operazioni
σP , ωP , µP e la costante OP è uno spazio vettoriale a coefficienti in K. Lo
indichiamo con VP e lo diciamo il traslato di V su P .
Proposizione 11.16 Lo spazio vettoriale VP è isomorfo a V e la traslazione
τP è un isomorfismo da V a VP .
(Questo è chiaro dal modo stesso in cui abbiamo definito le operazioni σP , ωP
e µP ). Pertanto,
Corollario 11.17 I sottospazi lineari di VP sono i sottospazi affini di V che
passano per P .
Insomma, passare da V a VP è prendere P come nuova origine, imitando attorno
ad esso la struttura di V.
11.5.2 Sistemi di riferimento
Sia dim(V) = n. Un sistema di riferimento in V è una coppia (P, E) ove P ,
detto origine del sistema, è un punto di V mentre E = (Ei )ni=1 è una base
ordinata dello spazio vettoriale V. I vettori E1 , E2 , ..., En si dicono versori del
sistema di riferimento (P, E). Ovviamente, ogni base E di V può vedersi come
un sistema di riferimento, precisamente come il sistema (O, E) avente il vettore
nullo come origine.
È chiaro che dare un sistema di riferimento (P, E) in V è come dare una base
geometrica (ordinata) P = (Pi )ni=0 di V. Il passaggio da (P, E) alla (n + 1)-pla
di punti P è dato dalle seguenti relazioni
P0 = P, P1 = P + E1 , P2 = P + E2 , ..., Pn = P + En
Sia (P, E) un sistema di riferimento in V. La n-pla delle coordinate di un punto
X rispetto al sistema (P, E) è la n-pla delle coordinate del vettore X −P rispetto
alla base E di V, nel senso del Capitolo 5. Indicheremo questa n-pla col simbolo
(X)P,E .
Sia (Q, F) un altro sistema di riferimento in V. Sia (ai,j )ni,j=1 la matrice
che fa passare da E = (Ei )ni=1 a F = (Fi )ni=1 (Capitolo 5, §5.4.5, (1)) e siano
(pi )ni=1 = (P )E e (qi )ni=1 = (Q)F le n-ple delle coordinate di P e Q, relative alle
basi E ed F rispettivamente. Dato un punto X di V, sia (xi )ni=1 = (X)P,E ed
(yi )ni=1 = (X)Q,F . Vogliamo ricavare un legame tra (X)P,E ed (X)Q,F , come si
è fatto in §5.4.5 del Capitolo 5 per i cambi di base. Risulta:
Pn Pn
X − P = i=1 Ei xi , X − Q = i=1 Fi yi ,
Pn Pn
P = i=1 Ei pi , Q = i=1 Fi qi ,
Pn
Fk = i=1 Ei ai,k , (k = 1, 2, ..., n).
11.5. CAMBIANDO L’ ORIGINE 201
(Come in §5.4.5 del Capitolo
Pn 5, usiamo ora la convenzione
Pn di scrivere gli scalari
a destra). Quindi X = i=1 Ei (xi + pi ) = i=1 Fi (yi + qi ). Sicchè
n
X
xk + pk = ak,i (yi + qi ), (k = 1, 2, ..., n)
i=1
per la (2) del Capitolo 5. Dunque il passaggio da (X)Q,F a (X)P,E è espresso
dalla seguente formula, che generalizza la (2) del Capitolo 5:
n
X
(20) xk = ak,i yi + bk , (k = 1, 2, ..., n)
i=1
ove
n
X
(21) bk = −pk + ak,i qi , (k = 1, 2, ..., n)
i=1
In particolare, se E = F allora ai,j è il simbolo di Kronecker δi,j (Capitolo 8,
§8.5.1). In questo caso le (20) diventano
(21.a) xk = yk + (qk − pk ), (k = 1, 2, ..., n)
Supponiamo invece che Q = P . Quindi (qi )ni=1 è la n-pla (P )F delle coordinate
di P rispetto alla base F. Per la (2) del Capitolo 5 risulta
n
X
pk = ak,i qi , (k = 1, 2, ..., n)
i=1
Sostituendo nelle (21) si ottiene bk = 0 per ogni k = 1, 2, ..., n e le (20) diventano
formalmente identiche alle (2) del Capitolo 5:
n
X
(21.b) xk = ak,i yi , (k = 1, 2, ..., n)
i=1
11.5.3 Sistemi di riferimento in sottospazi affini
Sia S un sottospazio affine di V e sia m = dim(S). Ora non è necessario assumere
che dim(V) < ∞, ma supponiamo che m < ∞. Indichiamo con SO la direzione
di S.
Un sistema di riferimento in S è una coppia (P, B) ove P , detto origine del
sistema, è un punto di S mentre B = (Bi )m i=1 è una base per SO . PI vettori
m
di B si dicono versori del sistema (P, B). Dato un punto X = P + i=1 ti Bi
di S, gli scalari t1 , t2 , ..., tm (che sono univocamente determinati da X) sono
detti le coordinate di X in S rispetto al sistema di riferimento (P, B). In questo
modo i punti di S corrispondono ai vettori di Vm (K). Realizziamo cosı̀ una
‘identificazione’ di S con Vm (K).
Come in V, dare un sistema di riferimento (P, B) in S è come dare una base
geometrica di S.
202 Capitolo 11
11.6 Esercizi
Esercizio 11.1 Si trovi la direzione ed un punto della retta M di V4 (R) rappre-
sentata dal sistema di equazioni (i) considerato nel secondo esempio di §11.3.3.
Risposta. L(1, −1, −1, 1) è la direzione di M. Un suo punto: (0, −1, −2, 0),
per esempio.
Esercizio 11.2 Sia S l’ iperpiano considerato in §11.3.5. Si trovi una base per
la direzione SO di S ed un punto di S.
Risposta. Per esempio, {(1, 0, 1, 0), (1, 0, 0, 1), (1, −1, 0, 0)} è una base di SO .
Un punto: (1, 0, 0, 0), per esempio.
Esercizio 11.3 Sia V = V4 (R) ed A, B, C, P , Q siano come sotto:
A = (1, 2, 1, 2), B = (1, −1, −1, 1), C = (1, 2, −2, −1),
P = (1, 1, 0, 0), Q = (2, 0, −1, 2).
Verificate che la retta P + L(A) non interseca il piano Q + L(B, C).
Suggerimento. Usate il Corollario 11.11.
Esercizio 11.4 Sia V = V4 (R). Dati A, B, C, Q, P come nell’ Esercizio 11.3,
verificate che i due piani P + L(A, B) e Q + L(A + B, B + C) non si intersecano.
Suggerimento. Usate il Corollario 11.11.
Nota. I due piani qui considerati non sono paralleli, e tuttavia sono entrambi
paralleli alle rette di direzione L(A + B).
Esercizio 11.5 Sia V = V4 (R). Dati A, B, C, Q, P come nell’ Esercizio 11.3,
sia D = (0, 0, 0, 1). Si dimostri che i due piani P + L(A, B) e Q + L(C, D) si
intersecano in un solo punto e si trovi quel punto.
Traccia. Si usi il Corollario 11.11 per dimostrare che l’ intersezione è non vuota,
poi si applichi (18) per dimostrare che l’ intersezione è un punto. Per trovarlo,
si imponga P + sA + tB = Q + uC + vD. Cosı̀ si ottiene un sistema di quattro
equazioni nelle quattro incognite s, t, u, v ...
Esercizio 11.6 Sia V = V5 (R) e P, Q, A, B, C, D siano come sotto:
A = (1, 2, 0, −2, −1), B = (1, −1, 0, 1, −1), C = (1, 2, −2, 2, 1),
D = (0, 0, 0, 1, 2), P = (1, 1, 0, 0, 0), Q = (2, −1, 0, −1, 2).
Verificate che i piani P + L(A, B) e Q + L(C, D) non si intersecano.
Suggerimento. Usate il Corollario 11.11.
Esercizio 11.7 Sia V = V4 (R) ed A, B, C, D, P , Q siano come nell’ Esercizio
11.6. Per quali vettori X ∈ L(P, Q) il sottospazio affine X + L(A, B, C, D)
risulta lineare ?
Risposta. Per i vettori di L(P, Q) ∩ L(A, B, C, D). (Se si vuole essere più
precisi, si può osservare che essi formano una retta per O ...)
11.6. ESERCIZI 203
Esercizio 11.8 Sia dim(V) = 4 e siano S e S0 due piani di V. Supponiamo
che nessuna retta di S sia parallela a rette di S0 . Si dimostri che, in questa
ipotesi, S ∩ S0 è un punto.
Traccia. Nelle ipotesi assunte, V è somma diretta della direzione di S e della
direzione di S0 . Quindi S ∩ S0 6= ∅ per il Corollario 11.11 ...
Esercizio 11.9 Sia dim(V) = n > 1. Siano P , Q punti distinti di V e siano
(pi )ni=1 e (qi )ni=1 le n-ple delle loro coordinate rispetto ad una data base di V.
Siccome P 6= Q, risulta pk 6= qk per almeno un indice k. Sia dunque k uno di
questi indici. Si dimostri che il seguente sistema di n − 1 equazioni
(qi − pi )(xk − pk ) = (qk − pk )(xi − pi ), (i = 1, 2, ..., n, i 6= k)
è una rappresentazione cartesiana della retta Af (P, Q).
Traccia. Si ha X ∈ Af (P, Q) se e solo se X − P ∈ L(Q − P ), cioè se e solo se
i vettori X − P e Q − P sono proporzionali.
Esercizio 11.10 Si dimostri che, dati tre punti P , Q, R di V non collineari,
un punto X di V è complanare con essi se e solo se i vettori X − P , Q − P ed
R − P sono linearmente dipendenti.
Esercizio 11.11 Sia S un sottospazio affine di V e sia B un sottoinsieme non
vuoto di S. Si dimostri che le seguenti condizioni si equivalgono:
(i) L’ insieme B è una base geometrica di S.
(ii) L’ insieme B è un elemento massimale nella famiglia dei sottoinsiemi
geometricamente indipendenti di S.
(iii) L’ insieme B è un elemento minimale nella famiglia degli insiemi di punti
che generano S.
Suggerimento. Si imiti la dimostrazione della Proposizione 5.1 del Capitolo
5. Oppure, ci si riconduca a quella proposizione mediante il Corollario 11.7.
Esercizio 11.12 Dato un insieme non vuoto X di punti di V, sia Y ⊆ Af (X)
e card(Y) > card(X). Si dimostri che Y è geometricamente dipendente.
Suggerimento. Si usi il Teorema 4.11 del Capitolo 4, osservando che, se P ∈ Y
e Q ∈ X, allora card(YP ) > card(XQ ) ≥ dim(Af (X)).
Esercizio 11.13 Si dimostri che ogni insieme non vuoto di punti contiene
sempre qualche base geometrica di Af (X).
Esercizio 11.14 Sia S un sottospazio affine e sia X un insieme di punti di S,
geometricamente indipendente. Si dimostri che X è contenuto in qualche base
geometrica di S.
Esercizio 11.15 Dati tre punti non collineari P0 , P1 , P2 , poniamo L = Af (P1 , P2 )
e sia L0 la parallela ad L per P . Si dimostri che
[
Af (P0 , P1 , P2 ) = L0 ∪ Af (P0 , X)
X∈L
204 Capitolo 11
Esercizio 11.16 Dati quattro punti non complanari P0 , P1 , P2 , P3 , poniamo
S = Af (P1 , P2 , P3 ) e sia S0 il piano per P0 parallelo ad S. Si dimostri che
[
Af (P0 , P1 , P2 , P3 ) = S0 ∪ Af (P0 , X)
X∈S
Esercizio 11.17 Sia ch(K) = 6 2. Dati tre punti non collineari P0 , P1 , P2 ,
poniamo L1 = Af (P0 , P1 ) ed L2 = Af (P0 , P2 ). Si dimostri che
[ [
Af (P0 , P1 , P2 ) = Af (P2 , X) ∪ Af (P1 , X)
X∈L1 X∈L2
Esercizio 11.18 (L’ operatore eq) Dato un sottoinsieme A di Vn (K), ponia-
mo
eq(A) =def {E ∈ En (K) | sol(E) ⊇ A}
(cfr. Capitolo 6, §6.3.4). Risulta
(22) sol(eq(A)) = Af (A), (∀A ⊆ Vn (K), A 6= ∅)
(23) eq(sol(X)) = L(X), (∀X ⊆ En (K), sol(A) 6= ∅)
La (23) riassume il Teorema 10.11 del Capitolo 10. Si dimostri la (22).
Nota. Per (22) e (23), le rappresentazioni cartesiane di un sottospazio affine S
di Vn (K) sono le basi di eq(S). Quindi, per (22), per trovare una rappresenta-
zione cartesiana di un sottospazio affine S = Af (P0 , P1 , ...., Pm ) di Vn (K) basta
trovare una base per la soluzione generale del seguente sistema di m equazioni
omogenee nelle n + 1 incognite a1 , a2 ,..., an , b (che rappresentano i coefficienti
ed il termine noto di una generica equazione di eq(S)), ove (pi,k )ni=1 è la n–pla
delle coordinate del punto Pk :
n
X
(24) ai pi,k = b, (k = 0, 1, 2, ..., m)
i=1
Esercizio 11.19 Usando il metodo sopra descritto, si trovi una rappresentazio-
ne cartesiana del sottospazio affine di V5 (R) considerato nell’ esempio di §10.2.6
del Capitolo 10.
Soluzione. Quel sottospazio è generato dai seguenti quattro punti:
P = (2, −3, 1, 0, 0)
P + B1 = (3, −3, 2, 0, 1)
P + B2 = (3, −1, 1, 1, 2)
P + B3 = (3, −4, 2, 2, 2)
Sostituendo in (24) otteniamo il sistema
2a1 − 3a2 + a3 = b
3a1 − 3a2 + 2a3 + a5 = b
3a1 − a2 + a3 + a4 + 2a5 = b
3a1 − 4a2 + 2a3 + 2a4 + 2a5 = b
11.6. ESERCIZI 205
I vettori (4, 5, 7, 8, −11, 0) e (0, 3, 5, 4, −5, −4) formano una base per la soluzione
di questo sistema. Quindi,
4x1 + 5x2 + 7x3 + 8x4 − 11x5 = 0
3x2 + 5x3 + 4x4 − 5x5 = −4
è una rappresentazione cartesiana per quel sottospazio affine.
206 Capitolo 11
Capitolo 12
Geometria euclidea
Nelle prime quattro sezioni di questo capitolo V è Vn (R) ed hX, Y i indica il
prodotto scalare standard in V. Però, per il Corollario 9.15 del Capitolo 9, quel
che diremo vale in qualunque spazio euclideo reale di dimensione finita. La base
di V cui ci riferiamo è quella dei versori, ma qualunque altra base ortonormale di
V andrebbe bene (Capitolo 9, Proposizione 9.10 e Capitolo 8, Corollario 8.10).
Del caso complesso dirò molto rapidamente nella Sezione 12.6.
12.1 Vettori normali ed equazioni lineari
In questa sezione generalizziamo a sottospazi affini ed arbitari sistemi lineari
le cose dette nella Sezione 9.6 del Capitolo 9 per sottospazi lineari e sistemi
omogenei, dando cosı̀ una reinterpretazione in chiave di ortogonalità dei risultati
esposti nella Sezione 11.2 del Capitolo 11.
Dato un iperpiano S di V, sia SO la sua direzione. Un vettore normale di
S è, per definizione, un vettore normale di SO (Capitolo 9, Sezione 9.5). Come
nel Capitolo 9, se N è un vettore normale di S ci prenderemo a volte la libertà
di dirlo il vettore normale di S, anche se questo modo di esprimersi è scorretto.
Sia dunque N un vettore normale di S. Quindi SO = N ⊥ . Sia P ∈ S. Per la
(16) del Capitolo 10, un punto X di V appartiene ad S se e solo se X − P ∈ N ⊥ ,
cioè se e solo se hX − P, N i = 0. Vale a dire, X ∈ S se e solo se
(i) hX, N i = hP, N i
La figura seguente illustra quanto sopra nel caso di n = 3.
207
208 Capitolo 12
N 6H
H
HH
H
N HH P •
-• X HH
6 H
HH
H
X −P HH
O• - H
Se N = (ai )ni=1 e P = (pi )ni=1 , la (i) diventa
n
X
(ii) ai xi = b
i=1
Pn
ove b = hP, N i = i=1 ai pi . La (ii) è la rappresentazione cartesiana di S
(rispetto alla base dei versori di V, poichè questa è la base cui ci riferiamo).
Ovviamente, siccome N 6= O, l’ equazione (ii) non è nè banale nè impossibile.
L’ equazione omogenea associata a (ii) è la rappresentazione cartesiana di SO .
Viceversa, sia E una qualunque equazione lineare non banale nè impossibile,
nelle n incognite x1 , x2 , ..., xn ∈ R. Allora E rappresenta l’ iperpiano S =
P + N ⊥ , ove N è la n-pla dei coefficienti di E e P è una qualunque soluzione di
E, cioè un qualunque vettore il cui prodotto scalare con N sia uguale al termine
noto di E.
Da sottospazi affini a sistemi lineari. Dato un sottospazio affine S =
P + SO di V, di direzione SO e dimensione s < n, sia N1 , N2 , ..., Nm una
base di S⊥ O . Si ha m = n − s per il Teorema 9.16 del Capitolo 9 ed SO =
Tm
{N1 , N2 , ..., Nm }⊥ = i=1 Ni⊥ (Capitolo 9, Sezione 9.6). Perciò
m
\ m
\
S = P+ Ni⊥ = (P + Ni⊥ )
i=1 i=1
(la seconda uguaglianza segue dalla (7) del Capitolo 10). Cioè S è intersezione
di m iperpiani S1 = P + N1⊥ , S2 = P + N2⊥ ,..., Sm = P + Nm⊥
. Quindi il sistema
formato dalle m equazioni di questi iperpiani è una rappresentazione cartesiana
di S. Possiamo scrivere questo sistema cosı̀:
(j) hX, Nk i = hP, Nk i, (k = 1, 2, ..., m)
il chè è lo stesso che
n
X
(jj) ak,i xi = bk , (k = 1, 2, ..., m)
i=1
ove si è posto (ak,i )ni=1 = Nk e bk = hP, Nk i, per k = 1, 2, ..., m. Il sistema
omogeneo associato a (jj) rappresenta SO ed ha rango m (infatti, i vettori N1 ,
N2 ,...., Nm , formando una base di S⊥O , sono linearmente indipendenti).
12.2. PARALLELISMO E INTERSEZIONI 209
Da sistemi lineari a sottospazi affini. Viceversa, sia X un sistema di m
equazioni lineari in n incognite in R, risolubile e non banale. Siano N1 , N2 , ..., Nm
le n-ple dei coefficienti delle equazioni di X e sia P ∈ sol(X). Sappiamo dal
Capitolo 10 (Sezione 10.2) che sol(X) è un sottospazio affine di V. Ma ora pos-
siamo dire di più: sol(X) è l’ intersezione degli iperpiani P + N1⊥ , P + N2⊥ ,...,
⊥
P + Nm
m
\ m
\
sol(X) = (P + Ni⊥ ) = P + Ni⊥ = P + {N1 , N2 , ..., Nm }⊥
i=1 i=1
{N1 , N2 , ..., Nm }⊥ è la direzione di sol(X) e dim({N1 , N2 , ..., Nm }⊥ ) = n − r
ove r = dim(L(N1 , N2 , ..., Nm )) è il rango del sistema omogeneo associato ad X
(Capitolo 9, Sezione 9.6). Siccome X è risolubile per ipotesi, r = rank(X) (Ca-
pitolo 6). Ritroviamo cosı̀ che dim(sol(X)) = n − rank(X) (come già sapevamo
dal Teorema 10.7 del Capitolo 10).
Implicazioni tra equazioni. Possiamo anche riscrivere la dimostrazione del
Teorema 10.11 del Capitolo 10 in chiave di ortogonalità.
Sia E un’ equazione lineare non banale in n incognite x1 , x2 , ..., xn ∈ R e sia
X un sistema formato m equazioni lineari E1 , E2 ,..., Em non banali, nelle stesse
incognite x1 , x2 , ..., xn . Supponiamo che ∅ =
6 sol(X) ⊆ sol(E) e sia P ∈ sol(X).
Quindi P è una soluzione per tutte le equazioni E1 , E2 ,..., Em ed anche per
E, perchè sol(X) ⊆ sol(E) e le equazioni E ed E1 , E2 ,..., Em possono mettersi
nella forma seguente, ove N ed N1 , N2 ,..., Nm sono le n-ple dei coefficienti delle
equazioni E ed E1 , E2 ,..., En rispettivamente:
hX, N i = hP, N i, (equazione E),
hX, Nk i = hP, Nk i, (equazione Ek , per k = 1, 2, ..., m).
Dunque sol(X) = P + {N1 , N2 , ..., Nm }⊥ e sol(E) = P + N ⊥ . L’ inclusio-
ne sol(X) ⊆ sol(E) diventa {N1 , N2 , ..., Nm }⊥ ⊆ N ⊥ e, per il Teorema 9.19
del Capitolo 9 e per la (4) del P Capitolo 9, questo equivale a dire che N ∈
m
L(N1 , N2 , ..., Nm ). Quindi N = Pk=1 ck Nk per opportuni scalari c1 , c2 , ..., cm .
m
Da ciò segue anche che hP, N i = k=1 ck hP, Nk i. Ma hP, N i è il termine noto
Pm
di E mentre hP, Nk i è il termine noto di Ek . È ora chiaro che E = k=1 ck Ek .
Cioè, E è combinazione lineare delle equazioni di X (come già sapevamo dal
Teorema 10.11 del Capitolo 10).
12.2 Parallelismo e intersezioni
12.2.1 Parallelismo
Sul parallelismo non c’ è molto da aggiungere a ciò che già si è detto in §10.2.5 del
Capitolo 10. Naturalmente, la Proposizione 10.13 del Capitolo 10 può tradursi
nel linguaggio dell’ ortogonalità. Lasciando questa traduzione al lettore, mi
limito ad esaminare due casi particolari.
210 Capitolo 12
Parallelismo tra iperpiani. Per definizione, due iperpiani S = P + N ⊥ ed
⊥ ⊥
S0 = P 0 + N 0 sono paralleli se e solo se N ⊥ = N 0 . Per il Teorema 9.19 del
0⊥
Capitolo 9 si ha N = N se e solo se L(N ) = L(N 0 ). Dunque S ed S0 sono
⊥
paralleli se e solo se hanno vettori normali proporzionali (in breve, se e solo se
hanno ‘lo stesso’ vettore normale).
N
N0 6
HH
6 • H
P HH
6N 0 HH
HH HH
N 0 H H
6 HH• P
HH
•O HH
H
Siano E ed E 0 le equazioni di S ed S0 . Le n-ple dei coefficienti di E ed E 0 sono i
vettori normali di S ed S0 . Sicchè S ed S0 sono paralleli se e solo se le n-ple dei
coefficienti di E ed E 0 sono proporzionali (come si era già osservato nel Capitolo
10).
Parallelismo tra iperpiani e rette. Per definizione, una retta L = Q+L(A)
è parallela ad un iperpiano S = P + N ⊥ quando L(A) ⊆ N ⊥ , cioè quando
A ⊥ N.
H
N HH
•
H
6 N 6 H
Q H HH
HH A
H H HH
jH
H
O •H
H
•
HH P H H
H
HH
A
HH H
HH HH
j H
Siccome hX, N i = 0 è l’ equazione omogenea associata all’ equazione di S, la
retta L è parallela ad S se e solo se A è una soluzione dell’ equazione omogenea
associata all’ equazione di S, come del resto era già ovvio per il fatto che la
direzione di S è appunto la soluzione generale di quell’ equazione omogenea.
12.2.2 Intersezioni
Dati Tm iperpiani S1 = P1 + N1⊥ , S2 = P2 + N2⊥ ,..., Sm = Pm + Nm ⊥
, sia
m
S = i=1 Si . Se S 6= ∅, allora S è un sottospazio affine di V. Questa conclusione
segue dalla Proposizione 11.2 del Capitolo 11, ma possiamo anche ricavarla
osservando che S è la soluzione generale del sistema X formato dalle equazioni
degli iperpiani S1 , S2 ,..., Sm . Con ciò vediamo anche che, se S 6= ∅, allora
dim(S) = n − dim(L(N1 , N2 , ..., Nm )) (cfr. Sezione 12.1).
Se i vettori N1 , N2 ,..., Nm sono distinti e linearmente indipendenti, allora
il sistema omogeno associato ad X ha rango m, che necessariamente è anche il
12.2. PARALLELISMO E INTERSEZIONI 211
rango di X. Pertanto X è risolubile (Capitolo 6, Corollario 6.2). Vale a dire
S 6= ∅. Riassumendo:
Teorema 12.1 Siano S1 , S2 ,..., Sm iperpiani di V, a due a due non paralleli
(in particolare, distinti), e siano N1 , N2 , ..., Nm i loro rispettivi vettori
Tm normali.
Se l’ insieme {N1 , N2 , ..., Nm } è linearmente indipendente, allora i=1 Si 6= ∅
ed è un sottospazio affine di V di dimensione n − m.
Tn
In particolare, se m = n, allora i=1 Si è un punto. Invece, due iperpiani non
paralleli si intersecano in un sottospazio di dimensione n − 2 (cfr. Capitolo 11,
Corollario 11.14).
Il caso di n = 3. Siano S1 = P1 + N1⊥ , S2 = P2 + N2⊥ , S3 = P3 + N3⊥ tre
piani di V3 (R), distinti e a due a due non paralleli. Siccome i tre piani S1 , S2 , S3
sono a due a due non paralleli, i loro vettori normali N1 , N2 , N3 sono a due
a due non proporzionali. Quindi dim(L(N1 , N2 , N3 )) è 3 oppure 2. Nel primo
caso esiste un unico punto comune ai tre piani
HA H
N1
6 A HHH
A A
1 A A• S3 A
• N2 A S2 HHH AA
O
A
HH HHA
S
H 1
N3 HH
Nel secondo caso invece L(N1 , N2 , N3 ) è un piano (per O), quindi {N1 , N2 , N3 }⊥
è una retta (per O), diciamola L. In questo caso i tre piani S1 , S2 , S3 sono tutti
paralleli ad L e la loro intersezione o è vuota o è una retta, parallela ad L.
L(N1 , N2 , N3 ) = L⊥
@
@
I@
@
• O @
? @
@
L
@
212 Capitolo 12
L(N1 , N2 , N3 ) = L⊥
@
@
I
@
@•
O @
? @
L @
@
Intersezioni di rette e iperpiani. Siano S = P + N ⊥ un iperpiano ed
L = Q + L(A) una retta e supponiamo che L non sia parallela ad S. Sappiamo
dal Capitolo 11 (Corollario 11.13) che L interseca S in un punto. Per determi-
nare quel punto si sostituiscano nell’ equazione di S le espressioni che danno le
coordinate del punto generico X = Q + tA di L in funzione del parametro t. Si
ottiene cosı̀ un’ equazione di primo grado nella sola incognita t. La si risolve.
Sostituendo nell’ espressione Q + tA il valore cosı̀ ottenuto per t, si ottiene l’
intersezione cercata.
Riferendoci ad N , possiamo dare la seguente descrizione di questo procedi-
mento. Intanto hA, N i = 6 0 perchè L non è parallela ad S (§12.2.1). Sostituendo
l’ espressione Q + tA al posto di X nella (ii) della Sezione 12.1 (che rappresenta
S) si ottiene l’ equazione hQ + tA, N i = hP, N i nell’ incognita t. La si può
riscrivere cosı̀: thA, N i = hP − Q, N i. Siccome hA, N i = 6 0, questa equazione è
risolubile e hP − Q, N i/hA, N i è la sua unica soluzione. Quindi L ∩ S è questo
punto:
hP − Q, N i
(1) Q+ A
hA, N i
12.3 Ortogonalità
Per tutta questa sezione S ed S0 sono sottospazi affini non banali di V ed SO ,
S0O sono le loro rispettive direzioni Per la (4) del Capitolo 9 ed il Teorema 9.19
⊥
del Capitolo 9, si ha SO ⊆ S0 O se e solo se S0 O ⊆ S⊥ O.
0⊥
Se SO ⊆ S O (cioè, S O ⊆ S⊥
0
O ) allora diciamo che S e S0 sono ortogonali. Per
il Teorema 9.16 del Capitolo 9, se S è ortogonale a S, allora dim(S)+dim(S0 ) ≤
0
n. In particolare, se S è un iperpiano, i sottospazi affini non banali ortogonali
ad esso sono le rette di direzione L(N ), ove N è il vettore normale di S.
12.3.1 Complementi ortogonali
Se S0O = S⊥ 0
O , allora diciamo che S è un complemento ortogonale di S. (Per
esempio, se S è un iperpiano, ogni retta ortogonale ad S è un complemento
ortogonale di S.) Dato un punto P , il sottospazio P +S⊥
O è l’ unico complemento
12.3. ORTOGONALITÀ 213
ortogonale di S che contenga P . Lo diciamo il complemento ortogonale di S per
P.
Lemma 12.2 Se S0 è un complemento ortogonale di S allora S è un comple-
mento ortogonale di S0 .
Questo segue subito dal Teorema 9.19 del Capitolo 9. Invece, dal Teorema 9.16
del Capitolo 9, sia ha:
Lemma 12.3 Supponiamo che S ed S0 siano ortogonali. Allora S0 è un com-
plemento ortogonale di S se e solo se dim(S) + dim(S0 ) = n.
Come determinare un complemento ortogonale. Sia Q un punto e sia
S0 = Q + S⊥O il complemento ortogonale di S per Q. Supponiamo che S ci sia
dato in rappresentazione parametrica, nella forma
S = P + L(A1 , A2 , ..., Am )
ove m = dim(S) (e quindi i vettori A1 T , A2 , ..., Am sono linearmente indipenden-
m
ti). Allora S⊥ ⊥
O = {A1 , A2 , ..., Am } =
⊥
i=1 Ai e pertanto
m
\ m
\
S0 = Q + A⊥
i = (Q + A⊥
i )
i=1 i=1
Cosı̀ S0 resta rappresentato come intersezione di m iperpiani, cioè in forma
cartesiana.
Supponiamo invece che S ci fosse stato dato in forma cartesiana, come
intersezione di n − m iperpiani,
n−m
\
S = (Pi + Ni⊥ )
i=1
Si noti che, essendo m = dim(S), i vettori T N1 , N2 , ..., Nn−m sono linearmente
n−m
indipendenti (Sezione 12.1). Risulta SO = i=1 Ni⊥ = {N1 , N2 , ..., Nn−m }⊥ .
Quindi, S⊥O = L(N1 , N2 , ..., Nn−m ) (Capitolo 9, Teorema 9.19). Possiamo cosı̀
rappresentare S0 in forma parametrica:
S0 = Q + L(N1 , N2 , ..., Nn−m )
In definitiva, in ogni rappresentazione parametrica o cartesiana di S è implicita
una rappresentazione di S0 , cartesiana o parametrica, rispettivamente.
Intersezioni con complementi ortogonali. Sia S0 un complemento orto-
gonale di S.
Lemma 12.4 L’ intersezione di S con S0 è un punto.
214 Capitolo 12
Dimostrazione. Sia m = dim(S). Dunque dim(S0 ) = n − m, per il Lemma 12.3.
Sia {A1 , A2 , ..., Am } una base per la direzione di S e sia {B1 , B2 , ..., Bn−m } una
base per la direzione di S0 . Siano poi P e Q punti rispettivamente di S e S0 .
Quindi
S = P + L(A1 , A2 , ..., Am ), S0 = Q + L(B1 , B2 , ..., Bn−m )
Inoltre
m
\
(∗) L(B1 , B2 , ..., Bn−m ) = {A1 , A2 , ..., Am }⊥ = A⊥
i
i=1
perchè S0 è un complemento ortogonale di S. D’ altra parte, S è a sua volta un
complemento ortogonale di S0 (Lemma 12.2) e perciò
n−m
\
(?) L(A1 , A2 , ..., Am ) = {B1 , B2 , ..., Bn−m }⊥ = Bi⊥
i=1
Da (∗) e (?) si ricava
n−m
\ n−m
\
S = P+ Bi⊥ = (P + Bi⊥ )
i=1 i=1
m
\ m
\
S0 = Q + A⊥
i = (Q + A⊥
i )
i=1 i=1
e quindi S ∩ S0 è l’ intersezione dei seguenti n iperpiani
P + B1⊥ , P + B2⊥ , ..., P + Bn−m
⊥
, Q + A⊥ ⊥ ⊥
1 , Q + A2 , ..., Q + Am
Da (∗) o da (?), usando il Teorema 9.16 del Capitolo 9 ed il Corollario 7.2
del Capitolo 7, si deduce che l’ insieme {A1 , A2 , ..., Am , B1 , B2 , ..., Bn−m } è una
base di V. Quindi S ∩ S0 è un punto, per il Teorema 12.1. 2
Nella dimostrazione del Lemma 12.4 è implicito un metodo per calcolare l’ inter-
sezione di S e S0 . Ma non si tratta del metodo più economico. Le considerazioni
svolte subito dopo il Lemma 12.3 ci suggeriscono strade migliori.
Siano P e Q punti di S ed S0 rispettivamente e sia m = dim(S). Indichiamo
con P0 l’ intersezione di S e S0 , da determinare. Supponiamo
Tm che S ci sia dato
nella forma S = P + L(A1 , A2 , ..., Am ). Allora S0 = Q + i=1 A⊥ i . Siccome P0
appartiene ad S0 , esso deve soddisfare le seguenti m equazioni
(i) hP0 , Ak i = hQ, Ak i, (k = 1, 2, ..., m)
D’ altra parte, P0 appartiene anche ad S. Quindi
m
X
(ii) P0 = P + t i Ai
i=1
12.3. ORTOGONALITÀ 215
per opportuni parametri t1 , t2 , ..., tm . Sostituendo nelle equazioni (i) al posto
di P0 l’ espressione a secondo membro della (ii), con facili passaggi si ottiene il
seguente sistema di m equazioni nelle m incognite t1 , t2 , ..., tm :
m
X
(iii) hAi , Ak iti = hQ − P, Ak i, (k = 1, 2, ..., m)
i=1
Il Lemma 12.4 ci garantisce che questo sistema è determinato. Risoltolo, e
sostituiti in (ii) i valori trovati, otteniamo il punto P0 . Tn−m
Supponiamo invece che S ci sia dato nella forma S = P + i=1 Ni⊥ . Allora
0
S = Q + L(N1 , N2 , ..., Nn−m ). E si procede esattamente come sopra, solo
scambiando i ruoli di S ed S0 . L’ appartenenza di P0 ad S si traduce nelle
equazioni
(j) hP0 , Nk i = hP, Nk i, (k = 1, 2, ..., n − m)
mentre la condizione P0 ∈ S0 ci dà
n−m
X
(jj) P0 = Q + t i Ni
i=1
Si giunge cosı̀ al sistema
n−m
X
(jjj) hNi , Nk iti = hP − Q, Nk i, (k = 1, 2, ..., m)
i=1
La sua soluzione, sostituita in (jj), ci dà il punto P0 .
Nota. Nell’ Esercizio 9.10 del Capitolo 9 abbiamo definito la matrice di Gram
di una m–pla di vettori. La matrice dei coefficienti del sistema (iii) (del sistema
(jjj)) è proprio la matrice di Gram della m-pla di vettori (Ai )mi=1 (della (n−m)-
pla (Ni )n−m
i=1 ). Per il Lemma 12.4, il sistema (iii) è determinato. Pertanto, e
per il Teorema 6.4 del Capitolo 6, data una sequenza α = (Ai )m i=1 di vettori
di V con rank(α) = m ed indicata con G(α) la sua matrice di Gram, risulta
rank(G(α)− ) = m. Questa è una parte dell’ asserzione che nell’ Esercizio 9.10
del Capitolo 9 si richiedeva di dimostrare.
12.3.2 La perpendicolare ad S per P
Sia P un punto non appartenente ad S.
Teorema 12.5 Esiste una sola retta per P che sia con S al tempo stesso
ortogonale ed incidente.
Dimostrazione. L’ ortogonale ad S per P è P + S⊥ O . Per il Lemma 12.4, l’
intersezione S ∩ (P + S⊥
O ) è un punto, diciamolo P 0 , diverso da P perchè P 6∈ S.
Sia L = Af (P, P0 ). La direzione di L è L(P0 − P ) e P0 − P ∈ S⊥ O perchè
216 Capitolo 12
P0 ∈ P + S⊥ O . Dunque L è ortogonale ad S. Ovviamente, L è incidente ad S
perchè contiene P0 , che appartiene ad S.
Dimostriamo ora che L è l’ unica retta per P che intersechi S e che sia
ortogonale ad S. Sia M una qualunque retta con queste proprietà e sia Q ∈
S ∩ M. Risulta Q − P ∈ S⊥ ⊥
O perchè M è ortogonale ad S. Quindi Q ∈ P + SO .
⊥
Ma allora Q deve coincidere con l’ unico punto comune ad S e a P + SO . Cioè,
Q = P0 . E pertanto M = L. 2
Dati S e P come nel Teorema 12.5, la retta per P ortogonale ed incidente ad S
viene detta la perpendicolare ad S per P . Il punto in cui essa incontra S è detto
il suo piede.
Si noti che, se dim(S) < n − 1, l’ ipotesi che P 6∈ S è essenziale per l’ unicità
della perpendicolare. Infatti, se fosse P ∈ S, ogni retta per P ortogonale ad S
verifica le condizioni richieste nel Teorema 12.6 e, se dim(S) < n − 1, di tali
rette ce n’ è infinite. Esse ricoprono il complemento ortogonale di S per P .
Supponiamo invece che S sia un iperpiano e sia N il suo vettore normale.
Allora per qualunque scelta di P , anche se P ∈ S, la retta L = P + L(N )
è l’ unica retta per P ortogonale ad S. Essa è incidente ad S (cfr. §12.2.2).
Quindi, se P 6∈ S, la retta L è la perpendicolare ad S per P . Chiamiamo L la
perpendicolare ad S per P anche nel caso che P ∈ S e diciamo che P è il suo
piede.
12.4 Distanze
12.4.1 Distanza di un punto da un iperpiano
Dato un iperpiano S = P + N ⊥ ed un punto Q, consideriamo la perpendicolare
L = Q + L(N ) ad S per Q. Sia PQ il piede di L, cioè la sua intersezione con S.
Per la (1) della Sezione 12.2,
hP − Q, N i
(2) PQ = Q + N
hN, N i
e risulta
|hP − Q, N i|
(3) ||PQ − Q|| =
||N ||
Essendo PQ ∈ S, risulta S = PQ + N ⊥ . Quindi i punti di S sono quei punti
X tali che X − PQ ⊥ N . Siccome PQ − Q è proporzionale ad N , ne segue che
(X − PQ ) ⊥ (PQ − Q) per ogni X ∈ S.
12.4. DISTANZE 217
A A
A P A
A Q•A A
N
A A
* A
A
• A• X A
A A
Q A A
Perciò kX − Qk > kPQ − Qk per ogni punto X ∈ S − {PQ } (Capitolo 9,
Proposizione 9.9). In definitiva:
Teorema 12.6 Il punto PQ è il punto di S a minima distanza da Q.
Prendiamo kPQ − Qk come distanza di Q da S. Evidentemente, la distanza di
Q da S è 0 (cioè si ha PQ = Q) se e solo se Q ∈ S. In particolare, il punto di S
a minima distanza da O è
hP, N i
(20 ) N
hN, N i
che è la proiezione ortogonale di P su N . La distanza di S da O è
|hP, N i|
(30 )
||N ||
12.4.2 Distanza tra punti e sottospazi affini
Sia S un qualunque sottospazio affine non banale e sia Q un punto. Se Q ∈ S
diciamo che Q ha distanza 0 da S. Sia invece Q 6∈ S e sia L la perpendicolare
ad S per Q. Sia PQ il piede di L. Con un ragionamento analogo a quello con
cui abbiamo dedotto il Teorema 12.6 si dimostra che:
Proposizione 12.7 Il punto PQ è il punto di S a minima distanza da Q.
(Lascio i dettagli della dimostrazione al lettore.) La distanza kQ − PQ k viene
presa come distanza di Q da S.
Distanza di un punto da un retta. Sia L = P + L(A) una retta e sia Q
un punto non su L. Per calcolare la distanza di Q da L dobbiamo trovare il
piede PQ della perpendicolare condotta ad L per Q, ciò il punto intersezione di
L con il suo complemento ortogonale S = Q + A⊥ per Q, che è un iperpiano.
L’ intersezione PQ di S con L ci è data dalla (1) della Sezione 12.2:
hQ − P, Ai
PQ = P + A
hA, Ai
Con facili calcoli si trova che
hQ − P, Ai2
hQ − PQ , Q − PQ i = hP − Q, P − Qi −
hA, Ai
218 Capitolo 12
La radice quadrata di questo numero è la distanza di Q da L.
Nota. Siccome i complementi ortogonali di iperpiani sono rette ed i complemen-
ti ortogonali di rette sono iperpiani, il problema affrontato ora è praticamente
lo stesso che in §12.4.1: nell’ un caso e nell’ altro cerchiamo l’ intersezione di
una retta ed un iperpiano tra loro ortogonali.
Distanza di un punto da un piano. Sia S = P + L(A, B) un piano e Q un
punto fuori di esso. Il sistema (iii) di §12.3.1 diventa
shA, Ai + thA, Bi = hQ − P, Ai
shA, Bi + thB, Bi = hQ − P, Bi
ove le incognite sono s e t. Questo sistema è determinato (infatti, (iii) di §12.3.1
è sempre determinato). Con facili calcoli si trova che la sua soluzione è (s0 , t0 )
ove
hQ − P, BihB, Ai − hQ − P, AihB, Bi
s0 =
hA, Bi2 − hA, AihB, Bi
hQ − P, AihA, Bi − hQ − P, BihA, Ai
t0 =
hA, Bi2 − hA, AihB, Bi
(Si noti che hA, Bi2 − hA, AihB, Bi 6= 0 per la Proposizione 8.2 del Capitolo 8;
infatti i vettori A e B, generando un piano per O, non sono proporzionali.) Il
punto PQ = P + s0 A + t0 B è il piede della perpendicolare per Q ad S. Il calcolo
della distanza kQ − PQ k di Q da S è immediato.
12.5 Cambiando l’ origine
In questa sezione V è un qualunque spazio euclideo reale, anche di dimensione
infinita, e Φ è il suo prodotto scalare. Come al solito, scriviamo hX, Y i per
Φ(X, Y ).
Dato un punto P di V, sia VP il traslato di V su P (Capitolo 11, Sezione
11.5). Poniamo
ΦP (X, Y ) =def hX − P, Y − P i, (X, Y ∈ V)
Abbiamo cosı̀ una funzione ΦP che ad ogni coppia di vettori di VP associa un
numero reale.
Proposizione 12.8 La funzione ΦP è un prodotto scalare in VP e la traslazione
τP è un isomorfismo di spazi euclidei da (V, Φ) a (VP , ΦP ).
Dimostrazione. C’ è solo da verificare che ΦP soddisfa le (1)–(5) del Capitolo 8
e che τP soddisfa la (15) del Capitolo 8.
È ovvio che la funzione ΦP è commutativa (Capitolo 8, (1)) e positiva (Ca-
pitolo 8, (4) e (5); si rammenti che P è il vettore nullo di VP ). Verichiamo che
12.5. CAMBIANDO L’ ORIGINE 219
ΦP è distributiva ed omogenea (Capitolo 8, (2) e (3)). Indicando con +P e ◦P
la somma e la moltiplicazione per scalari eseguite in VP , risulta:
ΦP (X +P Y, Z) = h(X + Y − P ) − P, Z − P i = hX + Y − 2P, Z − P i =
= hX − P, Z − P i + hY − P, Z − P i = ΦP (X, Z) + ΦP (Y, Z).
ΦP (x◦P X, Y ) = h(xX + (1 − x)P ) − P, Y − P i = hx(X − P ), Y − P i =
= xhX − P, Y − P i = xΦP (X, Y ).
Quindi ΦP è positiva ed omogenea. Resta da mostrare che τP è un isomorfismo
da (V, Φ) a (VP , ΦP ). Intanto, τP−1 è un isomorfismo dallo spazio vettoriale VP
allo spazio vettoriale V. La definizione di ΦP , che possiamo riscrivere cosı̀
ΦP (X, Y ) = hτP−1 (X), τP−1 (Y )i
ci dice che τP−1 è anche un isomorfismo da (VP , ΦP ) a (V, Φ). La conclusione
segue dalla Proposizione 8.6 del Capitolo 8. 2
Diciamo che ΦP è il traslato su P del prodotto scalare di V e che (VP , ΦP ) è il
traslato su P dello spazio euclideo (V, Φ).
Norme e distanze. Indicata con kX kP la norma di X calcolata in (VP , ΦP ),
risulta kP + X kP = kX k, perchè τP è un isomorfismo da (V, Φ) a (VP , ΦP ).
Cioè,
(4) kX kP = kX − P k, (∀X ∈ V)
Da questo si deduce facilmente che la distanza tra due punti è la stessa in
(VP , ΦP ) ed in V. Vale a dire,
(5) kX −P Y kP = kX − Y k, (∀X, Y ∈ V)
(ove con X −P Y intendiamo la differenza tra X ed Y , calcolata in VP ).
Evidenza ‘visiva’. I sottospazi lineari di VP sono i sottospazi affini di V che
contengono P (Capitolo 11, Corollario 11.17). Sia S uno di essi e sia m la sua
dimensione. Per il Corollario 9.15 del Capitolo 9, il sottospazio lineare S di VP ,
con il prodotto scalare indotto su esso da ΦP , è isomorfo allo spazio euclideo
(Vm (R), Φst ).
Quindi, quando abbiamo a che fare con configurazioni contenute in sottospazi
affini di V di dimensione ≤ 3 (per esempio: una retta ed un punto, una coppia di
rette, un triangolo, un tetraedro, ...), possiamo ragionare su di esse esattamente
come se appartenessero a V3 (R) (o eventualmente a V2 (R) o a V1 (R)).
Dirò che un’ affermazione è visivamente evidente quando riguarda configu-
razioni contenute in sottospazi di dimensione ≤ 3 e ripete per esse cose che in
V3 (R) (o in V2 (R) o V1 (R)) sono ovvie o risapute.
220 Capitolo 12
12.6 Il caso complesso
Tutto quello che si è detto nelle sezioni precedenti può ripetersi nel caso com-
plesso salvo che, se E è la n-pla dei coefficienti dell’ equazione di un iperpiano
S, il vettore normale di S non è E ma il coniugato E di E (Capitolo 9, Sezione
9.6).
In alcune espressioni dovremmo anche sostituire scritture della forma (...)2
con scritture della forma (...)(...). Per esempio, l’ espressione che ci dà il qua-
drato della distanza di un punto A da una retta P + L(A), che nel caso reale è
hP − Q, P − Qi − hQ − P, Ai2 /hA, Ai, nel caso complesso diventa
hQ − P, AihQ − P, Ai
hP − Q, P − Qi −
hA, Ai
12.7 Esercizi
Esercizio 12.1 Si considerino i due seguenti piani di V5 (R):
S = P + L(A1 , A2 )
S0 = (P1 + N1⊥ ) ∩ (P2 + N2⊥ ) ∩ (P3 + N3⊥ )
ove poniamo
P = (1, −1, 0, 0, 0), A1 = (1, 0, −1, 0, 1), A2 = (0, 0, 1, −1, 1)
P1 = (1, 0, −1, 0, 0), P2 = (1, 0, 0, −1, 0), P3 = (1, 0, 0, 0, −1)
N1 = (−1, 1, 0, −1, 1), N2 = (−1, 1, 0, 1, −1), N3 = (1, 1, 0, −1, −1)
(Che S0 sia un piano risulta dall’ indipendenza lineare dei vettori N1 , N2 , N3 e
dal Teorema 12.1.) Si descrivano S ∩ S0 ed Af (S ∪ S0 ).
Risposta. Risulta S ∩ S0 = ∅ ed Af (S ∪ S0 ) = V5 (R). Per vedere che S ∩ S0 = ∅
non c’ è bisogno di molti calcoli. Basta osservare che A1 , A2 ∈ N3⊥ . Quindi, se
fosse S ∩ S0 6= ∅, dovendo essere P + sA1 + tA2 − P3 ⊥ N3 per qualche valore di
s e t, dovrebbe essere P − P3 ⊥ N3 . Il chè non è. Veniamo ad Af (S ∪ S0 ). Per
il Corollario 11.11 del Capitolo 11 e siccome S ∩ S0 = ∅, abbiamo
dim(Af (S ∪ S0 )) = 1 + dim(L(A1 , A2 ) + {N1 , N2 , N3 }⊥ )
Inoltre L(A1 , A2 ) ∩ {N1 , N2 , N3 }⊥ = {O}. Quindi dim(Af (S ∪ S0 )) = 5.
Pertanto Af (S ∪ S0 ) = V5 (R).
Pn 2
Esercizio 12.2 Poniamo F (x1 , x2 , ..., xn ) = i=1 xP i , con la clausola restritti-
va che dom(F ) sia l’ iperpiano di Vn (R) di equazione i=1 ai xi = b. Si dimostri
che F ammette minimo ed un unico punto di minimo, e li si determini.
Traccia. Si tratta solo di determinare la distanza Pn di un iperpiano da O. Per
esempio,
√ se dom(F ) è l’ iperpiano di equazione i=1 xi = 1 allora il minimo di
F è 1/ n e viene assunto nel punto n1 (1, 1, ..., 1).
12.7. ESERCIZI 221
Pn 2
Esercizio 12.3 Sia F (x1 , x2 , ..., xn ) = i=1 bi xi , con bi > 0 per ogni i =
1, 2, ..., n eP
con la clausola restrittiva che dom(F ) sia l’ iperpiano di Vn (R) di
equazione i=1 xi = 1. Si dimostri che F ammette minimo ed un unico punto
di minimo. √
Traccia. Si ponga yi = ci xi con ci = bi e ci si riconduca all’ Esercizio 12.2.
Esercizio 12.4 Siano L = P + L(A) e M = Q + L(B) rette sghembe di Vn (R)
(ove n ≥ 3). Si dimostri che c’ è un’ unica retta perpendicolare sia ad L che ad
M e la si determini.
Soluzione. Preso X = P + sA ∈ L ed Y = Q + tB ∈ M, imponiamo che
X − Y ⊥ A, B. Otteniamo cosı̀ il seguente sistema nelle incognite s e t:
shA, Ai − thB, Ai = hQ − P, Ai
shA, Bi − thB, Bi = hQ − P, Bi
Questo sistema è determinato e la sua soluzione è (s0 , t0 ) ove
hQ − P, BihB, Ai − hQ − P, AihB, Bi
s0 =
hA, Bi2 − hA, AihB, Bi
hQ − P, AihA, Ai − hQ − P, BihA, Bi
t0 =
hA, Bi2 − hA, AihB, Bi
(Si noti che hA, AihB, Bi − hA, Bi2 6= 0, per la Proposizione 8.2 del Capitolo 8.)
La retta cercata è quella che passa per i punti P + s0 A e Q + t0 B.
Esercizio 12.5 Date in Vn (R) due rette sghembe L ed M, siano X0 ∈ L ed
Y0 ∈ M tali che Af (X0 , Y0 ) sia ortogonale ad L ed M (Esercizio 12.4). Di-
mostrate che kX − Y k > kX0 − Y0 k per ogni scelta di X ∈ L ed Y ∈ M con
X 6= X0 od Y 6= Y0 .
Soluzione. Risulta
hX − Y, X − Y i = hX − X0 + X0 − Y0 + Y0 − Y, X − X0 + X0 − Y0 + Y0 − Y i.
Da ciò, rammentando che X − X0 ⊥ X0 − Y0 ⊥ Y0 − Y ed osservando che
hX − X0 , X − X0 i + hY0 − Y, Y0 − Y i + 2hX − X0 , Y − Y0 i =
= hX − X0 + Y − Y0 , X − X0 + Y0 − Y i ≥ 0,
si ottiene hX − Y, X − Y i ≥ hX0 − Y0 , X0 − Y0 i, l’ uguaglianza valendo se e
solo se X − X0 + Y0 − Y = O, cioè quando X − X0 = Y − Y0 . Ma se X 6= X0
ed Y 6= Y0 i vettori X − X0 ed Y − Y0 generano le direzioni di L ed M, che
sono sghembe. Quindi l’ uguaglianza X − X0 = Y − Y0 vale solo se X = X0 ed
Y = Y0 .
Esercizio 12.6 Date in V = Vn (R) due distinte rette incidenti L ed M, si
dimostri che ogni retta di V che sia perpendicolare sia ad L che ad M passa per
il punto L ∩ M.
Traccia. Lo si può dimostrare algebricamente con lo stesso procedimento sug-
gerito per l’ Esercizio 12.4 ed osservando che ora P + s0 A = A + t0 B. Oppure,
222 Capitolo 12
si osservi che l’ affermazione da dimostrare equivale a questa: in V non esistono
triangoli con due angoli retti. Ma ogni triangolo di V sta in un piano, i piani
di V sono isomorfi al solito piano V2 (R) (Sezione 12.5) e in V2 (R) non esistono
triangoli con due angoli retti.
Esercizio 12.7 Siano S = P + L(A, B) e L = Q + L(C) un piano ed una retta
di Vn (R) con S ∩ L = ∅ ed L non parallela ad S (quindi, n ≥ 4). Si dimostri
che c’ è un’ unica retta M perpendicolare sia ad S che ad L, e la si determini.
Esercizio 12.8 Dato uno spazio euclideo reale (V, Φ) ed un suo punto P , sia
Ψ un prodotto scalare su VP . Si dimostri che Ψ = ΦP se e solo se τP è un
isomorfismo da (V, Φ) a (VP , Ψ).
Esercizio 12.9 Dati V,p Φ, P e Ψ come nell’ esercizio precedente, si dimostri
che Ψ = ΦP se e solo se Ψ(X − Y, X − Y ) = kX − Y k per ogni scelta di punti
X, Y di V.
Suggerimento. Si usi l’ esercizio precedente e l’ Esercizio 8.13 del Capitolo 8.
Esercizio 12.10 In Vn (R), siano N1 , N2 , ..., Nm , N vettori distinti e linear-
mente indipendenti di Vn (R) e siano Tm P, Q due punti. Senza usare il Teorema
12.1, si dimostri che (P + N ⊥ ) ∩ i=1 (Q + Ni⊥ ) 6= ∅.
Traccia. Per ipotesi N 6∈ L(N1 , N2 , ..., Nm ). Quindi per il Teorema 9.19 del
Capitolo 9 e la (4) del Capitolo 9, {N1 , N2 , ..., Nm }⊥ 6⊆ N ⊥ . Si prenda un
vettore A ∈ {N1 , N2 , ..., Nm }⊥ \ N ⊥ . La retta Q + L(A) interseca P + N ⊥ ed è
contenuta in Q + {N1 , N2 , ..., Nm }⊥ ...
Esercizio 12.11 Si dimostri il Teorema 12.1 senza dedurlo dal Corollario 6.2
del Capitolo 6.
Suggerimento. Per induzione, usando l’ Esercizio 12.10 per il passo induttivo.
Esercizio 12.12 Si deduca dal Teorema 12.1 di questo capitolo l’ enunciato del
Corollario 6.2 del Capitolo 6 per il caso di K = R.
12.8 Segmenti e sfere
In questa sezione V è uno spazio euclideo reale di dimensione qualunque, anche
infinita, e hX, Y i indica il suo prodotto scalare. Quasi nulla di quel che diremo in
questa e nelle rimanenti sezioni di questo capitolo si estende al caso complesso.
12.8.1 Punti medi e punti simmetrici
Siano A e B due punti distinti di V.
12.8. SEGMENTI E SFERE 223
Proposizione 12.9 Dato un numero reale c, sia C = A + c(B − A).
(i) Se c ≥ 1 allora C è l’ unico punto a distanza ckA − B k da A e (c − 1)kA − B k
da B.
(ii) Se 0 ≤ c < 1 allora C è l’ unico punto a distanza ckA − B k da A e
(1 − c)kA − B k da B.
(iii) Se c < 0 allora C è l’ unico punto a distanza −ckA − B k da A e (1 − c)kA −
B k da B.
Dimostrazione. La (ii) è implicita nella dimostrazione della Proposizione 8.4
del Capitolo 8. Dimostriamo (i).
Sia c ≥ 1. Intanto, kC −Ak = ckA−B k e kC −B k = (1−c)kA−B k. Se poi X
ha queste stesse distanze da A e B, allora kX − Ak =kX − B k+kB − Ak. Quindi
B = A + x(X − A) per qualche numero reale x > 0 (Capitolo 8, Proposizione
8.4; si noti anche che x 6= 0 perchè X 6= A, essendo ||X − A|| = c ≥ 1). Dunque
X = A + x1 (B − A). Ma deve essere kX − Ak = ckA − B k. Quindi 1/x = c, cioè
X = C. La (i) è dimostrata.
L’ affermazione (iii) si ricava da (i) e (ii). Sia invece c < 0. Allora A =
C + d(B − C) ove d = c/(c − 1) > 0 (e quindi C = A + c(B − A)), per (i) o (ii).
2
In particolare, 21 (A + B) (= A + 12 (B − A)) è l’ unico punto di Af (A, B) a
distanza ||B − A||/2 da A e da B. Anzi,
1
Proposizione 12.10 La semisomma 2 (A + B) di A e B è l’ unico punto di
Af (A, B) equidistante da A e B.
Dimostrazione. L’ affermazione è visivamente evidente (nel senso dato a que-
sta locuzione nella Sezione 12.5), ma ne darò ugualmente una dimostrazione
algebrica.
Sia X ∈ Af (A, B). Dunque X = (1 − t)A + tB per qualche t ∈ R. Allora
kX − Ak = |t|·kB − Ak e kX − B k = |t − 1|·kB − Ak. Quindi kX − Ak = kX − B k
se e solo se |t| = |t − 1|. In R questa equazione ha una sola soluzione: t = 1/2.
2
Chiamiamo 12 (A + B) punto medio (o centro) del segmento [A, B]. Si noti che,
dato un terzo punto C, risulta C = 12 (A + B) se e solo se B = 2C − A, cioè se e
solo B è l’ opposto di A nello spazio vettoriale VC traslato di V su C. Chiamo
2C − A il simmetrico di A rispetto a C. Si vede subito che se B è il simmetrico
di A rispetto a C allora A è il simmetrico di B rispetto a C. Diciamo che A
e B sono simmetrici rispetto a C se ciascuno di essi è il simmetrico dell’ altro,
rispetto a C.
Proposizione 12.11 Dati due punti distinti A e C, il simmetrico di A rispetto
a C è l’ unico punto diverso da A che sia collineare con A e C e che abbia da
C la stessa distanza di A.
224 Capitolo 12
Dimostrazione. Anche se questa proposizione è visivamente evidente, ne darò
una dimostrazione algebrica. Sia X un punto di Af (A, C) diverso da A e con
||X − C|| = ||A − C||. Allora C = 21 (X + A) per la Proposizione 12.10. Quindi
X = 2C − A. 2
Sia ora L una retta di V.
Corollario 12.12 Per ogni punto P di L e per ogni numero reale r > 0 esistono
esattamente due punti di L a distanza r da P . Essi sono simmetrici rispetto a
P.
Dimostrazione. Anche quest’ affermazione è visivamente evidente, ma ne darò
ugualmente una dimostrazione. Sia V un generatore per la direzione di L. I
punti
r r
P+ V, P− V
kV k kV k
hanno distanza r da P e sono simmetrici rispetto a P . Per il Corollario 12.11,
non ci sono altri punti di L a distanza r da P . 2
Dato in V un punto Q non appartenente ad L, sia d la sua distanza da L e sia
PQ il punto di L a distanza d da Q, cioè il piede della perpendicolare condotta
da Q ad L (cfr. §12.4.2). Sia r un numero reale positivo. Se d > r, nessun
punto di L ha distanza r da Q. Se d = r allora PQ è l’ unico punto di L a
distanza r da Q.
Corollario 12.13 Sia d < r. Allora esistono esattamente due punti di L a
distanza r da Q. Essi sono simmetrici rispetto a PQ .
Dimostrazione. Anche questo corollario è visivamente evidente. Comunque,
possiamo dedurlo dal Corollario 12.12 osservando che, per il Teorema di Pitagora
(Capitolo
√ 8, Esercizio 8.6), i punti di L a distanza r da Q sono quelli a distanza
r2 − d2 da PQ . 2
La seguente proposizione ‘inverte’ il Corollario 12.13.
Proposizione 12.14 Dati in V due punti distinti A e B, sia C = 12 (A + B)
il punto medio di [A, B]. L’ insieme dei punti di V equidistanti da A e B è l’
iperpiano C + (B − A)⊥ .
Dimostrazione. La condizione che kX − Ak = kX − B k si traduce nella seguente
hX − A, X − Ai = hX − B, X − Bi
che equivale a questa
(i) hX, Ai + hA, Xi − hA, Ai = hX, Bi + hB, Xi − hB, Bi
12.8. SEGMENTI E SFERE 225
Per la commutatività del prodotto scalare, la (i) equivale a
2hX, Ai − hA, Ai = 2hX, Bi − hB, Bi
Quindi possiamo riscrivere (i) cosı̀:
hA, Ai − hB, Bi
(ii) hX, A − Bi =
2
D’ altra parte, hA + B, A − Bi = hA, Ai − hB, Bi, per la commutatività del
prodotto scalare. Pertanto,
1 hA, Ai − hB, Bi
h (A + B), A − Bi =
2 2
e quindi (ii) equivale a:
1
hX, A − Bi = h (A + B), A − Bi
2
Questa equazione caratterizza l’ iperpiano C + (B − A)⊥ . 2
Sul caso complesso. La Proposizione 12.10 risulta falsa in spazi euclidei
complessi. Nel dimostrarla ci siamo ricondotti all’ equazione |t| = |t − 1|, che
ha 1/2 come unica soluzione in R. Ma le soluzioni di quest’ equazione in C
sono i numeri complessi con parte reale uguale a 1/2. Di questi ce n’ è infiniti
e ciascuno di essi ci dà un punto di Af (A, B) equidistante da A e B. (Ma
solo quando t = 1/2 quel punto appartiene ad [A, B].) Nemmeno il Corollario
12.11 vale nel caso complesso: lo abbiamo ricavato dalla Proposizione 12.10. Se
ne volessimo dare una dimostrazione diretta, ci imbatterremmo nell’ equazione
|t| = 1, che ha infinite soluzioni in C.
Abbiamo dedotto il Corollario 12.13 dal Corollario 12.12 e questo dal Corol-
lario 12.11. Ma il Corollario 12.11 è addirittura equivalente al Corollario 12.12
che a sua volta equivale al Corollario 12.13. Il Corollario 12.11 è falso nel caso
complesso. Quindi anche i Corollari 12.12 e 12.13 sono falsi in spazi euclidei
complessi. Nemmeno la Proposizione 12.14 vale nel caso complesso. Infatti
da essa possiamo riottenere la Proposizione 12.10, che è falsa in spazi euclidei
complessi. Si noti che per dimostrare la Proposizione 12.14 abbiamo sfruttato
la commutatività del prodotto scalare; ma questa proprietà vale solo nel caso
reale.
Invece la Proposizione 12.9 resta vera nel caso complesso. Nella sua dimo-
strazione ci si può riferire alla Proposizione 8.15 del Capitolo 8 anzichè alla
Proposizione 8.4 del Capitolo 8, e tutto fila.
12.8.2 Sfere
Dato un punto C di V ed un numero reale r > 0, sia S l’ insieme dei punti X
di V tali che kX − Qk = r, cioè hX − C, X − Ci = r2 .
Chiamiamo S sfera di raggio r e centro C. (Quando dim(V) = 2 alla pa-
rola ‘sfera’ vengono preferite le parole cerchio o circonferenza.) La seguente
proposizione ci dice che una sfera ha sempre un solo centro ed un solo raggio.
226 Capitolo 12
Proposizione 12.15 Il punto C è l’ unico punto di V che abbia la stessa
distanza da tutti i punti di S.
Dimostrazione. Supponiamo per assurdo che ve ne sia un altro, diciamolo C 0 .
Per il Corollario 12.12, la retta Af (C, C 0 ) interseca S in due punti A, B e C è
il punto medio di [A, B]. Ma, per ipotesi, anche C 0 è equidistante da A e B.
Quindi C 0 = C per la Proposizione 12.10. 2
Dato in V un sottospazio affine non banale A, sia d la distanza di C da A e sia
PC il piede della perpendicolare condotta da C ad A. Se d > r allora A ∩ S = ∅.
Se d = r allora A ∩ S = {PC }. Sia invece d < r. Applicando il Teorema di
Pitagora (Capitolo 8, Esercizio 8.6) alle terne di punti C, PC , X con X ∈ A, si
vede che
Proposizione
√ 12.16 L’ intersezione S ∩ A è l’ insieme dei punti di A a
distanza r2 − d2 da PC .
Insomma, nello spazio euclideo indotto da (VP , ΦP ) su A (ove P è un √ punto
di A, non importa quale), l’ intersezione S ∩ A è una sfera di raggio r2 − d2
e centro PC . Prendiamo dim(A) come dimensione della sfera S ∩ A. (Però
molti preferiscono prendere dim(A) − 1 anzichè dim(A) come dimensione di S).
Coerentemente con questa convenzione, prendiamo dim(V) come dimensione
della sfera S.
Ritorniamo ora alle proposizioni e ai corollari del §12.8.1. I Corollari 12.11,
12.12 e 12.13 dicono che le sfere 1–dimensionali sono coppie di punti. (Quindi la
Proposizione 12.10 è il caso 1–dimensionale della Proposizione 12.15.) I Corollari
12.11, 12.12 e 12.13 trattano il caso 1–dimensionale della Proposizione 12.16.
12.9 Isometrie
In questa sezione V = Vn (R) ed hX, Y i è il suo prodotto scalare standard.
12.9.1 Riflessioni e simmetrie assiali
Sia S = P + N ⊥ un iperpiano di V. Dato un punto X, sia X0 il piede della
perpendicolare condotta ad S per X (in particolare, se X ∈ S allora X0 = X).
Indichiamo con σS (X) il simmetrico di X rispetto ad X0 (cfr. §12.8.2), cioè:
σS (X) =def 2X0 − X
Diciamo che σS (X) è il simmetrico di X rispetto all’ iperpiano S.
12.9. ISOMETRIE 227
• X
N 6
•H • X0
P H S
HH
H
HH
H• σS (X)
Risulta V = L(N ) ⊕ N ⊥ (Capitolo 9, Corollario 9.22). D’ altra parte, X − X0 ∈
L(N ) mentre X0 −P ∈ N ⊥ . Quindi, per il Teorema 7.1 del Capitolo 7, e siccome
X − P = X − X0 + X0 − P , risulta
⊥ hX − P, N i
X − X0 = πN (X − P ) = N
hN, N i
(Capitolo 8, §8.2.3). Quindi
hX − P, N i
X0 = X − N
hN, N i
Sostituendo questa espressione nella definizione di σS (X) otteniamo
hX − P, N i
(6) σS (X) = X − 2 N
hN, N i
La funzione σS che ad ogni punto X di V associa il suo simmetrico σS (X) rispetto
all’ iperpiano S si dice riflessione attorno ad S (anche simmetria assiale di asse
S). L’ iperpiano S si dice iperpiano di riflessione (o asse) di σS . È evidente che
S = {X | σS (X) = X}. Cioè, l’ iperpiano di riflessione di σS è l’ insieme dei
punti fissati da σS . (Quindi, data una riflessione, il suo iperpiano di riflessione
è determinato univocamente.)
Si dice che un iperpiano S è un iperpiano di simmetria (o un asse di sim-
metria) per un insieme non vuoto X di punti di V se σS (X) = X. Se S è un
iperpiano di simmetria per X allora diciamo che X è simmetrico rispetto ad S,
o che presenta una simmetria rispetto a S.
Sia σ una riflessione. Risulta σ(σ(X)) = X per ogni punto X di V. Cioè
σ 2 = ι, ove con ι indichiamo l’ applicazione identità su V. Quindi σ è invertibile
e risulta σ −1 = σ.
Proposizione 12.17 Sia P un punto qualunque dell’ iperpiano di riflessione
di σ. Allora σ è un automorfismo di (VP , ΦP ).
Dimostrazione. Ci sono vari modi di dimostrare questa proposizione. La si puo’
dedurre da un risultato che stabiliremo più avanti (Teorema 12.23). Oppure, ci
si può affidare ad una verifica diretta. Seguiamo la seconda via, ma ‘traslando’
il problema su O, per semplificare i calcoli.
228 Capitolo 12
Sia S = P + N ⊥ l’ iperpiano di riflessione di σ e sia σO la riflessione attorno
all’ iperpiano N ⊥ (che è la direzione di S):
hX, N i
σO (X) = X − 2 N
hN, N i
(si sostituisca O a P in (6)). È facile vedere che σ = τP σO τP−1 . D’ altra parte,
τP è un isomorfismo da (V, Φst ) a (VP , ΦP ) (Proposizione 12.8). Quindi per
dimostrare che σ è un automorfismo di (VP , ΦP ), basta dimostrare che σO è un
automorfismo di (V, Φst ). Ma questo lo si verifica con facilità. (Lascio questa
verifica al lettore.) 2
12.9.2 Simmetrie centrali
Dato un punto C di V, indichiamo con ωC la funzione che ad ogni punto di
V associa il suo simmetrico rispetto a C. La chiamiamo simmetria centrale di
centro C. (Si noti che C è l’ unico punto fissato da ωC .) Si dice che C è un
centro di simmetria per un insieme di punti X di V se ωC (X) = X. Se C è un
centro di simmetria per X, si dice anche che X è simmetrico rispetto a C o che
presenta una simmetria (centrale) rispetto a C.
È ovvio che ωC è invertibile e che è l’ inversa di sè stessa. Con lo stesso
argomento usato per riflessioni si dimostra che:
Proposizione 12.18 La funzione ωC è un automorfismo di (VC , ΦC ).
12.9.3 Esempi
1. Sia V = V2 (R). Un triangolo presenta un asse di simmetria se e solo se è
isoscele. Se per di più è equilatero, allora ne ha tre. In tal caso ha anche un
centro di simmetria.
Rettangoli e rombi, se non sono quadrati, hanno due assi di simmetria ed
un solo centro di simmetria. Invece un quadrato ha quattro assi di simmetria.
Un cerchio ha infiniti assi di simmetria ed un solo centro di simmetria. Il suo
centro è il centro di simmetria e gli assi di simmetria sono le rette che passano
per il centro.
Una parabola ha un solo asse di simmetria (il suo asse) ma nessun centro
di simmetria. Un’ iperbole ha due soli assi di simmetria ed un solo centro. Un’
ellisse (se non è un cerchio) ha due soli assi di simmetria ed un solo centro.
L’ insieme formato dall’ unione di due rette incidenti ha un solo centro di
simmetria (l’ intersezione P delle due rette) e due assi di simmetria (le bisettrici
degli angoli formati dalle due rette, mandate per P ). Invece l’ unione di due
rette parallele ha infiniti centri di simmetria: i punti della retta parallela ad esse
e da esse equidistante; gli assi di simmetria sono questa retta e le rette ad essa
ortogonali.
2. Sia V = V3 (R). Un tetraedro regolare presenta sei piani di simmetria, un
cubo ne ha nove ed altrettanti ne ha un ottaedro regolare. Un parallelepipedo,
12.9. ISOMETRIE 229
se non è un cubo, ha tre piani di simmetria. Una sfera ha infiniti piani di
simmetria: i piani per il suo centro. Tutte queste figure hanno un solo centro
di simmetria.
3. (Le simmetrie della sfera). Sia S una sfera di V = Vn (R) e sia C il suo
centro.
Proposizione 12.19 Il punto C è l’ unico centro di simmetria di S. Gli assi
di simmetria di S sono gli iperpiani passanti per C.
Dimostrazione. È ovvio che C è centro di simmetria per S. Per assurdo, sup-
poniamo che S ammetta un altro centro di simmetria C 0 . Siano A, B i punti
in cui la retta Af (C, C 0 ) interseca S (Corollario 12.12). I punti A e B sono
simmetrici sia rispetto a C che rispetto a C 0 , perchè tanto C che C 0 sono centri
di simmetria per S. Quindi C = C 0 , per la Proposizione 12.10.
Dato un iperpiano X, sia L la perpendicolare ad X condotta per C, sia PC
il piede di L e siano A, B i due punti in cui L taglia S (Corollario 12.12). Essi
sono simmetrici rispetto a C. Ma, se X è un iperpiano di simmetria di S, i
punti A e B devono risultare simmetrici anche rispetto a PC . Quindi PC = C
(Proposizione 12.10). Dunque, tutti gli iperpiani di simmetria di S passano per
C.
Resta da dimostrare che ogni iperpiano per C è iperpiano di simmetria per
S. Sia X = C + N ⊥ un tale iperpiano, sia P un suo punto ed L = P + L(N ).
L’ iperpiano X è il complemento ortogonale di L per C. Quindi P è il punto
di L a minima distanza da C. Sia d =kP − C k e sia r il raggio di S. Se d > r
la retta L non interseca S. Se d = r, allora L ∩ S = {P }. Se d < r, allora L
interseca S in due punti, simmetrici rispetto a P (Corollario 12.13). Dunque X
è un asse di simmetria per S. 2
12.9.4 Rotazioni in V2 (R)
Per qualunque numero reale α 6= 0 e per ogni punto P ∈ V2 (R) si può imma-
ginare nel piano V2 (R) una rotazione ρP,α di un angolo α attorno a P , preso
come centro di rotazione, convenendo per esempio che ρP,α vada pensata in sen-
so antiorario quando α > 0 e in senso orario quando α è negativo. Le rotazioni
sono funzioni invertibili e risulta
ρ−1
P,α = ρP,−α
per ogni angolo α ed ogni scelta del centro P . Inoltre, la composizione di due
rotazioni attorno allo stesso punto è ancora una rotazione, oppure è la funzione
identità (quando le due rotazioni hanno angoli opposti). Precisamente,
ρP,α ρP,β = ρP,α+β
ove, quando β = −α, conveniamo che ρP,0 stia ad indicare l’ identità. Coeren-
temente con questa notazione, annoveriamo anche l’ identità tra le rotazioni,
230 Capitolo 12
prendendola come rotazione nulla (di angolo 0 e con ogni punto come suo cen-
tro). In questo modo, le rotazioni attorno ad un dato centro vengono a formare
un gruppo commutativo.
Rotazioni i cui angoli differiscono per multipli di 2π producono lo stesso
effetto. Cioè, data una rotazione, il suo angolo è determinato a meno di multipli
di 2π. Tra questi infiniti valori ne scegliamo uno da prendere come quello ‘vero’,
e lo prendiamo maggiore di −π e non superiore a π. Per esempio, una rotazione
di 7π/3 è in realtà una rotazione di π/3 (dunque in senso antiorario); una
rotazione di 5π/3 è una rotazione di −π/3 (cioè di π/3 in senso orario). La
convenzione ora stabilita suggerisce di precisare come segue il concetto di angolo
fra due rette.
L’ angolo fra due rette. Due rette L e M di V2 (R) non parallele formano
quattro angoli (intesi come porzioni del piano), due di misura α ≤ π/2 e due di
misura β = π − α ≥ π/2:
PP β M
PP
PP
α PP
•
P α
PP
β P
P L
PP
Definiamo l’ angolo (orientato) da L ad M come segue. Supponiamo che α <
π/2. Se portiamo L su M con una rotazione di α in senso antiorario, prendiamo
α come angolo da L ad M. Altrimenti l’ angolo da L ad M è −α. (Per esempio,
nella precedente figura l’ angolo da L ad M è α; quindi −α è l’ angolo da M
ad L.) Resta il caso di α = β = π/2. In questo caso per quel che diremo non fa
differenza prendere π/2 o −π/2 come angolo tra L e M. Sceglieremo di volta
in volta un valore o l’ altro a seconda della convenienza.
Riflessioni e rotazioni. Date nel piano V2 (R) due rette L ed M, distinte e
non parallele, sia P il loro punto d’ intersezione e sia α l’ angolo da esse formato,
calcolato da L ad M. La composizione σM σL delle due riflessioni attorno ad L
ed M è la rotazione di centro P ed angolo 2α.
σM (σL (X)) M
•
,,O
C
,
C• σL (X)
•XX
,
P XX•6 X L
La rotazione σL σM (= (σL σM )−1 ) è l’ opposta di questa (centro P ma angolo
−2α). Sicchè σL σM = σM σL se e solo se 2α = π, cioè se e solo se L ed M sono
ortogonali. (In questo caso la rotazione è la simmetria centrale rispetto a P .)
Viceversa, data in V2 (R) una rotazione ρP,β di angolo β e centro P , siano L
ed M rette per P formanti un angolo di α = β/2 (calcolato da L a M). Allora
12.9. ISOMETRIE 231
ρβ = σM σL . (Per esempio, la rotazione ρP,π/2 può ottenersi componendo due
riflessioni attorno a due rette qualunque per P formanti un angolo di π/4.)
12.9.5 Rotazioni in V3 (R)
Non è necessario dire cosa è una rotazione nello spazio: lo si sa. Però un pò di
terminologia va fissata.
Asse e angolo di rotazione. Una retta L di V3 (R) può essere percorsa in
due sensi. Sceglierne uno è orientarla. La retta L, cosı̀ orientata, si dice un
asse. Per orientare L basta scegliere uno dei due vettori di norma 1 paralleli ad
L. E ciò è come orientare i piani perpendicolari ad L, convenendo che in essi
le rotazioni positive siano quelle che, viste da un osservatore ‘abbarbicato’ al
vettore che abbiamo scelto, appaiono in senso antiorario:
A
L
A
A *
A A
A I A
A •@
@ A
?
A * A
A A
A
A
A
Se A è il vettore che abbiamo scelto, indichiamo con (L, A) l’ asse ottenuto
orientando L conformemente ad A. Dato un numero reale α, la rotazione di
asse (L, A) ed angolo α fissa ogni punto di L e ruota su sè stesso ogni piano
S ortogonale ad L, operando su esso come una rotazione di centro S ∩ L ed
angolo α, in senso antiorario od orario per un osservatore disposto come A, a
seconda che α sia positivo o negativo. (Naturalmente, se sostituiamo A con −A,
dobbiamo sostituire α con −α per avere la stessa rotazione.)
Nota. Abbiamo definito un asse come una coppia costituita da una retta L e
da uno dei due vettori di norma 1 che generano la direzione di L. Ma nel seguito
mi prenderò spesso la libertà di chiamare “asse” la retta L, ignorando il vettore
che la orienta.
Riflessioni e rotazioni. Come in V2 (R), si dimostra che, dati due piani
distinti non paralleli S1 , S2 di V3 (R), componendo le riflessioni attorno a quei
due piani si ottiene una rotazione attorno alla retta S1 ∩ S2 . L’ angolo di
rotazione è il doppio dell’ angolo tra S1 ed S2 . In particolare, si ottiene una
rotazione di π se e solo se i piani S1 e S2 sono ad angolo retto. In questo caso
le due riflessioni commutano (e solo in questo caso).
232 Capitolo 12
Ogni rotazione ρ di V3 (R) si può ottenere in questo modo, componendo due
riflessioni attorno a due iperpiani passanti per l’ asse di ρ e formanti fra loro un
angolo uguale alla metà dell’ angolo di rotazione di ρ.
12.9.6 Rotazioni in Vn (R)
Sia ora V = Vn (R), con n > 3. Quel che si è detto su riflessioni e rotazioni in
V2 (R) e V3 (R) giustifica la seguente definizione. Dati due iperpiani distinti non
paralleli S1 ed S2 di V, sia σ1 la riflessione attorno ad S1 e σ2 quella attorno ad
S2 . Chiamiamo la funzione ρ = σ2 σ1 una rotazione.
L’ angolo di rotazione. Il sottospazio affine A = S1 ∩ S2 ha codimensione 2
e direzione {N1 , N2 }⊥ , ove N1 ed N2 sono i vettori normali di S1 ed S2 . Siccome
σ1 fissa tutti i punti di S1 e σ2 fissa tutti i punti di S2 , la rotazione ρ fissa tutti
i punti di A.
Sia P un qualunque punto di A. Il piano P + L(N1 , N2 ) passante per P ed
ortogonale ad A, visto come sottospazio lineare di VP , è il complemento orto-
gonale di A nello spazio euclideo (VP , ΦP ). Indichiamolo con A⊥ P . Siccome le
riflessioni σ1 e σ2 sono automorfismi di (VP , ΦP ) (Proposizione 12.17) e portano
A in sè (anzi, ne fissano tutti i punti), esse portano anche A⊥ P in sè. Lo stesso
vale per ρ, che è la composizione di σ1 e σ2 :
σ1 (A⊥ ⊥ ⊥
P ) = σ2 (AP ) = AP , ρ(A⊥ ⊥
P ) = AP
Indichiamo con ρP , σ1,P e σ2,P le corestrizioni a A⊥ P delle restrizioni di ρ, σ1
e σ2 ad A⊥ P . Evidentemente, ρ P = σ σ
2,P 1,P . D’ altra parte, σ1,P e σ2,P sono
le riflessioni attorno alle rette L1,P = A⊥ P ∩ S1 ed L ⊥
2,P = AP ∩ S2 . Quindi,
indicato con α l’ angolo formato da queste due rette, ρP è una rotazione di
angolo 2α e centro P (cfr. §12.9.4).
L’ angolo α non dipende dalla scelta di P . Infatti N1 ed N2 sono ortogonali
ad L1,P ed L2,P . Quindi l’ angolo tra L1,P ed L2,P è uguale all’ angolo tra le
rette P + L(N1 ) e P + L(N2 ), che a sua volta è uguale all’ angolo tra le rette
L(N1 ) ed L(N2 ). È naturale chiamare 2α angolo di rotazione di ρ.
In particolare, se N1 ⊥ N2 si ottiene una rotazione di π. In questo caso (e
solo in questo caso) le due riflessioni σ1 e σ2 commutano: σ1 σ2 = σ2 σ1 .
L’ asse di rotazione. Come asse di rotazione prendiamo A. Ma dovremmo
definire anche un’ orientazione. Non potendo orientare A (qui non ha senso
immaginarsi osservatori ‘legati’ ad A), orientiamo il piano L(N1 , N2 ) ortogonale
ad A per O. Lo facciamo scegliendo una sua base ortogonale (E, F ) con ||E|| =
||F || e decidendo di prendere come verso positivo per le rotazioni di L(N1 , N2 )
quello di una rotazione di π/2 che porta E in F . Cosı̀ possiamo anche decidere
se α è da prendere positivo o negativo. (Del resto, anche in V3 (R) orientare l’
asse equivale ad orientare i piani ad esso perpendicolari nel modo che si è detto.)
12.9. ISOMETRIE 233
12.9.7 Isometrie
Sia V l’ insieme dei vettori di V (= Vn (R)). Un’ isometria dello spazio euclideo
V è una funzione ϕ da V a V che conserva le distanze tra i punti, cioè tale che
(7) ||ϕ(X) − ϕ(Y )|| =∀ ||X − Y ||
Per esempio, gli automorfismi dello spazio euclideo V sono isometrie. Le tra-
slazioni sono isometrie. Gli isomorfismi da (VP , ΦP ) a (VQ , ΦQ ) sono isometrie,
per ogni scelta di P, Q ∈ V (Sezione 12.5). Quindi le riflessioni e le simmetrie
centrali sono isometrie (Proposizioni 12.17 e 12.18).
È ovvio che la composizione di due isometrie è un’ isomteria. Quindi ogni
funzione ottenuta componendo riflessioni è un’ isometria. In particolare, le
rotazioni sono isometrie.
È anche chiaro da (7) che un’ isometria è sempre iniettiva. Dimostreremo
più avanti (Teorema 12.23) che le isometrie sono anche suriettive; quindi sono
invertibili. È evidente che l’ inversa di una isometria è ancora un’ isometria.
Per il resto di questa sottosezione ϕ è una data isometria di V.
Lemma 12.20 Per ogni scelta di punti distinti A, B di V, risulta:
ϕ(A + t(B − A)) = ϕ(A) + t(ϕ(B) − ϕ(A)), (∀t ∈ R)
Dimostrazione. Il punto C = A + t(B − A) ha distanza |t|·kB − Ak da A
e |t − 1|·kB − Ak da B. Quindi ϕ(C) ha quelle distanze da ϕ(A) e ϕ(B).
Ma anche ϕ(A) + t(ϕ(B) − ϕ(A)) ha quelle distanze da ϕ(A) e ϕ(B). Quindi
ϕ(A) + t(ϕ(B) − ϕ(A)) = ϕ(C) per la Proposizione 12.9. 2
Corollario 12.21 Se ϕ fissa due punti distinti A e B, allora fissa anche tutti
i punti della retta Af (A, B).
(Ovvio, per il Lemma 12.20.) Indichiamo con F ix(ϕ) l’ insieme dei punti fissati
da ϕ. Dal corollario precedente e dalla Proposizione 11.15 del Capitolo 11 segue
che:
Corollario 12.22 L’ insieme F ix(ϕ) o è vuoto o è un sottospazio affine di V.
Dato un punto P ∈ V, sia Q = ϕ(P ).
Teorema 12.23 L’ isometria ϕ è un isomorfismo da (VP , ΦP ) a (VQ , ΦQ ).
Dimostrazione. Per il Lemma 12.20, per ogni x ∈ R e per ogni X ∈ V si ha che
ϕ(P + x(X − P )) = ϕ(P ) + x(ϕ(X) − ϕ(P )) (= Q + x(ϕ(X) − Q))
Con la notazione adottata nella dimostrazione della Proposizione 12.8, possiamo
riscrivere questa uguaglianza cosı̀:
(i) ϕ(x◦P X) = x◦Q ϕ(X)
234 Capitolo 12
Sempre per il Lemma 12.20, per ogni scelta di X, Y ∈ V risulta
1 1
ϕ( (X + Y )) = (ϕ(X) + ϕ(Y ))
2 2
(Si noti che 21 (X + Y ) = X + 12 (Y − X).) Inoltre,
1 1 1
(X + Y ) = ((X − P ) + (Y − P )) + P = ◦P (X +P Y )
2 2 2
e analogamente con ϕ(X), ϕ(Y ) e Q al posto di X, Y e P . Quindi
1 1
(ii.a) ϕ( ◦P (X +P Y )) = ◦Q (ϕ(X) +Q ϕ(Y ))
2 2
D’ altra parte,
1 1
(ii.b) ϕ( ◦P (X +P Y )) = ◦P ϕ(X +P Y )
2 2
per (i). Da (ii.a) e (ii.b) segue che
(ii) ϕ(X +P Y ) = ϕ(X) +Q ϕ(Y )
(Anticipando la terminologia del prossimo capitolo possiamo riassumere (i) ed
(ii) cosı̀: ϕ è una trasformazione lineare da VP a VQ .) Per la (23) del Capitolo
8 (Esercizio 8.10) risulta
||X + Y ||2P − ||X||2P − ||Y ||2P
(iii.a) ΦP (X, Y ) =
2
||ϕ(X) + ϕ(Y )||2Q − ||ϕ(X)||2Q − ||ϕ(Y )||2Q
(iii.b) ΦQ (ϕ(X), ϕ(Y )) =
2
D’ altra parte,
per (4): ||ϕ(X)||Q = ||ϕ(X) − Q||
poi, per (7): ||ϕ(X) − Q|| = ||ϕ(X) − ϕ(P )|| = ||X − P ||
infine, ancora per (4): ||X − P || = ||X||P
e analogamente per Y . Quindi
||ϕ(X)||Q = ||X||P
(iii.c)
||ϕ(Y )||Q = ||Y ||P
Da (iii.a), (iii.b) ed (iii.c) otteniamo che
(iii) ΦP (X, Y ) = ΦQ (ϕ(X), ϕ(Y ))
Sappiamo che ϕ è iniettiva. Per concludere la dimostrazione resta solo da far
vedere che ϕ è suriettiva. Prendiamo una base ortogonale E = {Ei }ni=1 di VP
(per esempio, possiamo ‘traslare’ su P la base dei versori di V). La (iii) ci
assicura che l’ insieme ϕ(E) = {ϕ(Ei )}ni=1 è ortogonale in VQ . Il vettore nullo
Q = ϕ(P ) di VQ non appartiene a ϕ(E) perchè P 6∈ E (essendo E una base di
12.9. ISOMETRIE 235
VP ) e perchè ϕ è iniettiva. Pertanto ϕ(E) è una base di VQ (Capitolo 9, Corol-
lario 9.5). Da (i) ed (ii) segue che ϕ(L(E)) = L(ϕ(E)). (Questa è una proprietà
generale delle trasformazioni lineari; la ritroveremo nel prossimo capitolo). Ma
L(E) = VP ed L(ϕ(E)) = VQ perchè E e ϕ(E) sono basi rispettivamente di VP
e di VQ . Quindi ϕ è suriettiva. 2
Corollario 12.24 Le isometrie dello spazio euclideo V sono gli isomorfismi tra
i suoi traslati.
12.9.8 Le isometrie di V2 (R)
Mi limito a considerare le isometrie con punti fissi, rimandando per le altre all’
Esercizio 12.25 (Sezione 12.10).
Proposizione 12.25 Le isometrie di V2 (R) che fissano qualche punto sono le
rotazioni, le riflessioni e l’ identità.
Dimostrazione. Sia ϕ un’ isometria di V2 (R) e sia P un punto di V2 (R) fissato
da ϕ. Supponiamo che ϕ 6= ι, cioè ϕ non è l’ identità. Possono presentarsi due
casi.
Caso 1. Risulta ϕ(Q) = Q per qualche punto Q 6= P . Quindi ϕ fissa tutti i
punti della retta L = Af (P, Q) (Corollario 12.9).
Sia poi X un punto non su L. Se fosse ϕ(X) = X, allora ϕ dovrebbe fissare
tutti i punti di V2 (R), perchè conserva le distanze tra i punti ed ogni punto è
individuato dalle sue distanze da tre punti non collineari (nel nostro caso: P , Q
ed X). Ma ϕ 6= ι. Quindi ϕ(X) 6= X. D’ altra parte ||ϕ(X) − P || = ||X − P || e
||ϕ(X) − Q|| = ||X − Q||. Quindi ϕ(X) non può essere altro che il simmetrico
di X rispetto ad L.
•
X
• •
P HHH Q @ L
HH@
H@
H@H• ϕ(X) = σL (X)
Dunque ϕ è la riflessione σL .
Caso 2. Risulta ϕ(X) 6= X per ogni X 6= P . Prendiamo un punto Q 6= P .
Preso un qualunque altro punto X non sulla retta Af (P, Q), il triangolo di
vertici P, ϕ(Q) e ϕ(X) è uguale al triangolo di vertici P, Q ed X. Ci sono due
possibilità, esemplificate in queste due figure:
236 Capitolo 12
• ϕ(X) •@
ϕ(X) A ϕ(Q)
ϕ(Q) • A@•
Q A @ Q
•H • P •HH•@
A @
P H@ H H
H• X
@ H• X
@
Se si verifica il secondo caso, il punto medio del segmento [Q, ϕ(Q)], essendo
equidistante da Q e ϕ(Q) e da X e ϕ(X), è fissato da ϕ. Questo è impossibile
perchè ϕ non fissa alcun punto 6= P . Dunque, si verifica sempre il primo caso.
È ora chiaro che ϕ è una rotazione attorno a P . 2
12.9.9 Isometrie e riflessioni
Abbiamo visto ora che le isometrie di V2 (R) che fissano un punto sono l’ iden-
tità, le riflessioni e le rotazioni. Sappiamo anche dai §§12.9.4 e 12.9.5 che ogni
rotazione di V2 (R) o di V3 (R) può vedersi come un prodotto di due riflessioni.
Anzi, prendendo spunto da questo fatto abbiamo chiamato ‘rotazioni’ di Vn (R)
i prodotti di due riflessioni attorno a iperpiani non parallelli. Dimostreremo ora
che tutte le isometrie si possono vedere come prodotti di riflessioni.
Sia ϕ un’ isometria di V = Vn (R). Per cominciare, supponiamo che F ix(ϕ) 6=
∅. Dunque F ix(ϕ) è un sottospazio affine di V (Corollario 12.22). Sia s la sua
codimensione.
Teorema 12.26 L’ isometria ϕ può ottenersi come prodotto di s riflessioni
attorno ad iperpiani contenenti F ix(ϕ) (con la convenzione di pensare l’ identità
come un ‘prodotto’ di nessuna riflessione ed una riflessione come un ‘prodotto’
di una sola riflessione, cioè di sè stessa).
Dimostrazione. Per induzione su s. Se s = 0 allora ϕ è l’ identità e non
c’ è nulla da dimostrare. Sia s = 1, cioè F ix(ϕ) è un iperpiano. In questo
caso la Proposizione 12.14 obbliga ϕ a portare ogni punto X 6∈ F ix(ϕ) nel suo
simmetrico rispetto a F ix(ϕ). Quindi ϕ è la riflessione attorno all’ iperpiano
F ix(ϕ).
Veniamo al passo induttivo. Supponiamo che l’ affermazione che vogliamo
dimostrare sia vera quando s ≤ m e dimostriamola per s = m + 1. Possiamo
sempre supporre che O ∈ F ix(ϕ) cosı̀ F ix(ϕ) è un sottospazio lineare di V e ϕ,
fissando O, è un automorfismo di (V, Φst ), per il Teorema 12.23 (se O 6∈ F ix(ϕ)
basta prendere un qualunque punto P ∈ F ix(ϕ) come nuovo vettore nullo,
sostituendo (V, Φst ) con (VP , ΦP )). Sia A 6∈ F ix(ϕ). Quindi ϕ(A) − A 6= O.
Siccome ϕ è un automorfismo di (V, Φst ), per ogni X ∈ F ix(ϕ) risulta
hA, Xi = hϕ(A), ϕ(X)i = hϕ(A), Xi
quindi ϕ(A) − A ⊥ X. Dunque, posto S0 = (ϕ(A) − A)⊥ , abbiamo che
(i) S0 ⊇ F ix(ϕ)
12.9. ISOMETRIE 237
Sia σ0 la riflessione attorno all’ iperpiano S0 . Allora F ix(σ0 ϕ) ⊇ F ix(ϕ) per
(i). D’ altra parte, σ0 (ϕ(A)) = A. Quindi
(ii) F ix(σ0 ϕ) ⊇ L({A} ∪ F ix(ϕ)) ⊃ F ix(ϕ)
Sia r = cod(F ix(σ0 ϕ)). Risulta r ≤ m per (ii). Quindi σϕ = σ1 σ2 ...σr per
ipotesi induttiva. Pertanto
(iii) ϕ = σ0 σ1 σ2 ...σr
Indichiamo con Si l’ iperpiano di riflessione di σi . Per (iii):
r
\
(iv) F ix(ϕ) = F ix(σ0 σ1 ...σr ) ⊇ Si
i=0
Quindi
r
\
(v) cod( Si ) ≤ r + 1
i=0
(Capitolo 9, Sezione 9.6). Ma cod(F ix(ϕ)) = s + 1, mentre r ≤ s. Quindi r = s
per (iv) e (v). La (iii) ci dà la conclusione. 2
Corollario 12.27 Se s è pari, allora ϕ può ottenersi come prodotto di s/2
rotazioni lineari.
(Basta rappresentare ϕ come prodotto di s riflessioni come nel Teorema 12.26
e raggrupparle a coppie; ogni coppia ci dà una riflessione ...)
Abbiamo supposto che F ix(ϕ) 6= ∅. Supponiamo invece F ix(ϕ) = ∅. Preso un
qualunque punto P , sia A = P − ϕ(P ). L’ isometria ψ = τA ϕ fissa P . Quindi,
per il Teorema 12.26, essa è un prodotto di riflessioni. Ma anche τA può ottenersi
come un prodotto di riflessioni. Siano infatti S1 ed S2 due iperpiani paralleli,
con A come vettore normale ed a distanza ||A||/2, collocati in modo che A vada
da S1 ad S2 (vale a dire, se P1 , P2 sono le intersezioni della retta L(A) con S1
e S2 , allora P2 − P1 = tA per qualche numero reale t > 0). Siano σ1 e σ2 le
riflessioni attorno ad S1 e S2 . Non è difficile dimostrare che τA = σ2 σ1 .
• ...... -• ...... -•
• ... -• ... -•
Evidentemente, σ1 σ2 = τ−A = τA−1 . Quindi ϕ = τ−A ψ = τA−1 ψ = σ1 σ2 ψ.
Pertanto, siccome ψ è un prodotto di riflessioni, anche ϕ è un prodotto di
riflessioni. In definitiva,
Corollario 12.28 Ogni isometria è un prodotto di riflessioni.
238 Capitolo 12
12.10 Esercizi
Esercizio 12.13 Sia {N1 , N2 , ..., Nn } una base ortogonale di Vn (R). Dato un
punto C ∈ Vn (R), sia σi la riflessione attorno all’ iperpiano C+Ni⊥ . Si dimostri
che ωC = σ1 σ2 ...σn .
Esercizio 12.14 Sia X un sottoinsieme non vuoto di Vn (R) e supponiamo che
X ammetta n iperpiani di simmetria con vettori normali a due a due ortogonali.
Si dimostri che X ammette un centro di simmetria.
Esercizio 12.15 Dato un punto P in V2 (R), siano ρ e σ rispettivamente una
rotazione di centro P e una riflessione attorno ad una data retta L passante
per P . Si dimostri che ρσρ−1 è la riflessione attorno alla retta ρ(L) e che
σρσ = ρ−1 .
Suggerimento. Entrambe le affermazioni possono essere viste geometricamen-
te. La seconda si può dimostrare anche algebricamente, cosı̀: presa un’ altra
riflessione σ 0 tale che σσ 0 = ρ (§12.9.4), risulta σρσ = σσσ 0 σ = σ 0 σ = (σσ 0 )−1 .
Esercizio 12.16 Dato un punto P in V2 (R), siano ρ e σ rispettivamente una
rotazione di centro P ed una riflessione con asse passante per P . Si dimostri
che σρ e ρσ sono riflessioni e se ne determinino gli assi, supposto noto l’ angolo
di ρ e l’ asse di σ.
Suggerimento. Basta considerare ρσ. Infatti σρ = ρ(ρ−1 σρ) ed ρ−1 σρ è una
riflessione (Esercizio 12.15). Risulta ρ = σσ 0 ove σ 0 è ... Quindi ρσ = σ 0 .
Esercizio 12.17 Sia ϕ un’ isometria di V3 (R) diversa da ι e supponiamo che
ϕ(A) = A e ϕ(B) = B per due distinti punti A e B di V3 (R). Si dimostri che
ϕ è o una rotazione attorno alla retta Af (A, B) oppure una riflessione attorno
ad un piano contenente Af (A, B).
Traccia. Siccome ϕ è un’ isometria e fissa A e B, essa fissa tutti i punti della
retta Af (A, B) (Corollario 12.21). Pertanto ϕ porta in sè ogni piano ortogonale
ad Af (A, B). Per §12.9.4 ... (cfr. anche §12.9.5).
Esercizio 12.18 Siano ρ1 e ρ2 rotazioni di V3 (R) con assi incidenti. Si di-
mostri che la loro composizione ρ1 ρ2 è ancora una rotazione e si trovi una
costruzione per determinare l’ asse di ρ2 ρ1 a partire dagli angoli e dagli assi di
rotazione di ρ1 e di ρ2 .
Suggerimento. La seguente figura indica come fare. Le rette L1 ed L2 sono
gli assi di ρ1 e ρ2 , rispettivamente. L’ asse di ρ2 ρ1 è la retta L.
12.10. ESERCIZI 239
HL
@•
H H
@PP
PH
PP P
H
P
@ PPP
PH
P
P
P P
PPH
P
PP
R
@ P H
P
P
ρ 2 6
PPH
PPH
PPH
HH ρ1 HH
H ? HH
L2
H H j L1
H
Esercizio 12.19 Si dimostri che due rotazioni di V3 (R) con assi incidenti
commutano se e solo se hanno lo stesso asse (prescindendo dall’ orientazione).
Suggerimento. Esercizio 12.18.
Esercizio 12.20 Si dimostri che componendo una rotazione ρ di V2 (R) con
una traslazione si ottiene una rotazione, con lo stesso angolo di ρ.
Suggerimento. Siano C ed α il centro e l’ angolo di ρ. Dato A 6= O, si
costruisca un triangolo isoscele con base A, vertice C ed angolo al vertice uguale
ad α. Il centro di rotazione di τA ρ è il punto indicato con C 0 nella figura seguente.
A• C 0
A A
H A
HH A
H A
HHA
•C
Esercizio 12.21 Sia ρ una rotazione di Vn (R), di asse A. Indicata con AO
la direzione di A, sia A ∈ A⊥ O . Si dimostri che τA ρ è una rotazione con asse
parallelo ad A e con lo stesso angolo di ρ.
Suggerimento. Esercizio 12.20.
Esercizio 12.22 (Rototraslazioni) Si dimostri che componendo una rotazio-
ne con una traslazione si ottiene sempre o una rotazione o una rototraslazione
(che definiamo qui sotto).
Definizione. Sia ρ una rotazione di Vn (R) (n > 2) diversa da ι. Sia A il suo
asse ed AO la direzione di A. Dato in AO un vettore A 6= O, l’ isometria τA ρ
si dice una rototraslazione di A attorno all’ asse A.
Traccia. Dato un vettore X, sia X1 la proiezione ortogonale di X sulla direzione
di A ed X2 = X − X1 . Allora τX ρ = τX1 τX2 ρ. Per l’ Esercizio 12.21, τX2 ρ è
una rotazione con asse parallelo ad A ...
Esercizio 12.23 Si dimostri che il prodotto di due rotazioni di V3 (R) è sempre
o una rotazione una rototraslazione.
Soluzione. Se ρ1 e ρ2 sono le due rotazioni da comporre, siano P1 e P2 punti
presi sugli assi di ρ1 e ρ2 e sia A = P2 −P1 . Allora ρ3 = τA−1 ρ2 τA è una rotazione
240 Capitolo 12
con asse passante per P1 . Risulta ρ2 = τA ρ3 τA−1 e non è difficile vedere che
τA ρ3 τA−1 = τA−ρ3 (A) ρ3 . Quindi, ρ2 ρ1 = τA−ρ3 (A) ρ3 ρ1 . Per concludere basta
usare gli Esercizi 12.18 e 12.22.
Esercizio 12.24 Dati in Vn (R) (n ≥ 2) due punti distinti P1 e P2 , sia N =
2(P1 − P2 ), S1 = P1 + N ⊥ e S2 = P2 + N ⊥ . Si dimostri che τN σS1 = σS2 .
Esercizio 12.25 Si dimostri che le isometrie di V2 (R) che non fissano alcun
punto e diverse da traslazioni sono composizioni di una riflessione σL con una
traslazione τA ove L(A) è la direzione di L.
12.11 Segmenti e semirette
In questa sezione V sta per un qualunque spazio euclideo reale.
12.11.1 Segmenti e collinearità
La (14) del Capitolo 8 ci dice che, dati in V due punti distinti A e B, tutti i
punti che stanno tra A e B sono collineari con A e B (cioè Af (A, B) ⊇ [A, B]).
Proposizione 12.29 Se tre punti distinti di V sono collineari, allora uno di
essi sta tra gli altri due.
Dimostrazione. Questa proposizione è visivamente evidente (nel senso che nella
Sezione 12.5 si è dato a questa locuzione; infatti le rette di V sono isomorfe a
V1 (R)). Ma ne darò ugualmente una dimostrazione algebrica, per chiarire dove
le proprietà di R entrano in gioco.
Siano A, B, C tre punti distinti, collineari. Dunque C ∈ Af (A, B) e pertanto
C = xA + yB per opportuni x, y ∈ R con x + y = 1 (Capitolo 11, §11.1.1).
Siccome C 6= A, B, nessuno dei due scalari x ed y è 0. Se x, y > 0, allora
C ∈ [A, B], per la (14) del Capitolo 8. Supponiamo invece che uno dei due
numeri x o y sia < 0. Per esempio, sia x < 0. Allora y > 0 perchè x + y = 1.
Quindi 1/y > 0 e −x/y > 0. Inoltre, 1/y −x/y = (1−x)/y = 1 perchè x+y = 1.
D’ altra parte, B = y1 C − xy A. Pertanto B sta tra A e C. 2
Nota. In questa dimostrazione abbiamo sfruttato il fatto che R è un campo
ordinato. Il campo C non è ordinabile; e infatti la Proposizione 12.29 diventa
falsa in spazi euclidei complessi. Per esempio, dati due punti distinti A e B, il
punto iA + (1 − i)B è collineare con A e B ma nessuno di questi tre punti sta
tra gli altri due.
12.12. SEMISPAZI, ANGOLI E SIMPLESSI 241
12.11.2 Semirette
È facile verificare che, dati in V2 (R) o in V3 (R) due punti distinti A e B, la
semiretta di origine A e passante per B è l’ insieme {A + t(B − A)}t≥0 . Questo
motiva la seguente definizione. Dati due punti distinti A e B di V, poniamo
[A)B =def {A + t(B − A)}t≥0
e chiamiamo [A)B semiretta di origine A passante per B. È facile vedere che
[A)B = {xA + yB | x + y = 1, y ≥ 0}
Da ciò segue subito che [A)B ∩ [B)A = [A, B].
Dati su una retta L tre distinti punti A, B, C, uno di essi sta tra gli altri due
(Proposizione 12.29). Se C sta tra A e B allora si dice anche che A e B stanno
da parti opposte di L rispetto a C. Se invece A sta tra C e B oppure B sta tra
C ed A, allora si dice che A e B stanno dalla stessa parte di L rispetto a C.
Proposizione 12.30 I punti A e B stanno dalla stessa parte di L rispetto a
C se e solo se [C)A = [C)B . Stanno da parti opposte rispetto a C se e solo se
[C)A ∩ [C)B = {C}.
(La dimostrazione è facile; la lascio al lettore.)
12.12 Semispazi, angoli e simplessi
12.12.1 Semispazi
Una retta S di V2 (R) divide il piano V2 (R) in due semipiani, diciamoli S+ ed
S− . Li possiamo descrivere cosı̀. Preso un un punto P ∈ S, prendiamo un
vettore normale N di S in modo che P + N ∈ S+ .
H S+
HH N
S− HH
H•
PHH
HH S
Allora S+ è l’ insieme di quei punti X tali che hX − P, N i > 0 mentre S− è l’
insieme di quei punti X tali che hX − P, N i < 0. Infatti
hX − P, N i
kX − P k·kN k
è il coseno dell’ angolo formato dai vettori X − P ed N . Sicchè hX − P, N i è
positivo o negativo a seconda che quest’ angolo sia acuto od ottuso.
Analogamente in V3 (R), prendendo ora un piano anzichè una retta. In
generale, sia S un iperpiano di V = Vn (R). Sia N un suo vettore normale e P
un suo punto (quindi S = P + N ⊥ ). Poniamo
S+
N,P = {X | hX − P, N i > 0}, S−
N,P = {X | hX − P, N i < 0}
242 Capitolo 12
−
È chiaro che {S, S+
N,P , SN,P } è una partizione dell’ insieme dei punti di V e che
+
P + N ∈ SN,P .
Lemma 12.31 Per ogni punto X ∈ V, risulta hX − P, N i = hX − Q, N i per
ogni punto Q ∈ S.
Dimostrazione. Sia Q ∈ S. Allora hQ − P, N i = 0. Quindi hX − P, N i =
hX − Q + Q − P, N i = hX − Q, N i + hQ − P, N i = hX − Q, N i. 2
Proposizione 12.32 Se Q è un qualunque altro punto di S allora S+ +
N,P = SN,Q
− −
ed SN,P = SN,Q .
(Ovvio, per il Lemma 12.31.)
Proposizione 12.33 Sia N 0 = tN con t 6= 0. Se t > 0, allora S+ +
N,P = SN 0 ,P
ed S− − + − − +
N,P = SN 0 ,P . Se invece t < 0, allora SN,P = SN 0 ,P ed SN,P = SN 0 ,P .
(Lascio la dimostrazione al lettore.) Per le Proposizioni 12.32 e 12.33, la coppia
−
di insiemi {S+N,P , SN,P } non dipende dalla scelta del punto P ∈ S e del vettore
normale N di S. Sicchè di qui in poi ometterò gli indici P ed N , scrivendo
−
brevemente S+ e S− anzichè S+ N,P e SN,P .
+ −
Diciamo che S ed S sono i due semispazi (aperti) in cui S divide V e
chiamiamo S origine di quei due semispazi. Si usa anche dire che S+ e S− sono
semispazi opposti. Gli insiemi S b − = S ∪ S− sono detti semispazi
b + = S ∪ S+ ed S
chiusi di origine S.
Diciamo che due punti A, B non appartenenti all’ iperpiano S stanno dalla
stessa parte rispetto ad S se [A, B] ∩ S = ∅. Se invece [A, B] ∩ S 6= ∅, allora
diciamo che A e B stanno da parti opposte rispetto ad S.
Proposizione 12.34 Due punti distinti A e B di V non appartenenti ad S
apartengono allo stesso semispazio aperto di origine S se e solo se stanno dalla
stessa parte rispetto ad S.
Dimostrazione. Sia L = A + L(B − A) la retta per A e B. Se hB − A, N i = 0,
cioè se L è parallela ad S, allora il segmento [A, B] non interseca l’ iperpiano S.
In questo caso,
hB − P, N i = hB − A + A − P, N i =
= hB − A, N i + hA − P, N i = hA − P, N i
sicchè A e B appartengono allo stesso semipiano. Supponiamo invece che L sia
incidente ad S. Possiamo sempre suppore di avere scelto P proprio uguale all’
intersezione di L con S. Quindi, L = Af (P, A) e B = P − t(A − P ) per qualche
scalare t. Perciò hB − P, N i = thA − P, N i. Se t > 0 allora A e B appartengono
allo stesso semispazio; se invece t < 0, appartengono a semispazi opposti.
Per la Proposizione 12.29, o A e B stanno dalla stessa parte di L rispetto a
P oppure P sta tra A e B. Nel primo caso B ∈ [P )A (Proposizione 12.30), cioè
12.12. SEMISPAZI, ANGOLI E SIMPLESSI 243
t > 0. In questo caso [A, B] ∩ S = ∅ perchè P 6∈ [A, B]. Supponiamo invece che
P ∈ [A, B]. Allora [A, B] ∩ S = {P } e B 6∈ [P )A (Proposizione 12.30). Quindi
t < 0. 2
Insomma, la relazione stare dalla stessa parte rispetto ad S è una relazione di
equivalenza sull’ insieme dei punti di V non appartenenti ad S. I semispazi S+
ed S− sono le sue classi di equivalenza.
12.12.2 Angoli
Dati in V = Vn (R) due iperpiani non paralleli S1 ed S2 , le intersezioni
−
S+ +
1 ∩ S2 , S+
1 ∩ S2 , S− +
1 ∩ S2 , S− −
1 ∩ S2
dei semispazi da essi determinati formano una partizione in quattro parti dell’
insieme V \ S, ove V sta ad indicare l’ insieme dei vettori di V e si è posto
S = S1 ∩ S2 . Chiamiamo queste quattro parti angoli diedri (aperti) di origine S.
Siccome il sottospazio affine S ha codimensione 2, i suoi complementi ortogonali
sono piani. Se P è uno di essi, i quattro angoli diedri di origine S intersecano P
nei quattro angoli formati dalle due rette P ∩ S1 e P ∩ S2 e possiamo prendere
le misure di questi angoli piani come misure dei corrispondenti angoli diedri.
(Cosı̀ abbiamo ragionato in §12.9.6, per esempio.)
In generale, siano S1 , S2 ,..., Sm iperpiani di V con vettori normali a due
a due distinti e formanti un insiemeTm linearmente indipendente (quindi m ≤
n = dim(V)). Poniamo S = i=1 Si . Per il Teorema 12.1, l’ insieme S è
un sottospazio affine di V di dimensione n − m. I semispazi determinati dagli
iperpiani S1 , S2 ,..., Sn ripartiscono V \ S in 2m insiemi (tanti quante sono le
m-ple che si possono formare coi simboli + e −). Questi insiemi sono detti
angoli m-edri (aperti) di origine S.
Sia P0 ∈ S e, per i = 1, 2, ..., m, sia Ni un vettore normale di Si . Possiamo
sempre supporre di avere scelto i segni + e − in modo tale che S+ i contenga il
punto P0 + Ni . Allora risulta
m
\
S+
i = {X | hX − P0 , Ni i > 0, i = 1, 2, ..., m}
i=1
L’ insieme {X | hX − P0 , Ni i ≥ 0, i = 1, 2, ..., m} lo diciamo invece angolo m-
edro chiuso di origine S individuato dai vettori N1 , N2 , ..., Nm . Indicando con
b + il semispazio chiuso di origine Si contenente il punto Ni + P0 , risulta
S i
m
\
{X | hX − P0 , Ni i ≥ 0, i = 1, 2, ..., m} = b+
Si
i=1
(Infatti, X ∈ S b + se e solo se hX − P0 , Ni i ≥ 0.) Gli angoli n-edri (aperti o
i
chiusi) si dicono angoli solidi (aperti o chiusi, rispettivamente).
244 Capitolo 12
12.12.3 Simplessi
Sia {P0 , P1 , ..., Pn } una base geometrica di V = Vn (R). Per ogni i = 0, 1, ..., n si
ponga Si = Af (P0 , ..., Pi−1 , Pi+1 , ..., Pn ). I punti P0 ,..., Pi−1 , Pi+1 ,..., Pn sono
geometricamente indipendenti. Quindi Si è un iperpiano, e non contiene Pi .
Indichiamo con S b + il semispazio chiuso di origine Si contenente Pi . Poniamo
i
n
\
[P0 , P1 , ..., Pn ] =def b+
Si
i=0
e diciamo [P0 , P1 , ..., Pn ] simplesso n-dimensionale di vertici P0 , P1 , ..., Pn .
Teorema 12.35 Risulta
Xn n
X
[P0 , P1 , ..., Pn ] = { x i Pi | xi = 1, x0 , x1 , ..., xn ≥ 0}
i=0 i=0
Dimostrazione. Siccome i punti P0 , P1 , ..., Pn formano una base geometrica di
V, ogni punto X di V si può rappresentare in questo modo (Capitolo 11, (2)):
n
X n
X
(i) X = x i Pi , (ove xi = 1)
i=0 i=0
Dobbiamo solo far vedere che X ∈ [P0 , P1 , ..., Pn ] se e solo se tutti i coefficienti
x0 , x1 ,..., xn nella (i) sono ≥ 0.
Per ogni i = 0, 1, ..., n scegliamo un punto Qi ∈ Si e prendiamo il vettore
normale Ni di Si in modo che hPi − Qi , Ni i > 0. (Se hPi − Qi , Ni i < 0, basta
sostituire Ni col suo opposto.) Dunque X ∈ S b + se e solo se hX − Qi , Ni i ≥ 0.
i
Dunque, dobbiamo dimostrare che per ogni i = 0, 1, ..., n
(ii) hX − Qi , Ni i ≥ 0 ⇐⇒ xi ≥ 0
Dimostriamo quest’ equivalenza nel caso di i = 0 (lo stesso ragionamento va
bene per ogni altro valore dell’ indice i). Intanto, hX − Q0 , N0 i non dipende
dalla scelta di Q0 ∈ S0 (Lemma 12.31). Ma Pn ∈ S0 . Quindi possiamo assumere
Pn Pn−1
che Q0 = Pn . Siccome i=0 xi = 1, è xn = 1 − i=0 xi . Pertanto, per (i), si
Pn−1 Pn−1
ha X = Pn + i=0 xi (Pi − Pn ), cioè: X − Pn = i=0 xi (Pi − Pn ). Dunque,
n−1
X
(iii) hX − Pn , N0 i = xi hPi − Pn , N0 i
i=0
Però tutti i punti P1 , P2 , ..., Pn appartengono ad S0 . Quindi hPi − Pn , N0 i = 0
per ogni i = 1, 2, ..., n − 1. Da (iii) segue dunque che
hX − Pn , N0 i = x0 hP0 − Pn , N0 i
Ma abbiamo scelto N0 in modo che hP0 − Pn , N0 i > 0. Quindi hX − Pn , N0 i ≥ 0
se e solo se x0 ≥ 0. Come appunto si voleva dimostrare. 2
12.13. ESERCIZI 245
Il Teorema 12.35 suggerisce la seguente definizione. Dati m + 1 punti P0 , P1 ,...,
Pm di V, poniamo
Xm m
X
[P0 , P1 , ..., Pm ] =def { x i Pi | xi = 1, x0 , x1 , ..., xm ≥ 0}
i=0 i=0
anche se m < n o se i punti P0 , P1 , ..., Pm sono geometricamente dipendenti.
Se essi sono gemetricamente indipendenti, chiamiamo [P0 , P1 , ..., Pm ] simplesso
m-dimensionale di vertici P0 , P1 ,..., Pm anche quando m < dim(V).
I simplessi 2-dimensionali di V2 (R) e V3 (R) sono i triangoli. Chiamiamo
triangoli i simplessi 2–dimensionali di Vn (R) anche quando n > 3. I simplessi 3-
dimensionali di V3 (R) sono i tetraedri. I simplessi 1-dimensionali sono i segmenti
non degeneri (cioè, non ridotti ad un solo punto). I punti sono i simplessi
0–dimensionali.
12.13 Esercizi
Esercizio 12.26 Siano A, B, C tre punti di Vn (R). Le due seguenti afferma-
zioni sono visivamente evidenti:
[
[A, B, C] = [X, C]
X∈[A,B]
[A, B, C] ⊇ [X, Y ], (∀X, Y ∈ [A, B, C])
Tuttavia, datene una dimostrazione algebrica.
Esercizio 12.27 Siano P0 , P1 , ..., Pm punti di Vn (R). Si dimostri che
[P0 , P1 , ..., Pm ] = ∪([P0 , X] | X ∈ [P1 , P2 , ..., Pm ])
Esercizio 12.28 Siano P0 , P1 , ..., Pm punti di Vn (R). Si dimostri che
[X, Y ] ⊆ [P0 , P1 , ..., Pm ], (∀X, Y ∈ [P0 , P1 , ..., Pm ])
Esercizio 12.29 Dati a caso m + 1 punti P0 , P1 , ..., Pm in V2 (R), si descriva
il simplesso [P0 , P1 , ..., Pm ].
Suggerimento. Le due figure seguenti mostrano due situazioni con m = 4:
• • • •
@ A
@ A
@• • A
A
• • • A•
246 Capitolo 12
Capitolo 13
Trasformazioi lineari e
matrici
13.1 Trasformazioni lineari
Siano V e W spazi vettoriali su uno stesso campo di scalari K e siano V e W i
loro insiemi di vettori. Una funzione ϕ : V → W tale che
(1) ϕ(X + Y ) = ϕ(X) + ϕ(Y ), (∀X, Y ∈ V)
(2) ϕ(xX) = xϕ(X), (∀X ∈ V, ∀x ∈ K)
è detta una trasformazione lineare da V a W (anche operatore lineare o appli-
cazione lineare da V a W, o di V in W). Scriviamo ϕ : V → W per rammentare
che ϕ è una trasformazione lineare da V a W e chiamiamo V e W rispettiva-
mente dominio e codominio della trasformazione lineare ϕ. Se V = W, allora
si usa dire che ϕ è un’ applicazione lineare di V in se’. (Alcuni chiamano le
trasformazioni lineari omomorfismi di spazi vettoriali, chiamando endomorfismi
quelle di uno spazio in sè.)
Indichiamo con L(V, W) l’ insieme delle trasformazioni lineari da V a W,
e prendiamo i simboli L(V), Ln,m (K) ed Ln (K) come abbreviazioni rispettiva-
mente di L(V, V), L(Vn (K), Vm (K)) ed L(Vn (K), Vn (K)).
13.1.1 Qualche proprietà
Da (2), ponendo prima x = −1 e poi x = 0, si ottengono le seguenti identità
(cfr. Capitolo 1, (32), (33)):
(3) ϕ(−X) = −ϕ(X), (∀X ∈ V)
(4) ϕ(OV ) = OW
247
248 Capitolo 13
(Nella (4) indichiamo con OV e OW il vettore nullo di V e W rispettivamente).
Da (2), applicando ripetutamente (1) si ottiene anche che
n
X n
X
(5) ϕ( xi Xi ) = xi ϕ(Xi ), (∀ni=1 Xi ∈ V, ∀ni=1 xi ∈ K)
i=1 i=1
e questo per ogni n = 1, 2, 3, .... In particolare,
(6) ϕ(xX + yY ) = xϕ(X) + yϕ(Y ), (∀X, Y ∈ V, ∀x, y ∈ K)
La (6) ricomprende (1) e (2) come casi particolari: otteniamo (1) da (6) ponen-
dovi x = y = 1, mentre se nella (6) poniamo y = 0 abbiamo la (2).
13.1.2 Invertibilità, composizioni, OV,W ed IV
La nozione di trasformazione lineare generalizza il concetto di isomorfismo: in-
fatti gli isomorfismi sono proprio le trasformazioni lineari invertibili. Quindi l’
inversa di una trasformazione lineare invertibile è ancora una trasformazione
lineare (Capitolo 1, Proposizione 1.1).
Una trasformazione lineare ϕ : V → W può essere composta con una qua-
lunque trasformazione lineare ψ che abbia W come dominio. È facile verificare
che la composizione ψϕ è una trasformazione lineare da V al codominio di ψ
(cfr. Capitolo 1, Proposizione 1.2).
La funzione che ad ogni vettore di V associa il vettore nullo di W è una
trasformazione lineare da V a W. La si chiama trasformazione nulla e la si
indica con OV,W . Si preferisce scrivere OV anzichè OV,V . Anzi, quando non c’
è rischio di equivoci, si scrive semplicemente O anzichè OV,W od OV .
Di qui in poi indicherò l’ automorfismo identità di V con IV (anche con I,
quando il riferimento a V è chiaro dal contesto). L’ insieme L(V) delle trasfor-
mazioni lineari di V in sè, con la composizione presa come prodotto ed IV come
unità, è un semigruppo con unità (Volume 2, Capitolo 8). Gli automorfismi
di V sono gli elementi invertibili di L(V). Essi formano un gruppo (Volume 2,
Capitolo 8). Lo indichiamo con Aut(V).
13.1.3 Immagini e rango
Sia ϕ : V → W una trasformazione lineare.
Proposizione 13.1 Risulta ϕ(L(X)) = L(ϕ(X)) per ogni insieme X di vettori
di V.
Dimostrazione. La dimostrazione di questa affermazione è implicita nella dimo-
strazione del Lemma 5.14 del Capitolo 5. Esplicitiamola. Pn
Abbiamo ϕ(L(X)) ⊆ L(ϕ(X)) per (5). D’ altra parte, sia Y = i=1 xi Yi ,
con Y1 , Y2 , ..., Yn ∈ ϕ(X). Per ogni i = 1,P2, ..., n, scegliamo un vettore Xi ∈
n
ϕ−1 (Yi ) ∩ X. Per (5), si ha che Y = ϕ( i=1 xi Xi ). Quindi Y ∈ ϕ(L(X)).
Pertanto L(ϕ(X)) ⊆ ϕ(L(X)). 2
13.1. TRASFORMAZIONI LINEARI 249
Dalla Proposizione 13.1 si ottiene subito che
Corollario 13.2 Se X è un sottospazio lineare di V, allora ϕ(X ) è un sotto-
spazio lineare di W ed ogni insieme di generatori di X viene portato da ϕ in un
insieme di generatori di ϕ(X ).
In particolare, dato un sottospazio lineare X di V ed una sua base A, l’ insieme
ϕ(A) genera ϕ(X ) e quindi contiene una base di ϕ(X ). Sicchè
Corollario 13.3 dim(ϕ(X )) ≤ dim(X ).
È anche ovvio che ϕ(P + X ) = ϕ(P ) + ϕ(X ) per ogni punto P di V. Quindi,
Corollario 13.4 Le immagini mediante ϕ dei sottospazi affini di V sono sot-
tospazi affini di W.
Dal Corollario 13.2 si ottiene anche il seguente:
Corollario 13.5 L’ immagine Im(ϕ) di ϕ è un sottospazio lineare di W. Se
X è un insieme di generatori di V, allora ϕ(X) genera Im(ϕ).
Indichiamo con rank(ϕ) la dimensione di Im(ϕ) e la chiamiamo rango di ϕ.
Ovviamente, rank(ϕ) ≤ dim(W). Per il Corollario 13.3,
Corollario 13.6 rank(ϕ) ≤ dim(V).
La seguente caratterizzazione della suriettività è contenuta nel Corollario 13.5:
Corollario 13.7 Sia X un insieme di generatori di V (per esempio, una base).
La trasformazione ϕ è suriettiva se e solo se ϕ(X) genera W.
Quando dim(W) < ∞ l’ uguaglianza rank(ϕ) = dim(W) equivale alla suriet-
tività di ϕ. Ma in generale possiamo solo dire che, se ϕ è suriettiva, allora
rank(ϕ) = dim(W). Comunque, questo e il Corollario 13.6 implicano che:
Corollario 13.8 Se ϕ è suriettiva allora dim(W) ≤ dim(V).
13.1.4 Restrizioni, corestrizioni e azioni
Data una trasformazione lineare ϕ : V → W, sia X un sottospazio lineare di V.
È ovvio che la restrizione ϕ|X di ϕ ad X è una trasformazione lineare da X a
W. Se Y è un sottospazio lineare di W contenente Im(ϕ), possiamo considerare
la corestrizione ϕ|Y di ϕ a Y (Volume 1, Capitolo 3, §3.4.5). È ovvio che ϕ|Y è
una trasformazione lineare da V ad Y.
Possiamo anche combinare restrizioni e corestrizioni. Siano X e Y sottospazi
lineari rispettivamente di V e W, con Y ⊇ ϕ(X ). Possiamo considerare la
corestrizione ad Y della restrizione di ϕ ad X . Cosı̀ vediamo ϕ come una funzione
da X ad Y. Per dire che una certa funzione ψ : X → Y coincide con la
250 Capitolo 13
corestrizione ad Y della restrizione di ϕ ad X , si usa dire che ϕ induce ψ da X
ad Y (o anche che induce ψ su X , quando il riferimento ad Y è chiaro dal contesto
o non ci interessa). In particolare, sia W = V e ϕ(X ) ⊆ X . La corestrizione ad
X della restrizione di ϕ ad X si chiama azione indotta da ϕ su X , o brevemente
azione di ϕ su X .
È evidente che la stessa definzione può formularsi per arbitrarie funzioni tra
arbitrari insiemi. Nel seguito mi prenderò dunque la libertà di parlare di azioni
anche a proposito di trasformazioni che non sono lineari.
13.1.5 Immersioni e trasformazioni suriettive
Sia X un sottospazio lineare di uno spazio vettoriale W. La funzione che por-
ta ogni vettore di X in sè stesso è evidentemente una trasformazione lineare
(iniettiva) da X a W. La si chiama immersione naturale di X in W. (Alcu-
ni chiamano immersioni le trasformazioni lineari iniettive, in analogia con la
terminologia in uso per i campi; cfr. Volume 2, Capitolo 2.)
Ogni trasformazione lineare ϕ : V → W può ottenersi componendo una
trasformazione suriettiva con un’ immersione naturale. Infatti, sia ϕ b la corestri-
zione di ϕ ad Im(ϕ) e sia ε l’ immersione naturale di Im(ϕ) in W. È ovvio che
ϕ = εϕ.b È anche ovvio che ϕ è iniettiva se e solo se ϕ
b è un isomorfismo.
13.2 Esempi
13.2.1 Omotetie
Dato a ∈ K \ {0}, la funzione che ad ogni vettore X di un dato spazio vettoriale
V associa aX è un automorfismo di V. La si dice un’ omotetia (o anche trasfor-
mazione scalare) di V e la si indica col simbolo aIV (oppure aI). Lo scalare a si
chiama ragione dell’ omotetia aIV .
L’ identità è l’ omotetia di ragione 1. È anche ovvio che aIV bIV = abIV e che
(aIV )−1 = a−1 IV . Sicchè le omotetie formano un sottogruppo (commutativo) di
Aut(V), isomorfo al gruppo moltiplicativo del campo K (cfr. Volume 2, Capitolo
8). Si pone anche 0·IV = OV . (Per questa ragione alcuni chiamano OV omotetia
di ragione 0; ma preferisco riservare la parola “omotetia” per quelle di ragione
6= 0.)
13.2.2 Funzionali lineari
Dato uno spazio vettoriale V su un campo K, le applicazioni lineari da V a K
(= V1 (K)) sono dette funzionali lineari su (o di) V. Ovviamente, l’ applicazione
nulla OV,K da V a K è un funzionale lineare. Lo si chiama funzionale lineare
nullo. Dal Corollario 13.7 segue subito che tutti i funzionali lineari non nulli
sono suriettivi.
Dato un insieme I 6= ∅ ed un campo K, sia k ∈ I. Per ogni F ∈ KI
poniamo νk (F ) = F (k). Abbiamo cosı̀ una funzione νk da KI a K, che si vede
subito essere un funzionale lineare su KI . Lo si chiama valutazione in k. Lo
13.2. ESEMPI 251
stesso nome userò per designare la restrizione di νk ad un qualunque sottospazio
lineare di KI . Per esempio, sia I = {1, 2, ..., n}. Quindi KI = Vn (K). Per ogni
k = 1, 2, ..., n, la valutazione νk associa ad ogni n-pla di Vn (K) la sua k-esima
componente: νk (x1 , x2 , ..., xn ) = xk .
Più in generale, sia E = (Ei )i∈I una base di uno spazio vettoriale V. Pos-
siamo identificare V col sottospazio lineare VI (K) di KI (Capitolo 5, §5.4.3),
vedendo cosı̀ νk come un funzionale lineare su V che associa ad ogni vettore X
di V il coefficiente
P di Ek in una rappresentazione di X come combinazione li-
neare X = j∈J xj Ej di vettori di E (ove J è un qualunque sottoinsieme finito
di I contenente k). Il vettore νk (X)Ek è la proiezione di X su L(Ek ) lungo la
direzione di L({Ei | i ∈ I \ {k}}). Cosı̀, chiamiamo νk proiezione scalare di V
su Ek (relativamente alla base E).
Per esempio, se lo spazio V è euclideo e se il vettore Ek è ortogonale a tutti
gli altri vettori di E, allora νk (X) = hX, Ek i/hEk , Ek i e νk (X)Ek è la proiezione
ortogonale di X su Ek . In particolare, se ||Ek || = 1, allora νk (X) = hX, Ek i.
Del resto, è facile vedere che, dato un vettore A di V, la funzione che ad
ogni vettore X di V associa il suo prodotto scalare hX, Ai con A è un funzionale
lineare su V. (Questo sia nel caso reale che nel caso complesso; si noti però che,
nel caso complesso, siccome hA, Xi = hX, Ai, la funzione che ad ogni X ∈ V
associa hA, Xi non è lineare.)
13.2.3 Proiezioni
Dato uno spazio vettoriale V, un suo sottospazio lineare A ed un complementare
B
B di A in V, la proiezione πA di V su A lungo B è una trasformazione lineare
(Capitolo 7, (2.a), (2.b)). Possiamo vederla come una trasformazione lineare
(suriettiva) da V ad A, ma anche come una trasformazione lineare di V in sè
con A come immagine. Ci atterremo al secondo punto di vista. Quindi, se
B
A 6= V (equivalentemente, B = 6 {O}), la proiezione πA non è nè suriettiva nè
{O} V
iniettiva. Invece πV = I. (Si noti anche che π{O} = O.)
13.2.4 Isometrie lineari
Nel Capitolo 12 (§12.9.7) abbiamo definito isometrie, limitandoci a spazi euclidei
reali di dimensione finita. Ma quella definizione può darsi in ogni spazio euclideo,
reale o complesso, anche di dimensione infinita. È chiaro dal Capitolo 12 che
non tutte le isometrie di uno spazio euclideo (V, Φ) sono trasformazioni lineari.
Per esempio, una traslazione τP di uno spazio euclideo V è sempre un’ isometria
di V ma non è mai un automorfismo di V, salvo quando P = O. (Però τP è
sempre un isomorfismo da V al suo traslato VP su P .)
Il caso reale. Sia ϕ un’ isometria di uno spazio euclideo reale (V, Φ). La
seguente generalizzazione del Teorema 12.23 del Capitolo 12 è implicita nella
dimostrazione di quel teorema:
252 Capitolo 13
Proposizione 13.9 Dato un punto P ∈ V, sia Q = ϕ(P ). Allora ϕ è una
trasformazione lineare da VP a VQ . Per di più,
ΦQ (ϕ(X), ϕ(Y )) = ΦP (X, Y ), (∀X, Y ∈ V)
(Si noti che ora, avendo rinunciato all’ ipotesi che dim(V) < ∞, non possiamo
più concludere che ϕ sia un isomorfismo da VP a VQ ; ovviamente, ϕ è iniettiva,
ma potrebbe non essere suriettiva.) Dalla Proposizione 13.9 si deduce subito
questo:
Corollario 13.10 Supponiamo che ϕ fissi un punto P di V. Allora ϕ è una
trasformazione lineare di VP in sè e conserva il prodotto scalare ΦP :
ΦP (ϕ(X), ϕ(Y )) = ΦP (X, Y ), (∀X, Y ∈ V)
Se per di più dim(V) < ∞, allora ϕ è un automorfismo di (VP , ΦP ).
(Si noti che, siccome la distanza tra due punti di V non cambia se calcolata in un
qualunque traslato di (V, Φ), la funzione ϕ è sempre un’ isometria di (VP , ΦP ),
non importa se essa fissa P o no.)
Diciamo che un’ isometria ϕ di (V, Φ) è lineare se è una trasformazione
lineare da V a V. Per (4), perchè ϕ sia lineare è necessario che ϕ(O) = O.
Quindi, per il Corollario 13.10:
Corollario 13.11 Un’ isometria ϕ di (V, Φ) è lineare se e solo se ϕ(O) = O.
Se ϕ è lineare, allora conserva il prodotto scalare Φ:
Φ(ϕ(X), ϕ(Y )) = Φ(X, Y ), (∀X, Y ∈ V)
In particolare, se dim(V) < ∞ allora le isometrie lineari di (V, Φ) sono i suoi
automorfismi.
Per esempio, supponendo dim(V) < ∞, una riflessione o una rotazione di V è
lineare se e solo se il suo asse passa per O (cioè, è un sottospazio lineare di V).
Se dim(V) = 2, le sue isometrie lineari sono l’ identità, le riflessioni attorno a
rette passanti per O e le rotazioni di centro O (Capitolo 12, Proposizione 12.25).
Corollario 13.12 Tutte le isometrie di uno spazio euclideo reale si ottengono
componendo isometrie lineari con traslazioni.
Dimostrazione. Sia ϕ un’ isometria di uno spazio euclideo reale (V, Φ). Poniamo
A = ϕ(O) e ϕ0 = τA−1 ϕ. Ovviamente, ϕ0 è un’ isometria di (V, Φ) e ϕ = τA ϕ0 .
Inoltre ϕ0 (O) = τA−1 (A) = A − A = O. Quindi ϕ0 è lineare, per il Corollario
13.11. 2
13.2. ESEMPI 253
Due parole sul caso complesso. Per semplicità, limitiamoci al caso di
Vn (C), pensato col suo prodotto scalare standard. Qui il Corollario 13.11 non
vale più. Per esempio, sia γ la funzione che ad ogni vettore X di Vn (C) asso-
cia il suo coniugato X (Capitolo 9, §9.6.2). Questa funzione è un’ isometria di
Vn (C), fissa O ma non è una trasformazione lineare: verifica la (1) ma non la
(2). Infatti γ(xX) = xγ(X).
Come nel caso reale, diciamo che un’ isometria ϕ dello spazio euclideo Vn (V) è
lineare se è una trasformazione lineare di Vn (C) in sè. Come in Vn (R), anche qui
le isometrie lineari sono gli automorfismi dello spazio euclideo Vn (C). Diciamo
invece che ϕ è semilineare se ϕ = ϕ0 γ con ϕ0 lineare, cioè se l’ isometria ϕγ è
lineare (si noti che γ = γ −1 ).
Proposizione 13.13 Le isometrie di Vn (C) che fissano O sono quelle lineari e
quelle semilineari.
(Tralascio la dimostrazione.) Da questa proposizione, con lo stesso argomento
usato per dimostrare il Corollario 13.12, si deduce che
Corollario 13.14 Tutte le isometrie di Vn (C) si ottengono componendo isome-
trie lineari o semilineari con traslazioni.
Chiamiamo isometrie affini quelle ottenute componendo un isometria lineare
con una traslazione. Valgono per esse le stesse proprietà che per le isometrie di
Vn (R).
13.2.5 Derivate e integrali
Sia C1 (R) il sottospazio lineare di RR formato da quelle funzioni che in tutti i
punti ammettono derivata. Sia D : C1 (R) −→ RR l’ operatore di derivazione,
che associa ad ogni f ∈ C1 (R) la sua derivata D(f ) = f 0 . L’ operatore D è
lineare: (f + g)0 = f 0 + g 0 e (cf )0 = cf 0 .
Sia invece C0 (R) il sottospazio lineare di RR formato da quelle funzioni che
sono continue. Scelto un punto a ∈ R, per ogni f ∈ C0 (R) indichiamo con
Ia (f ) la funzione integrale di f calcolata a partire da a, cioè
Z x
Ia (f )(x) =def f (z)dz
a
È noto che Ia (f ) è derivabile e che (Ia (f ))0 = f . Quindi Ia (f ) ∈ C1 (R) ⊂
C0 (R). Abbiamo cosı̀ un operatore Ia : C0 (R) −→ C0 (R). È anche noto che
Ia (f + g) = Ia (f ) + Ia (g) e che Ia (cf ) = cIa (f ), per ogni scelta di f, g ∈ C0 (R)
e di c ∈ R. Dunque Ia è un operatore lineare.
Indichiamo con C∞ (R) il sottospazio lineare di RR formato da quelle fun-
zioni che in tutti i punti ammettono tutte le derivate, di qualunque ordine.
Evidentemente, D(C∞ (R)) ⊆ C∞ (R). Possiamo dunque considerare l’ azione
di D su C∞ (R). Usiamo la lettera D per indicare anche questa azione.
254 Capitolo 13
Siccome (Ia (f ))0 = f per ogni f ∈ C0 (R), se f ∈ C∞ (R) allora Ia (f ) ∈
C∞ (R). Cioè Ia (C∞ (R)) ⊆ C∞ (R). Dunque possiamo considerare anche l’
azione di Ia su C∞ (R). Anche questa la continuiamo ad indicare con Ia .
Ora possiamo comporre Ia con D. Siccome (Ia (f ))0 = f per ogni f ∈
C∞ (R), risulta DIa = I, ove I sta ad indicare l’ identità su C∞ (R). Sicchè l’
azione di D su C∞ (R) è suriettiva, mentre l’ operatore Ia è iniettivo. (Però l’
operatore D non è iniettivo: funzioni che differiscono per una costante hanno la
stessa derivata.)
Invece Ia (f 0 ) = f − f (a). Dunque Ia (f 0 ) = f se e solo se f (a) = 0. Sicchè
Ia D 6= I. Insomma, la trasformazione D è solo un’ inversa sinistra di Ia , non
un’ inversa destra. E infatti la trasformazione Ia , pur essendo iniettiva, non è
invertibile. Cioè, non è suriettiva. Precisamente, Ia f vale sempre 0 in a. Quindi
Ia (C∞ (R)) è contenuto nel sottospazio lineare di C∞ (R) formato da quelle
funzioni che valgono 0 in a. Però Ia D induce l’ identità su questo sottospazio
lineare. Sicchè Ia (C∞ (R)) è proprio il sottospazio lineare delle funzioni nulle
in a.
Essendo D un’ inversa sinistra di Ia , questa è un’ inversa destra di D. Ab-
biamo trovato cosı̀ infinite inverse destre per D, corrispondenti alle infinite scelte
di a ∈ R. (Ma ve ne sono altre; cfr. Sezione 13.4, Esercizio 13.10.)
13.3 Qualche teorema
Siano V e W spazi vettoriali sullo stesso campo di scalari K e sia E = (Ei )i∈I
una base di V. Sia X = (Xi )i∈I una qualunque famiglia di vettori di W. Non
assumiamo che X generi W o che sia indipendente. Anzi, nemmeno pretendiamo
che i vettori Xi siano a due a due distinti. Il seguente teorema generalizza il
Lemma 5.13 del Capitolo 5.
Teorema 13.15 C’ è una sola trasformazione lineare ϕ : V → W tale che
(∗) ϕ(Ei ) = Xi , (∀i ∈ I)
Dimostrazione. La dimostrazione è sostanzialmente la stessa che abbiamo dato
per il Lemma 5.13 del Capitolo 5, ma ripetiamola. Dimostriamo innazitutto
P una trasformazione lineare soddisfacente (∗) esiste. Dato X ∈ V, sia X =
che
j∈J xj Ej una sua rappresentazione come combinazione lineare di vettori di E
(se si vuole, si può scegliere sempre la rappresentazione essenziale; Capitolo 5,
§5.4.1). Poniamo
X
ϕ(X) = xj Xj
j∈J
Abbiamo cosı̀ una funzione ϕ da V a W. È facile verificare ϕ è lineare. Eviden-
temente ϕ(Ei ) = Xi , come richiesto in (∗). Di trasformazioni lineari da V a W
13.3. QUALCHE TEOREMA 255
P Infatti, sia ψ : V → W una trasformazione
che verifichino (∗) c’ è solo questa.
lineare verificante (∗). Se X = j∈J xj Ej , la (5) implica che
X X
ψ(X) = xj ψ(Ej ) = xj Xj = ϕ(X)
j∈J j∈J
Dunque ψ = ϕ. 2
Cosı̀, ogni trasformazione lineare è individuata dai valori che assume sui vettori
di una base. La trasformazione lineare ϕ individuata dalla condizione (∗) la
diciamo individuata (o rappresentata) da X rispetto ad E.
La famiglia X = (Xi )i∈I è un vettore di W I (Capitolo 1, §1.5.2). Dunque il
Teorema 13.15 può riformularsi cosı̀:
Corollario 13.16 La funzione che ad ogni trasformazione lineare ϕ : V → W
associa il vettore (ϕ(Ei ))i∈I di W I realizza una corrispondenza biunivoca tra
L(V, W) e W I .
In particolare, per individuare un funzionale lineare di V basta dare per ogni
i ∈ I il valore xi ∈ K che vogliamo sia assunto in Ei ; cioè, basta dare un vettore
(xi )i∈I di KI . Dunque,
Corollario 13.17 I funzionali lineari su V stanno in corrispondenza biunivoca
coi vettori di KI .
Dal Teorema 13.15 (o dal Lemma 5.13 del Capitolo 5) segue anche che:
Corollario 13.18 l’ identità è l’ unica trasformazione lineare da V a V che
fissa tutti i vettori di una base di V.
I due teoremi seguenti completano il Lemma 5.14 del Capitolo 5. In essi X è
una data famiglia di vettori di W e ϕ è la trasformazione lineare da V a W
individuata da X rispetto ad una data base E di V.
Teorema 13.19 La trasformazione ϕ è un isomorfismo se e solo se i vettori di
X sono a due a due distinti e formano una base di W. Se questo è il caso, ϕ−1
è la trasformazione lineare da W a V rappresentata da E rispetto ad X.
Dimostrazione. La parte “solo se” è il Lemma 5.14 del Capitolo 5. La parte
“se” segue dal Lemma 5.13 di quel Capitolo. Oppure, la possiamo ottenere cosı̀:
supponendo che X sia una base di W e che non contenga termini ripetuti, sia ψ
la trasformazione lineare da W a V rappresentata da E rispetto ad X. Risulta
ψϕ = IV e ϕψ = IW per il Corollario 13.18. Quindi ϕ è invertibile e ϕ−1 = ψ.
2
Risulta Im(ϕ) = L(X), per il Corollario 13.5. Quindi ϕ è suriettiva se e solo se
L(X) = W (cfr. Corollario 13.7). Invece:
256 Capitolo 13
Teorema 13.20 La trasformazione ϕ è iniettiva se e solo se i vettori di X sono
a due a due distinti ed X è indipendente.
Dimostrazione. La parte “se” di questa affermazione segue subito dal Teorema
13.19 sostituendovi W con L(X) (= Im(ϕ)). La parte “solo se” è la Proposizione
4.6 del Capitolo 4 (in quella proposizione si parlava di isomorfismi, ma è chiaro
che essa vale per ogni trasformazione lineare iniettiva). 2
Corollario 13.21 Se esistono trasformazioni lineari iniettive da V a W, allora
risulta dim(W) ≥ dim(V).
(Ovvio, per il Teorema 13.20).
Corollario 13.22 Quando dim(V) < ∞, una trasformazione lineare ϕ di do-
minio V è iniettiva se e solo se rank(ϕ) = dim(V).
Dimostrazione. Sia dim(V) = n < ∞. Data una trasformazione lineare ϕ di
dominio V, l’ immagine X = ϕ(E) di una base di E è un insieme indipendente
di n vettori se e solo se dim(L(X)) = n. D’ altra parte, L(X) = Im(ϕ). La
conclusione segue dal Teorema 13.20. 2
Corollario 13.23 Quando dim(V) = dim(W) < ∞, una trasformazione linea-
re da V a W è iniettiva se e solo se è suriettiva.
Dimostrazione. Sia dim(V) = dim(W) = n < ∞. Per il Corollario 13.22, una
trasformazione lineare ϕ da V a W è iniettiva se e solo se rank(ϕ) = n, cioè se
e solo se ϕ è suriettiva. 2
Quindi, quando dim(V) = dim(W) < ∞, una trasformazione lineare da V a
W, se è iniettiva o suriettiva, allora è addirittura invertibile. Invece, quando
V ha dimensione infinita esistono sempre trasformazioni lineari di V in sè che
sono iniettive ma non suriettive, oppure suriettive ma non iniettive (cfr. §13.2.5;
anche Sezione 13.4, Esercizio 13.11).
13.4 Esercizi
Esercizio 13.1 Dato uno spazio vettoriale V ed un suo sottospazio lineare A,
B B B B A
sia B un complementare di A in V. Si dimostri che πA πA = πA e che πA πB =
O.
Esercizio 13.2 Siano X , Y, Z, T sottospazi lineari di uno spazio vettoriale V
tali che V = X ⊕ Y = Z ⊕ T . Si dimostrino le due seguenti affermazioni:
Y T Y T T
πX πZ = O ⇐⇒ Z ⊆ Y, πX πZ = πZ ⇐⇒ Z ⊆ X
13.4. ESERCIZI 257
Esercizio 13.3 Si trovi qualche trasformazione lineare ϕ ∈ L2 (R) tale che
ϕ2 = O 6= ϕ.
Risposta. Per esempio, possiamo comporre una rotazione di π/2 attorno ad O
con una proiezione ortogonale su una retta per O.
Esercizio 13.4 Si trovi una trasformazione lineare ϕ ∈ L2 (R) tale che rank(ϕ2 ) <
rank(ϕ).
Suggerimento. Esercizio 13.3.
Esercizio 13.5 Siano ϕ e ψ trasformazioni lineari con dom(ψ) = cod(ϕ). Si
dimostrino le seguenti affermazioni:
(i) Se ϕ è suriettiva, allora rank(ψϕ) = rank(ψ).
(ii) Se ψ è iniettiva, allora rank(ψϕ) = rank(ϕ).
(iii) In ogni caso, è sempre rank(ψϕ) ≤ rank(ϕ), rank(ψ).
Suggerimento. Im(ψ) ⊇ Im(ψϕ) = ψ(Im(ϕ)).
Esercizio 13.6 Le funzioni da R ad R che convergono per x → +∞ formano
un sottospazio lineare di RR , diciamolo V. Sia lim la funzione che ad ogni
f ∈ V associa limx→+∞ f . Verificate che lim è un funzionale lineare di V.
Esercizio 13.7 Sia C0 (R) lo spazio vettoriale delle funzioni da R ad R con-
Rb
tinue su tutto R. Indichiamo con a la funzione da C0 (R) ad R che ad ogni
Rb Rb
funzione f ∈ C0 (R) associa a f (x)dx. Verificate che a è un funzionale lineare
di C0 (R).
Rb
Nota. Il funzionale a è la composizione dell’ operatore Ia considerato in
§13.2.5 con la valutazione in b (cfr. §13.2.2).
Esercizio 13.8 Dati due numeri reali a, b ∈ R con a < b, indichiamo con [a, b]
l’ intervallo chiuso di R di estremi a e b e con C0 ([a, b]) lo spazio vettoriale
Rb
delle funzioni continue da [a, b] ad R (come nel Capitolo 8, §8.3.1). Con a
indichiamo la funzione da C0 ([a, b]) ad R che ad ogni funzione f ∈ C0 ([a, b])
Rb
associa a f (x)dx. Definiamo inoltre un prodotto scalare su C0 ([a, b]) ponendo
Z b
hf, gi = f (x)g(x)dx
a
Rb
(come in §8.3.1 del Capitolo 8). Verificate che a
è un funzionale lineare di
Rb
C0 ([a, b]) e trovate una funzione f0 ∈ C0 ([a, b]) tale che a (f ) = hf, f0 i per ogni
f ∈ C0 ([a, b]).
Risposta. f0 = 1. Anzi, questo è l’ unico vettore di C0 ([a, b]) con la proprietà
desiderata.
Esercizio 13.9 Dati a, b ∈ R con a < b, definite in C0 ([a, b]) il prodotto scalare
hf, gi come nell’ Esercizio 13.8. Data G ∈ C0 ([a, b]), indichiamo con ϕG il
funzionale lineare di C0 ([a, b]) che ad ogni f ∈ C0 ([a, b]) associa il prodotto
258 Capitolo 13
scalare hf, Gi. Si trovi un funzionale lineare ϕ di C0 ([a, b]) che non coincida
con nessuno dei funzionali ϕG .
Risposta. Basta prendere la valutazione in un punto c ∈ R. (Cfr. Capitolo 9,
Esercizio 9.14.)
Rb
Esempio. Se G è la costante 1 allora ϕG è il funzionale lineare a considerato
nell’ Esercizio 13.8.
Esercizio 13.10 Data una base F di C∞ (R) (cfr. §13.2.5), sia γ : F −→ R
R0
una funzione tale che per ogni a ∈ R esiste qualche f ∈ F con γ(f ) 6= a f (x)dx.
Rx
Per ogni f ∈ F poniamo Γ(f ) = γ(f ) + 0 f (z)dz e sia Γ l’ operatore lineare
di C∞ (R) individuato dalla famiglia (Γ(f ))f ∈F rispetto ad F (Teorema 13.15).
Si dimostri che Γ è un’ inversa destra dell’ operatore di derivazione D, ma che
Γ 6= Ia per ogni a ∈ R.
Nota. L’ esistenza di γ viene dall’ Assioma di Scelta (Volume 1, Capitolo 8).
Esercizio 13.11 Sia V uno spazio vettoriale di dimensione infinita. Si dimostri
che tra le trasformazioni lineari di V in sè ce ne sono infinite che sono iniettive
ma non suriettive ed infinite altre che sono suriettive ma non iniettive.
Soluzione. Data una base E = (Ei )i∈I di V, sia J un sottoinsieme proprio di
I con la stessa cardinalità di I e sia α una funzione invertibile da I a J. La
trasformazione lineare individuata da (Eα(i) )i∈I rispetto ad E è iniettiva ma
non suriettiva. Si ponga poi Fi = Eα−1 (i) per i ∈ J ed Fi = O per i ∈ I \ J. La
trasformazione lineare individuata da (Fi )i∈I rispetto ad E è suriettiva ma non
iniettiva.
Esercizio 13.12 Siano K, I e J tre insiemi non vuoti, con K infinito. Allora:
(i) card(K I×J ) = card(K J×I ) = card((K J )I ) = card((K J )I );
(ii) card(K) > 1 ⇒ card(I) < card(K I );
(iii) card(I) < card(K) ⇒ card(K I ) = card(K);
(iv) se card(I) ≥ ℵ0 , l’ insieme delle funzioni quasi-nulle da I a K ha cardinalità
uguale al massimo tra card(K) e card(I).
Prendete queste affermazioni per buone. (Comunque, la (i) è ovvia; (ii) ed (iv)
sono implicite nelle cose dette nel Capitolo 8 del Volume 1; la dimostrazione di
(iii) è invece più complicata.) Basandovi su di esse, dimostrate quanto segue:
Dato un campo K e due insiemi non vuoti I e J, siano V e W spazi vettoriali
di dimensione rispettivamente card(I) e card(J). Allora L(V, W) può porsi in
corrispondenza biunivoca con KJ×I se e solo se card(J) è minore del massimo
tra card(K) e ℵ0 .
Suggerimento. Corollario 13.16.
Esercizio 13.13 Si dimostri che i funzionali lineari di RR sono di più dei
vettori di RR (cioè, card(L(RR , R)) > card(RR )).
Traccia. Sia F una base di RR . I vettori di RR corrispondono alle funzioni
quasi-nulle da F ad R. Invece, per il Corollario 13.17, i funzionali lineari di RR
sono tanti quante le funzioni da F ad R. Quindi, per (ii) ed (iv) dell’ Esercizio
13.12 ...
13.5. MATRICI 259
13.5 Matrici
Generalizzeremo ora per trasformazioni lineari quanto già detto in §5.4.5 del
Capitolo 5 per automorfismi di uno spazio vettoriale.
13.5.1 Vettori e funzionali lineari
Sia A = (ai )ni=1 un vettore di Vn (K) e sia α il funzionale lineare di Vn (K)
rappresentato da A rispetto alla base (U1 , U2 , ..., Un ) dei versori di Vn (K), cioè
(7.a) ai = α(Ui ), (i = 1, 2, ..., n)
Allora, per ogni n–pla (xi )ni=1 ∈ Vn (K),
n
X
(7.b) α(x1 , x2 , ..., xn ) = a i xi .
i=1
Insomma, i funzionali lineari di Vn (K) sono i polinomi omogenei di primo grado
nelle n variabili x1 , x2 , ..., xn (e sono in corrispondenza biunivoca coi vettori di
Vn (K); cfr. Corollario 13.17). Più in generale, sia V uno spazio vettoriale su
K di dimensione n < ∞ e sia E = (Ei )ni=1 una base ordinata di V. Sia ϕA il
funzionale lineare rappresentato dal vettore A ∈ Vn (K) rispetto alla base E di
V, cioè
(8.a) ϕA (Ei ) = ai , (i = 1, 2, ..., n)
Dato X ∈ V, sia (xi )ni=1 = (X)E la n–pla delle coordinate di X rispetto ad E
(Capitolo 5, §5.4.1). Allora,
n
X
(8.b) ϕA (X) = ai xi
i=1
Dunque, se η : V −→ Vn (K) è l’ isomorfismo da V a Vn (K) naturale per E
(Capitolo 5, §5.4.3) e se α è il funzionale lineare di Vn (K) rappresentato da A
rispetto alla base dei versori di Vn (K) (come in (7.b)), allora ϕA = αη.
13.5.2 Matrici e trasformazioni lineari
Sia A = (aj,i )m,n
j,i=1 una matrice m × n a coefficienti in un dato campo K. In-
dichiamo con A1 , A2 , ..., Am le sue righe e con B1 , B2 , ..., Bn le sue colonne.
Possiamo vedere A come una m-pla di vettori di Vn (K), identificandola con
la m-pla (Aj )m j=1 delle sue righe, oppure come una n-pla di vettori di Vm (K),
identificandola con la n-pla (Bi )ni=1 delle sue colonne.
Sia α : Vn (K) −→ Vm (K) la trasformazione lineare individuata dalla n-pla
(Bi )ni=1 rispetto alla base (U1 , U2 , ..., Un ) dei versori di Vn (K), cioè
(9.a) α(Ui ) = Bi , (∀i = 1, 2, ..., n)
260 Capitolo 13
Allora, per ogni n–pla (xi )ni=1 ∈ Vn (K), risulta
(9.b) α(x1 , x2 , ..., xn ) = (α1 (x1 , ..., xn ), ..., αm (x1 , ..., xn ))
ove
n
X
(9.c) αj (x1 , x2 , ..., xn ) =def aj,i xi , (j = 1, 2, ..., m)
i=1
Insomma, α è una m-pla (αj )m j=1 di polinomi omogenei di primo grado in n
variabili (cioè, una m-pla di funzionali lineari di Vn (K)). Le m righe della
matrice A rappresentano appunto questi m polinomi. Invece le colonne sono i
trasformati dei versori di Vn (K) e generano Im(α) (Corollario 13.5).
Per il Teorema 13.15, ogni trasformazione lineare da Vn (K) a Vm (K) è
rappresentata da una matrice A = (Bi )ni=1 come sopra. Quindi:
Proposizione 13.24 Sia K l’ insieme degli elementi di K. Date m funzioni
α1 , α2 ,..., αm da Kn a Km , sia α : Kn −→ Km definita cosı̀:
α(x1 , x2 , ..., xn ) =def (α1 (x1 , ..., xn ), ..., αm (x1 , ..., xn ))
La funzione α è lineare se e solo se le funzioni α1 , α2 ,..., αm sono polinomi
omogenei di primo grado.
Quel che si è detto sopra si può generalizzare a due arbitrari spazi vettoriali
V e W di dimensione rispettivamente n ed m su uno stesso campo K. Sia
α : Vn (K) → Vm (K) la trasformazione lineare definita da (9.b). Scelta una base
ordinata E = (Ei )ni=1 di V ed una base ordinata F = (Fj )mj=1 di W, definiamo
ϕA : V −→ W ponendo
(10.a) (ϕA (X))F =def α((X)E ), (X ∈ V)
−1
Cioè ϕA = ηW αηV ove ηV e ηW sono gli isomorfismi da V a Vn (K) e da W
a Vm (K) naturali per la basi E e F, rispettivamente (Capitolo 5, §5.4.3). La
funzione ϕA , essendo una composizione di trasformazioni lineari, è una tra-
sformazione lineare. Diciamo che ϕA è la trasformazione lineare da V a W
rappresentata dalla matrice A rispetto ad E ed F. (Cosı̀, α è la trasformazione
lineare da Vn (K) a Vm (K) rappresentata da A rispetto alle basi dei versori.) La
(10.a) si può riscrivere cosı̀:
m
X
(10.b) ϕA (X) = αj (x1 , x2 , ..., xn )Fj
j=1
ove (xi )ni=1 = (X)E e le funzioni αj (x1 , x2 , ...xn ) sono definite come in (9.c).
Sostituendo E1 , E2 ,..., En ad X in (10.b), si ottiene
m
X
(10.c) ϕA (Ei ) = Fj aj,i , (i = 1, 2, ..., n)
j=1
13.5. MATRICI 261
Insomma, ϕA è la trasformazione rappresentata rispetto ad E dalla seguente
n-pla di vettori di W:
Xm m
X m
X
( Fj aj,1 , Fj aj,2 , ..., Fj aj,n )
j=1 j=1 j=1
e le m–ple (ϕA (E1 ))F , (ϕA (E2 ))F , ..., (ϕA (En ))F sono le colonne di A. Pertanto,
L(ϕA (E1 ), ϕA (E2 ), ..., ϕA (En )) ∼
= L(B1 , B2 , ..., Bn )
D’ altra parte, L(ϕA (E1 ), ϕA (E2 ), ..., ϕA (En )) = Im(ϕA ) per il Corollario 13.5.
Quindi Im(ϕA ) ∼ = L(B1 , B2 , ..., Bn ), cioè,
rank(ϕA ) = dim(L(B1 , B2 , ..., Bn ))
Ma dim(L(B1 , B2 , ..., Bn )) è il rango per colonne rank(A| ) di A. Quindi,
(11) rank(ϕA ) = rank(A| )
La seguente proposizione riassume gran parte di quel che si è detto. (Essa è solo
un adattamento del Teorema 13.15 al caso di dimensione finita.)
Proposizione 13.25 Scelte le basi ordinate E ed F di V e W, la funzione
che ad ogni trasformazione lineare ϕ ∈ L(V, W) associa la matrice che ha per
colonne le m-ple delle coordinate rispetto ad F dei trasformati mediante ϕ degli
n vettori di E, è una corrispondenza biunivoca tra l’ insieme L(V, W) delle
trasformazioni lineari da V a W e l’ insieme Mm,n (K) delle matrici m × n a
coefficienti in K.
Il caso di W = V. Quando W = V nulla impedirebbe di scegliere due basi
diverse di V, prendendo l’ una o l’ altra a seconda che V lo si pensi come
dominio o come codominio. Ma si preferisce evitarlo. Dunque, quando W = V
prenderemo sempre una sola base per V, indipendentemente dal pensare V come
dominio o come codominio. Se E è la base che abbiamo scelto e se ϕ = ϕA è
la trasformazione lineare di V in sè rappresentata dalla matrice A rispetto ad
E, presa come base sia per il dominio che per il codominio, allora diciamo
brevemente che A rappresenta ϕ rispetto ad E.
13.5.3 Matrici infinite
Dati due spazi vettoriali V e W su uno stesso campo K, scegliamo in ciascuno di
essi una base: E = (Ei )i∈I in V ed F = (Fj )j∈J in W. Data una trasformazione
lineare ϕ : V → W, per ogni i ∈ I poniamo (aj,i )j∈J = (ϕ(Ei ))F , cioè
X
(12.a) ϕ(Ei ) = Fj aj,i
j∈J
262 Capitolo 13
P uniforme (Capitolo 5, §5.4.1) di ϕ(Ei ) rispetto ad F. Per
è la rappresentazione
ogni vettore X = i∈I Ei xi risulta
X XX X X
ϕ(X) = ϕ(Ei )xi = ( Fj aj,i )xi = Fj ( aj,i xi )
i∈I i∈I j∈J j∈J i∈I
(Questi passaggi hanno senso e sono corretti perchè xi 6= 0 solo per un numero
finito di valori di i e per ciascuno di essi ai,j 6= 0 solo per un numero finito di
valori di j). In definitiva:
X
(12.b) ϕ(X) = Fj ϕj (X)
j∈J
ove, per ogni j ∈ J, ϕj è il funzionale lineare di V definito cosı̀:
X
(12.c) ϕj (X) = aj,i xi
i∈I
Possiamo vedere (aj,i )j∈J,i∈I come un vettore di (VJ (K))I , cioè come una funzio-
ne che ad ogni i ∈ I associa la funzione quasi nulla Bi = (aj,i )j∈J da J a K. (Nel
caso finito, ritroviamo l’ interpretazione delle matrici m × n come n-ple di colon-
ne.) Insomma, abbiamo una corrispondenza biunivoca tra L(V, W) e (VJ (K))I .
(Il chè è appunto quanto ci dice il Corollario 13.16; infatti W ∼ = VJ (K), per il
Teorema 5.15 del Capitolo 5.) Viene spontaneo chiamare le famiglie di scalari
(aj,i )j∈J,i∈I ‘matrici’ J × I. Ma per lo più si riserva la parola “matrice” solo al
caso finito.
13.6 Esempi
13.6.1 Matrici nulle, identità e matrici scalari
Nel §1.5.3 del Capitolo 1 abbiamo introdotto il simbolo Om,n (abbreviato in On
quando n = m) per indicare la matrice nulla m×n. Nel seguito scriveremo spesso
O anzichè Om,n , per brevità. Le matrici nulle sono quelle che rappresentano
trasformazioni lineari nulle (non importa quali basi si scelgano). In particolare,
il vettore nullo di Vn (K) rappresenta il funzionale lineare nullo.
La matrice che rappresenta la trasformazione identità di uno spazio vettoriale
V di dimensione n è la matrice quadrata di ordine n con 1 sulla diagonale
principale
1 0 0 ..... 0 0
0 1 0 ..... 0 0
0 0 1 ..... 0 0
... ... ... ..... ... ...
0 0 0 ..... 1 0
0 0 0 ..... 0 1
(e questo qualunque sia la base scelta per V). La chiamiamo matrice identità e
la indichiamo con In (o brevemente con I).
13.6. ESEMPI 263
Rammento che Mn (K) è uno spazio vettoriale (Capitolo 1, §1.5.3). La se-
guente matrice (detta matrice scalare di coefficiente a) è il prodotto aIn del
vettore In di Mn (K) per lo scalare a:
a 0 0 ..... 0 0
0 a 0 ..... 0 0
0 0 a ..... 0 0
... ... ... ..... ... ...
0 0 0 ..... a 0
0 0 0 ..... 0 a
Essa rappresenta un’ omotetia di ragione a (anche qui, non importa quale base
si sia scelta per V).
13.6.2 Matrici diagonali
Scelta una base E = (Ei )ni=1 di V ed una n-pla (ai )ni=1 di scalari, sia ϕ ∈ L(V)
la trasformazione lineare che porta Ei in ai Ei . La matrice che rappresenta ϕ
rispetto ad E è questa:
a1 0 ..... 0
0 a2 ..... 0
..... ..... ..... .....
0 0 ..... an
Indicheremo questa matrice col simbolo dg(a1 , a2 , ..., an ), che spesso abbrevie-
remo in dg(ai )ni=1 . Chiamiamo diagonali le matrici di questa forma. Si noti che
dg(a, a, ..., a) = aIn . In particolare,
dg(1, 1, ..., 1) = In e dg(0, 0, ..., 0) = On .
Invertibilità e composizioni. Siano ϕ e ψ trasformazioni lineari di V in sè,
rappresentate rispetto ad E da matrici diagonali, dg(ai )ni=1 e dg(bi )ni=1 . Allora
ϕψ = ψϕ e la matrice che rappresenta ϕψ rispetto ad E è dg(ai bi )ni=1 . Da questo
si deduce subito che ϕ è invertibile se e solo se ai 6= 0 per ogni i = 1, 2, ..., n. Se
questo è il caso, ϕ−1 è rappresentata rispetto ad E da dg(a−1 n
i )i=1 .
Cambiando la base. Sia ϕ ∈ L(V) rappresentata da dg(ai )ni=1 rispetto ad
E. Se gli scalari a1 , a2 ,..., an non sono tutti uguali, per lo più cambiando la
base cambia anche la matrice che rappresenta ϕ. In generale la nuova matrice
non è più diagonale.
Per esempio, prendiamo n = 2 e la matrice che rappresenta ϕ rispetto ad
una data base (E1 , E2 ) di V sia questa:
a 0
dg(a, b) =
0 b
264 Capitolo 13
La coppia (E1 , E1 +E2 ) è un’ altra base di V. Rispetto ad essa ϕ è rappresentata
dalla seguente matrice:
a a−b
0 b
(Infatti ϕ(E1 + E2 ) = aE1 + bE2 = (a − b)E1 + b(E1 + E2 ).) Se ch(K) 6= 2,
anche la coppia (E1 − E2 , E1 + E2 ) è una base di V. Risulta
a+b a−b
ϕ(E1 − E2 ) = aE1 − bE2 = (E1 − E2 ) + (E1 + E2 )
2 2
a−b a+b
ϕ(E1 + E2 ) = aE1 + bE2 = (E1 − E2 ) + (E1 + E2 )
2 2
Quindi la matrice che rappresenta ϕ rispetto a questa nuova base è la seguente
(a + b)/2 (a − b)/2
(a − b)/2 (a + b)/2
13.6.3 Proiezioni
Sia A un sottospazio lineare di uno spazio vettoriale V di dimensione n <
∞ e sia B un suo complementare in V. Sia m = dim(A). Scelta una base
(E1 , E2 , ..., Em ) di A ed una base (F1 , F2 , ..., Fn−m ) di B, la seguente n-pla di
vettori è una base di V (Capitolo 7, Corollario 7.2):
E = (E1 , E2 , ..., Em , F1 , F2 , ..., Fn−m )
B
La matrice che rispetto ad E rappresenta la proiezione πA di V su A lungo B è
diagonale, con la diagonale principale formata da m termini uguali ad 1 seguiti
da n − m termini nulli.
Per esempio, se n = 7 ed m = 4 la matrice è dg(1, 1, 1, 1, 0, 0, 0).
13.6.4 Matrici permutazionali
Sia E = (Ei )ni=1 una base di V. Data una permutazione α di {1, 2, ..., n}, sia ϕα
l’ automorfismo di V in sè individuato da queste clausole
ϕα (Ei ) = Eα(i) , (i = 1, 2, ..., n)
(Cioè, ϕα agisce su E allo stesso modo della permutazione α). Per descrivere
la matrice che rappresenta ϕα rispetto ad E ci tornano comodi i simboli di
Kronecker δi,j (Capitolo 8, §8.5.1). Sia infatti Mα la matrice che, per i, j =
1, 2, ..., n, ha δi,α(j) come termine di posto (i, j) (riga i, colonna j). È facile
vedere che Mα rappresenta ϕα rispetto ad E.
Le matrici come Mα si dicono permutazionali. Si dice anche che ϕα è per-
mutazionale su E (o che è una permutazione di E, identificando implicitamente
ϕα con la permutazione che essa induce su E).
13.6. ESEMPI 265
Il gruppo P er(E). Indichiamo con P er(E) l’ insieme delle tasformazioni per-
mutazionali su E. È facile vedere che, per ogni scelta di α, β ∈ Sym(n), risulta
ϕα ϕβ = ϕαβ . Inoltre, se ι ∈ Sym(n) è la permutazione identità, allora ϕι = I
(Corollario 13.18). Quindi ϕα ϕα−1 = ϕα−1 ϕα = I. Pertanto ϕα è sempre
invertibile e ϕ−1 α = ϕα−1 .
Dunque P er(E) è un sottogruppo di Aut(V), e la funzione che ad ogni α ∈
Sym(n) associa ϕα è un isomorfismo da Sym(n) a P er(E).
Nel Capitolo 6 del Volume 1 indicavamo con γ[i, j] la trasposizione che scam-
bia i con j, con γ[i, j, k] il ciclo che porta i in j, j in k e k in i, e analogamente
per cicli di periodo > 3. Qui prenderemo ϕ[i,j] , ϕ[i,j,k] ecc. come abbreviazioni
di ϕγ[i,j] , ϕγ[i,j,k] ecc. Per l’ isomorfismo Sym(n) ∼ = P er(E), le trasformazioni
ϕ[i,j] , ϕ[i,j,k] ecc. hanno proprietà simili a quelle delle trasposizioni e dei cicli di
Sym(n). Per esempio:
ϕ2[i,j] = I (vale a dire, ϕ−1 [i,j] = ϕ[i,j] );
ϕ[i,j] ϕ[k,h] = ϕ[k,h] ϕ[i,j] se e solo se {i, j} = {h, k} oppure {i, j} ∩ {h, k} = ∅;
ϕ[j,k] ϕ[i,k] = ϕ[i,j,k] ;
ϕ−1
[i,j,k] = ϕ[k,j,i] ;
ϕ[i,j,k] = I (cioè, ϕ−1
3 2
[i,j,k] = ϕ[i,j,k] ).
Ogni permutazione è prodotto di trasposizioni (Volume 1, Capitolo 6, Teorema
6.14). Quindi, ogni trasformazione permutazionale su E si ottiene componendo
trasformazioni del tipo ϕ[i,j] .
Un esempio. Sia n = 4. Le seguenti matrici rappresentano rispettivamente
le trasposizioni α2,3 e α2,4 :
1 0 0 0 1 0 0 0
0 0 1 0 0 0 0 1
0 1 0 0 0 0 1 0
0 0 0 1 0 1 0 0
Il prodotto α2,3 α2,4 è il ciclo α4,3,2 , che è rappresentato da questa matrice:
1 0 0 0
0 0 1 0
0 0 0 1
0 1 0 0
Cambiando la base, le matrici cambiano. Per esempio, se ch(K) 6= 2 possiamo
prendere (E1 , E2 − E3 , E2 + E3 , E4 ) come nuova base. Rispetto ad essa, α2,3 è
rappresentata dalla matrice diagonale dg(1, −1, 1, 1). Invece queste sono ora le
matrici che rappresentano rispettivamene α2,4 e α4,3,2
1 0 0 0 1 0 0 0
0
1/2 −1/2 1/2
0 −1/2 1/2 −1/2
0 −1/2 1/2 1/2 0 1/2 1/2 1/2
0 1 1 0 0 1 1 0
266 Capitolo 13
Trasformazioni permutazionali e isometrie. Sia (V, Φ) uno spazio eucli-
deo, reale o complesso, di dimensione finita, e sia E una base di V, ortonormale
per Φ. Ogni automorfismo ϕ di V è un isomorfismo da (V, ΦE ) a (V, Φϕ(E) )
(Capitolo 8, Sezioni 8.4 ed 8.5). Inoltre, che una base sia o no ortonormale non
dipende dall’ ordine in cui si prendono i suoi vettori. Quindi, per la Proposizione
9.10 del Capitolo 9,
Proposizione 13.26 Ogni trasformazione permutazionale su E è un automor-
fismo di (V, Φ).
Per esempio, sia V = V2 (R). Qui abbiamo una sola trasformazione permutazio-
nale diversa da I, rappresentata dalla matrice
0 1
1 0
Se la base è ortonormale, questa matrice rappresenta una riflessione attorno alla
retta L(E1 + E2 ).
E2 L(E1 + E2 )
6
@
I
@
R
- E1
@
I
@R
Sia invece V = V3 (R) e sia E = (E1 , E2 , E3 ) una sua base ortonormale. Ci
sono solo sei permutazioni di {1, 2, 3}: l’ identità, le tre trasposizioni γ[1, 2],
γ[2, 3] e γ[3, 1] ed i due cicli γ[1, 2, 3] e γ[3, 2, 1]. Le tre trasposizioni corrispon-
dono a riflessioni, invece i due cicli corrispondono a rotazioni. Le matrici che
rappresentano ϕ[1,2] , ϕ[2,3] e ϕ[3,1] rispetto ad E sono le seguenti
0 1 0 1 0 0 0 0 1
1 0 0 0 0 1 0 1 0
0 0 1 0 1 0 1 0 0
Queste sono appunto le matrici che rappresentano le riflessioni attorno ai piani
L(E1 + E2 , E3 ), L(E1 , E2 + E3 ) ed L(E3 + E1 , E2 ).
B
B E3
E3 6 E3 6
6
H H
HH HH
- - H - H
B
E2
E2
E2
E1 B
E1 E1
13.6. ESEMPI 267
Invece le matrici che rappresentano ϕ[1,2,3] e ϕ[3,2,1] sono le seguenti:
0 0 1 0 1 0
1 0 0 0 0 1
0 1 0 1 0 0
Queste due matrici rappresentano rotazioni attorno alla retta L(E), ove E =
E1 + E2 + E3 , con angoli rispettivamente 2π/3 e −2π/3 (oppure −2π/3 e 2π/3,
a seconda di come si orienta la retta L(E)).
E3 E3
6 6
I
@ @
- E2 -E2
@ R
@
E1 : E1
9
13.6.5 Riflessioni e trasposizioni
Sia V = Vn (R), sia σ una riflessione lineare di V e sia S il suo iperpiano di
riflessione. Essendo σ lineare, S è un sottospazio lineare di V, cioè O ∈ S.
Per trovare per ϕ una matrice rappresentativa il più semplice possibile, come
primo vettore E1 prendiamo un vettore normale di S e poi scegliamo una base
E2 , E3 , ..., En di S. È chiaro che la n-pla E = (E1 , E2 , ..., En ) è una base di V.
La matrice che rappresenta σ rispetto alla base E è dg(−1, 1, ..., 1):
−1 0 0 ..... 0 0
0 1 0 ..... 0 0
0 0 1 ..... 0 0
... ... ... ..... ... ...
0 0 0 ..... 1 0
0 0 0 ..... 0 1
Sia invece E0 = (E10 , E20 , E3 , E4 , ..., En ) con E10 = E1 + E2 ed E20 = −E1 + E2 .
Questa è ancora una base di V. Rispetto ad essa σ è rappresentata dalla seguente
matrice permutazionale
0 1 0 ..... 0 0
1 0 0 ..... 0 0
0 0 1 ..... 0 0
... ... ... ..... ... ...
0 0 0 ..... 1 0
0 0 0 ..... 0 1
Quindi σ è la trasformazione permutazionale su E0 che scambia E10 con E20 e
fissa tutti gli altri vettori di E0 . Viceversa, sia F = (F1 , F2 , ..., Fn ) una base di
V con le seguenti proprietà
(i) ||F1 || = ||F2 ||
(ii) Fi ⊥ F1 − F2 , (i = 3, 4, ..., n)
268 Capitolo 13
(Si noti che queste condizioni valgono per la base E0 precedentemente conside-
rata). Sia ϕ[1,2] la trasformazione permutazionale su F che scambia F1 con F2 .
Poniamo F10 = F1 − F2 , F20 = F1 + F2 ed F0 = (F10 , F20 , F3 , F4 , ..., En ). Si vede
subito che F0 è una base di V. Da (i) ed (ii) segue che F10 è ortogonale all’
iperpiano L(F20 , F3 , F4 , ..., Fn ). È anche facile vedere che ϕ[1,2] è rappresentata
rispetto ad F0 dalla matrice diagonale dg(−1, 1, 1, ..., 1, 1). Quindi è la riflessione
attorno a quell’ iperpiano. Le condizioni (i) ed (ii) valgono se F è ortonormale.
Pertanto:
Proposizione 13.27 Sia F = (Fi )ni=1 una base ortonormale di Vn (R). Al-
lora, per ogni scelta di indici distinti i, j = 1, 2, ..., n, la trasformazione per-
mutazionale ϕ[i,j] che scambia Fi con Fj è la riflessione attorno all’ iperpiano
(Fi − Fj )⊥ .
Ogni permutazione è prodotto di trasposizioni (Volume 1, Capitolo 6, Teorema
6.14). Quindi
Corollario 13.28 Ogni trasformazione permutazionale su una base ortonor-
male è un prodotto di riflessioni.
(Questo lo si poteva dedurre anche dalla Proposizione 13.26 e dal Teorema
12.26 del Capitolo 12; viceversa, dal Corollario 13.28 riotteniamo la Proposizione
13.26.)
Per esempio, in V3 (R) la rotazione di 2π/3 con asse (L(E), E) (ove E è
il vettore (1, 1, 1)) è la trasformazione permutazionale ϕ[1,2,3] sulla base dei
versori. D’ altra parte ϕ[1,2,3] = ϕ[1,3] ϕ[1,2] e le trasformazioni ϕ[1,2] , ϕ[1,3]
sono le riflessioni attorno ai piani di equazioni rispettivamente x = y ed x = z.
Quindi la rotazione ϕ[1,2,3] si ottiene componendo queste due riflessioni.
13.6.6 Rotazioni
Rotazioni lineari di V2 (R). Sia {E, F } una base ortogonale di V2 (R) con
||E|| = ||F || (per esempio, una base ortonormale). Uno solo dei due vettori E
ed F può essere portato sull’ altro con una rotazione di π/2 in senso antiorario
attorno all’ origine O. Per esempio, nella prima due figure seguenti quel vettore
è E, nella seconda è F :
F E
6 6
O• - E O• - F
Sia E1 quello dei due vettori che può essere portato sull’ altro con una rota-
zione di π/2 in senso antiorario, sia E2 l’ altro vettore e prendiamo la coppia
E = (E1 , E2 ) come base ordinata. (Per esempio, nella prima delle due figure
13.6. ESEMPI 269
precedenti E = (E, F ).) Sia ρθ una rotazione di V2 (R) di centro O ed angolo θ.
Siccome O è il suo centro, la rotazione ρθ è lineare. Risulta
ρθ (E1 ) = (cos θ)E1 + (sin θ)E2
ρθ (E2 ) = −(sin θ)E1 + (cos θ)E2
E
ρθ (E2 ) A
K 62
* ρθ (E1 )
A
A
A• -
O E1
Quindi ρθ è rappresentata rispetto ad E da questa matrice:
cos θ − sin θ
R(θ) =
sin θ cos θ
(Si noti che se scambiamo E1 con E2 dobbiamo sostituire θ con −θ.) Per
esempio, questa è la matrice R(π/2), rappresentativa della rotazione ρπ/2 di
π/2:
0 −1
1 0
Si noti che la composizione σL(E2 ) ρπ/2 di ρπ/2 con la riflessione σL(E2 ) attorno
alla retta L(E2 ) è rappresentata dall’ unica matrice permutazionale di ordine 2
diversa da I:
0 1
1 0
Questa matrice rappresenta la riflessione σL(E1 +E2 ) (cfr. §13.6.4). Pertanto si
ha che σL(E1 ) ρπ/2 = σL(E1 +E2 ) . Ma potevamo anche comporre σL(E1 ) con ρπ/2 .
Avremmo ottenuto ancora σL(E1 +E2 ) . Cioè σL(E1 +E2 ) = ρπ/2 σL(E1 ) . Dunque
ρπ/2 = σL(E2 ) σL(E1 +E2 ) = σL(E2 +E1 ) σL(E1 )
Consideriamo invece il caso di θ = π. Risulta R(π) = dg(−1, −1). La rotazione
ρπ è la simmetria centrale, cioè l’ omotetia di ragione −1. La si può ottenere
componendo due riflessioni attorno a due qualsiasi rette ortogonali passanti per
O (cfr. Capitolo 12, Esercizio 12.13).
Rotazioni lineari di V3 (R). Sia A un vettore non nullo di V3 (R) e, dato un
numero reale non negativo θ ≤ π, sia ρA,θ la rotazione di V3 (R) di angolo θ ed
asse (L(A), A). La rotazione ρA,θ è lineare. Per rappresentarla con una matrice
conviene prendere come base una terna E = (A, E1 , E2 ), ove E1 , E2 formano
una base ortogonale del piano A⊥ ed hanno la stessa norma. La rotazione ρA,θ
270 Capitolo 13
fissa il vettore A ed il piano A⊥ , operando su questo come una rotazione di
angolo θ e centro O. Quindi, se la rotazione di π/2 che porta E1 su E2 , vista da
A, appare eseguita in senso antiorario, la matrice che rappresenta ρA,θ è questa:
1 0 0
0 cos θ − sin θ
0 sin θ cos θ
Rotazioni lineari in Vn (R). Dato in Vn (R) un sottospazio lineare A di co-
dimensione 2, sia ρ una rotazione (lineare) di asse A ed angolo θ. Sceglia-
mo una base (E1 , E2 , ..., En−2 ) di A ed una base ortogonale (E, F ) di A⊥
con ||E|| = ||F || e tale che, orientato il piano A⊥ conformemente ad (E, F ),
l’ azione di ρ sul piano A⊥ sia una rotazione di θ e non di −θ. Prendiamo
(E1 , E2 , ..., En−2 , E, F ) come base per V. La matrice che rappresenta ρ rispetto
a questa base è la seguente:
1 0 ...... 0 0 0
0 1 ...... 0 0 0
..... ..... ...... ..... ..... .....
0 0 ...... 1 0 0
0 0 ...... 0 cos θ − sin θ
0 0 ...... 0 sin θ cos θ
Invece
1 0 ...... 0 0 0
0 1 ...... 0 0 0
..... ..... ...... ..... ..... .....
0 0 ...... 1 0 0
0 0 ...... 0 cos θ sin θ
0 0 ...... 0 − sin θ cos θ
rappresenta ρ−1 rispetto alla base che abbiamo scelto. (Essa rappresenta anche
ρ, ma rispetto alla base (E1 , E2 , ..., En−2 , F, E).)
13.7 Esercizi
Esercizio 13.14 Ciascuna delle seguenti formule definisce una funzione ϕ. (Le
variabili si riferiscono ad elementi di un campo K, che nelle prime sette formule
può essere scelto ad arbitrio; in (viii) e (ix) si può prendere K = R o C; si
prenda K = C in (x) e K = R in (xi) e (xii).)
(i) ϕ(x, y) = (x + y, x + y − 1),
(ii) ϕ(x) = (x, 2x, 3x, ..., nx),
(iii) ϕ(x) = (x, x2 , x3 , ..., xn ),
(iv) ϕ(x1 , x2 , ..., xn ) = 0,
(v) ϕ(x1 , x2 , ..., xn ) = 1,
(vi) ϕ(x1 , x2 , ..., xn ) = xn ,
13.7. ESERCIZI 271
Pn
(vii) ϕ(x1 , x2 , ..., xn ) = i=1 ixi−1 ,
√ i
(viii) ϕ(x, y, z) = (x 2 + e3 y, y log 2 + z sin 3),
(ix) ϕ(x, y, z) = (|x| + y, |y − z|),
(x) ϕ(x, y) = (x + y, y − z),
(xi) ϕ(x) = elog x ,
(xii) ϕ(x) = log(e−2x ).
In quali casi ϕ è una trasformazione lineare ? Nei casi in cui è lineare se ne
descriva la matrice rispetto alle basi dei versori.
Risposta. La funzione ϕ è lineare in (ii), (iv), (vi), (viii) e (xii). In (ii) la
matrice è dg(1, 2, ..., n). In (iv) si ha il funzionale lineare nullo; il vettore nullo
di Vn (K) è la matrice che lo rappresenta. Anche in (vi) abbiamo un funzionale
lineare, rappresentato dal vettore (0, 0, ..., 1) di Vn (K). In (viii) la matrice è
√
2 e3 0
0 log 2 sin 3
In (xii) si ha ϕ(x) =∀ −2x. La matrice è lo scalare −2. Si noti che in (xi)
la funzione ϕ non è l’ identità ma la restrizione dell’ identità all’ insieme dei
numeri reali positivi.
Esercizio 13.15 Dati a, b, c ∈ R, sia ϕa,b,c : R2 −→ R2 la funzione definita
dalle seguenti clausole:
ϕa,b,c (0, 0) = (0, 0),
ϕa,b,c (ρ(cos θ, sin θ)) = ρa (cos(bθ + c), sin(bθ + c)), (ρ > 0, 0 ≤ θ < 2π).
Per quali terne (a, b, c) la funzione ϕa,b,c è lineare ?
Risposta. a = b = 1. In questo caso ϕa,b,c è una rotazione di c.
Esercizio 13.16 Siano ϕ e ψ le trasformazioni lineari di V2 (R) in sè, rappre-
sentate rispettivamente dalle seguenti matrici rispetto alla base dei versori di
V2 (R):
1 1 1 −1
,
0 1 0 1
Date una descrizione geometrica di ϕ e ψ.
Risposta. Agiscono cosı̀:
A - ϕ(A) ψ(A) A
@
@
C = ϕ(C) @
• - @ • -
@ C = ψ(C)
@
-
ϕ(B) B B ψ(B)
272 Capitolo 13
Esercizio 13.17 Siano ϕ e ψ come nell’ Esercizio 13.16 e sia σ la riflessione
di V2 (R) attorno alla retta L(U ), ove U è uno dei due versori di V2 (R), non
importa quale. Verificate che ψ = ϕ−1 = σϕσ.
Esercizio 13.18 Sia ϕ come negli Esercizi 13.16 e 13.17. Verificate che, per
ogni numero intero u, ϕu è rappresentata dalla seguente matrice rispetto alla
base dei versori:
1 u
0 1
Esercizio 13.19 Sia (E1 , E2 ) una base di V2 (K). Si descriva la matrice che
rispetto a questa base rappresenta la proiezione su L(E1 ) lungo L(E1 + E2 ).
Risposta. È questa:
1 −1
0 0
Esercizio 13.20 Sia (E1 , E2 ) una base di V2 (K), con ch(K) 6= 2. Si descriva
la matrice che rispetto a questa base rappresenta la proiezione su L(E1 − E2 )
lungo L(E1 + E2 ).
Risposta. È questa:
1/2 −1/2
−1/2 1/2
Esercizio 13.21 (Restrizioni e corestrizioni) Siano H e K sottoinsiemi pro-
pri rispettivamente di {1, 2, ..., n} ed {1, 2, ..., m}. Data una matrice A ∈ Mm,n (K),
indichiamo con AK,H la matrice ottenuta cancellando da A le righe di posizione
k ∈ K e le colonne di posizione h ∈ H. (Per esempio, se m ≥ 4 ed n ≥ 3,
A{1,2,4},{2,3} , è la matrice ottenuta da A cancellando la prima, la seconda e la
quarta riga e la seconda e la terza colonna.)
Dati due spazi vettoriali V ∼ = Vn (K) e W ∼ = Vm (K), sia ϕ : V −→ W
rappresentata da A rispetto a certe basi E = (Ei )ni=1 ed F = (Fj )m j=1 di V e
W. Poniamo X = L({Ei }i6∈H ), Y = L({Fj }j6∈K ) e Z = L({Fj }j∈K ) (quindi
W = Y ⊕ Z). Si dimostri che:
(i) La matrice A∅,H rappresenta la restrizione di ϕ ad X .
(ii) Risulta Im(πYZ ϕ) ⊆ Y ed AK,∅ rappresenta la corestrizione di πYZ ϕ ad Y.
(iii) La matrice AK,H rappresenta la restrizione ad X della corestrizione di πYZ ϕ
ad Y, cioè la trasformazione da X ad Y indotta da πYZ ϕ.
Soluzione. La (i) è ovvia ed (iii) segue subito da (i) e (ii). Dimostriamo (ii).
Evidentemente, Im(πYZ ) ⊆ Y. Dato i 6∈ H, la i-esima colonna di A è la m-
pla delle coordinate di ϕ(Ei ) rispetto ad F. Se in questa m-pla sostituiamo i
termini di posto j ∈ K con 0 otteniamo la m-pla delle coordinate di πYZ (ϕ(Ei ))
e prendendo la corestrizione di πYZ ϕ a Y cancelliamo tutte le coordinate di posto
j ∈ K.
13.7. ESERCIZI 273
Esercizio 13.22 Dato un funzionale lineare ϕ di Vn (K), ove K = R oppure C,
sia A il vettore di Vn (K) che rappresenta ϕ rispetto alla base dei versori. Allora
possiamo riscrivere la (8.b) cosı̀:
ϕ(X) = hX, Ai, (se K = R)
ϕ(X) = hX, Ai, (se K = C)
Si generalizzi questa osservazione al caso di un’ arbitraria trasformazione lineare
ϕ ∈ Ln,m (K), sempre nell’ ipotesi che K = R oppure C.
Risposta. Dette A1 , A2 , ..., Am le righe della matrice che rappresenta ϕ rispetto
ai versori di Vn (R) e Vm (R), risulta
ϕ(X) = (hX, Aj i)m
j=1 , (nel caso reale)
ϕ(X) = (hX, Aj i)m
j=1 , (nel caso complesso)
Esercizio 13.23 (La matrice tutta–uno) Indichiamo con Jn la seguente ma-
trice quadrata di ordine n:
1 1 1 ..... 1 1
1 1 1 ..... 1 1
1 1 1 ..... 1 1
... ... ... ..... ... ...
1 1 1 ..... 1 1
1 1 1 ..... 1 1
(La si chiama matrice ‘tutta–uno’). Dato uno spazio vettoriale V di dimensione
n ed una sua base E = (Ei )ni=1 , sia ϕ la trasformazione
Pn lineare di V in sè
rappresentata da Jn rispetto ad E, e si ponga E = i=1 Ei . Si dimostri che
ϕ(Ei ) = E per ogni i = 1, 2, ..., n, che ϕ(E) = nE e che ϕm = nm−1 ϕ per ogni
numero naturale m > 0.
Esercizio 13.24 Siano ϕ ed E come nell’ Esercizio 13.23 e supponiamo per di
più che V sia euclideo e che la sua base E sia ortonormale. Si dimostri che per
ogni X ∈ V risulta ϕ(X) = hX, EiE.
Esercizio 13.25 Dato uno spazio euclideoPn di dimensione n < ∞ ed una sua
base ortonormale E = (Ei )ni=1 , sia E = i=1 Ei . Si trovi la matrice che rispetto
ad E rappresenta la proiezione ortogonale su E.
Risposta. È n−1 Jn . Infatti, n = hE, Ei. Quindi, se ϕ è come nell’ Esercizio
13.23, risulta
hX, Ei hX, Ei
E = E = n−1 ϕ(X)
hE, Ei n
274 Capitolo 13
Esercizio 13.26 Dati due scalari a, b ∈ K, indichiamo con Jn (a, b) la seguente
matrice di ordine n:
a b b ..... b b
b a b ..... b b
b b a ..... b b
... ... ... ..... ... ...
b b b ..... a b
b b b ..... b a
(Nello spazio vettoriale Mn (K) risulta Jn (a, b) = (a − b)In + bJn ). Dato uno
spazio vettoriale V di dimensione n su K, sia ϕ ∈ L(V) rappresentata da Jn (a, b)
rispetto ad una data base di V. Si dimostri che ϕ è invertibile se e solo se a è
diverso sia da b che da (1 − n)b. Pn
Traccia. Risulta ϕ(Ek ) = (a − b)Ek + b i=1 Ei . Si applichi il Teorema 13.19.
Esercizio 13.27 Dato uno spazio vettoriale V di dimensione finita n, una sua
base E = (Ei )ni=1 ed una permutazione α ∈ Sym(n), sia ϕα la trasformazione
permutazionale su E individuata da α. Si verifichi che vale la seguente identità:
ϕα (x1 , x2 , ..., xn ) = (xα−1 (1) , xα−1 (2) , ..., xα−1 (n) )
Esercizio 13.28 Sia ϕα come nell’ Esercizio 13.27. Data una trasformazione
lineare ϕ ∈ L(V), sia A = (ai,j )ni,j=1 la matrice rappresentativa di ϕ rispetto
alla base E e sia B = (bi,j )ni,j=1 la matrice rappresentativa di ϕ−1 α ϕϕα , sempre
rispetto ad E. Si dimostri che bi,j = aα(i),α(j) , per i, j = 1, 2, ..., n.
Esercizio 13.29 (Matrici monomiali) Sia ϕα come negli Esercizi 13.27 e
13.28 e sia ψ ∈ L(V) rappresentata rispetto alla base E da una matrice diagonale
dg(ai )ni=1 . Siano A = (ai,j )ni,j=1 e B = (bi,j )ni,j=1 le matrici che rappresentano
rispettivamente ϕα ψ e ψϕα rispetto ad E. Si dimostri che per ogni scelta di
i, j = 1, 2, ..., n risulta ai,j = aj δi,α(j) e bi,j = ai δi,α(j) .
Suggerimento. Risulta ψϕα = ϕα ϕ−1 −1
α ψϕα e la trasformazione ϕα ψϕα è
rappresentata dalla matrice dg(aα(i) )ni=1 (Esercizio 13.28). Quindi, trovata A,
da essa possiamo ricavare B.
Definizione. Matrici come quelle qui considerate si dicono monomiali.
Esercizio 13.30 Dato uno spazio vettoriale V di dimensione n < ∞, siano
ϕ, ψ ∈ L(V). Sia A = (ai,j )ni,j=1 la matrice che rappresenta ϕ rispetto ad una
data base E di V e supponiamo che, rispetto a quella base, ψ sia rappresentata
da una matrice diagonale dg(di )ni=1 . Siano B = (bi,j )ni,j=1 e C = (ci,j )ni,j=1 le
matrici che rappresentano rispettivamente ϕψ e ψϕ, sempre rispetto ad E. Si
dimostri che per i, j = 1, 2, ..., n risulta bi,j = ai,j dj e ci,j = di ai,j .
Esercizio 13.31 Siano C∞ (R) e D come in §13.2.5. Dati due numeri reali
distinti k e h, poniamo f (x) = ekx e g(x) = ehx . Risulta dim(L(f, g)) = 2
(Capitolo 4, Esercizio 4.13). Verificate che D(L(f, g)) = L(f, g) e che l’ azione
13.7. ESERCIZI 275
di D su L(f, g) è rappresentata rispetto alla base (f, g) dalla matrice diagonale
dg(k, h).
Esercizio 13.32 Con C∞ (R) e D come in §13.2.5, poniamo f (x) = ex e
g(x) = xex . Allora dim(L(f, g)) = 2 (Capitolo 4, Esercizio 4.14). Verifica-
te che D(L(f, g)) = L(f, g) e che l’ azione di D su L(f, g) è rappresentata
rispetto alla base (f, g) da questa matrice (cfr. Esercizio 13.16):
1 1
0 1
Esercizio 13.33 Siano C∞ (R) e D come in §13.2.5 e poniamo f (x) = sin x e
g(x) = cos x. Quindi, L(f, g) ∼= V2 (R) (Capitolo 4, Esercizio 4.15). Verificate
che D(L(f, g)) = L(f, g) e che l’ azione di D su L(f, g) è rappresentata rispetto
alla base (f, g) da questa matrice:
0 −1
1 0
Nota. Si tratta della stessa matrice che, rispetto alla base dei versori di V2 (R),
rappresenta una rotazione di π/2.
Esercizio 13.34 Siano f e g come in uno qualunque dei tre precedenti esercizi
e Ia abbia il senso fissato in §13.2.5. Esiste qualche numero reale a per il quale
Ia (L(f, g)) = L(f, g) ?
Risposta. No, in nessun caso.
Esercizio 13.35 Siano ϕ1 , ϕ2 , ϕ3 le trasformazioni lineari di V2 (R) in sè rap-
presentate dalle seguenti tre matrici rispetto alla base dei versori:
− cos θ sin θ cos θ sin θ cos θ sin θ
sin θ cos θ sin θ − cos θ − sin θ cos θ
Come agiscono queste tre trasformazioni lineari ?
Soluzione. ϕ3 è una rotazione di −θ. Invece ϕ1 e ϕ2 sono riflessioni, con assi
rispettivamente L(A1 ) ed L(A2 ), ove Ai = (cos ζi , sin ζi ), ζ1 = (π − θ)/2 e ζ2 =
θ/2. Che ϕ3 sia una rotazione di −θ è chiaro. Inoltre, ϕ1 e ϕ2 sono isometrie.
(Questo lo si può dimostrare con una verifica diretta, oppure componendole
con una riflessione attorno ad una qualunque delle rette generate dai versori ed
osservando che si ottiene cosı̀ una rotazione.) Siccome ϕ1 e ϕ2 sono isometrie,
sono o rotazioni o riflessioni (Capitolo 12, Proposizione 12.25). Ora è facile
concludere.
Esercizio 13.36 Sia S un iperpiano di Vn (R) passante per O. Si prenda una
base E = (E1 , E2 , ..., En−2 , E, F ) di Vn (R) con Ei ∈ S per ogni i = 1, 2, ..., n e
con E ed F di uguale norma, ortogonali tra loro ed ortogonali a tutti i vettori
Ei . Sia σS la riflessione attorno ad S. Sia dimostri che la matrice che rispetto
276 Capitolo 13
ad E rappresenta σS è la seguente, ove θ è il doppio dell’ angolo formato dalla
retta L(E, F ) ∩ S con la retta L(E).
1 0 ...... 0 0 0
0 1 ...... 0 0 0
..... ..... ...... ..... ..... .....
0 0 ...... 1 0 0
0 0 ...... 0 cos θ sin θ
0 0 ...... 0 sin θ − cos θ
Suggerimento. Esercizio 13.35.
Esercizio 13.37 Data una base ortogonale E = (Ei )ni=1 di Vn (R), per ogni
n sia σi la riflessione attorno ad Ei⊥ . Dato J ⊆ {1, 2, ..., n}, si
i = 1, 2, ..., Q
ponga σ = j∈J σj . (Non è necessario specificare in che ordine prendiamo i
fattori, dal momento che essi permutano a due a due; cfr. Capitolo 12, §12.9.6.)
Si dimostri che la matrice che rappresenta σ rispetto alla base E è dg(ai )ni=1 ,
con ai = −1 se i ∈ J ed ai = 1 altrimenti.
Esempio. Sia n = 5. Se J = {4, 5}, la matrice è dg(1, 1, 1, −1, −1). Se invece
J = {1, 3, 4} la matrice è dg(−1, 1, −1, −1, 1).
Nota. Quando J = {1, 2, ..., n} si ottiene la simmetria centrale di centro O
(Capitolo 12, Esercizio 12.13). La sua matrice è −I.
Esercizio 13.38 Siano E = (Ei )ni=1 ed N una base ortonormale ed un vetto-
re non nullo di Vn (R). Si trovi la matrice che rispetto ad E rappresenta la
riflessione attorno all’ iperpiano N ⊥ .
Risposta. Il termine di posto (i, j) è
hN, Ei ihN, Ej i
δi,j − 2
hN, N i
ove δi,j è il solito simbolo di Kronecker.
Esercizio 13.39 Sia (E1 , E2 , E3 ) una base ortonormale di V3 (R). Rispetto ad
essa, cosa rappresenta la seguente matrice ?
−1 0 0
0 cos θ − sin θ
0 sin θ cos θ
Risposta. La composizione di una rotazione di θ di asse L(E1 ) con la riflessione
attorno ad L(E2 , E3 ).
Esercizio 13.40 Sia ϕ ∈ L3 (R) rappresentata dalla matrice considerata nell’
Esercizio 13.39. Ci sono punti A 6= O tali che ϕ(A) = A ?
Risposta. No.
13.7. ESERCIZI 277
Esercizio 13.41 Sia D : P∞ (K) −→ P∞ (K) l’ operatore lineare individuato
dalle condizioni D(1) = 0 e D(xn ) = nxn−1 per n > 0. (Esso associa ad ogni
polinomio la sua derivata; Volume 2, Capitolo 6, §6.3.3). Per rappresentare D
ci vuole una ‘matrice’ N × N. Si calcoli quella che rappresenta D rispetto alla
base (xn )∞
n=0 .
Risposta. Il termine di posto (i, j) è (i + 1)δi+1,j . Cioè, la matrice è fatta cosı̀:
0 1 0 0 .......
0 0 2 0 .......
0 0 0 3 .......
... ... ... ... .......
... ... ... ... .......
Esercizio 13.42 Sia T : P∞ (K) −→ P∞ (K) la funzione che ad ogni polinomio
P (x) associa P (x + 1). Si verifichi che T è lineare e se ne calcoli la ‘matrice’
rispetto alla base (xn )∞
n=0 .
Risposta. È il triangolo di Tartaglia–Pascal:
1 1 1 1 1 .......
0 1 2 3 4 .......
0 0 1 3 6 .......
0 0 0 1 4 .......
0 0 0 0 1 .......
... ... ... ... ... .......
... ... ... ... ... .......
Esercizio 13.43 In C∞ (R) poniamo E = {cos nx}∞ ∞
n=1 ∪ {sin nx}n=1 . Questo
insieme di funzioni è indipendente (Capitolo 4, Esercizio 4.15). Per di più,
indicato con D l’ operatore di derivazione su C∞ (R), risulta D(L(E)) = L(E).
Si calcoli la ‘matrice’ che rispetto ad E rappresenta l’ azione di D su L(E).
Risposta. Ordiniamo E cosı̀: cos x, sin x, cos 2x, sin 2x, cos 3x, sin 3x, .... Allora
la matrice è questa:
0 1 0 0 0 0 0 0 .....
−1 0 0 0 0 0 0 0 .....
0 0 0 2 0 0 0 0 .....
0 0 −2 0 0 0 0 0 .....
0 0 0 0 0 3 0 0 .....
0 0 0 0 −3 0 0 0 .....
0 0 0 0 0 0 0 4 .....
0 0 0 0 0 0 −4 0 .....
... ... ... ... ... ... ... ... .....
... ... ... ... ... ... ... ... .....
Esercizio 13.44 Sia E0 = (Ej )j∈J un insieme indipendente non vuoto di vet-
tori di uno spazio vettoriale V e sia E = (Ei )i∈I una base di V contenente E0
278 Capitolo 13
(quindi J ⊆ I). Poniamo X = L(E0 ) e Y = L(E − E0 ). Cosı̀ V = X ⊕ Y. Si
Y
descriva la ‘matrice’ di πX rispetto ad E.
Risposta. È l’ insieme di funzioni {αj }j∈I ove αj (i) = 1 se i = j ∈ J, altrimenti
αj (i) = 0.
Esercizio 13.45 (Norma di una matrice) Data ϕ ∈ Ln,m (R) e scelte in
Vn (R) e Vm (R) basi ortonormali E e F, sia A = (ai,j )m,n i,j=1 la matrice che
rappresenta ϕ rispetto ad E e F. La matrice A può essere vista come un vettore
di Vmn (R) (Capitolo 1, §1.5.3). In quanto tale, ha una norma:
m,n
X
||A|| = ( a2i,j )1/2
i,j=1
Si dimostri che
||ϕ(X)|| ≤ ||A|| · ||X||, (∀X ∈ Vn (R))
Esercizio 13.46 (Continuità) Richiamo qui sotto le definizioni di continuità
ed uniforme continuità. Si dimostri che ogni trasformazione lineare da Vn (R)
a Vm (R) è uniformemente continua.
Suggerimento. Esercizio 13.45.
Definizione. Una funzione ϕ : Rn −→ Rm è detta continua se
(∀X)(∀x > 0)(∃y > 0)(∀Y )(||X − Y || < y =⇒ ||ϕ(X) − ϕ(Y )|| < x)
(ove X, Y ∈ Rn ed x, y ∈ R). Se per di più
(∀x > 0)(∃y > 0)(∀X, Y )(||X − Y || < y =⇒ ||ϕ(X) − ϕ(Y )|| < x)
allora ϕ si dice uniformemente continua.
Esercizio 13.47 Sia ϕ : Rn −→ Rm una funzione tale che
(◦ ) ϕ(X − Y ) = ϕ(X) − ϕ(Y ), (∀X, Y ∈ Rn )
Si dimostri che ϕ è lineare se e solo se è continua.
Nota. Di per sè, la condizione (◦ ) implica solo che ϕ sia una trasformazione
lineare tra le restrizioni di Vn (R) e Vm (R) a Q (cfr. Capitolo 1, Sezione 1.6
per la nozione di restrizione di uno spazio vettoriale ad un sottocampo del suo
campo di scalari). Si noti anche che, nel caso complesso, la continuità e la (◦ )
non bastano a garantire la linearità. Per esempio, la funzione che ad ogni vettore
di Vn (C) associa il suo coniugato è continua e verifica (◦ ). Però non è lineare.
Capitolo 14
L’ algebra delle
trasformazioni lineari
14.1 Spazi di trasformazioni
Siano V e W spazi vettoriali su uno stesso campo K, con insiemi di vettori V
e W, rispettivamente. Nel Capitolo 1 (§1.5.2) si è detto come sommare due
funzioni da V a W usando la somma di W, come moltiplicarle per scalari,... Si
ottiene cosı̀ uno spazio vettoriale su K: lo spazio W V di tutte le funzioni da V
a W.
Teorema 14.1 L’ insieme L(V, W) di tutte le trasformazioni lineari da V a W
è un sottospazio lineare di W V .
Dimostrazione. Intanto L(V, W) non è vuoto, perchè contiene la trasformazione
nulla OV,W . Per dimostrare il teorema dobbiamo far vedere che
aϕ + bψ ∈ L(V, W), (∀ϕ, ψ ∈ L(V, W), ∀a, b ∈ K)
(Capitolo 2, (6)). Date ϕ, ψ ∈ L(V, W) e a, b ∈ K, poniamo θ = aϕ + bψ. Per
definizione di somma di funzioni e di moltiplicazione di funzioni per scalari e
per la linearità di ϕ e ψ, per ogni scelta di X, Y ∈ V ed x, y ∈ K risulta
θ(xX + yY ) = (aϕ + bψ)(xX + yY ) =
= aϕ(xX + yY ) + bψ(xX + yY ) =
= axϕ(X) + ayϕ(Y ) + bxψ(X) + byψ(Y ) =
= x(aϕ(X) + bψ(X)) + y(aϕ(Y ) + bψ(Y )) =
= x(aϕ + bψ)(X) + y(aϕ + bψ)(Y ) = xθ(X) + yθ(Y )
Dunque aϕ + bψ è lineare (Capitolo 13, (6)). 2
Ora non è difficile vedere che le corrispondenze biunivoche stabilite nei Corollari
13.16 e 13.17 e nella Proposizione 13.25 del Capitolo 13 sono in realtà isomorfismi
279
280 Capitolo 14
tra spazi vettoriali. Riscriveremo quei risultati, analizzando anche la struttura
di quelle corrispondenze meglio di come potemmo fare nel Capitolo 13. In vista
di ciò, cominciamo con lo studio di certe funzioni tra spazi di funzioni.
14.1.1 Alcuni operatori tra spazi di funzioni
Dati due insiemi non vuoti V ed X e due spazi vettoriali W ed Y sullo stesso
campo K, sia α una trasformazione lineare da W ad Y e sia β una funzione da
X a V. Per ogni scelta di funzioni ϕ, ψ ∈ W V e di scalari x, y ∈ K risulta
(i) α·(xϕ + yψ) = xαϕ + yαψ
(ii) (xϕ + yψ)·β = xϕβ + yψβ
Per dimostrare la (i) basta osservare che per ogni X ∈ V si ha
(α·(xϕ + yψ))(X) = α((xϕ + yψ)(X)) =
= α(xϕ(X) + yψ(X)) = xα(ϕ(X)) + yα(ψ(X)) =
= (xαϕ + yαψ)(X)
Lascio la dimostrazione di (ii) al lettore. (Implicitamente, abbiamo già usato la
(ii) in §1.5.1 del Capitolo 1 per dedurre l’ isomorfismo KI ∼
= KJ dall’ uguaglianza
card(I) = card(J).) Definiamo ora due funzioni
µV
α :W
V
−→ Y V , µβW : W V −→ W X
β
ponendo µV V
α (ϕ) = αϕ e µW (ϕ) = ϕβ per ogni ϕ ∈ W . Da (i) e (ii) segue
subito che:
β
Lemma 14.2 Si ha µV V V V X
α ∈ L(W , Y ) e µW ∈ L(W , W ).
È poi ovvio che:
Corollario 14.3 Se α è un isomorfismo, allora anche µV α è un isomorfismo
V −1
e risulta (µα ) = µα−1 . Analogamente, se β è invertibile, allora µβW è un
V
−1
isomorfismo e (µβW )−1 = µβW .
(L’ implicazione card(I) = card(J) ⇒ KI ∼ = KJ dimostrata in §1.5.1 del Ca-
pitolo 1, è un caso particolare di questo corollario.) Indichiamo con µα,β la
funzione che ad ogni elemento ϕ di W V associa l’ elemento αϕβ di Y X , cioè
β β V
µα,β =def µX
α µW = µY µα
β β
Dal Lemma 14.2 e dal Corollario 14.3 (applicati a µX V
α e µW , oppure a µα e µY )
si ha subito questo:
Corollario 14.4 La funzione µα,β è una trasformazione lineare da W V ad Y X .
Se per di più α è un isomorfismo e β è invertibile, allora µα,β è un isomorfismo
e risulta µ−1
α,β = µα−1 ,β −1 .
14.1. SPAZI DI TRASFORMAZIONI 281
Dato uno spazio vettoriale W, un insieme V 6= ∅ ed un sottoinsieme non vuoto
X di V, possiamo considerare la funzione da W V a W X che ad ogni elemento di
W V associa la sua restrizione ad X. È evidente che questa è una trasformazione
lineare da W V a W X . (L’ operatore di valutazione, considerato in §13.2.2 del
Capitolo 13, è un caso particolare di restrizione: restrizione ad un singoletto.)
14.1.2 Vari isomorfismi
Possiamo ora dare formulazioni più appropriate ai risultati delle Sezioni 13.3 e
13.5 del Capitolo 13.
Dati due spazi vettoriali V e W sullo stesso campo K, indichiamo con V l’
insieme dei vettori di V. Scelta una base E di V, indichiamo con ρE l’ operatore
da W V a W E che ad ogni funzione da V a W associa la sua restrizione ad E.
Il Teorema 13.15 del Capitolo 13 può riformularsi cosı̀:
Teorema 14.5 L’ operatore ρE induce un isomorfismo da L(V, W) a W E .
Usiamo il simbolo ρE per indicare anche l’ isomorfismo da L(V, W) a W E indotto
da ρE .
Scegliere per E un insieme I di indici è dare una funzione invertibile ε da
I ad E. Cioè E = (Ei )i∈I ove Ei = ε(i). L’ operatore µεW , associando ad
ogni funzione ϕ ∈ W E la sua composizione ϕε con ε, reinterpreta le funzioni
da E a W come funzioni da I a W. La composizione µεW ρE associa ad ogni
elemento ϕ di L(V, W) la famiglia (ϕ(Ei ))i∈I dei suoi valori in E, pensata come
una funzione da I a W. Per il Corollario 14.3, l’ operatore µεW è un isomorfismo
da W E a W I . Quindi possiamo riformulare cosı̀ il Corollario 13.16 del Capitolo
13:
Corollario 14.6 L’ operatore µεW ρE è un isomorfismo da L(V, W) a W I .
Spazi duali. Dato uno spazio vettoriale V su un campo K, lo spazio vettoriale
L(V, K) dei funzionali lineari di V si chiama spazio duale di V. Per indicare il
duale di V si preferisce il simbolo V ∗ , più conciso di L(V, K). Mi adeguerò a
quest’ uso.
Scelta una base E di V, sia ancora ε una biiezione da un insieme I ad E.
Dal Corollario 14.6 si ha:
Corollario 14.7 L’ operatore µεK ρE è un isomorfismo da V ∗ a KI .
(Capitolo 13, Corollario 13.17). In particolare:
Corollario 14.8 Se dim(V) < ∞, allora V ∗ ∼
= V.
(Questo non è più vero quando dim(V) è infinita e non inferiore a card(K); cfr.
Sezione 14.6, Esercizio 14.33.)
282 Capitolo 14
Duali di spazi euclidei. Supponiamo che K sia R o C. Dato un prodotto
scalare Φ su V, indichiamo con µΦ la funzione che ad ogni vettore A di V
associa il funzionale lineare che, nel caso reale, porta X ∈ V in Φ(X, A), e nel
caso complesso porta X in Φ(X, A) (Capitolo 13, §13.2.2 ed Esercizio 13.22).
Lemma 14.9 La funzione µΦ è un operatore lineare iniettivo da V a V ∗ .
Dimostrazione. Se µΦ (A1 ) = µΦ (A2 ), allora Φ(X, A1 − A2 ) = 0 per ogni X ∈ V
e quindi A1 = A2 , per le proprietà dei prodotti scalari. Per dimostrare che µΦ
è lineare basta una verifica diretta, che lascio al lettore. (Ma lo si può anche
dedurre dal Corollario 14.7.) 2
Da questo lemma e dal Corollario 14.7 otteniamo quanto segue:
Teorema 14.10 Se dim(V) < ∞, allora µΦ è un isomorfismo da V a V ∗ .
L’ isomorfismo con Mm,n (K). Siano V e W spazi vettoriali su uno stesso
campo K, di dimensioni rispettivamente n ed m, con n, m < ∞. Scelta una
base E = (Ei )ni=1 di V ed una base F = (Fi )m
i=1 di W, sia µE,F : L(V, W) −→
Mm,n (K) la funzione che ad ogni trasformazione lineare da V a W associa la sua
matrice rappresentativa rispetto ad E ed F. La Proposizione 13.25 del Capitolo
13 può riformularsi cosı̀:
Teorema 14.11 La funzione µE,F è un isomorfismo da L(V, W) allo spazio
vettoriale Mm,n (K).
Dimostrazione. Possiamo appellarci alla Proposizione 13.25 del Capitolo 13 per
l’ invertibilità della funzione µE,F , ricorrendo poi ad una verifica diretta per la
linearità. Ma preferisco ragionare in un altro modo, ottenendo la conclusione
dai risultati dei §§14.1.1 e 14.1.2, senza usare la Proposizione 13.25 del Capitolo
13.
Posto I = {1, 2, ..., n}, indichiamo con ε la funzione da I ad E che porta i
in Ei , e sia η l’ isomorfismo da W a Vm (K) che porta il j-esimo vettore Fj di
F nel j-esimo versore di Vm (K). Consideriamo la funzione µ = µη,ε ·ρE . Essa
agisce cosı̀: presa una trasformazione lineare da V a W, prima la si restringe
ad E, poi la si vede come una n-pla di vettori di W (cioè, come una funzione
da I a W), infine si sostituiscono a questi vettori le m-ple delle loro coordinate
rispetto ad E. In definitiva, a quella trasformazione lineare abbiamo associato
la sua matrice rappresentativa, vista come una n-pla di colonne, cioè come un
vettore di (Vm (K))n . Dunque µE,F = µη,ε ·ρE . Ma ρE ed µη,ε sono isomorfismi
(Corollario 14.4 e Teorema 14.5). Quindi µE,F è un isomorfismo. 2
Dal Teorema 14.11 e dall’ isomorfismo Mm,n (K) ∼
= Vmn (K) segue che:
Corollario 14.12 dim(L(V, W)) = mn.
14.2. ALGEBRE 283
(Questo non è più vero se V o W hanno dimensioni infinite; in tal caso si può solo
dire che dim(L(V, W)) ≥ dim(V)·dim(W); cfr. Sezione 14.6, Esercizio 14.32.)
Un altro teorema d’ isomorfismo. Il Teorema 14.11 ci dice anche che, se
X ed Y sono altri due spazi vettoriali su K di dimensioni rispettivamente n ed
m, allora L(X , Y) ∼= L(V, W). Vedremo ora che per quest’ isomorfismo non c’
è bisogno che gli spazi considerati abbiano dimensione finita.
Siano V, W, X , Y spazi vettoriali sullo stesso campo K. Indichiamo con
V ed X gli insiemi di vettori di V e di X , rispettivamente. Supponiamo che
dim(V) = dim(X ) e dim(W) = dim(Y). Allora V ∼ =X eW ∼ = Y, per il Teorema
5.15 del Capitolo 5. Siano α e β isomorfismi rispettivamente da W ad Y e da
X a V. La funzione µα,β è un isomorfismo da W V ad Y X (Corollario 14.4).
Teorema 14.13 L’ isomorfismo µα,β : W V −→ Y X induce su L(V, W) un
isomorfismo con L(X , Y).
Dimostrazione. Dobbiamo solo mostrare che
(i) µα,β (L(V, W)) = L(X , Y)
Sia ϕ ∈ L(V, W). La funzione µα,β (ϕ) = αϕβ, essendo una composizione di
trasformazioni lineari, appartiene ad L(X , Y). Quindi
(ii) µα,β (L(V, W)) ⊆ L(X , Y)
Analogamente,
(iii) µα−1 ,β −1 (L(X , Y)) ⊆ L(V, W)
D’ altra parte, µα−1 ,β −1 = µ−1
α,β . Sicchè, applicando µα,β ad ambo i membri di
(iii), otteniamo che
(iv) L(X , Y)) ⊆ µα,β (L(V, W))
Mettendo insieme (ii) e (iv) si ha (i). 2
Nota. Nel §13.5.2 del Capitolo 13 abbiamo considerato una corrispondenza
−1
biunivoca tra L(V, W) ed Ln,m (K): ad α ∈ Ln,m (K) associavamo ϕA = ηW αηV ,
cioè µη−1 ,ηV (α). Questa corrispondenza è un isomorfismo del tipo considerato
W
nel Teorema 14.13.
14.2 Algebre
Possiamo ‘moltiplicare’ due trasformazioni ϕ, ψ ∈ L(V), prendendo come loro
‘prodotto’ la loro composizione ϕψ. Dunque L(V) è qualcosa di più che uno
spazio vettoriale. Per descrivere questo ‘di più’ ci serve il concetto di “algebra”.
284 Capitolo 14
Sia A uno spazio vettoriale su un campo K e sia A il suo insieme di vettori.
Supponiamo che su A sia definita anche un’ operazione π : A × A −→ A
soddisfacente le seguenti identità:
π(X, Y + Z) = π(X, Y ) + π(X, Z) (∀X, Y, Z ∈ A)
(1)
π(X + Y, Z) = π(X, Z) + π(Y, Z) (∀X, Y, Z ∈ A)
(2) π(X, xY ) = π(xX, Y ) = xπ(X, Y ), (∀X, Y ∈ A, ∀x ∈ K)
(3) π(X, π(Y, Z)) = π(π(X, Y ), Z), (∀X, Y, Z ∈ A)
Allora lo spazio vettoriale A munito dell’ operazione π è detto un’ algebra asso-
ciativa sul campo K (brevemente, un’ algebra su K). In altre parole, un’ algebra
(associativa) su un campo K è un anello (A, (+, π, −, O)) (Volume 2, Capitolo
8) munito di una operazione di moltiplicazione per scalari soddisfacente la (2) e
tale che il gruppo additivo (A, (+, −, O)) dell’ anello, con quella moltiplicazione
per scalari, formi uno spazio vettoriale su K.
L’ operazione π si chiama moltiplicazione o prodotto (tra vettori) dell’ al-
gebra A. Si usa scrivere X·Y oppure XY anzichè π(X, Y ) e si usano le solite
abbreviazioni: XY + Z anzichè (XY ) + Z, ecc. Con questa notazione le (1)-(3)
assumono questo aspetto:
X(Y + Z) = XY + XZ
(1)
(X + Y )Z = XZ + Y Z
(2) X(xY ) = x(XY ) = (xX)Y
(3) X(Y Z) = (XY )Z
Come negli anelli, la (3) ci autorizza a scrivere XY Z senza dover specificare se
con questo simbolo intendiamo X(Y Z) oppure (XY )Z. Cosı̀ possiamo anche
definire X n come il prodotto di X per sè stesso n−1 volte (come al solito), senza
dover specificare come pensiamo di raggruppare i fattori. La (2) ci autorizza poi
ad usare le scritture xXY e XxY riservandoci la libertà di interpretarle come
x(XY ), (xX)Y , (Xx)Y oppure X(xY ), a nostro comodo.
14.2.1 Qualche proprietà
Le seguenti identità (4) e (5) valgono in ogni anello (Volume 2, Capitolo 2). Ma
possiamo anche ricavarle da (2) ponendo x = 0 (per le (4)) ed x = −1 (per le
(5)).
(4) O = O·Y = X·O
(5) −(XY ) = (−X)Y = X(−Y )
(La (5) ci permette di usare la scrittura −XY riservandoci di leggerla come
−(XY ) oppure (−X)Y , a nostro comodo.) Da (5) segue subito che
(6) XY = (−X)(−Y )
14.2. ALGEBRE 285
(come in ogni anello). Dalle proprietà (1) e (2) si ottiene anche la seguente
identità, che le riassume entrambe:
n
X Xm n,m
X
(7) ( xi Xi ) · ( yi Yi ) = xi yj Xi Yj
i=1 i=1 i,j=1
Se A contiene un vettore I tale che
(8) X·I = I·X = X, (∀X ∈ A)
allora diciamo che A è un algebra con unità e chiamiamo I l’ unità di A.
Ovviamente, I 2 = I, xIX = xX,...
L’ unità di un anello, quando esiste, è unica (Volume 2, Capitolo 8, Propo-
sizione 8.8). Un’ algebra è anche un anello. Quindi, se l’ algebra A ammette
unità, questa è unica.
Se A ammette unità possiamo anche introdurre il simbolo X 0 , stabilendo
che stia a significare l’ unità di A. Con X 1 intendiamo X, come al solito.
14.2.2 Omomorfismi e isomorfismi
Date due algebre A e B sullo stesso campo K, un omomorfismo da A a B è una
trasformazione lineare da A a B che ‘conserva i prodotti’, cioè tale che
ϕ(XY ) = ϕ(X)ϕ(Y ), (∀X, Y ∈ A)
(Cfr. Volume 2, Caitolo 8, Sezione 8.8). Se per di più ϕ è invertibile, allora lo
si dice un isomorfismo (un automorfismo quando B = A). In altre parole, un
isomorfismo da un’ algebra A ad un’ algebra B è un isomorfismo dallo spazio
vettoriale A allo spazio vettoriale B che conserva i prodotti.
Si vede facilmente che la composizione di due omomorfismi è un omomorfi-
smo e che l’ inverso di un isomorfismo è un isomorfismo (cfr. Volume 2, Capitolo
8, Proposizioni 8.15 ed 8.16). Se esiste un isomorfismo dall’ algebra A all’ alge-
bra B, diciamo che le algebre A e B sono isomorfe. Scriviamo A ∼ = B per dire
che due algebre A e B sono isomorfe.
14.2.3 Sottoalgebre
Data un’ algebra A, un sottospazio lineare X dello spazio vettoriale A è detto
una sottoalgebra di A se
XY ∈ X , (∀X, Y ∈ X )
(cfr. Volume 2, Capitolo 8, Sezione 8.6). Ovviamente, se X è una sottoalgebra
di A, il prodotto di A organizza X come un’ algebra.
L’ intersezione di un’ arbitraria famiglia di sottoalgebre è una sottoalge-
bra (cfr. Volume 2, Capitolo 8, Proposizione 8.9). Cosı̀, dato un insieme X
di elementi di un’ algebra A, l’ intersezione di tutte le sottoalgebre di A che
contengono X è ancora una sottoalgebra di A. Essa è la minima tra le sot-
toalgebre di A che contengono X. La si chiama la sottoalgebra di A generata
286 Capitolo 14
da X. La indicheremo col simbolo LA (X), abbreviando LA ({X}), LA ({X, Y }),
LA ({X1 , X2 , ..., Xn }) ... in LA (X), LA (X, Y ), LA (X1 , X2 , ..., Xn ) ...
Vale l’ analoga della Proposizione 2.9 del Capitolo 2 e proprietà analoghe
alle (7)-(12), (14), (15.a) e (15.b) del Capitolo 2. (Lascio i dettagli al lettore; na-
turalmente, la Proposizione 2.9 del Capitolo 2 va riformulata cosı̀: X = LA (X)
se e solo se X è una sottoalgebra di A.)
14.2.4 Altre nozioni
Permutabilità. Si dice che due elementi A, B di un’ algebra A commutano
(permutano) se AB = BA (cfr. Volume 2, Capitolo 8, §8.2.2). Il centro di un’
algebra A è l’ insieme degli elementi di A che commutano con tutti gli altri. Si
vede facilmente che il centro di un’ algebra A è una sottoalgebra di A (come
per gli anelli) e che, se A ammette unità, questa appartiene al centro.
Se tutti gli elementi di A commutano fra loro (cioè, se A è commutativo in
quanto anello), allora A si dice commutativa.
Invertibilità. Sia A un’ algebra con unità. Sia I la sua unità. Un elemento
A di A si dice invertibile se AX = XA = I per qualche elemento X di A.
Come negli anelli, se A è invertibile allora le condizioni AX = I ed XA = I si
equivalgono e sono soddisfatte da un solo elemento X di A. (Volume 2, Capitolo
8, §§8.1.1 ed 8.2.2.) Quell’ elemento si chiama l’ inverso di A e lo si indica con
A−1 .
Sia A invertibile. Allora anche A−1 è invertibile ed (A−1 )−1 = A. Se poi
B è un altro elemento invertibile di A, allora ABB −1 A−1 = B −1 A−1 AB = I.
Quindi anche AB è invertibile ed (AB)−1 = B −1 A−1 (cfr. Volume 2, Capitolo
8, §§8.1.1 ed 8.2.2). In particolare, (An )−1 = (A−1 )n . Poniamo A−n = (An )−1
(= (A−1 )n ). Valgono le solite proprietà: Au Av = Au+v , (Au )v = Auv , ecc.
Ovviamente, I è invertibile ed I −1 = I. Quindi gli elementi invertibili di A
formano un gruppo.
Nota. Quando A consiste di funzioni da un insieme in sè con la composizione
di funzioni come prodotto (come nel caso dell’ algebra L(V), che considereremo
nella Sezione 14.3), quel che si è detto ora è solo una ripetizione di cose già dette
nel Capitolo 3 del Volume 1. Ma non tutte le algebre consistono di funzioni.
Elementi nilpotenti, periodici, ecc. Queste nozioni si definiscono in alge-
bre come in anelli (Volume 2, Capitolo 8, §§8.1.1 ed 8.2.2). Un elemento X di
un’ algebra A si dice nilpotente se X n = O per qualche numero naturale n ed
il più piccolo n per cui questo accade si chiama esponente di X (cfr. Volume 2,
Capitolo 8, §8.1.1). Un elemento X si dice idempotente se X n = X per qualche
numero naturale n > 1. Se X 6= O 6= Y ed XY = O allora si dice che X ed
Y sono divisori di zero. Se A ammette identità I, un suo elemento X si dice
periodico se X n = I per qualche numero naturale n > 0 ed il più piccolo n > 0
per cui questo accade si chiama periodo di X.
14.3. L’ ALGEBRA L(V) 287
Per esempio, l’ Esercizio 13.1 del Capitolo 13 ci dice che nell’ algebra L(V)
B
(di cui diremo nella prossima sezione) l’ elemento πA è idempotente di esponente
2 e che, se {O} =
6 A= 6 V, è un divisore di zero. Nell’ Esercizio 13.3 del Capitolo
13 si chiede invece di trovare un elemento nilpotente di esponente 2.
14.3 L’ algebra L(V)
Sia V uno spazio vettoriale su un campo K.
Teorema 14.14 Lo spazio vettoriale L(V) delle trasformazioni lineari di V in
sè, con la composizione di funzioni presa come prodotto di vettori, è un’ algebra
associativa su K.
Dimostrazione. Dobbiamo solo controllare che la composizione di trasformazioni
lineari verifica le proprietà (1)-(3) della Sezione 14.2. Che verifichi (3) è ovvio.
Ma soddisfa anche le altre: cfr. §14.1.1, (i) e (ii). Dunque abbiamo un’ algebra.
2
L’ algebra L(V) ammette anche unità: l’ identità IV . Non è commutativa, salvo
quando dim(V) = 1 (cfr. Sezione 14.6, Esercizio 14.19). Il gruppo Aut(V) degli
automorfismi di V è il gruppo degli elementi invertibili di L(V).
Sia W un altro spazio vettoriale su K, con dim(W) = dim(V). Allora W ∼ =V
(Capitolo 5, Teorema 5.15). Sia α un isomorfismo da V a W. Per il Teorema
14.13, la funzione µα,α−1 può essere vista come un isomorfismo dallo spazio
vettoriale L(V) allo spazio vettoriale L(W).
Teorema 14.15 La funzione µα,α−1 è anche un isomorfismo dall’ algebra L(V)
all’ algebra L(W) (ed induce un isomorfismo da Aut(V) ad Aut(W)).
Dimostrazione. Dobbiamo solo dimostrare che
µα,α−1 (ϕψ) = µα,α−1 (ϕ)µα,α−1 (ψ), (∀ϕ, ψ ∈ L(V))
Ma questo è vero. Infatti:
µα,α−1 (ϕψ) = αϕψα−1 = αϕα−1 αψα−1 = µα,α−1 (ϕ)µα,α−1 (ψ)
Quindi µ è anche un isomorfismo di algebre ed è ovvio che induce un isomorfismo
da Aut(V) ad Aut(W). 2
14.4 Versori
I versori di Mm,n (K). Indico con Ui,j la matrice m×n che ha 1 nella posizione
(i, j) (riga i, colonna j) e 0 in tutte le altre posizioni. Scrivendo le sue righe una
dopo l’altra, essa diventa il ((i − 1)n + j)-esimo versore di Vmn (K). (Se invece
288 Capitolo 14
mettessimo in fila le colonne una dopo l’ altra, otterremmo il ((j −1)m+i)-esimo
versore.) Per esempio, quando m = 3 ed n = 4 la matrice U2,3 è questa:
0 0 0 0
0 0 1 0
0 0 0 0
Se la mettiamo ‘in fila per righe’ essa diventa il settimo versore di V12 (K).
(Invece, con la convenzione di scrivere le colonne una dopo l’ altra otteniamo l’
ottavo versore di V12 (K).)
Insomma, abbiamo due isomorfismi ‘naturali’ tra Mm,n (K) e Vmn (K), uno
realizzato leggendo le matrici per righe, l’ altro per colonne, ed in ciascuno di
questi isomorfismi le matrici Ui,j corrispondono ai versori di Vmn (K). Dunque
esse formano una base di Mm,n (K) (Capitolo 5, Lemma 5.14). Le chiamiamo i
versori di Mm,n (K) e diciamo che Ui,j è il versore di indice (i, j). I coefficienti
ai,j di una matrice A = (ai,j )m,n
i,j=1 sono appunto le coordinate di A rispetto alla
base dei versori di Mm,n (K):
m,n
X
(9) A = ai,j Ui,j
i,j=1
Pn Pn Pn
Per esempio, In = i=1 Ui,i , dg(ai )ni=1 = i=1 ai Ui,i e Jn = i,j=1 Ui,j (ove
Jn è la matrice tutta-uno; Capitolo 13, Esercizio 13.23). Se α ∈ Sym(n) ed
Mα è la
Pnmatrice permutazionale
Pn associata ad α (Capitolo 13, §13.6.4), allora
Mα = i=1 Uα(i),i (= i=1 Ui,α−1 (i) ).
I versori di L(V, W). Dati due spazi vettoriali V e W di dimensione finita
su uno stesso campo K, siano n ed m le loro dimensioni e siano E = (Ei )ni=1 e
F = (Fi )mi=1 basi di V e di W, rispettivamente. Come in §14.1.2, indichiamo con
µE,F l’ isomorfismo da L(V, W) ad Mm,n (K) che ad ogni trasformazione lineare
da V a W associa la sua matrice rappresentativa rispetto ad E ed F, e poniamo
(10) εj,i =def µ−1
E,F (Uj,i ), (j = 1, 2, ..., m, i = 1, 2, ..., n)
ove Uj,i è il versore di Mm,n (K) di indice (j, i). Vale a dire, εj,i è la trasfor-
mazione lineare da V a W che porta Ei in Fj e tutti gli altri vettori di E nel
vettore nullo di W. Usando i simboli di Kronecker δi,h , possiamo riassumere la
definizione (10) cosı̀:
(100 ) εj,i (Eh ) = δi,h Fj , (j = 1, 2, ..., m; i, h = 1, 2, ..., n)
L’ insieme {εj,i }m,n −1
j,i=1 , essendo l’ immagine mediante l’ isomorfismo µE,F della
m,n
base {Uj,i }j,i=1 di Mm,n (K), è una base di L(V, W) (Capitolo 5, Lemma 5.14).
Diciamo che εj,i è un versore di L(V, W) rispetto ad E ed F (rispetto ad E,
quando W = V ed F = E).
Dato ϕ ∈ L(V, W), sia (aj,i )m,n
j,i=1 = µE,F (ϕ). Da (9) otteniamo:
m,n
X
(11) ϕ = aj,i εj,i
j,i=1
14.5. LA TABELLA MOLTIPLICATIVA DI L(V) 289
Cioè, la matrice rappresentativa di ϕ ci dà proprio le componenti di ϕ rispetto
alla base dei versori di L(V, W).
14.5 La tabella moltiplicativa di L(V)
Manteniamo le notazioni della sezione precedente però ora supponiamo che W =
V e prendiamo F = E. La famiglia U = (εj,i )nj,i=1 è la base dei versori di L(V)
rispetto ad E. Non è difficile vedere che
(12) εj,i εh,k = δi,h εj,k , (i, j, h, k = 1, 2, ..., n)
(Per esempio, ε2i,i = εi,i mentre se i 6= j allora ε2j,i = O). Chiamiamo le relazioni
(12) tabella moltiplicativa dell’ algebra L(V) rispetto ad U.
La tabella moltiplicativa determina il prodotto di ogni Paltra coppia di ele-
n
menti di L(V). Infatti, date due trasformazioni ϕ = j,i=1 j,i εj,i e ψ =
x
Pn
j,i=1 yj,i ε j,i da V a V, risulta
n
X n
X n
X
ϕψ = ( xj,i εj,i )( yj,i εj,i ) = xj,i yh,k εj,i εh,k =
j,i=1 j,i=1 j,i,h,k=1
n
X n
X
= xj,i yh,k δi,h εj,k = xj,i yi,k εj,k
j,i,h,k=1 j,i,k=1
Pertanto, se zj,i sono
Ple coordinate di ϕψ rispetto ad alla base U dei versori di
n
L(V), cioè se ϕψ = j,i=1 zj,i εj,i , allora:
n
X
(13) zj,k = xj,i yi,k , (j, k = 1, 2, ..., n)
i=1
14.6 Esercizi
Esercizio 14.1 Si dimostri che in L(V) valgono le seguenti identità:
(ϕ + ψ)2 = ϕ2 + ϕψ + ψϕ + ψ 2
(ϕ − ψ)(ϕ + ψ)P= ϕ2+ ϕψ − ψϕ − ψ 2
n n n−i i
(ϕ + aI)n = i=0 i a ϕ
n n
Pn−1 n−1−i i
ϕ − a I = (ϕ − aI) i=0 a ϕ
Esercizio 14.2 Si dimostri che le seguenti condizioni sono equivalenti per due
elementi ϕ, ψ di L(V):
ϕψ = ψϕ;
(ϕ + ψ)2 = ϕ2 + 2ϕψ + ψ 2 ;
ϕ2 − ψ 2 = (ϕ − ψ)(ϕ + ψ).
290 Capitolo 14
Esercizio 14.3 Si dimostri che, se due elementi ϕ e ψ di L(V) commutano,
allora
Pn n i n−i
(ϕ + ψ)n = i=0 i ϕ ψ
Pn−1
ϕ − ψ = (ϕ − ψ) i=0 ϕi ψ n−1−i
n n
Esercizio 14.4 Date ϕ, ψ ∈ L(V), si dimostri che, se ϕ e ψ sono nilpotenti e
se commutano, allora tanto ϕ + ψ che ϕψ sono nilpotenti, con esponenti che
non superano rispettivamente il massimo ed il minimo tra gli esponenti di ϕ e
ψ.
Suggerimento. Per ϕ + ψ: Esercizio 14.3.
Esercizio 14.5 Data un’ algebra A, sia X un insieme non vuoto di elementi di
A. Si dimostri che la sottoalgebra LA (X) di A generata da X consiste di tutte
le combinazioni lineari di prodotti di elementi di X.
Esercizio 14.6 Sia A un’ algebra con unità e sia I la sua unità. Si dimostri
che LA (I) è commutativa e che coincide col sottospazio lineare L(I) dello spazio
vettoriale A.
Esercizio 14.7 Siano A ed I come nell’ esercizio precedente e sia A un ele-
mento di A. Si dimostriPche LA (I, A) è commutativa e che consiste di tutti gli
n
elementi di A del tipo i=0 ai Ai , con n ∈ N ed a0 , a1 , ..., an ∈ K, ove K è il
campo degli scalari di A. Cioè, LA (I, A) è il sottospazio lineare L({An }∞
n=0 )
dello spazio vettoriale A.
Esercizio 14.8 Siano A ed I come nell’ Esercizio 14.6 e siano A, B ∈ A. Si
dimostri che, se A e B commutano,
Pn,m allora LA (I, A, B) è commutativa e consi-
ste degli elementi del tipo i,j=0 ai,j Ai B j . (Cioè, LA (I, A, B) è il sottospazio
lineare L({An B m }∞
n,m=0 ) dello spazio vettoriale A).
Esercizio 14.9 Data A come nell’ Esercizio 14.6, sia A ∈ A nilpotente. Si
dimostri che tutti gli elementi dell’ algebra LA (A) sono nilpotenti.
Suggerimento. Esercizio 14.4.
Esercizio 14.10 Per ogni a ∈ K, sia Ta : P∞ (K) −→ P∞ (K) la funzione che
porta ogni polinomio P (x) ∈ P∞ (K) nel polinomio P (x + a) (in particolare,
T1 è l’ operatore T considerato nell’ Esercizio 13.42 del Capitolo 13 e T0 è l’
identità). Si verifichi che Ta è lineare.
Esercizio 14.11 Sia D l’ operatore di derivazione su L(P∞ (K)) (Capitolo 13,
Esercizio 13.41) e sia Ta l’ operatore considerato nell’ Esercizio 14.10. Suppo-
nendo ch(K) = 0 si dimostri che, per ogni scelta di numeri naturali n ed m con
m ≥ n, la restrizione a Pn (K) dell’ operatore
m
X (aD)k
k!
k=0
14.6. ESERCIZI 291
coincide con quella di Ta .
Notazione esponenziale. Per questa ragione Ta viene indicato col simbolo
∞
X (aD)n
n=0
n!
che viene anche abbreviato in eaD . Si noti che Ta Tb = Ta+b . In notazione
esponenziale, eaD ebD = e(a+b)D .
Più in generale, dato uno spazio vettoriale V ed un operatore ϕ ∈ L(V),
supponiamo che ϕ sia localmente nilpotente, cioe che, per ogni X ∈ V, esista un
numero naturale n tale che ϕn (X) = O. Allora possiamo definire l’ operatore
∞
X ϕn
eϕ =
n=0
n!
Non è difficile dimostrare che, se ϕ, ψ ∈ L(V) sono localmente nilpotenti e se
commutano, allora eϕ eψ = eψ eϕ = eϕ+ψ .
Esercizio 14.12 Dato uno spazio vettoriale V, sia V = A ⊕ B una sua decom-
posizione in somma diretta. Si dimostri che IV = πBA + πA
B
.
Esercizio 14.13 Dato in Vn (R) un vettore N 6= O, poniamo S = N ⊥ . Sia σ
L(N ) S
la riflessione attorno ad S. Si dimostri che σ = πS − πL(N ).
S
Soluzione. Risulta σ = I − 2πL(N ) (Capitolo 12, (6) con P = O). L’ Esercizio
14.12 ci dà la conclusione.
Esercizio 14.14 Dato uno spazio vettoriale V di dimensione n < ∞, indi-
chiamo con εj,i i versori di L(V) rispetto ad una sua base E = (Ei )ni=1 , co-
me nella Sezione 14.4. Verificate che εi,i è la proiezione di V su L(Ei ) lungo
L(E1 , ..., Ei−1 , Ei+1 , ..., En ).
Esercizio 14.15 Dati V ed E come nell’ Esercizio 14.14, sia ϕ[i,j] la matrice
permutazionale su E associata alla trasposizione che scambia i con j. Verificate
che εj,i = ϕ[i,j] εi,i = εj,j ϕ[i,j] .
Esercizio 14.16 Sia E come negli Esercizi 14.14 e 14.15. Data ϕ ∈ L(V), sia
A = (aj,i )nj,i=1 la matrice che rappresenta ϕ rispetto ad E. Verificate che:
n
X n
X
ϕεj,i = ah,j εh,j e εj,i ϕ = ai,h εi,h
h=1 h=1
Esercizio 14.17 Siano V e W spazi vettoriali su uno stesso campo K, con uno
almeno dei due di dimensione infinita. Scelta una base E = (Ei )i∈I di V ed una
base F = (Fj )j∈J di W, indichiamo ancora con εj,i la trasformazione lineare da
V a W che porta Ei in Fj e tutti gli altri vettori di E nel vettore nullo di W.
Si dimostri che l’ insieme U = {εj,i }j∈J,i∈I è indipendente.
292 Capitolo 14
Nota. Però quando V ha dimensione infinita U non è una base di L(V). Per
esempio, se V ha dimensione infinita la trasformazione che porta tutti i vettori
di E in uno stesso vettore di W non appartiene ad L(U).
Esercizio 14.18 Nell’ Esercizio 14.17 si assuma W = V ed F = E. Si dimostri
che
εj,i εh,k = δi,h εj,k , (i, j, h, k ∈ I)
e se ne deduca che L(U) è una sottoalgebra di L(V).
Esercizio 14.19 Dato uno spazio vettoriale V, indichiamo con Z(L(V)) il cen-
tro dell’ algebra L(V). Si dimostri che Z(L(V)) = L(IV ). (Cioè, Z(L(V))
consiste solo di OV e delle omotetie; cfr. Esercizio 14.6.)
Traccia. Nel caso di dimensione finita possiamo usare l’ Esercizio 14.15. Op-
pure l’ Esercizio 13.28 del Capitolo 13 supponendovi ϕ = ϕ−1 α ϕϕα e verificando
poi che, se dim(V) > 1, la matrice tutta-uno non sta in Z(L(V)). Il caso di
dimensione infinita può essere trattato allo stesso modo, con qualche modifica.
Esercizio 14.20 Fermo su Z(L(V)) il senso stabilito nell’ Esercizio 14.19, si
dimostri che Z(L(V)) \ {O} è il centro del gruppo Aut(V), cioè che il centro di
Aut(V) consiste solo delle omotetie. (Cfr. Volume 2, Capitolo 8, §8.3.3 per la
definizione di centro di un gruppo.)
Suggerimento. Si usi l’ Esercizio 13.28 del Capitolo 13, come suggerito per l’
Esercizio 14.19.
Esercizio 14.21 Sia V uno spazio vettoriale di dimensione 2 su un campo K
di caratteristica 6= 2. Si ponga η1,1 = ε1,1 , η2,2 = ε2,2 , η1,2 = ε1,2 + ε2,1 ed
η2,1 = ε1,2 − ε2,1 , ove ε1,1 , ε1,2 , ε2,1 ed ε2,2 sono i versori di L(V) rispetto ad
una data base di V. Verificate che {ηi,j }2i,j=1 è una base di L(V) ed esprimete i
sedici prodotti ηi,j ηh,k come combinazioni lineari di η1,1 , η1,2 , η2,1 ed η2,2 .
Esercizio 14.22 Dati tre spazi vettoriali V, W ed U di dimensione rispettiva-
mente n, m ed s sullo stesso campo K, siano (εj,i )m,n s,m s,n
j,i=1 , (ηj,i )j,i=1 e (ξj,i )j,i=1 le
basi di versori di L(V, W), L(W, U) ed L(V, U) rispettivamente, relative a certe
basi di V, W, U. Si verifichi che
(14) ηj,i εh,k = δi,h ξj,k
per k = 1, 2, ..., n, h, i = 1, 2, ..., m e j = 1, 2, ..., s.
Esercizio 14.23 Ferme le notazioni dell’ Esercizio 14.22, siano
Pm,n Ps,m
ϕ = j,i=1 xj,i εj,i , ψ = j,i=1 yj,i ηj,i
trasformazioni lineari rispettivamente da V a W e da W ad U. Si dimostri che
s,n X
X m
(15) ψϕ = ( yj,i xi,k )ξj,k
j,k=1 i=1
14.6. ESERCIZI 293
Esercizio 14.24 Si dimostri che una trasformazione lineare ϕ ∈ L(V) è iniet-
tiva se e solo se ξϕ = IV per qualche ξ ∈ L(V).
Traccia. Il “se” è ovvio. Viceversa, ϕ sia iniettiva. Data una base E di V, l’
insieme ϕ(E) è indipendente (Capitolo 13, Teorema 13.20). Quindi è contenuto
in qualche base F di V. Poniamo ξ(F ) = ϕ−1 (F ) per ogni F ∈ ϕ(E) e ξ(F ) = O
per ogni F ∈ F \ ϕ(E). Per il Teorema 13.15 del Capitolo 13 ...
Esercizio 14.25 Si dimostri che una trasformazione lineare ϕ ∈ L(V) è suriet-
tiva se e solo se ϕξ = IV per qualche ξ ∈ L(V).
Traccia. Il “se” è ovvio. Viceversa, ϕ sia suriettiva. Data una base E di V,
l’ insieme ϕ(E) genera V e pertanto contiene qualche base F di V. Per ogni
F ∈ F, scegliamo B ∈ ϕ−1 (F ) e poniamo ξ(F ) = B. Per il Teorema 13.15 del
Capitolo 13 ...
Esercizio 14.26 Si dimostri che, se dim(V) < ∞, una trasformazione lineare
ϕ ∈ L(V) è invertibile se e solo se esiste qualche ξ ∈ L(V) tale che ξϕ = IV
oppure ϕξ = IV .
Suggerimento. Si usino gli Esercizi 14.24 e 14.25 ed il Corollario 13.23 del
Capitolo 13.
Esercizio 14.27 Siano V, X, W, Y, α e β come in §14.1.1. Si dimostrino le
due seguenti affermazioni:
(i) Se α è iniettiva e β è suriettiva, allora µα,β è iniettiva.
(ii) Se α è suriettiva e β è iniettiva, allora µα,β è suriettiva.
Esercizio 14.28 Siano V, W, X ed Y spazi vettoriali su uno stesso campo K
e siano α ∈ L(W, Y) e β ∈ L(X , V). La funzione µα,β induce da L(V, W) ad
L(X , Y) una trasformazione lineare, diciamola µ. Si dimostri che µ è iniettiva
se e solo se α è iniettiva e β è suriettiva.
Nota. La parte “se” di questa affermazione è la (i) dell’ Esercizio 14.26.
Esercizio 14.29 Siano V, W, X , Y, α, β e µ come nell’ esercizio precedente,
con dim(Y) > 0. Si dimostri che µ è suriettiva se e solo se α è suriettiva e β è
iniettiva.
Esercizio 14.30 Dati due spazi vettoriali V e W sullo stesso campo e due
sottospazi lineari X e Y di V, siano θ ∈ L(X , W) e ζ ∈ L(Y, W) tali che
θ|X ∩Y = ζ|X ∩Y . Si dimostri che esiste una trasformazione lineare ϕ : V → W
tale che ϕ|X = θ e ϕ|Y = ζ e che, se X + Y = V, di trasformazioni lineari
siffatte ce n’ è una sola.
Esercizio 14.31 Siano V, W spazi vettoriali su uno stesso campo K, entrambi
di dimensione > 0, e sia X un sottospazio lineare proprio di V. Si dimostri
che l’ operatore di restrizione ρX : L(V, W) −→ L(X , W) è suriettivo ma non
iniettivo.
Traccia. Si consideri un complementare Y di X in V. Per l’ Esercizio 14.30,
date θ ∈ L(X , W) e ζ ∈ L(Y, W) esiste ...
294 Capitolo 14
Esercizio 14.32 Si dimostri che
card(W)dim(V) = card(L(V, W)) ≥ dim(L(V, W)) ≥ dim(V) · dim(W)
Suggerimento. Esercizio 14.17 e Teorema 13.15 del Capitolo 13. (Cfr. anche
Capitolo 13, Esercizio 13.12.)
Esercizio 14.33 Sia V uno spazio vettoriale su un campo K. Si dimostri che,
se dim(V) è infinita e non inferiore a card(K), allora
dim(V ∗ ) = card(V ∗ ) = card(K)dim(V) > dim(V)
Suggerimento. Esercizio 14.29 ed Esercizio 13.12 del Capitolo 13. (Cfr. anche
Capitolo 13, Esercizio 13.13.)
Esercizio 14.34 Sia A un anello con unità, contenente un campo K come sot-
toanello. Per esempio, un anello di polinomi a coefficienti in K. Oppure un’
estensione di K (Volume 2, Capitolo 2) o un suo ampliamento (Volume 2, Ca-
pitolo 8, §8.1.6). Oppure un prodotto di copie di K, cioè l’ anello di tutte le
funzioni da un dato insieme non vuoto a K (Volume 2, Capitolo 8, §§8.1.4 ed
8.2.3).
Si provi che A è un’ algebra a coefficienti in K e che K è il sottospazio lineare
dello spazio vettoriale A generato dall’ unità di A.
Nota. Viceversa, ogni algebra A su un campo K, provvista di unità, può vedersi
come un anello con unità contenente K: basta identificare K con il sottospazio
lineare generato dall’ unità di A.
Esercizio 14.35 Si mostri che su ogni spazio vettoriale si può definire un
prodotto in modo da ottenere un’ algebra associativa e commutativa con unità.
Soluzione.
P Dato uno spazio Pvettoriale V e una sua base (EiP)i∈I , per ogni scelta
di X = i∈I xi Ei ed Y = i∈I yi Ei in V poniamo XY = i∈I xi yi Ei ...
Nota. Se non si pretende un’ algebra con unità, le cose sono ancora più facili:
basta porre XY = O sempre.
Capitolo 15
L’ algebra delle matrici
15.1 L’ algebra Mn (K)
Per completare il quadro composto nei Capitoli 13 e 14 resta da definire un pro-
dotto nello spazio vettoriale Mn (K) in modo tale che Mn (K), con quel prodotto,
diventi un’ algebra isomorfa ad L(V), ove V è un qualunque spazio vettoriale
di dimensione n su K. Insomma, dobbiamo ‘ricopiare’ in Mn (K) il prodotto di
L(K). Spieghiamo prima cosa sia questo ‘ricopiare’, in generale.
15.1.1 Ricopiando algebre in spazi vettoriali
Nel seguito, dato in uno spazio vettoriale A un prodotto π che organizzi A come
un’ algebra, indicherò quest’ algebra con (A, π).
Sia dunque (A, π) un’ algebra. Dato uno spazio vettoriale B isomorfo ad A,
sia ϕ un isomorfismo da A a B. Definiamo un’ operazione πϕ su B in questo
modo:
(∗) πϕ (U, V ) =def ϕ(π(ϕ−1 (U ), ϕ−1 (V ))), (U, V ∈ B)
Sostituendo ϕ(X) e ϕ(Y ) ad U e V e scrivendo brevemente XY anzichè π(X, Y ),
possiamo riformulare la (∗) cosı̀:
(?) πϕ (ϕ(X), ϕ(Y )) = ϕ(XY ), (∀X, Y ∈ A)
Proposizione 15.1 L’ operazione πϕ verifica le (1), (2) e (3) del Capitolo 14.
Dimostrazione. Controlliamo la prima delle due proprietà (1) del Capitolo 14.
Dati U, V, W ∈ B, poniamo X = ϕ−1 (U ), Y = ϕ−1 (V ) e Z = ϕ−1 (W ). Risulta
πϕ (U, V + W ) = ϕ(ϕ−1 (U ) · ϕ−1 (V + W )) =
= ϕ(X(ϕ−1 (V ) + ϕ−1 (W ))) = ϕ(X(Y + Z)) =
= ϕ(XY + XZ) = ϕ(XY ) + ϕ(XZ) = πϕ (U, V ) + πϕ (U, W )
295
296 Capitolo 15
La seconda delle (1) si dimostra allo stesso modo. Lasciando la (2) del Capitolo
14 al lettore, passo alla (3).
πϕ (U, πϕ (V, W )) = ϕ(ϕ−1 (U ) · ϕ−1 (πϕ (V, W ))) =
= ϕ(X · ϕ−1 (ϕ(Y Z))) = ϕ(X(Y Z)).
Analogamente, πϕ (πϕ (U, V ), W ) = ϕ((XY )Z). Quindi
πϕ (U, πϕ (V, W )) = πϕ (πϕ (U, V ), W )
perchè X(Y Z) = (XY )Z. E anche la (3) è dimostrata. 2
Dunque πϕ organizza B come un’ algebra e (?) ci dice che:
Proposizione 15.2 La trasformazione ϕ è un isomorfismo da (A, π) all’ alge-
bra (B, πϕ ). Anzi, πϕ è l’ unico prodotto π 0 su B per cui ϕ risulti un isomorfismo
da (A, π) a (B, π 0 ).
15.1.2 Ricopiando L(V) in Mn (K)
Dato un campo K e uno spazio vettoriale V di dimensione n su K, sia E una
base di V. Semplificando un po’ il simbolismo usato nel Capitolo 14 (§14.1.2),
indichiamo con µE l’ isomorfismo dallo spazio vettoriale L(V) ad Mn (K) che
ad ogni ϕ ∈ L(V) associa la matrice (quadrata di ordine n) che rappresenta ϕ
rispetto ad E. Poniamo:
(1) AB =def µE (µ−1 −1
E (A) · µE (B)), (A, B ∈ Mn (K))
(cioè, AB è la matrice che rappresenta la composizione delle trasformazioni
rappresentate da A e B). Per la Proposizione 15.1, questo prodotto organizza
Mn (K) come un’ algebra. Per la Proposizione 15.2, quest’ algebra è isomorfa ad
L(V) e questo è l’ unico modo di organizzare Mn (K) come un’ algebra in modo
che µE risulti un isomorfismo di algebre. L’ algebra Mn (K) ammette anche
unità: la matrice identità I (che rappresenta l’ identità di L(V)).
Rimando al Capitolo 14 (§14.2.4) per le nozioni di permutabilità, invertibi-
lità, ecc. Per l’ isomorfismo tra L(V) ed Mn (K), due matrici di Mn (K) com-
mutano se e solo se commutano le trasformazioni che esse rappresentano. Una
matrice A ∈ Mn (K) è invertibile se e solo se rappresenta un automorfismo di V.
Se A e B sono matricici invertibili di Mn (K) e se α e β sono gli automorfismi di
V rappresentati rispettivamente da A e da B, allora AB (che è invertibile) rap-
presenta αβ, mentre l’ inversa A−1 di A rappresenta α−1 . Insomma, le matrici
invertibili formano un gruppo isomorfo ad Aut(V).
15.1.3 La tabella moltiplicativa di Mn (K)
L’ isomorfismo µE porta i versori di L(V) rispetto ad E nei versori Ui,j di Mn (K).
La tabella moltiplicativa di L(V) (Capitolo 14, (12)) si traduce in Mn (K) nelle
15.2. ESEMPI 297
seguenti relazioni, che chiamiamo tabella moltiplicativa di Mn (K) (rispetto ai
versori):
(2.1) Uj,i Uh,k = δi,h Uj,k , (i, j, h, k = 1, 2, ..., n)
Come la tabella moltiplicativa di L(V) determina completamente il prodotto
in L(V), allo stesso modo la tabella moltiplicativa (2.1) di Mn (K) determina il
prodotto di ogni coppia di matrici di Mn (K). Infatti, date in Mn (K) due matrici
n
X n
X
A = (ai,j )ni,j=1 = aj,i Uj,i , B = (bi,j )ni,j=1 = bi,j Ui,j
i,j=1 i,j=1
da (2.1) si deduce che
n
X Xn
AB = ( aj,i bi,k )Uj,k
j,k=1 i=1
cioè AB = (cj,k )nj,k=1 , ove
n
X
(2.2) cj,k = aj,i bi,k , (j, k = 1, 2, ..., n)
i=1
(Del resto, questo
Pn lo si poteva anchePn dedurre dalle (13) del Capitolo 14 e dal
fatto che µE ( i,j=1 xi,j εi,j ) = i,j=1 xi,j Ui,j .) Per esempio, quando n = 2
abbiamo:
a1,1 a1,2 b1,1 b1,2
· =
a2,1 a2,2 b2,1 b2,2
a1,1 b1,1 + a1,2 b2,1 a1,1 b1,2 + a1,2 b2,2
=
a2,1 b1,1 + a2,2 b2,1 a2,1 b1,2 + a2,2 b2,2
Quando K = R le (2.2) possono leggersi cosı̀: il coefficiente di AB di posto (j, k)
è il prodotto scalare (standard) della j-esima riga di A per la k-esima colonna
di B.
È evidente che il prodotto che abbiamo definito in Mn (K) non dipende dalla
scelta di V e di E, anche se a questa scelta ci siamo appoggiati nella definizione
(1). Esso infatti è completemente determinato da (2.1) (equivalentemente, da
(2.2)). E in (2.1) (in (2.2)) non c’ è più nulla che rimandi a V o ad E.
15.2 Esempi
Tutte le matrici che consideriamo nel seguito sono quadrate, dello stesso ordine
e con coefficienti presi da uno stesso campo K, dato una volta per tutte.
298 Capitolo 15
15.2.1 Prodotti e inverse di matrici diagonali
La seguente identità è implicita in quel che si è detto nel §13.6.2 del Capitolo
13 (ma la si può anche dedurre da (2.2)):
(3.1) dg(ai )ni=1 dg(bi )ni=1 = dg(ai bi )ni=1
Quindi due matrici diagonali commutano sempre e (come già si è osservato in
§13.6.2 del Capitolo 13) una matrice diagonale dg(ai )ni=1 è invertibile se e solo
se tutti i suoi coefficienti ai sono 6= 0. Se questo è il caso, allora
(3.2) (dg(ai )ni=1 )−1 = dg(a−1 n
i )i=1
(Insomma, le matrici diagonali di Mn (K) formano una sottoalgebra di Mn (K)
e quelle invertibili formano un gruppo commutativo isomorfo al prodotto carte-
siano di n copie del gruppo moltiplicativo di K.) Da (2.2) si deducono anche le
seguenti identità (cfr. Capitolo 13, Esercizio 13.30):
dg(ai )ni=1 ·(bi,j )ni,j=1 = (ai bi,j )ni,j=1
(3.3)
(bi,j )ni,j=1 ·dg(aj )nj=1 = (bi,j aj )ni,j=1
Cioè, moltiplicando una matrice B a sinistra per una matrice diagonale A si
moltiplicano le righe di B per i coefficienti di A. Se invece si moltiplica B per
A a destra, sono le colonne di B che vengono moltiplicate per i coefficienti di A.
Dalle (3.3) segue che una matrice diagonale dg(ai )ni=1 permuta con un’ altra
matrice B = (bi,j )ni,j=1 se e solo se
(3.4) ai 6= aj ⇒ bi,j = bj,i = 0
Da questo segue che
Proposizione 15.3 Il centro di Mn (K) è costituito dalle matrici scalari.
(Cfr. anche Capitolo 14, Esercizio 14.19.)
15.2.2 Prodotti e inverse di matrici permutazionali
Sia α ∈ Sym(n), sia Mα la matrice permutazionale associata ad α (Capitolo
13, §13.6.4) e sia A = (ai,j )ni,j=1 una qualunque matrice quadrata di ordine n.
Dalle (2.2) si deduce che
Xn Xn
(4.1) AMα = ai,α(j) Ui,j , Mα A = aα−1 (i),j Ui,j
i,j=1 i,j=1
(cfr. Capitolo 13, Esercizio 13.29 per un caso particolare di queste identità, con
A diagonale). In quel che si è detto in §13.6.4 del Capitolo 13 è implicito che
(4.2) Mα−1 = Mα−1
Da ciò e da (4.1) si deduce subito che:
n
X
(4.3) Mα−1 AMα = aα(i),α(j) Ui,j
i,j=1
(cfr. Capitolo 13, Esercizio 13.28.)
15.2. ESEMPI 299
15.2.3 Matrici triangolari
Si dice che una matrice quadrata è triangolare superiore se tutti i suoi termini
di posto (i, j) con i > j sono nulli, cioè se ha questo aspetto:
a1,1 a1,2 a1,3 ..... a1,n−1 a1,n
0 a2,2 a2,3 ..... a2,n−1 a2,n
0 0 a3,3 ..... a3,n−1 a3,n
... .... .... ..... ..... .....
0 0 0 ..... an−1,n−1 an−1,n
0 0 0 ..... 0 an,n
I coefficienti a1,1 , a2,2 , ..., an,n formano la cosidetta ‘diagonale principale’. Usan-
do la (2.2) si può dimostrare che il prodotto di due matrici triangolari superiori
dello stesso ordine è ancora triangolare superiore e che i coefficienti sulla dia-
gonale principale della matrice prodotto sono i prodotti degli elementi sulle
diagonali principali dei due fattori:
a1 ∗ ..... ∗ b1 ∗ ..... ∗
0
a2 ..... ∗ 0
· b2 ..... ∗ =
... .... ..... ... ... .... ..... ...
0 0 ..... an 0 0 ..... bn
a1 b1 ∗ ..... ∗
0 a2 b2 ..... ∗
=
.....
..... ..... .....
0 0 ..... an bn
(ove abbrevio ai,i e bi,i in ai e bi e con ∗ intendo dire “qualche valore, non ci
interessa quale”). Si dice invece che una matrice quadrata è triangolare inferiore
se tutti i suoi termini di posto (i, j) con i < j sono nulli, cioè se ha questo aspetto:
a1 0 0 ..... 0 0
∗ a2 0 ..... 0 0
∗ ∗ a3 ..... 0 0
... ... ... ..... ... ...
∗ ∗ ∗ ..... an−1 0
∗ ∗ ∗ ..... ∗ an
Il prodotto di due matrici triangolari inferiori dello stesso ordine è una matrice
triangolare inferiore e sulla sua diagonale principale troviamo i prodotti dei coef-
ficienti sulle diagonali principali dei due fattori, come per le matrici triangolari
superiori.
300 Capitolo 15
15.2.4 Matrici a blocchi in diagonale
Si dice che una matrice quadrata di ordine n > 1 è conformata a blocchi in dia-
gonale se consiste di un certo numero m > 1 di matrici quadrate A1 , A2 , ..., Am
disposte sulla diagonale principale, tutto il resto essendo 0:
A1 O O ..... O O
O A2 O ..... O O
O O A3 ..... O O
.... .... .... ..... .... ....
O O O ..... Am−1 O
O O O ..... O Am
Per esempio, le due seguenti matrici d’ ordine 4 sono conformate a blocchi in
diagonale, ciascuna con due blocchi d’ ordine 2:
1 1 0 0 0 1 0 0
0 1 0 0 1 0 0 0
0 0 1 0 0 0 0 1
0 0 1 1 0 0 1 0
Anche la seguente matrice è conformata a blocchi in diagonale:
0 1 0 ..... 0 0
1 0 0 ..... 0 0
0 0 1 ..... 0 0
... ... .... ..... ... ...
0 0 0 ..... 1 0
0 0 0 ..... 0 1
Detto n il suo ordine, essa consiste del blocco
0 1
1 0
seguito dal blocco In−2 (o da n − 2 blocchi di ordine 1 formati dal valore 1,
se cosı̀ preferiamo vederla; infatti, ogni matrice diagonale è anche a blocchi in
diagonale, con tutti i blocchi di ordine 1).
Indichiamo con dg(A1 , A2 , ..., Am ) (brevemente, dg(Ai )m i=1 ) la matrice a bloc-
chi in diagonale formata da m blocchi A1 , A2 ,..., Am . Evidentemente, l’ ordine
della matrice dg(Ai )m
i=1 è la somma degli ordini dei blocchi A1 , A2 ,..., Am .
Per le matrici a blocchi in diagonale valgono proprietà simili a quelle che
abbiamo stabilito per matrici diagonali. Precisamente, date due matrici con-
formate a blocchi in diagonale dg(Ai )m m
i=1 e dg(Bi )i=1 , ciascuna con m blocchi e
con Ai e Bi dello stesso ordine per ogni i = 1, 2, ..., m, risulta
(5.1) dg(Ai )m m m
i=1 · dg(Bi )i=1 = dg(Ai Bi )i=1
e dg(Ai )mi=1 è invertibile se e solo se tutti i suoi blocchi sono invertibili. Se
questo è il caso, allora
(5.2) (dg(Ai )m
i=1 )
−1
= dg(A−1 m
i )i=1
15.3. MATRICI INVERSE 301
Le matrici dg(Ai )m m
i=1 e dg(Bi )i=1 commutano se e solo se Ai e Bi commutano
per ogni i = 1, 2, ..., m. Per esempio, date due matrici quadrate A e B di
ordini rispettivamente h e k, le matrici dg(Is , A, Ik ) e dg(Is , Ih , B) commutano,
e risulta
(5.3) dg(Is , A, Ik ) · dg(Is , Ih , B) = dg(Is , A, B)
15.3 Matrici inverse
Combinando i Corollari 13.22 e 13.23 del Capitolo 13 con la (11) del Capitolo
13 si ottiene subito che:
Proposizione 15.4 Una matrice quadrata A di ordine n è invertibile se e solo
se rank(A| ) = n.
Sia A = (ai,j )ni,j=1 invertibile. La sua inversa è quella matrice X = (xi,j )ni,j=1
tale che AX = I. Per la (2.2), la condizione AX = I si traduce nel seguente
sistema di n2 equazioni nelle n2 incognite xi,k :
n
X
(6) aj,i xi,k = δj,k , (j, k = 1, 2, ..., n)
i=1
Risolvendolo, troviamo l’ inversa di A. (Ovviamente, il sistema (6) è determi-
nato; infatti A è invertibile per ipotesi, e la sua inversa è unica). Comunque,
risolvere il sistema (6) non è quasi mai il modo più conveniente di calcolare
inverse. In §15.3.2 descriveremo un metodo più spiccio. Ma vediamo prima il
caso particolare di matrici di ordine 2, che può esaminarsi agevolmente senza
far ricorso al metodo di §15.3.2.
15.3.1 Il caso di n = 2
Sia A una matrice d’ ordine 2,
a b
A =
c d
Per la Proposizione 15.4, A è invertibile se e solo se rank(A| ) = 2, cioè se e solo se
le sue due colonne non sono proporzionali. È facile vedere che la proporzionalità
dei vettori (a, c) e (b, d) equivale alla condizione ad = bc. Dunque,
Proposizione 15.5 La matrice A è invertibile se e solo se ad − bc 6= 0.
(Il numero ad − bc è quello che nel Capitolo 21 sarà chiamato determinante di
A.) Supponiamo che A sia invertibile (dunque ad − bc 6= 0). Indichiamo con
x, y, z, t i coefficienti di A−1 (che vogliamo trovare), cioè:
x y
A−1 =
z t
302 Capitolo 15
Deve risultare
a b x y 1 0
· =
c d z t 0 1
Questa condizione si traduce nel seguente caso particolare del sistema (6):
ax + bz = 1
cx + dz = 0
ay + bt = 0
cy + dt = 1
Risolvendolo, otteniamo
d −b −c a
x= , y= , z= , t=
ad − bc ad − bc ad − bc ad − bc
Dunque
−1 1 d −b
A =
ad − bc −c a
(Nel Capitolo 21, Proposizione 21.26, generalizzeremo questa relazione a matrici
invertibili di ordine arbitrario.)
15.3.2 Il caso generale
Sia A = (ai,j )ni,j=1 una matrice invertibile di Mn (K) e sia α la trasformazione
lineare da Vn (K) a Vn (K) rappresentata da A rispetto alla base dei versori. Dati
in Vn (K) due vettori X = (xi )ni=1 ed Y = (yi )ni=1 , risulta α(X) = Y se e solo se
n
X
(i) ak,i xi = yk , (k = 1, 2, ..., n)
i=1
D’ altra parte, α è invertibile perchè A è invertibile. Quindi, se α(X) = Y allora
X = α−1 (Y ). Anzi, data ϕ ∈ Ln (K), si ha che
(∀X, Y ∈ Vn (K))(α(X) = Y ⇒ X = ϕ(Y )) ⇐⇒ ϕ = α−1
Quindi, esiste una sola matrice (bi,j )ni,j=1 tale che il sistema
n
X
(ii) bk,i yi = xk , (k = 1, 2, ..., n)
i=1
sia una conseguenza del sistema (i). Quest’ unica matrice è l’ inversa A−1
di A e rappresenta α−1 . Dunque, per calcolare l’ inversa di A dobbiamo solo
trasformare (i) in (ii). Il sistema (i) consiste di n equazioni omogenee nelle 2n
incognite x1 , x2 , ..., xn , y1 , y2 , ..., yn e la sua matrice incompleta consiste di due
15.3. MATRICI INVERSE 303
pezzi quadrati di ordine n, il primo dei quali è A ed il secondo è la matrice
identità di ordine n, cambiata di segno:
a1,1 a1,2 ..... a1,n −1 0 ..... 0
a2,1 a2,2 ..... a2,n 0 −1 ..... 0
.... .... ..... .... ... ... ..... ...
an,1 an,2 ..... an,n 0 0 ..... −1
Per fare assumere ad (i) la forma (ii) dobbiamo solo ‘risolvere’ (i) rispetto alle
incognite y1 , y2 , ..., yn , esprimendo x1 , x2 , ..., xn in funzione di esse. Questo lo
possiamo fare con le solite manipolazioni ‘alla Gauss-Jordan’.
Esempio. Consideriamo la seguente matrice di ordine 3:
1 1 −1
A = 1 −1 1
−1 1 1
È facile vedere che rank(A| ) = 3. Quindi A è invertibile. (Ma non c’ è bisogno
di fare questa verifica in anticipo: se A non fosse stata invertibile, prima o poi
ce ne saremmo accorti nel corso delle manipolazioni seguenti.) In questo caso il
sistema (i) può scriversi cosı̀:
x1 + x2 − x3 − y1 = 0
x1 − x2 + x3 − y2 = 0
−x1 − x2 + x3 − y3 = 0
La sua matrice e’
1 1 −1 −1 0 0
1 −1 1 0 −1 0
−1 1 1 0 0 −1
Con manipolazioni alla Gauss-Jordan le si può fare assumere la seguente forma:
1 1 −1 −1 0 0
0 −2 2 1 −1 0
0 0 2 0 −1 −1
e poi questa
1 0 0 −1/2 −1/2 0
0 −2 0 1 0 1
0 0 2 0 −1 −1
e infine questa
1 0 0 −1/2 −1/2 0
0 1 0 −1/2 0 −1/2
0 0 1 0 −1/2 −1/2
304 Capitolo 15
Dunque
x1 = (y1 + y2 )/2
x2 = (y1 + y3 )/2
x3 = (y2 + y3 )/2
Pertanto
1 1 0
1
A−1 = 1 0 1
2
0 1 1
15.3.3 Invertibilità di matrici triangolari
Sia A una matrice triangolare (superiore o inferiore), di ordine n.
Proposizione 15.6 La matrice A è invertibile se e solo se nessuno dei coeffi-
cienti sulla diagonale principale di A è 0.
Dimostrazione. Lo si può dimostrare analizzando il procedimento di §15.3.2,
osservando che nel caso di una matrice triangolare esso va ad effetto se e solo
se tutti i termini sulla diagonale principale sono diversi da 0. Ma seguiamo un’
altra via. Sia A una matrice triangolare, per esempio superiore:
a1 ∗ ..... ∗
0 a2 ..... ∗
A= ... .... ..... ...
0 0 ..... an
Per la Proposizione 15.4, la matrice A è invertibile se e solo se rank(A| ) = n.
Le colonne di A, lette dal basso in alto e scritte in riga a comiciare dall’ ultima,
ci danno la seguente matrice:
an ∗ ..... ∗
0 an−1 ..... ∗
A0 = ...
.... ..... ...
0 0 ..... a1
Ovviamente, rank(A| ) = rank(A0− ). Se tutti gli scalari a1 , a2 , ..., an sono 6= 0,
allora A0 è conformata a squadra, quindi rank(A0− ) = n (Capitolo 4, §4.2.2).
Supponiamo invece che ak = 0 per qualche k = 1, 2, ..., n. Allora una riduzione
a squadra di
0 ..... 0 ak ∗ ..... ∗
0 ..... 0 0 ak−1 ..... ∗
... ..... ... ... .... ..... ...
0 ..... 0 0 0 ..... a1
consta di meno di k righe (Capitolo 3, Sezione 3.2). Quindi la sequenza del-
le righe di A0 è equivalente ad una sequenza di meno di n vettori. Pertanto
rank(A0− ) < n. 2
15.3. MATRICI INVERSE 305
Nota. Nella dimostrazione della Proposizione 15.6 abbiamo preventivamente
dimostrato che una matrice triangolare superiore di ordine n ha rango per righe
uguale ad n se e solo se sulla sua diagonale principale non figurano termini nulli.
In realtà, questa è solo un’ altra formulazione della Proposizione 15.6. Infatti,
come dimostreremo nel Capitolo 21, rank(A− ) = rank(A| ) ...
Supponiamo che A sia invertibile. Dunque gli elementi sulla sua diagonale prin-
cipale, diciamoli a1 , a2 , ..., an , sono tutti 6= 0. Non è difficile rendersi conto che il
metodo descritto in §15.3.2 ci dà per A−1 una matrice triangolare (superiore o in-
feriore a seconda che A sia triangolare superiore o inferiore), con a−1 −1 −1
1 , a2 , ..., an
sulla diagonale principale. Per esempio, sia n = 4 ed A triangolare superiore.
a1 a1,2 a1,3 a1,4
0 a2 a2,3 a2,4
(i) A= 0
0 a3 a3,4
0 0 0 a4
Allora
a−1
1 b1,2 b1,3 b1,4
0 a−1 b2,3 b2,4
(ii) A−1 = 2
a−1
0 0 3 b3,4
0 0 0 a−1
4
ove
a1,2 a2,3 a3,4
b1,2 = − , b2,3 = − , b3,4 = −
a1 a2 a2 a3 a3 a4
a1,3 a1,2 a2,4 a2,3
b1,3 = − − b2,3 , b2,4 = − − b3,4
a1 a3 a1 a2 a2 a4 a2 a3
a1,4 a1,3 a1,2
b1,4 = − − b3,4 − b2,4
a1 a4 a1 a3 a1 a2
Alla stessa conclusione possiamo giungere anche considerando il sistema (6).
Se A è triangolare, delle n2 equazioni che formano quel sistema, n(n − 1)/2
sono banali. Delle restanti n(n + 1)/2 equazioni, n sono del tipo ai xi = 1 e
ci dicono che i coefficienti sulla diagonale principale di A−1 sono i reciproci di
a1 , a2 , ..., an . Rimangono da risolvere n(n − 1)/2 equazioni. Ma esse sono fatte
in modo che possiamo ricavare le incognite una dopo l’ altra. Ricavandole ...
Per esempio, sia n = 4 ed A triangolare superiore, come in (i). Cerchiamo
una matrice X tale che AX = I4 , e la vogliamo di questa forma:
−1
a1 x1,2 x1,3 x1,4
0 a−1
2 x2,3 x2,4
X=
a−1
0 0 x3,4
3
0 0 0 a−1
4
306 Capitolo 15
La condizione AX = I4 si traduce nel seguente sistema di sei equazioni:
a1 x1,2 + a1,2 /a2 = 0
a2 x2,3 + a2,3 /a3 = 0
a3 x3,4 + a3,4 /a4 = 0
(iii)
a1 x1,3 + a1,2 x2,3 + a1,3 /a3 = 0
a2 x2,4 + a2,3 x3,4 + a3,4 /a4 = 0
a1 x1,4 + a1,2 x2,4 + a1,3 x3,4 + a1,4 /a4 = 0
Dalle prime tre equazioni di (iii) possiamo ricavare x1,2 , x2,3 ed x3,4 . Sosti-
tuendo nella quarta e nella quinta equazione i valori cosı̀ trovati possiamo ri-
cavare x1,3 ed x2,4 . Sostituendo infine nell’ ultima equazione otteniamo x1,4 .
Naturalmente, risulta che X è la matrice descritta in (ii).
In questo modo calcoliamo A−1 ‘per diagonali’: partiamo da quella prin-
cipale; con essa troviamo la diagonale che le sta a ridosso; poi passiamo alla
successiva, e cosı̀ via, finendo con l’ elemento nell’ angolo in alto a destra.
15.4 Coniugazione
15.4.1 Coniugazione e matrici simili
Data una matrice invertibile A ∈ Mn (K), sia γA : Mn (K) −→ Mn (K) la funzione
che porta ogni matrice X ∈ Mn (K) nella matrice AXA−1 . Si noti che, se B è
un’ altra matrice invertibile, allora
(7.1) γB γA = γBA
Infatti B(AXA−1 )B −1 = BAXA−1 B −1 = (BA)X(BA)−1 . Da questo, e dal
fatto che γI è l’ identità su Mn (K), si ha subito che γA è invertibile e che
(7.2) (γA )−1 = γA−1
Proposizione 15.7 La funzione γA è un automorfismo dell’ algebra Mn (K).
Dimostrazione. Lo si potrebbe dedurre dal Teorema 14.15 del Capitolo 14 (cfr.
Sezione 15.9, Esercizio 15.26). Ma lo si vede subito anche direttamente. Si è
già detto che γA è invertibile. Quindi, per provare che γA è un automorfismo di
Mn (K) resta da verificare che valgono le seguenti identità:
A(X + Y )A−1 = AXA−1 + AY A−1
A(xX)A−1 = xAXA−1
A(XY )A−1 = (AXA−1 )(AY A−1 )
Ma queste identità sono ovvie. 2
L’ automorfismo γA si chiama coniugazione (o anche similitudine, o automor-
fismo interno) mediante A. (Cfr. Volume 2, Capitolo 8, §8.9.3.) Date due
matrici X, Y ∈ Mn (K), se Y = γA (X) per qualche matrice invertibile A, allora
15.4. CONIUGAZIONE 307
X ed Y si dicono simili (o anche coniugate, quando questa parola non evochi la
coniugazione di numeri complessi, che qui non c’ entra niente). Da (7.2) e (7.1)
segue che
Y = γA (X) =⇒ X = γA−1 (Y )
(Y = γA (X)) ∧ (Z = γB (Y )) =⇒ Z = γBA (X)
(In breve, la relazione di similitudine è una relazione di equivalenza). Dalla
Proposizione 15.3 segue che:
Proposizione 15.8 La coniugazione mediante una matrice invertibile A ∈ Mn (K)
è l’ identità su Mn (K) se e solo se A è una matrice scalare.
È anche ovvio che
Proposizione 15.9 Le matrici scalari sono simili solo a sè stesse.
La coniugazione mediante opportune matrici invertibili può servire per tradurre
un problema in un altro più semplice. Per esempio, in certi casi potremmo voler
sostituire, se possibile, una matrice con una matrice diagonale ad essa simile.
Vale a dire, volendo rappresentare con una matrice una data trasformazione
lineare di uno spazio in sè, si vorrebbe, se possibile, trovare una base rispetto
alla quale quella trasformazione sia rappresentata da una matrice diagonale.
Una matrice che sia simile ad una matrice diagonale si dice diagonalizzabile.
15.4.2 Cambi di base
Vedremo ora che cambiare la base in un dato spazio vettoriale V si traduce, per
le matrici che rappresentano gli elementi di L(V), proprio nella coniugazione
mediante quella matrice che descrive il cambio di base.
Dato uno spazio vettoriale V di dimensione finita n su un dato campo K,
siano E = (Ei )ni=1 ed F = (Fi )ni=1 due basi ordinate di V. Come in §15.1.2,
indichiamo con µE e µF le funzioni che ad ogni ϕ ∈ L(V) associano le matrici
che rappresentano ϕ rispetto ad E e rispetto ad F, rispettivamente. Vogliamo
trovare una formula che descriva il passaggio da µE a µF . Indichiamo con α l’
automorfismo di V che porta E in F, cioè Fi = α(Ei ) per i = 1, 2, ..., n. Indicati
con εi,j i versori di L(V) rispetto ad E e con ηi,j quelli rispetto ad F, si ha che
(i) εh,k = α−1 ηh,k α, (h, k = 1, 2, ..., n)
Infatti α−1 ηh,k α porta Ek in Eh e tutti gli altri vettori di E in O, e questa
è appunto la condizione che caratterizza εi,j . Data ϕ ∈ L(V), siano xi,j i
coefficienti di µE (ϕ), cioè
(ii) (xi,j )ni,j=1 =def µE (ϕ)
Vale a dire
n
X
(iii) ϕ = xi,j εi,j
i,j=1
308 Capitolo 15
(Capitolo 14, (11)). Sostituendo le (i) nella (iii) otteniamo
n
X n
X
ϕ = xi,j α−1 ηi,j α = α−1 ·( xi,j ηi,j )·α
i,j=1 i,j=1
Quindi
n
X
−1
(iv) µF (ϕ) = µF (α) · µF ( xi,j ηi,j ) · µF (α)
i,j=1
Pn
Però µF ( i,j=1 xi,j ηi,j ) = (xi,j )ni,j=1 = µE (ϕ) (cfr. (ii)). Quindi possiamo
riscrivere la (iv) cosı̀:
(8) µF (ϕ) = µF (α)−1 µE (ϕ)µF (α)
Questa è la formula che volevamo. Essa ci dice che la matrice rappresentativa
di ϕ rispetto ad F si ottiene dalla matrice rappresentativa di ϕ rispetto ad E
coniugandola con l’ inversa della matrice che rappresenta α rispetto ad F.
La (8) può riformularsi in altri modi, alcuni più stringati, altri più ‘espressi-
vi’. Intanto, sostituendo α a ϕ nella (8) otteniamo
µF (α) = µF (α)−1 µE (α)µF (α)
Quindi I = µF (α)−1 µE (α), cioè
(9) µF (α) = µE (α)
Dunque la stessa matrice rappresenta α sia rispetto ad E che rispetto ad F.
Questa matrice è quella che ‘fa passare’ da E a F, cioè che dà i vettori di F
come combinazioni lineari dei vettori di E (cfr. Capitolo 5, §5.4.5). Indicandola
con A, possiamo riscrivere la (8) in modo più stringato, cosı̀:
µF (ϕ) = A−1 µE (ϕ)A
Vale a dire, AµF (ϕ)A−1 = µE (ϕ). Cioè, µE = γA (µF ). La matrice A−1 rappre-
senta α−1 (rispetto ad E e, per la (9), anche rispetto ad F) ed α−1 riporta F
indietro su E. Dunque A−1 è la matrice che fa passare da F ad E. Per avere
un simbolo che ci rammenti che A fa passare da E a F, possiamo scrivere AE,F
anzichè A. Con questa notazione, il fatto che A−1 riporta F in E può esprimersi
cosı̀:
(10) A−1
E,F = AF,E
Ora possiamo riscrivere la (8) cosı̀:
(80 ) µF (ϕ) = AF,E · µE (ϕ) · AE,F
15.5. PRODOTTI DI MATRICI RETTANGOLARI 309
15.5 Prodotti di matrici rettangolari
Date due matrici A ∈ Ms,m (K) e B ∈ Mm,n (K), possiamo definire il loro
prodotto AB come nel caso di matrici quadrate dello stesso ordine, in questo
modo. Presi tre spazi vettoriali V, W e U di dimensione rispettivamente n, m
ed s su K, siano X, Y e Z basi di V, W e U, rispettivamente. Poniamo:
−1
([Link]) AB =def µX,Z (µY,Z (A) · µ−1
X,Y (B))
Se A = (ai,j )s,m m,n s,n
i,j=1 , B = (bi,j )i,j=1 ed AB = (cj,k )j,k=1 , allora
m
X
([Link]) cj,k = aj,i bi,k , (j = 1, 2, ..., s; k = 1, 2, ..., n)
i=1
(Cfr. (2.2); per la deduzione di ([Link]) da ([Link]) rimando alla (15) del Capitolo
14, Esercizio 14.23.) Valgono le analoghe delle proprietà (1), (2), (3) del Capitolo
14 per lo stesso motivo per cui quelle proprietà valgono nel caso di matrici
quadrate: il prodotto di matrici ‘copia’ la composizione di trasformazioni lineari,
che gode appunto di quelle proprietà (cfr. Capitolo 14, §14.1.1, (i) e (ii)). Però
ora non siamo più in presenza di un’ algebra; se si vuole un’ algebra ci si deve
limitare a considerare matrici quadrate dello stesso ordine. (Infatti, due matrici
rettangolari qualunque, in genere, non possono essere moltiplicate; possiamo
solo moltiplicare matrici s × m per matrici m × n, in quest’ ordine.)
Come nel caso di matrici quadrate, quando K = R le ([Link]) ci dicono che il
coefficiente di AB di posto (j, k) è il prodotto scalare (standard) della j-esima
riga di A per la k-esima colonna di B. In particolare, il prodotto scalare di
due vettori X, Y ∈ Vn (R) può vedersi come il prodotto di X, visto come una
matrice 1 × n, per Y visto come una matrice n × 1.
15.6 Suddivisioni in blocchi
Sia A ∈ Mm,n (K), con m, n > 1. Dati altri due numeri naturali positivi u, v
con u < m e v < n, possiamo dividere A in quattro blocchi Ah,k (h, k = 1, 2)
formando A1,1 con le prime u righe e le prime v colonne di A, A2,2 con le
rimanenti m − u righe e le rimanenti n − 2 colonne e chiamando A1,2 , A2,1 i due
pezzi che rimangono:
a1,1 ..... a1,v | a1,v+1 .... a1,n
..... ..... ..... .. ..... ..... .....
au,1
..... au,v | au,v+1 .... a u,n
A= − − − ..... − − − − − − − ..... − − − =
au+1,1 ..... au+1,v | au+1,v+1 .... au+1,n
..... ..... ..... .. ..... ..... .....
am,1 ..... am,v | am,v+1 .... am,n
A1,1 A1,2
=
A2,1 A2,2
310 Capitolo 15
a1,1 ..... a1,v a1,v+1 ..... a1,n
A1,1 = .... ..... .... , A1,2 = ..... ..... ....
au,1 ..... au,v au,v+1 ..... au,n
au+1,1 .... au+1,v au+1,v+1 .... au+1,n
A2,1 = ...... .... ...... , A2,2 = ...... .... ......
am,1 .... am,v am,v+1 .... am,n
Ovviamente, posto
A1,1 Ou,n−v Ou,v A1,2
A01,1 = , A01,2 =
On−u,v On−u,n−v On−u,v On−u,n−v
0 Ou,v Ou,n−v 0 Ou,v Ou,n−v
A2,1 = , A2,2 =
A2,1 On−u,n−v On−u,v A2,2
risulta A = A01,1 + A01,2 + A02,1 + A02,2 .
Diciamo che le matrici A1,1 , A1,2 , A2,1 , A2,2 sono i blocchi di una suddivisio-
ne di A di tipo ((u, m − u), (v, n − v)) e che le matrici A01,1 , A01,2 , A02,1 , A02,2
rappresentano quei blocchi in Mm,n (K).
Esempio. Consideriamo la seguente matrice
0 1 0 0 −1
1 0 −1 0 0
0 1 0 0 1
1 0 1 0 0
Possiamo suddividerla cosı̀:
0 1 0 | 0 −1
1 0 −1 | 0 0
− − − − − −
0 1 0 | 0 1
1 0 1 | 0 0
I blocchi sono questi
0 1 0 0 −1 0 1 0 0 1
, , ,
1 0 −1 0 0 1 0 1 0 0
e sono rappresentati dalle seguenti matrici 4 × 5
0 1 0 0 0 0 0 0 0 −1
1 0 −1 0 0 0 0 0 0 0
,
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
0 1 0 0 0 ,
0 0 0 0 1
1 0 1 0 0 0 0 0 0 0
15.6. SUDDIVISIONI IN BLOCCHI 311
Pr
Più in generale, dati r numeri interi positiviP u1 , u2 , ..., ur con i=1 ui = m ed
s
altri s numeri interi positivi v1 , v2 , ..., vs con i=1 vi = n, possiamo suddividere
A in rs blocchi:
A1,1 A1,2 ..... A1,s
A2,1 A2,2 ..... A2,s
A= ....
.... ..... ....
Ar,1 Ar,2 ..... Ar,s
ove, per h = 1, 2, ..., r e k = 1, 2, ..., s, la matrice Ah,k è formata con le uh righe
di posizione 1 + f (h), 2 + f (h),..., uh + f (h) e con le vk colonne di posizione
1 + g(k), 2 + g(k), ..., vk + g(k) (ove con f (h) e g(h) indichiamo rispettivamente
Ph−1 Pk−1
i=1 ui e i=1 vi ). Diciamo che le matrici Ah,k sono i blocchi di una suddi-
visione di A di tipo ((ui )ri=1 , (vi )si=1 ). Possiamo ancora rappresentare i blocchi
Ah,k con matrici m × n, prendendo come rappresentante di Ah,k la matrice
A0h,k ottenuta da A annullando tutti i coefficienti salvo quelli nelle posizioni
Pr,s
corrispondenti ad Ah,k . Cosı̀, risulta A = h,k=1 A0h,k .
15.6.1 Un’ interpretazione geometrica dei blocchi
Per semplicità, mi limiterò a considerare una suddivisione di una matrice A ∈
Mm,n (K) in quattro blocchi
A1,1 , A1,2
A=
A2,1 , A2,2
Sia ((u, m−u), (v, n−v)) il tipo di questa suddivisione. Dati due spazi vettoriali
V e W di dimensione rispettivamente n ed m su K, sia E = (Ei )ni=1 una base di
V ed F = (Fj )m
j=1 una base di W. Poniamo
E1 = (Ei )vi=1 , E2 = (Ei )ni=v+1 , F1 = (Fj )uj=1 , F2 = (Fj )m
j=u+1
V1 = L(E1 ), V2 = L(E2 ), W1 = L(F1 ), W2 = L(F2 )
W2 W1
π1 = πW 1
, π 2 = πW 2
Sia ϕ la trasformazione lineare da V a W rappresentata da A rispetto ad E ed F
e, per k = 1, 2 poniamo ϕk = πk ϕ. Si noti che Im(ϕk ) ⊆ Wk . Possiamo dunque
considerare la corestrizione di ϕk a Wk . Per h = 1, 2, indichiamo con ϕh,k la
restrizione a Vh della corestrizione di ϕk a Wk . Dunque ϕh,k ∈ L(Vh , Wk ).
Proposizione 15.10 La matrice Ak,h rappresenta ϕh,k rispetto alle basi Eh e
Fk di Vh e di Wk .
Rimando per la dimostrazione alla soluzione dell’ Esercizio 13.21 del Capitolo 13.
La situazione considerata in quell’ esercizio è anzi un po’ più generale di questa,
almeno apparentemente. (In realtà, non lo è: con opportune permutazioni di
righe e colonne si può sempre supporre che le sottomatrici considerate in quell’
esercizio siano blocchi come quelli che stiamo considerando ora.)
312 Capitolo 15
15.6.2 Prodotti di matrici decomposte in blocchi
Date due matrici A ∈ Mm,n (K) e B ∈ Mn,p (K), siano (Ah,k )r,s s,t
h,k=1 e (Bh,k )h,k=1
decomposizioni di A e B in blocchi, di tipo rispettivamente ((ui )ri=1 , (vi )si=1 ) e
((vi )si=1 , (wi )ti=1 ). Per ogni scelta degli indici j, i, k, il numero delle colonne del
blocco Aj,i è uguale al numero delle righe del blocco Bi,k . Quindi possiamo
moltiplicare Aj,i per Bi,k . Poniamo
s
X
Cj,k = Aj,i Bi,k
i=1
e sia C ∈ Mm,p (K) la matrice formata dai blocchi Cj,k (per j = 1, 2, ..., r e
k = 1, 2, ..., t); cioè,
C1,1 C1,2 ..... C1,t
C2,1 C2,2 ..... C2,t
C = ....
.... ..... ....
Cr,1 Cr,2 ..... Cr,t
La seguente proposizione può vedersi come un’ ulteriore generalizzazione della
(2.2):
Proposizione 15.11 Risulta AB = C.
Dimostrazione. Indicati con A0j,i , Bi,k0 0
e Cj,k le matrici che rappresentano i
blocchi Aj,i , Bi,k e Cj,k in Mm,n (K), Mn,p (K) ed Mm,p (K), risulta:
Pr,s
(i.a) A = A0j,i
Pj,i=1
s,t 0
(i.b) B = i,k=1 Bi,k
Ps,t 0
(i.c) C = j,k=1 Cj,k
Da ([Link]) si deduce che, se i 6= h, allora A0j,i Bh,k
0
= O. Quindi da (i.a) ed (i.b)
segue che:
r,t X
X s
(ii) AB = A0j,i Bi,k
0
j,k=1 i=1
0
Ps
D’ altra parte Cj,k = i=1 A0j,i Bi,k
0 0
per definizione di Cj,k e Cj,k . Quindi la (ii)
può riscriversi cosı̀:
r,t
X
0
AB = Cj,k
j,k=1
Sicchè AB = C, per (i.c). 2
La (5.1) di §15.2.4 è un caso particolare della Proposizione 15.11. Vediamo un
altro caso particolare. Siano A, B ∈ Mn (K) decomposte in quattro blocchi
A1,1 A1,2 B1,1 B1,2
A= , B=
A2,1 A2,2 B2,1 B2,2
15.7. VETTORI COME MATRICI COLONNA 313
ove le matrici A1,1 e B1,1 sono quadrate, dello stesso ordine u < n. Quindi A2,2
e B2,2 sono quadrate di ordine n − u, A1,2 e B1,2 sono di tipo u × (n − u) ed
A2,1 , B2,1 sono di tipo (n − u) × u. Per la Proposizione 15.11 risulta:
A1,1 B1,1 + A1,2 B2,1 A1,1 B1,2 + A1,2 B2,2
(11) AB =
A2,1 B1,1 + A2,2 B2,1 A2,1 B1,2 + A2,2 B2,2
come se moltiplicassimo due matrici 2 × 2. In particolare, se A2,1 = B2,1 =
On−u,u allora
A1,1 B1,1 A1,1 B1,2 + A1,2 B2,2
(11.a) AB =
On−m,m A2,2 B2,2
Se invece A1,1 = B1,1 = Ou ed A2,2 = B2,2 = On−u , allora
A1,2 B2,1 Ou,n−u
(11.b) AB =
On−u,u A2,1 B1,2
15.7 Vettori come matrici colonna
Chiamiamo le matrici 1 × n matrici-riga (brevemente, righe) e quelle n × 1
matrici-colonna (brevemente, colonne). Stabiliamo la convenzione che il modo
‘normale’ di vedere un vettore X ∈ Vn (K) come una matrice sia di vederlo come
colonna. Indicherò invece con X t il vettore X visto come riga (con la termi-
nologia che adotteremo nel Capitolo 18, la riga X t è la trasposta della colonna
X). Con questa notazione, data ϕ ∈ Ln,m (K) ed indicata con A la matrice che
rappresenta ϕ rispetto ai versori di Vn (K) e Vm (K), possiamo riscrivere la (9.b)
del Capitolo 13 cosı̀:
(12) ϕ(X) = AX, (∀X ∈ Vn (K))
Per la ([Link]), comporre ϕ con un’ altra trasformazione ψ ∈ Lm,s (K) è la stessa
cosa che moltiplicare AX per la matrice che rappresenta ψ. Cioè, detta B quella
matrice,
(12.1) ψ(ϕ(X)) = ψ(AX) = BAX, (∀X ∈ Vn (K))
Quando m = n e ϕ è invertibile si ha che
(12.2) Y = AX =⇒ X = A−1 Y, (∀X ∈ Vn (K), ∀Y ∈ Vm (K))
Infine, date due matrici A, B ∈ Mm,n (K) si ha che
(12.3) (∀X ∈ Vn (K))(AX = BX) =⇒ A = B
Infatti, se ϕ e ψ sono le trasformazioni rappresentate da A e da B, dire che
AX = BX per ogni X ∈ Vn (K) è come dire che ϕ = ψ e quindi che A = B.
314 Capitolo 15
15.7.1 Cambi di base
L’ espediente di trattare i vettori come matrici-colonna si rivela molto vantag-
gioso in molti casi; per esempio, nei cambi di base.
Dato uno spazio vettoriale V di dimensione n su un campo K e due basi E
ed F di V, sia AE,F la matrice che fa passare da E ad F. Questa matrice è
invertibile e la sua inversa è la matrice AF,E che fa ritornare da F ad E (cfr.
§15.4.2). Vedendo i vettori di Vn (K) come matrici-colonna, possiamo riscrivere
le (2) del Capitolo 5 (§5.4.5) cosı̀:
(13) (X)E = AE,F · (X)F
Quindi, moltiplicando per A−1
E,F :
(13.1) (X)F = A−1
E,F · (X)E
(e ritroviamo cosı̀ la (10) della Sezione 15.4). Se U è un’ altra base di V, l’
effetto combinato dei due cambi di base, da E ad F e poi da F ad U, consiste
in un prodotto di matrici:
(13.2) (X)E = AE,F AF,U · (X)U
(Lo si può dedurre da (12.1), considerando le trasformazioni lineari che portano
E in F ed F in U; ma anche direttamente da (13), sostituendovi (X)F con
AF,U · (X)U .)
15.7.2 Una deduzione svelta della (8)
Daremo ora un’ altra deduzione della (8), sfruttando i vantaggi della notazione
‘matriciale’ per vettori. Date due basi E ed F di V e una trasformazione lineare
ϕ ∈ L(V), poniamo A = µE (ϕ), B = µF (ϕ) e C = AE,F . Per (12), dire che A e
B rappresentano ϕ rispetto ad E e ad F è come dire che per ogni X ∈ V risulta
(i.a) (ϕ(X))E = A·(X)E
(i.b) (ϕ(X))F = B·(X)F
D’ altra parte, per (13) si ha che
(ii) (X)E = C·(X)F e (ϕ(X))E = C·(ϕ(X))F
Sostituendo le (ii) in (i.a) si ottiene che C·(ϕ(X))F = AC·(X)F per ogni X ∈ V.
Quindi
(iii) (ϕ(X))F = C −1 AC·(X)F , (∀X ∈ V)
per (12.2). Paragonando (iii) ed (i.b) si ottiene
B·(X)F = C −1 AC·(X)F , (∀X ∈ V)
Da ciò e da (12.3) segue che
B = C −1 AC
Questa è appunto la (8), scritta con altri simboli.
15.8. UN ALTRO ESPEDIENTE NOTAZIONALE 315
15.7.3 Sistemi lineari
Con la convenzione di trattare i vettori come matrici n × 1 , un sistema di m
equazioni in n incognite
a1,1 x1 + a1,2 x2 + ... + a1,n xn = b1
a2,1 x1 + a2,2 x2 + ... + a2,n xn = b2
(i)
................................................ ... ....
am,1 x1 + am,2 x2 + ... + am,n xn = bm
può riscriversi come un’ unica equazione, cosı̀:
(ii) AX = B
ove A = (ai,j )m,n n
i,j=1 è la matrice incompleta del sistema, X = (xj )j=1 è la n-pla
m
delle incognite e B = (bi )i=1 è la m-pla dei termini noti.
Proposizione 15.12 Se m = n = rank(A| ), allora il sistema (i) è determinato
e la sua soluzione è il vettore A−1 B.
Dimostrazione. Sia m = n = rank(A| ). Allora A è invertibile (Proposizione
15.4). Moltiplicando (ii) per A−1 otteniamo X = A−1 B. 2
Nota. In realtà questa proposizione è già contenuta nel Teorema 10.5 del Ca-
pitolo 10 (cfr. anche Capitolo 3, Proposizione 3.8). In quel teorema è implicito
che il sistema (i) è determinato se m = n = rank(A− ) e nel prossimo capitolo
dimostreremo finalmente che rank(A| ) = rank(A− ).
15.8 Un altro espediente notazionale
Dato uno spazio vettoriale V su un campo K, sia E = (Ei )ni=1 una n-pla di
vettori di V e sia A = (ai,j )n,m
i,j=1 una matrice di Mn,m (K). Poniamo
n
X n
X n
X
E·A =def ( Ei ai,1 , Ei ai,2 , ..., Ei ai,m )
i=1 i=1 i=1
Spesso scriveremo EA anzichè E·A, risparmiando il puntino. Chiamiamo la
m-pla E·A prodotto di E per A. (Quando V = Vs (K), la n-pla E può essere
pensata come una matrice s × n, con i vettori E1 , E2 , ..., En come colonne; in
questo caso E·A è la m-pla delle colonne del prodotto della matrice E per la
matrice A.)
Data come sopra una n-pla E = (Ei )ni=1 di vettori di V, siano A e B matrici
n × m ed m × s a coefficienti in K e sia C = AB. Non è difficile vedere che
(14.1) (EA)B = EC
(Questo ci permette di scrivere EAB riservandoci di leggere questo simbolo
come (EA)B oppure E · AB, secondo quel che ci conviene). È anche ovvio che
EIn = E.
316 Capitolo 15
Se A è una matrice invertibile di Mn (K) e se F = EA, allora FA−1 =
EAA−1 = EIn = E. Vale a dire,
(14.2) F = EA =⇒ E = FA−1
Supponiamo poi che E sia linearmente indipendente. Allora, prese comunque
due matrici A, B ∈ Mn,m (K), si ha che
(14.3) EA = EB =⇒ A = B
(Questo segue dalla Proposizione 4.5 del Capitolo 4; ma lo si può anche de-
durre dalla Proposizione 13.25 del Capitolo 13, pensando A e B come matrici
rappresentative di trasformazioni lineari da Vm (K) ad L(E).)
Supponiamo che la n–pla E sia una base di V (quindi dim(V) = n). Dato
un altro spazio vettoriale W su K, di dimensione m < ∞, sia F una sua base
ordinata. Data una trasformazione lineare ϕ da V a W, sia A la matrice che
rappresenta ϕ rispetto ad E e F. Le relazioni (10.c) del Capitolo 13 possono
riscriversi cosı̀:
(15) ϕ(E) = FA
ove ϕ(E) = (ϕ(Ei ))ni=1 . Data poi una qualunque matrice M con n righe e a
coefficienti in K, risulta
(16) ϕ(E)·M = ϕ(EM )
Sia infatti s il numero delle colonne di M e sia ξ la trasformazione lineare da
Vs (K) a V rappresentata da M rispetto ad U ed E, ove U sta ad indicare la base
dei versori di Vs (K). La matrice AM rappresenta ϕξ rispetto ad U ed F. Quindi
ϕ(ξ(U)) = FAM (per la (15) applicata a ϕξ). D’ altra parte, moltiplicando la
(15) per M si ottiene ϕ(E)·M = FAM . Quindi ϕ(E)·M = ϕ(ξ(U)). Ma
ξ(U) = EM , per la (15) applicata a ξ. Pertanto ϕ(E)·M = ϕ(EM ).
La (16) esprime la linearità di ϕ, come possiamo vedere prendendo per M
una matrice colonna (mi )m i=1 : con questa scelta di M , la (16) dice che
n
X n
X
ϕ(Ei )mi = ϕ( Ei mi )
i=1 i=1
15.8.1 Coordinate e cambi di base
La notazione ora introdotta permette notevoli semplificazioni nei calcoli. Ve-
diamo come se ne possa trarre profitto trattando di cambi di base, per esempio.
Sia dim(V) = n e sia E siaPuna base ordinata di V. Dato un vettore X ∈ V,
n
sia (xi )ni=1 = (X)E , cioè X = i=1 Ei xi . Possiamo riscrivere quest’ uguaglianza
cosı̀:
(17) X = E · (X)E
Se F è un’ altra base di V, per dire che una certa matrice A è quella che fa
passare da E ad F possiamo scrivere semplicemente cosı̀:
(18) F = EA
15.9. ESERCIZI 317
(cfr. Capitolo 5, §5.4.5, (1)). Da (17) con F al posto di E si ottiene X = F·(X)F .
Da ciò e da (18) sia ha X = E·A·(X)F . Paragonando con (17) (e applicando
(14.3)) riotteniamo la (13) di §15.7.1:
(X)E = A · (X)F
(In realtà, abbiamo solo ripetuto calcoli fatti in §5.4.5 del Capitolo 5; ma il
simbolismo di cui disponiamo ora ci ha permesso di farne un riassunto stringa-
tissimo.)
15.8.2 Un’ altra deduzione della (8)
Possiamo dare anche un’ altra deduzione ‘svelta’ della (8). Date due basi E e F
di V e una trasformazione lineare ϕ ∈ L(V), poniamo A = µE (ϕ) e B = µF (ϕ).
Per (15) risulta
(i.a) ϕ(E) = EA
(i.b) ϕ(F) = FB
Sia C la matrice che porta E in F, cioè F = EC (cfr. (18)). Sostituendo EC
ad F in (i.b) otteniamo
(ii) ϕ(EC) = ECB
D’ altra parte,
(iii) ϕ(EC) = EAC
per (i.a) e (16). Da (ii) e (iii) mediante (14.3) deduciamo che AC = CB. Cioè
B = C −1 AC
che è appunto la (8).
15.9 Esercizi
Esercizio 15.1 Per ogni x ∈ K, indichiamo con U (x) la seguente matrice
quadrata di ordine 2:
1 x
0 1
Si dimostri che U (x)U (y) = U (x + y).
Commento. Da ciò, anche senza usare la Proposizione 15.6, si deduce che U (x)
è sempre invertibile e che U (x)−1 = U (−x). Dunque queste matrici formano un
gruppo commutativo, isomorfo al gruppo additivo del campo K.
318 Capitolo 15
Esercizio 15.2 Per ogni scelta di u, x ∈ K, indichiamo con T (u, x) la seguente
matrice triangolare superiore:
u x
0 u
In particolare, T (1, x) è la matrice U (x) considerata nell’ Esercizio 15.2, T (u, 0) =
uI e T (0, 1) è il versore U1,2 di M2 (K). Inoltre, se u 6= 0, allora T (u, x) =
uI · U (x/u). Si dimostri che
(i) Per ogni scelta di x, y, u, v ∈ K risulta
T (u, x)T (v, y) = T (v, y)T (u, x) = T (uv, uy + xv)
(ii) Qualunque sia a ∈ K, le matrici che commutano con T (a, 1) sono quelle del
tipo T (u, x).
(iii) Per ogni scelta di u, x ∈ K, le matrici T (u, x) ed T (u, 1) sono simili se e
solo se x 6= 0.
(iv) Per ogni scelta di x, y, z ∈ K con x 6= 0 6= y risulta
x z
= dg(x, y) · T (1, z/x) = T (1, z/y) · dg(x, y)
0 y
Commento. Da (i), anche senza usare la Proposizione 15.6, si deduce che se
u 6= 0 allora T (u, x) è invertibile e la sua inversa è T (u−1 , −xu−2 ). Quindi
le matrici T (u, x) con u 6= 0 formano un gruppo commutativo, generato dalle
matrici scalari non nulle di ordine 2 e dalle matrici U (x). (Cfr. Volume 2,
Capitolo 8, §8.7.2 per la nozione di “gruppo generato da...”.)
Si noti invece che T (0, x)T (0, y) = O per ogni scelta di x, y ∈ K.
Esercizio 15.3 Sia T 0 (u, x) la seguente matrice triangolare inferiore:
u 0
x u
e sia T (u, x) come nell’ Esercizio 15.2. Verificate che T (u, x) e T 0 (u, x) sono
coniugate mediante la matrice permutazionale associata alla trasposizione che
scambia 1 e 2. Deducetene che tutto quello che si è detto nell’ Esercizio 15.2
per matrici di tipo T (u, x) vale anche per quelle di tipo T 0 (u, x).
Esercizio 15.4 Si dimostri che per ogni matrice invertibile A ∈ M2 (K) esisto-
no, univocamente determinate, due matrici U , U 0 di tipo T (1, x) (Esercizio
15.2) ed una matrice monomiale M (Capitolo 13, Esercizio 13.29) tali che
A = U M U 0.
Soluzione. Se A è triangolare superiore basta rifarsi alla (iv) dell’ Esercizio
15.2. Altrimenti, se
a b
A= (c 6= 0)
c d
15.9. ESERCIZI 319
6 0 e tali che
si devono trovare x, y, u, v con u, v =
1 x 0 u 1 y a b
· · =
0 1 v 0 0 1 c d
La soluzione del problema è
x = a/c, y = d/c, v = c, u = (bc − ad)/c
(Si noti che bc − ad 6= 0 per la Proposizione 15.5.)
Esercizio 15.5 Verificate le seguenti identità:
x y z t xz xt
· =
0 0 0 0 0 0
x y 0 z 0 xz + yt
· =
0 0 0 t 0 0
0 z x y 0 0
· =
0 t 0 0 0 0
Esercizio 15.6 Indichiamo con T (u, x, y, z) la seguente matrice triangolare:
u x z
0 u y
0 0 u
(In particolare, con u = 0 ed (x, y, z) = (1, 0, 0), (0, 1, 0) e (0, 0, 1) ritroviamo i
versori U1,2 , U2,3 ed U1,3 di M3 (K)). Si dimostri che
(i) Le matrici T (u, x, x, z) commutano tra loro.
(ii) Per ogni scelta di u, x, z ∈ K le matrici T (u, x, x, z) e T (u, 1, 1, 0) sono
simili se e solo se x 6= 0.
(iii) Se z 6= 0 allora T (u, 0, 0, z) è simile sia a T (u, 1, 0, 0) che a T (u, 0, 1, 0).
(iv) Per ogni scelta di x, y, z, u, v, w ∈ K con x, y, z 6= 0 risulta
x u w
0 y v = dg(x, y, z) · T (1, u/x, v/y, w/x) =
0 0 z
= T (1, u/y, v/z, w/z) · dg(x, y, z)
Esercizio 15.7 Sia T 0 (u, x, y, z) la seguente matrice triangolare inferiore
u 0 0
y u 0
z x u
e sia T (u, x, y, z) come nell’ Esercizio 15.6. Verificate che T (u, x, y, z) e T 0 (u, x, y, z)
sono coniugate mediante la matrice permutazionale associata alla trasposizione
che scambia 1 e 3. Deducetene che tutto quello che si è detto nell’ Esercizio
15.6 per matrici di tipo T (u, x, y, z) vale anche per quelle di tipo T 0 (u, x, y, z).
320 Capitolo 15
Esercizio 15.8 Si dimostri che per ogni matrice invertibile A ∈ M3 (K) esisto-
no, univocamente determinate, due matrici U , U 0 di tipo T (1, x, y, z) (Esercizio
15.6) ed una matrice monomiale M (Capitolo 13, Esercizio 13.29) tali che
A = U M U 0.
Esercizio 15.9 Verificate le due seguenti identità:
T (0, x, y, z)2 = T (0, 0, 0, xy), T (0, x, y, z)3 = O
Esercizio 15.10 È implicito nei §§15.2.3 e 15.3.3 che le matrici triangolari su-
periori invertibili di Mn (K) formano un gruppo. Si dimostri che questo gruppo
è generato dalle matrici diagonali invertibili e da quelle matrici triangolari su-
periori che hanno tutti i coefficienti sulla diagonale principale uguali ad 1. (Cfr.
Esercizio 15.2(iv) ed Esercizio 15.6(iv).)
Soluzione. Si dimostra anzi che, data una matrice A triangolare superiore e
invertibile, esiste un’ unica matrice diagonale invertibile D ed un’ unica matrice
triangolare superiore T con tutti i termini sulla diagonale principale uguali ad 1
e tale che A = DT . Precisamente, D = dg(ai )ni=1 ove a1 , a2 , ..., an sono i termini
sulla diagonale principale di A e T = D−1 A.
Esercizio 15.11 Indichiamo con U (x1 , x2 , ..., xn−1 ) la seguente matrice trian-
golare superiore:
1 x1 x2 ..... xn−2 xn−1
0 1 0 ..... 0 0
0 0 1 ..... 0 0
... .... .... ..... .... ....
0 0 0 ..... 1 0
0 0 0 ..... 0 1
Si dimostri che
U (x1 , ..., xn−1 ) · U (y1 , ..., yn−1 ) = U (x1 + y1 , ..., xn−1 + yn−1 )
Commento. Da ciò si deduce, anche senza usare la Proposizione 15.6, che la
matrice U (x1 , x2 , ..., xn−1 ) è sempre invertibile e che
U (x1 , x2 , ..., xn−1 )−1 = U (−x1 , −x2 , ..., −xn−1 )
Dunque queste matrici formano un gruppo commutativo, isomorfo al prodotto
di n − 1 copie del gruppo additivo del campo K; cfr. Esercizio 15.1.)
Esercizio 15.12 Si dimostri che per matrici triangolari superiori di questa
forma
1 0 ..... 0 0 x1
0 1 ..... 0 0 x2
... ... ...... ... ... ....
0 0 ..... 1 0 xn−2
0 0 ..... 0 1 xn−1
0 0 ..... 0 0 1
15.9. ESERCIZI 321
vale un’ identità analoga a quella considerata nell’ Esercizio 15.11.
Esercizio 15.13 Date in Sym(n) le trasposizioni γ[1,n] , γ[2,n−1] , γ[3,n−2] ... sia
γ il loro prodotto e sia Mγ la matrice permutazionale associata a γ. Si dimostri
che la coniugazione mediante Mγ scambia le matrici triangolari superiori con
le matrici triangolari inferiori. (Cfr. Esercizi 15.3 e 15.7.)
Commento. Quindi quel che si è detto negli Esercizi 15.10–15.12 per matrici
triangolari superiori vale anche per matrici triangolari inferiori.
Esercizio 15.14 Sia A = dg(ai )ni=1 , con i coefficienti ai a due a due distinti.
Si dimostri che le uniche matrici che commutano con A sono quelle diagonali.
Suggerimento. (3.4).
Esercizio 15.15 Sia A = dg(ai Ini )mi=1 , con gli scalari ai a due a due distinti.
Si dimostri che le uniche matrici che commutano con A sono quelle a blocchi
in diagonale formate da m blocchi di ordine n1 , n2 ,..., nm .
Suggerimento. Per matrici diagonali a blocchi vale una proprietà simile alla
(3.4).
Esercizio 15.16 Siano A, B, C ∈ Mn (K), con C invertibile e C −1 AC diago-
nale con i coefficienti sulla diagonale principale a due a due distinti. Si dimostri
che A e B commutano se e solo se C −1 BC è diagonale.
Traccia. Siccome C −1 ABC = C −1 ACC −1 BC, le matrici A e B commutano
se e solo se commutano le matrici C −1 AC e C −1 BC. Per l’ Esercizio 15.14 ...
Esercizio 15.17 Due rotazioni lineari di V2 (R) commutano sempre, mentre
due rotazioni lineari di V3 (R) commutano se e solo se hanno lo stesso asse
(Capitolo 12, Esercizio 12.19). Siano invece ρ1 , ρ2 due rotazioni lineari di
Vn (R), ove n ≥ 4, e siano A1 e A2 i loro assi. Le rotazioni ρ1 e ρ2 commutano
se e solo se A1 = A2 oppure A⊥ 1 ⊆ A2 . Dimostrate la parte “se” di questa
affermazione.
Traccia. Se A1 = A2 ci si riconduce al caso di V2 (R). Supponiamo invece
che A⊥1 ⊆ A2 . Che ρ1 e ρ2 commutano lo si può dimostrare geometricamente.
Oppure algebricamente, prendendo un sistema di riferimento ortonormale con
n − 4 vettori in A1 ∩ A2 , due vettori in A⊥ ⊥
1 ed altri due in A2 . Le matrici
rappresentative di ρ1 e ρ2 rispetto a questa base sono come in (5.3).
Esercizio 15.18 Siano E = (Ei )ni=1 ed F = (Fi )ni=1 due basi ortonormali di
Vn (K), con K = R oppure C. Sia A = (ai,j )ni,j=1 la matrice che fa passare da E
ad F. Per i, j = 1, 2, ..., n, poniamo a0i,j = aj,i nel caso reale ed a0i,j = aj,i nel
caso complesso. Si dimostri che A−1 = (a0i,j )ni,j=1 .
Soluzione. Il coefficiente aj,i di A è la j-esima coordinata di Fi rispetto ad
E. Quindi, aj,i = hFi , Ej i, perchè E è ortonormale. D’ altra parte, anche F è
ortonormale. Sicchè a0i,j = hEj , Fi i è la i-esima coordinata di Ej rispetto ad F.
Pertanto a0i,j è l’ elemento di posto (i, j) nella matrice che fa passare da F ad
E. Per (10), questa matrice è A−1 .
Nota. Ritorneremo su questo argomento nel Capitolo 19.
322 Capitolo 15
Esercizio 15.19 Sia ρ una rotazione lineare di Vn (R), n ≥ 3. Supponendo
di conoscere l’ angolo θ e l’ asse A di ρ, si trovi la matrice che rappresenta ρ
rispetto alla base U = (Ui )ni=1 dei versori di Vn (R).
Soluzioni. Sia E = (E1 , E2 , ..., En−2 , E, F ) una base ortonormale di Vn (R)
con L(E1 , E2 , ..., En−2 ) = A. Sia R la matrice rappresentativa di ρ rispetto
ad E. (La matrice R è descritta nel §13.6.6 del Capitolo 13.) I vettori di E
sono le colonne della matrice A = AU,E che fa passare da U a E. Sono anche
le righe della matrice A−1 = AE,U (Esercizio 15.18). Per (80 ), la matrice che
rappresenta ρ rispetto ad U è ARA−1 .
Ma si può anche ragionare cosı̀, evitando (80 ). Posto ζ = θ/2, N1 = E
ed N2 = E cos ζ + F sin ζ, siano σ1 e σ2 le riflessioni attorno ad N1⊥ ed N2⊥ ,
rispettivamente. Allora ρ = σ2 σ1 . Quindi
ρ(X) = X − 2hX, N1 iN1 + 2hX, N2 iN2 + 4hX, N1 ihN1 , N2 iN2
(Capitolo 12, (6), con P = O). Da ciò, note le coordinate di N1 ed N2 , ricaviamo
le coordinate di ρ(X) come espressioni lineari delle coordinate di X ...
Altrimenti, senza decomporre ρ in prodotto di riflessioni, possiamo sfruttare
la formula seguente, implicita in quel che si è detto nel §13.6.6 del Capitolo 13:
n−2
X
ρ(X) = hX, Ei iEi + (ac − bd)E + (ad + bc)F
i=1
ove a = hX, Ei, b = hX, F i, c = cos θ e d = sin θ.
Esercizio 15.20 Sia Jn (a, b) la matrice considerata nell’ Esercizio 13.26 del
Capitolo 13. Si trovino due espressioni f (a, b, m) e g(a, b, m) tali che
(Jn (a, b))m = Jn (f (a, b, m), g(a, b, m)), (∀m ∈ N \ {0})
Soluzione. Siccome Jn (a, b) = (a − b)In + bJn e Jnm = nm−1 Jn , risulta
m
m m
X m
(Jn (a, b)) = (a − b) In + ( (a − b)m−k bk nk−1 )Jn
k
k=1
m
Quindi f (a, b, m) = (a − b) + g(a, b, m) e
m
X m
g(a, b, m) = (a − b)m−k bk nk−1
k
k=1
Esercizio 15.21 In Sym(2n) sia α = γ[1,1+n] γ[2,2+n] ...γ[n,2n] , sia Mα la ma-
trice permutazionale associata ad α e sia A = dg(−In , In ). Si dimostri che
I2n = Mα2 = −(AMα )2 , AMα = −Mα A
Soluzione. Si ha
On In
Mα =
In On
15.9. ESERCIZI 323
Quindi
On −In On In
AMα = , Mα A =
In On −In On
per (11). Per concludere si usi la (11.b).
Esercizio 15.22 Date α, Mα ed A come nell’ Esercizio 15.21, sia β ∈ Sym(2n)
la permutazione che per i = 1, 2, ..., n porta i in 2i − 1 ed n + i in 2i. Si ponga:
0 1 0 1
B= C=
1 0 −1 0
Verificate che
(i) Mβ AMβ−1 = dg(1, −1, 1, −1, ..., 1, −1)
(ii) Mβ Mα Mβ−1 = dg(B, B, ..., B)
(iii) Mβ AMα Mβ−1 = dg(C, C, ..., C)
Traccia. La (i) è ovvia e la (iii) segue da (i) e (ii). La (ii) segue dal fatto che
βαβ −1 = γ[1,2] γ[3,4] ...γ[2n−1,2n]
Esercizio 15.23 Date α, Mα ed A come nell’ Esercizio 15.21, si dimostri che
in V2n (R) la matrice AMα rappresenta un prodotto di n rotazioni di π/2, a due
a due permutabili.
Soluzioni. Si trasformi AMα per coniugazione mediante Mβ , come in (iii)
dell’ Esercizio 15.22. Risulta dg(C, C, ..., C) = dg(C, I2n−2 ) · dg(I2 , C, I2n−4 ) ·
... · dg(I2n−2 , C). Queste n matrici permutano a due a due e rappresentano
rotazioni di π/2 (cfr. Esercizio 15.17).
Altrimenti, si può ragionare cosı̀. La matrice Mα rappresenta un prodotto di
n riflessioni corrispondenti alle n trasposizioni γ[i,i+n] (Capitolo 13, Proposizione
13.27). A sua volta A rappresenta un prodotto di n riflessioni (Capitolo 13,
Esercizio 13.37). Gli iperpiani di riflessione sono messi in modo tale che ...
Esercizio 15.24 Siano A, B, C, D ∈ Mn (K), O = On ed I = In . Si dimostri
che:
O I A B C D
· =
I O C D A B
A B O I B A
· =
C D I O D C
O I A B O I D C
· · =
I O C D I O B A
Suggerimento. (4.1) e (4.3).
324 Capitolo 15
Esercizio 15.25 Per ogni scelta di a, b ∈ R poniamo
a b
A(a, b) =
−b a
Posto A = {A(a, b) | a, b ∈ R}, sia α : A −→ C la funzione che ad ogni
matrice A(a, b) ∈ A associa il numero complesso a+ib. Si dimostrino le seguenti
asserzioni:
(i) l’ insieme A è una sottoalgebra di M2 (R);
(ii) l’ insieme A è addirittura un campo;
(iii) la funzione α è un isomorfismo dal campo A al campo C.
Traccia. Se θ e ρ sono l’ argomento ed il modulo di un numero complesso non
nullo a + ib, risulta
cos θ sin θ
A(a, b) = ρ
− sin θ cos θ
Da ciò segue che tutte le matrici non nulle di A sono invertibili, che commutano
tra loro, che il prodotto di due qualunque di esse è ancora una matrice di A
e che la funzione α conserva i prodotti. D’ altra parte, è evidente che A è un
sottospazio lineare di M2 (R) e che α conserva le somme.
Esercizio 15.26 Sia V uno spazio vettoriale di dimensione finita su K e sia
α ∈ Aut(V). Scelta una base E di V, sia A = µE (α). Si dimostri che vale la
seguente uguaglianza (notazione come nel Teorema 14.15 del Capitolo 14):
γA = µE · µα,α−1 · µ−1
E
Esercizio 15.27 Dati due spazi vettoriali V e W di dimensione rispettivamente
n ed m su uno stesso campo K, siano E ed X basi di V ed F e Y basi di W.
Come in §15.4.2, indichiamo con AE,X la matrice che fa passare da E ad X e con
AY,F quella che fa passare da Y a F. Si dimostri la seguente generalizzazione
della (80 ):
(800 ) µX,Y (ϕ) = AY,F · µE,F (ϕ) · AE,X , (∀ϕ ∈ L(V, W))
Esercizio 15.28 Si dimostri che ogni matrice invertibile A ∈ Mn (K) si può
sempre rappresentare come un prodotto di matrici dei due seguenti tipi ed even-
tualmente di matrici permutazionali, prese in ordine opportuno:
(i) In + aUi,j (i 6= j)
(ii) dg(1, ..., 1, a, 1, ..., 1) (a =6 0).
Soluzione. Se moltiplichiamo una matrice A a destra per In + aUi,j l’ effetto
ottenuto è di sommare alla j–esima colonna di A la i–esima moltiplicata per
a. Se invece moltiplichiamo A a destra per una matrice diagonale con a (6= 0)
in i–esima posizione ed 1 in tutte le altre, l’ effetto è di moltiplicare per a l’
i–esima colonna di A. Ma queste sono operazioni elementari ‘alla Gauss Jordan’
eseguite sulle colonne di A. D’ altra parte, se A è invertibile, manipolando le sue
15.9. ESERCIZI 325
colonne ‘alla Gauss Jordan’ possiamo pervenire ad una squadra perfetta, poi ad
una conformazione diagonale ed infine alla matrice In . Dunque, in questo caso,
AM1 M2 ...Mm = In per opportune matrici M1 , M2 , ..., Mm permutazionali o di
tipo (i) o (ii). Ma tutte queste matrici sono invertibili e le loro inverse sono
−1
ancora dello stesso tipo. Pertanto A = Mm−1
Mm−1 ...M1−1 è la rappresentazione
richiesta.
Esercizio 15.29 Si dimostri che ogni matrice A ∈ Mn (K) si può sempre rap-
presentare nella forma JT1 T2 ...Tm ove J è un’ opportuna matrice diagonale con
tanti termini uguali ad 1 quanto è il rango di A e tutti gli altri termini nulli,
mentre T1 , T2 , ..., Tm sono opportune matrici permutazionali o dei tipi (i) e (ii)
dell’ Esercizio 15.28.
Esercizio 15.30 Siano X = (xi )ni=1 ed Y = (yi )ni=1 due vettori di Vn (K). Il
prodotto XY t = (xi yj )ni,j=1 è una matrice quadrata di ordine n (cfr. Sezione
15.7 per il significato del simbolo Y t ). Indichiamo questa matrice col simbolo
X ⊗Y.
Sia τ : Vn (K) × Vn (K) −→ Mn (K) la funzione che ad ogni coppia di vettori
X, Y ∈ Vn (K) associa X ⊗ Y . Si dimostri che Im(τ ) è l’ insieme delle matrici
di Mn (K) di rango ≤ 1. (Non fa differenza se ci si riferisce al rango per righe
o al rango per colonne; comunque, rank(A| ) = rank(A− ), come dimostreremo
nel prossimo capitolo).
Nota. La trasformazione τ non è lineare. Infatti l’ insieme Im(τ ) non è un
sottospazio lineare di Mn (K).
Esercizio 15.31 Sia N un vettore non nullo di Vn (R) e sia σ la riflessione
attorno all’ iperpiano N ⊥ . Si dimostri che la matrice che rappresenta σ rispetto
alla base dei versori di Vn (R) è
2
In − N ⊗N
hN, N i
Suggerimento. Capitolo 13, Esercizio 13.38.
326 Capitolo 15
Capitolo 16
Nuclei e retroimmagini
16.1 Nucleo, nullità e rango
Per tutta questa sezione V e W sono due spazi vettoriali sullo stesso campo
K e ϕ : V → W è una trasformazione lineare. Usiamo lo stesso simbolo O
per indicare il vettore nullo di V e quello di W, lasciando che sia il contesto a
chiarire se ci riferiamo a V o a W. Ci occuperemo di retroimmagini. Si tenga
presente che ϕ−1 (X) = ϕ−1 (X ∩ Im(ϕ)) per ogni sottoinsieme X di W (Volume
1, Capitolo 3, (7)).
16.1.1 Definizione e prime proprietà
La dimostrazione della seguente proposizione è facile. La lascio al lettore.
Proposizione 16.1 Sia X un sottospazio lineare di W. Allora ϕ−1 (X ) è un
sottospazio lineare di V.
In particolare, la retroimmagine ϕ−1 (O) del vettore nullo O di W è un sotto-
spazio lineare di V. Lo si chiama il nucleo di ϕ e lo indichiamo con Ker(ϕ).
La dimensione di Ker(ϕ) si chiama nullità di ϕ. La indicheremo col simbolo
nul(ϕ).
Delle seguenti tre proposizioni, le prime due sono del tutto ovvie. La terza
segue dalla (18) del Capitolo 3 del Volume 1.
Proposizione 16.2 La trasformazione nulla è l’ unica che abbia V come nu-
cleo. Invece, il nucleo di una trasformazione lineare iniettiva è {O}.
Proposizione 16.3 Risulta Ker(ϕ|X ) = X ∩ Ker(ϕ) per ogni sottospazio li-
neare X di V.
Proposizione 16.4 Dato un altro spazio vettoriale U su K, sia ψ ∈ L(W, U).
Allora Ker(ψϕ) = ϕ−1 (Ker(ψ)) (⊇ Ker(ϕ)).
327
328 Capitolo 16
Proposizione 16.5 Risulta ϕ−1 (ϕ(X )) = Ker(ϕ) + X per ogni sottospazio
lineare X di V.
Dimostrazione. Sia X un sottospazio lineare di V. Siccome O ∈ ϕ(X ), si ha che
Ker(ϕ) ⊆ ϕ−1 (ϕ(X )). Quindi Ker(ϕ) + X ⊆ ϕ−1 (ϕ(X )).
D’ altra parte, sia X ∈ ϕ−1 (ϕ(X )). Allora ϕ(X) ∈ ϕ(X ), cioè ϕ(X) = ϕ(Y )
per qualche Y ∈ X . Dunque ϕ(X − Y ) = O, cioè X − Y ∈ Ker(ϕ). Sicchè
X ∈ Y + Ker(ϕ) ⊆ X + Ker(ϕ). Pertanto ϕ−1 (ϕ(X )) ⊆ Ker(ϕ) + X . Quindi
ϕ−1 (ϕ(X )) = Ker(ϕ) + X . 2
Corollario 16.6 Le retroimmagini dei sottospazi lineari di W sono i sottospazi
lineari di V che contengono Ker(ϕ).
(Questo segue subito dalla Proposizione 16.5). Sia ora S un sottospazio affine di
W e sia X la sua direzione. Supponiamo che S ∩ Im(ϕ) 6= ∅. (Allora S ∩ Im(ϕ)
è un sottospazio affine di W e la sua direzione è X ∩ Im(ϕ); cfr. Capitolo 10,
(7).) Per la Proposizione 16.2, l’ insieme ϕ−1 (X ) è un sottospazio lineare di V.
Proposizione 16.7 Risulta ϕ−1 (S) = P +ϕ−1 (X ), ove P è un qualunque punto
di ϕ−1 (S).
Dimostrazione. Si ha che
X ∈ P + ϕ−1 (X ) ⇐⇒ X − P ∈ ϕ−1 (X ) ⇐⇒
⇐⇒ ϕ(X − P ) ∈ X ⇐⇒ ϕ(X) − ϕ(P ) ∈ X ⇐⇒
⇐⇒ ϕ(X) ∈ ϕ(P ) + X ⇐⇒ X ∈ ϕ−1 (ϕ(P ) + X )
Ma ϕ(P ) + X = S. Dunque P + ϕ−1 (X ) = ϕ−1 (S). 2
Corollario 16.8 Risulta ϕ−1 (ϕ(P + X )) = P + (Ker(ϕ) + X ) per ogni punto
P di V ed ogni sottospazio lineare X di V.
Dimostrazione. Risulta ϕ(P + X ) = ϕ(P ) + ϕ(X ) e questo è un sottospazio
affine di W di direzione ϕ(X ) (Capitolo 13, Corollario 13.4). Quindi
ϕ−1 (ϕ(P ) + ϕ(X )) = P + ϕ−1 (ϕ(X )) = P + (Ker(ϕ) + X )
per le Proposizioni 16.5 e 16.7. 2
Corollario 16.9 Le retroimmagini di quei sottospazi affini di W che interseca-
no Im(ϕ) in qualche punto sono i sottospazi affini di V la cui direzione contiene
Ker(ϕ).
(Facile, per il Corollario 16.8.) Dal Corollario 16.8 segue anche che per ogni
punto P di V risulta ϕ−1 (ϕ(P )) = P + Ker(ϕ). Dunque,
Corollario 16.10 I sottospazi affini di V di direzione Ker(ϕ) sono le retroim-
magini dei punti di Im(ϕ).
16.1. NUCLEO, NULLITÀ E RANGO 329
I sottospazi affini di V di direzione Ker(ϕ) si chiamano laterali di Ker(ϕ) (cfr.
Volume 2, Capitolo 8, §8.9.1). Si è già osservato (Proposizione 16.1) che il nucleo
di una trasformazione iniettiva è {O}. Dal Corollario 16.10 si ottiene subito il
viceversa:
Teorema 16.11 Se Ker(ϕ) = {O} allora ϕ è iniettiva.
16.1.2 Retroimmagini e sistemi lineari
Data una matrice A ∈ Mm,n (K), sia ϕ la trasformazione lineare da Vn (K) a
Vm (K) rappresentata rispetto ai versori dalla matrice A. Dato B ∈ Vm (K), il
sistema
(∗) AX = B
equivale all’ equazione ϕ(X) = B (Capitolo 15, §15.7.3). Quindi il sistema
(∗) è risolubile se e solo se B ∈ Im(ϕ). Se questo è il caso, ϕ−1 (B) è la
soluzione completa di (∗). Esso è un sottospazio affine di Vn (K) con Ker(ϕ)
come direzione (Corollario 16.10; cfr. anche Capitolo 10, Sezione 10.2). Quindi
nul(ϕ) è la dimensione della soluzione di (∗) e Ker(ϕ) è la soluzione del sistema
omogeneo AX = O associato ad (∗).
16.1.3 La formula “nullità+rango”
Sia I un complementare di Ker(ϕ) in V. Indichiamo con ϕI la trasformazione
lineare da I ad Im(ϕ) indotta da ϕ (Capitolo 13, §13.1.4).
Lemma 16.12 La trasformazione ϕI è un isomorfismo da I ad Im(ϕ).
Dimostrazione. La trasformazione ϕI è iniettiva per il Teorema 16.11, per la
Proposizione 16.3 e perchè I è un complementare di Ker(ϕ). Dimostriamo che
è suriettiva.
Risulta V = L(I ∪ Ker(ϕ)) perchè I è complementare di Ker(ϕ). Quindi
Im(ϕ) = L(ϕ(I) ∪ ϕ(Ker(ϕ))) = ϕ(I) per la (6) del Capitolo 14, perchè ϕ(I)
è un sottospazio lineare di W e perchè ϕ(Ker(ϕ)) = {O}. 2
Questo lemma ci dice che V è somma diretta di Ker(ϕ) e di una copia di Im(ϕ).
Sbrigativamente (ma scorrettamente) potremmo dire che V è somma diretta di
Ker(ϕ) ed Im(ϕ). Oppure, più appropriatamente, che è isomorfo al prodotto
cartesiano di Ker(ϕ) ed Im(ϕ) (Capitolo 7, Sezione 7.4).
Teorema 16.13 Risulta nul(ϕ) + rank(ϕ) = dim(V).
Dimostrazione. Abbiamo dim(V) = nul(ϕ) + dim(I) per il Corollario 7.3 del
Capitolo 7 e dim(I) = rank(ϕ) per il Lemma 16.12. 2
L’ uguaglianza nul(ϕ) + rank(ϕ) = dim(V) è nota col nome di “formula Nul-
lità+Rango”. In essa non è necessaria alcuna ipotesi sulla dimensione di V.
330 Capitolo 16
Quando V ha dimensione infinita questa formula non dice molto, ma qualcosa
può dire. Per esempio, supponendo V di dimensione infinita, se rank(ϕ) < ∞
allora nul(ϕ) = dim(V) e se nul(ϕ) < ∞, allora rank(ϕ) = dim(V). Ritroviamo
anche alcuni risultati già ottenuti nel Capitolo 13. Per esempio, se ϕ è suriet-
tiva allora dim(V) ≥ dim(W) (Capitolo 13, Corollario 13.8); se ϕ è iniettiva
allora dim(V) ≤ dim(W) (Capitolo 13, Corollario 13.22). Ma il Teorema 16.13
è utile soprattutto quando dim(V) < ∞. Per esempio, da esso (usando anche il
Teorema 16.11) si riottengono i Corollari 13.23 e 13.24 del Capitolo 13.
Il Teorema 16.13 ci permette di calcolare le dimensioni delle retroimmagini
di sottospazi lineari o affini di W e delle immagini di sottospazi lineari o affini
di V di dimensione finita.
Corollario 16.14 Sia X un sottospazio lineare di W. Allora
dim(ϕ−1 (X )) = nul(ϕ) + dim(X ∩ Im(ϕ))
Dimostrazione. Risulta Ker(ϕ) ⊆ ϕ−1 (X ) per il Corollario 16.6. D’ altra parte,
ϕ(ϕ−1 (X )) = X ∩ Im(ϕ). Applicando il Teorema 16.13 alla restrizione di ϕ a
ϕ−1 (X ) otteniamo la conclusione. 2
Corollario 16.15 Sia S un sottospazio affine di W. Se S ∩ Im(ϕ) 6= ∅, allora
dim(ϕ−1 (S)) = nul(ϕ) + dim(S ∩ Im(ϕ))
(Ovvio, per il Corollario 16.14 e la Proposizione 16.5.)
Corollario 16.16 Risulta dim(ϕ(X )) + dim(Ker(ϕ) ∩ X ) = dim(X ) per ogni
sottospazio lineare X di V.
(Questo segue dal Teorema 16.13 applicato alla restrizione di ϕ ad X .)
Corollario 16.17 Dato un sottospazio affine S di V, sia SO la sua direzione.
Allora, dim(ϕ(S)) + dim(Ker(ϕ) ∩ SO ) = dim(S).
Dimostrazione. Dato P ∈ S, risulta ϕ(S) = ϕ(P ) + ϕ(SO ) (Capitolo 13,
Corollario 13.4). La conclusione segue dal Corollario 16.16. 2
Il Corollario 16.14 ci permette anche di calcolare la nullità di una trasformazione
composta:
Corollario 16.18 Dato un’ altro spazio vettoriale U su K, sia ψ ∈ L(W, U).
Allora nul(ψϕ) = nul(ϕ) + dim(Ker(ψ) ∩ Im(ϕ)).
Dimostrazione. Ker(ψϕ) = ϕ−1 (Ker(ψ) ∩ Im(ϕ)) per la Proposizione 16.4. Il
Corollario 16.14 ci dà la conclusione. 2
Corollario 16.19 Dati U e ψ come nel Corollario 16.18, supponiamo per di
più che Im(ϕ) ⊇ Ker(ψ). Allora nul(ψϕ) = nul(ϕ) + nul(ψ).
(Ovvio, per il Corollario 16.18).
16.2. ESEMPI 331
16.2 Esempi
16.2.1 Proiezioni
Dato uno spazio vettoriale V ed un suo sottospazio lineare A, sia B un com-
B B
plementare di A in V. Allora A = Im(πA ) e B = Ker(πA ). Quindi V =
B B
Ker(πA ) ⊕ Im(πA ).
16.2.2 Funzionali lineari
Sia V uno spazio vettoriale su un campo K.
Lemma 16.20 Ogni iperpiano di V passante per O è nucleo di un opportuno
funzionale lineare di V.
Dimostrazione. Dato un iperpiano S di V contenente O, sia A un vettore di V
non in S. La retta L(A) è un complementare di S (Capitolo 7, Lemma 7.15).
Quindi, presa una base X di S, l’ insieme X ∪ {A} è una base di V e possiamo
considerare la proiezione scalare su A, che è un funzionale lineare (Capitolo 13,
S
§13.2.2). Indichiamolo con ν. Risulta ν(X)A = πL(A) (X) per ogni X ∈ V. È
ora chiaro che Ker(ν) = S. 2
Lemma 16.21 I nuclei dei funzionali lineari di V non nulli sono iperpiani di
V.
Dimostrazione. Dato un funzionale lineare non nullo ϕ di V, sia A un vettore
di V non in Ker(ϕ). Allora ϕ(A) 6= 0. Per ogni X ∈ V, poniamo ψ(X) =
ϕ(X)/ϕ(A). Evidentemente, ϕ(X − ψ(X)A) = 0, cioè X − ψ(X)A ∈ Ker(ϕ).
Dunque X ∈ ψ(X)A+Ker(ϕ). Pertanto L(A)+Ker(ϕ) = V. D’ altra parte, se
xA ∈ Ker(ϕ), allora xϕ(A) = 0 e quindi x = 0 perchè ϕ(A) 6= 0. In definitiva,
L(A) ∩ Ker(ϕ) = {O}. Sicchè V = L(A) ⊕ Ker(ϕ). Dunque Ker(ϕ) è un
iperpiano. 2
Mettendo insieme i Lemmi 16.20 e 16.21 si ha:
Teorema 16.22 Gli iperpiani di V passanti per O sono i nuclei dei funzionali
lineari non nulli di V.
16.2.3 La derivata
Come in §13.2.5 del Capitolo 13, indico con D l’ operatore di derivazione su
C∞ (R). Una funzione f ∈ C∞ (R) ha derivata identicamente nulla se e solo se
è costante. Cioè, il nucleo di D è l’ insieme delle funzioni costanti. Questo è un
sottospazio lineare di C∞ (R) di dimensione 1 (è la retta per O generata dalla
costante 1). Dunque nul(D) = 1.
Però l’ operatore D è suriettivo (Capitolo 13, §13.2.5). Questo non è in
contrasto con il Lemma 16.12. Infatti, preso un qualunque numero reale a,
332 Capitolo 16
risulta C∞ (R) ∼ = Im(Ia ) (Capitolo 13, §13.2.5) ed Im(Ia ), che è l’ insieme
delle funzioni di C∞ (R) che valgono 0 in a, è un complementare di Ker(D)
(Capitolo 7, §7.1.3).
Data f ∈ C∞ (R), la retroimmagine D−1 (f ) è l’ integrale indefinito f (x)dx
R
di f . Per il Corollario 16.11, l’ insieme D−1 (f ) è una retta (cfr. Capitolo 10,
§10.3.1):
Z Z x
−1
f (x)dx = D (f ) = Ia (f ) + Ker(D) = f (z)dz + L(1)
a
L’ operatore D − aI. Dato a ∈ R, indichiamo con Ea l’ operatore D − aI (in
particolare, E0 = D). Il suo nucleo è costituito da quelle funzioni f ∈ C∞ (R)
tali che f 0 = af . È noto dall’ Analisi che queste sono le funzioni del tipo
f (x) = ceax . Cioè Ker(Ea ) è la retta per O generata dal vettore eax di C∞ (R).
Quindi nul(Ea ) = 1.
È noto dall’ Analisi che Ea è suriettivo. Vale a dire, per ogni f ∈ C∞ (R), l’
equazione differenziale
(∗) Y 0 − aY = f (x)
ammette soluzione. La soluzione generale di (∗) è appunto la retroimmagine
ϕ−1
a (f ) di f mediante Ea , che per il Corollario 16.10 è una retta di direzione
Ker(Ea ) = L(eax ) (cfr. Capitolo 10, §10.3.2). Per determinare questa retta
basta trovare un suo punto, cioè una soluzione particolare g dell’ equazione (∗).
Per esempio, possiamo prendere g cosı̀:
Z x
g(x) = eax e−az f (z)dz
0
Quindi la soluzione generale di (∗) è la seguente retta di C∞ (R):
Z x
eax e−at f (t)dt + {teax }t∈R
0
Derivate di funzioni da R a C. Le funzioni da R a C formano lo spazio
vettoriale C R (il campo degli scalari è C). Ogni funzione f ∈ C R può scriversi in
modo unico nella forma f1 +if2 con f1 , f2 ∈ RR . Anche per le funzioni da R a C
si può parlare di rapporto incrementale, e quindi di derivata, come per le funzioni
da R ad R. Date due funzioni f1 , f2 ∈ RR , la funzione f = f1 + if2 ∈ C R è
derivabile se e solo se tanto f1 che f2 sono derivabili, e risulta f 0 = f10 + if20 . Da
questo si vede subito che valgono per le derivate di funzioni da R a C proprietà
analoghe a quelle delle derivate di funzioni da R a R. In particolare, se due
funzioni f e g sono derivabili, allora f + g è derivabile ed (f + g)0 = f 0 + g 0 .
Inoltre, se f è derivabile allora anche af è derivabile (e ciò per ogni a ∈ C) e
risulta (af )0 = af 0 .
Quindi, indicato con C∞ (R, C) l’ insieme delle funzioni da R a C che in
ogni punto ammettono tutte le derivate, di qualunque ordine, C∞ (R, C) è un
16.3. IL RANGO DI UNA MATRICE 333
sottospazio lineare di C R e la funzione da C∞ (R, C) a C∞ (R, C), che ad ogni ele-
mento di C∞ (R, C) associa la sua derivata, è un operatore lineare su C∞ (R, C).
Indichiamo anche questo operatore con la lettera D. (Si noti che esso porta l’
insieme C∞ (R) in sè ed induce su di esso il solito operatore di derivazione.)
Come nel caso reale, Ker(D) è l’ insieme delle costanti. Cioè, è il sottospazio
lineare L(1) generato dalla costante 1. Quindi nul(D) = 1. Inoltre D è surietti-
vo. Quindi la retroimmagine di un elemento di C∞ (R, C) è una retta parallela
ad L(1) (Corollario 16.10). Più precisamente, data f = f1 + if2 ∈ C∞ (R, C)
(ove f1 , f2 ∈ C∞ (R)) risulta
Z x Z x
D−1 (f ) = f1 (t)dt + i f2 (t)dt + L(1)
0 0
Per ogni c ∈ C, anche l’ operatore D − cI è suriettivo ed ha nullità 1. Il suo
nucleo è il sottospazio lineare di C∞ (R, C) generato dalla funzione
ecx = e(a+ib)x = eax (cos bx + i sin bx), (x ∈ R)
ove a + ib = c. Quindi la retroimmagine mediante D − cI di un elemento
f ∈ C∞ (R, C) è una retta parallela ad L(ecx ).
16.3 Il rango di una matrice
Usando la formula Nullità+Rango possiamo (finalmente) dimostrare il seguente
teorema, preannunciato fin dal Capitolo 6:
Teorema 16.23 Risulta rank(A| ) = rank(A− ), per ogni matrice A.
Dimostrazione. Data una matrice A ∈ Mm,n (K), sia ϕ la trasformazione lineare
da Vn (K) a Vm (K) rappresentata da A rispetto ai versori. Indicato con X il
sistema omogeneo AX = O, per il Teorema 6.5 del Capitolo 6 risulta
(i) rank(A− ) = n − dim(sol(X))
D’ altra parte, Ker(ϕ) = sol(X). Quindi la (i) può riscriversi cosı̀:
(ii) rank(A− ) = n − nul(ϕ)
Dalla (11) del Capitolo 13 e dal Teorema 16.13 si deduce poi che
(iii) rank(A| ) = rank(ϕ) = n − nul(ϕ)
Paragonando (ii) e (iii) otteniamo la tesi. 2
Dunque d’ ora in poi non distingueremo più tra rango per righe e rango per
colonne di una matrice A, ma parleremo semplicemente del rango di A. Lo
indichiamo con rank(A). Tutti i teoremi che nei capitoli precedenti contenevano
riferimenti a ranghi per righe o ranghi per colonne vanno riformulati cancellando
in essi le parole “per righe” o “per colonne”. Per esempio, i Teoremi 6.1 e 6.4
334 Capitolo 16
del Capitolo 6 dicono la stessa cosa. La Proposizione 15.4 del Capitolo 15 può
riformularsi cosı̀: una matrice quadrata A di ordine n è invertibile se e solo se
rank(A) = n. La Proposizione 15.6 del Capitolo 15 può riscriversi cosı̀: una
matrice triangolare di ordine n ha rango n (e quindi è invertibile) se e solo se
tutti i termini sulla sua diagonale principale sono diversi da 0.
Calcolo di ranghi. Siccome il rango di una matrice è lo stesso se calcolato
per righe o per colonne, nel calcolare il rango di una certa m-pla di vettori di
Vn (K) possiamo decidere di trattarla come una n-pla di colonne anzichè come
una n-pla di righe, se ci fa comodo.
Per esempio, supponiamo di volere appurare se le quattro righe della se-
guente matrice di M4,5 (R) (che sono vettori di V5 (R)) formano una quaterna
linearmente indipendente (cioè di rango 4).
1 3 1 3 1
1 −1 1 −1 1
1 1 0 −1 −1
0 1 2 1 0
Usiamo i soliti metodi ‘alla Gauss-Jordan’. Però, siccome il rango è l’ unica cosa
che ora ci interessa, non siamo obbligati ad applicare la procedura di Gauss-
Jordan alle righe, anche se la domanda alla quale vogliamo rispondere è stata
posta per le righe. Cominciamo lavorando sulle colonne. Sommiamo la prima
colonna alla seconda, alla quarta ed alla quinta. Otteniamo
1 4 1 4 2
1 0 1 0 2
1 2 0 0 0
0 1 2 1 0
Dividiamo ora l’ ultima colonna per due e poi sottraiamola dalla prima e dalla
terza:
0 4 0 4 1
0 0 0 0 1
1 2 0 0 0
0 1 2 1 0
Ora invece lavoriamo per righe. Sottraiamo la seconda riga dalla prima:
0 4 0 4 0
0 0 0 0 1
1 2 0 0 0
0 1 2 1 0
Dividiamo la prima riga per 4 e poi sottraiamola dalla quarta:
0 1 0 1 0
0 0 0 0 1
1 2 0 0 0
0 0 2 0 0
16.4. ESERCIZI 335
Adesso ritorniamo alle colonne. Sottraiamo dalla seconda la quarta colonna:
0 0 0 1 0
0 0 0 0 1
1 2 0 0 0
0 0 2 0 0
La prima e la seconda colonna sono proporzionali. Quindi possiamo cancellarle
una senza alterare il rango. Cancelliamo la prima, per esempio. Ci resta questa
matrice quadrata:
0 0 1 0
0 0 0 1
2 0 0 0
0 2 0 0
Questa matrice ha rango quattro. Dunque 4 è anche il rango della quaterna
di vettori dalla quale eravamo partiti. Quindi quella quaterna era linearmente
indipendente.
Nota. Questa procedura disinvolta ci dà solo il rango della sequenza originaria.
Invece il metodo di Gauss-Jordan, nella versione ‘ortodossa’ del Capitolo 3, ci
fornisce anche una sequenza linearmente indipendente ed equivalente alla se-
quenza originaria. Questo non possiamo aspettarcelo da procedure come quella
seguita ora: fanno troppo ‘sconquasso’. (Nell’ esempio che ho dato siamo partiti
con quattro vettori di V5 (R) e siamo addirittura andati a finire in V4 (R).)
16.4 Esercizi
Esercizio 16.1 Sia ϕ ∈ L4 (R) rappresentata rispetto ai versori dalla seguente
matrice:
3 1/2 −1 1
1/3 2 1 −1
1 1 −1 −1
4 4 0 −1
Verificate che ha nullità 1 e trovate un generatore per Ker(ϕ) ed una rappre-
sentazione cartesiana per Im(ϕ).
Risposta. Ker(ϕ) = L((3, −4, 3, −4)) ed Im(ϕ) = (2, 3, 1, −2)⊥ .
Esercizio 16.2 Data ϕ come nell’ Esercizio 16.1, si descriva ϕ−1 (ϕ(C+L(A, B))),
ove A = (1, −1, 1, −1), B = (1, 1, −1, −1) e C = (0, 1, 2, 3).
Risposta. C + (L(A, B) + Ker(ϕ)), cioè C + L(U1 − U2 , U1 − U3 , U1 − U4 ), ove,
come al solito, U1 , U2 , U3 , U4 sono i versori di V4 (R).
Esercizio 16.3 Sia ϕ come nell’ Esercizio 16.1. Descrivete la retroimmagine
mediante ϕ dell’ iperpiano di V4 (R) di equazione x1 − 2x2 + 3x3 − 4x4 = 5.
Risposta. −4−1 (3, 0, 0, 3) + (−64, −99, −36, 24)⊥ .
336 Capitolo 16
Esercizio 16.4 Sia ϕ come nell’ Esercizio 16.1. Trovate le retroimmagini me-
diante ϕ delle rette P + L(A), P + L(B) e Q + L(B), ove A = (1, −1, 0, 0),
B = (0, 0, 2, 1), P = (4, −3, −2, −1) e Q = (3, −2, 0, 0).
Risposta. Risulta Im(ϕ) ∩ (P + L(A)) = {Q − B}, Im(ϕ) ∩ (P + L(B)) = ∅ e
Im(ϕ) ⊃ Q + L(B). Quindi
ϕ−1 (P + L(B)) = ∅,
ϕ−1 (P + L(A)) = (6/5, −6/5, 1, 1) + Ker(ϕ) =
= (6/5, −6/5, 1, 1) + L((3, −4, 3, −4)),
ϕ−1 (Q + L(B)) = (−6, 5, −3, 4) + (Ker(ϕ) + L((2, 0, −1, −1))) =
= (−6, 5, −3, 4) + L((3, −4, 3, −4), (2, 0, −1, −1)).
Esercizio 16.5 Sia Jn (a, b) come nell’ Esercizio 13.26 del Capitolo 13 e sia
ϕ ∈ Ln (K) rappresentata da Jn (a, b) rispetto ai versori U1 , U2 , ..., Un di Vn (K).
Supponendo n 6= ch(K) e b 6= 0, si determini Ker(ϕ) ed Im(ϕ) nel caso di
a = b 6= 0 e nel caso di aP= (1 − n)b 6= b.
n
Risposta. Posto U = i=1 Ui ed X = L(U1 − Un , U2 − Un , ..., Un−1 − Un ),
nel primo caso risulta Ker(ϕ) = X ed Im(ϕ) = L(U ), invece nel secondo caso
è Ker(ϕ) = L(U ) ed Im(ϕ) = X . (Si noti che Vn (K) = X ⊕ L(U ); quindi, in
un caso e nell’ altro, Vn (K) = Ker(ϕ) ⊕ Im(ϕ). In particolare, quando K = R
oppure C allora Im(ϕ) = Ker(ϕ)⊥ .)
Esercizio 16.6 Sia ϕ ∈ Ln (K) rappresentata rispetto ai versori U1 , U2 ,..., Un
di Vn (K) da una matrice triangolare superiore con 0 sulla diagonale principale
0 a1,2 ∗ ..... ∗ ∗ ∗
0 0 a2,3 ..... ∗ ∗ ∗
0 0 0 ..... ∗ ∗ ∗
... .... .... ..... ... .... ....
0 0 0 ..... 0 an−2,n−1 ∗
0 0 0 ..... 0 0 an−1,n
0 0 0 ..... 0 0 0
e con ai,i+1 6= 0 per i = 1, 2, ..., n − 1. Si determinino Ker(ϕ) ed Im(ϕ).
Risposta. Ker(ϕ) = L(U1 ) ed Im(ϕ) = L(U1 , U2 , ..., Un−1 ).
Nota. Qui risulta Ker(ϕ) ⊆ Im(ϕ).
Esercizio 16.7 Dati tre spazi vettoriali V, W, U sullo stesso campo, siano
ϕ ∈ L(V, W) e ψ ∈ L(W, U). Si dimostri che ψϕ = OV,W se e solo se Im(ϕ) ⊆
Ker(ψ).
Nota. Esempi di questa situazione si ottengono facilmente da proiezioni. Cfr.
Capitolo 13, Esercizi 13.1 e 13.2.
Esercizio 16.8 Dato uno spazio vettoriale V di dimensione finita n, sia ϕ ∈
L(V) con ϕ2 = O. Si dimostri che rank(ϕ) ≤ n/2.
Soluzione. Risulta ϕ2 = O se e solo se Im(ϕ) ⊆ Ker(ϕ) (Esercizio 16.7). Que-
sta inclusione, unitamente alla formula Nullità+Rango, implica che rank(ϕ) ≤
n/2.
16.4. ESERCIZI 337
Nota. Esempi con ϕ2 = O sono impliciti in alcuni esercizi del Capitolo 15. Per
esempio, Esercizio 15.2(i) con u = 0, Esercizio 15.3 con u = 0 ed Esercizio 15.9
con xy = 0. Anche Capitolo 13, Esercizio 13.3.
Esercizio 16.9 Dato uno spazio vettoriale V di dimensione finita n, siano
ϕ, ψ ∈ L(V) tali che ψϕ = ϕψ = O. Si dimostri che rank(ϕ) + rank(ψ) ≤ n.
Suggerimento. Risulta Im(ϕ) ⊆ Ker(ψ) ed Im(ψ) ⊆ Ker(ϕ) (Esercizio
16.7).
Esercizio 16.10 Ferme le ipotesi dell’ Esercizio 16.9, si dimostri che o risulta
Im(ϕ) = Ker(ψ) ed Im(ψ) = Ker(ϕ), oppure Ker(ϕ) ∩ Ker(ψ) 6= {O}.
Esercizio 16.11 Dato uno spazio vettoriale V, sia X un suo sottospazio lineare.
Si trovi qualche trasformazione lineare ϕ ∈ L(V) tale che Ker(ϕ) = X .
Soluzione. Si prenda un complementare Y di X e si consideri la proiezione su
Y lungo X .
Esercizio 16.12 Dato uno spazio vettoriale V, sia S un suo sottospazio affine
non passante per O. Si trovi qualche trasformazione lineare ϕ ∈ L(V) e qualche
vettore X ∈ V tali che S = ϕ−1 (X).
Soluzione. Sia X ∈ S. Siccome O 6∈ S, il vettore X non appartiene alla direzio-
ne SO di S. Per il Lemma 7.10 del Capitolo 7, SO ammette un complementare
X contenente X. Si consideri la proiezione su X lungo SO .
Esercizio 16.13 Se ϕ è la proiezione di uno spazio vettoriale V su un suo sot-
tospazio, allora ϕ è idempotente di esponente 2, cioè ϕ2 = ϕ (Capitolo 13, Eser-
cizio 13.1). Si dimostri che tutti gli elementi di L(V) idempotenti di esponente
2 sono proiezioni.
Soluzione. Sia ϕ ∈ L(V) tale che ϕ2 = ϕ. Allora Ker(ϕ) ∩ Im(ϕ) = {O}.
Sia X un complementare di Ker(ϕ) contenente Im(ϕ). Per il Lemma 16.12, la
restrizione ϕ|X è un isomorfismo da X ad Im(ϕ). D’ altra parte, ϕ induce l’
identità su Im(ϕ). Perciò X = Im(ϕ). Dunque ϕ è la proiezione di Ker(ϕ) su
Im(ϕ).
Esercizio 16.14 Si dimostri che due funzionali lineari non nulli di uno stesso
spazio vettoriale sono proporzionali se e solo se hanno lo stesso nucleo.
Soluzione. Il “solo se” è ovvio. Dimostriamo il “se”. Siano ϕ e ψ funzionali
lineari non nulli di uno stesso spazio vettoriale V e supponiamo che abbiano lo
stesso nucleo, diciamolo S. Preso A 6∈ S, si ha che
ϕ(A)
ϕ = ψ
ψ(A)
Infatti, posto θ = ψ(A)ϕ − ϕ(A)ψ, risulta Ker(θ) ⊇ S + L(A) = V, cioè θ = O.
338 Capitolo 16
Esercizio 16.15 Sia V uno spazio euclideo. Si dimostri che i funzionali linea-
ri ϕ di V che possono rappresentarsi nella forma ϕ(X) = hX, Ai per qualche
vettore A 6= O sono quelli il cui nucleo ammette vettore normale.
Soluzione. Se ϕ(X) = hX, Ai, allora Ker(ϕ) = A⊥ ... Viceversa, sia N un
vettore normale per Ker(ϕ). Per l’ Esercizio 16.14, esiste uno scalare a tale che
ϕ(X) = ahX, N i. Dunque ϕ(X) = hX, Ai ove A = a−1 N (= a−1 N nel caso
reale).
Nota. Se V ha dimensione finita, ogni iperpiano di V ammette vettore normale
(Capitolo 9, Corollario 9.26) e quindi ogni funzionale lineare di V può esprimersi
come hX, Ai, per un opportuno vettore A. Cfr. Capitolo 13, Esercizio 13.22.
Esercizio 16.16 (La traccia di una matrice) Data una matrice quadrata A =
(ai,j )ni,j=1 , poniamo
n
X
tr(A) =def ai,i
i=1
È facile verificare che la funzione tr che ad ogni matrice A ∈ Mn (K) associa
tr(A) è un funzionale lineare di Mn (K).
Sia K = R. L’ isomorfismo da Vn2 (R) ad Mn (R) trasferisce su Mn (R) il
prodotto scalare standard di Vn2 (R) (cfr. Capitolo 13, Esercizio 13.45). Cosı̀
Mn (R) diventa uno spazio euclideo. Si trovi in esso il vettore normale all’
iperpiano Ker(tr).
Risposta. La matrice identità (quindi, anche ogni matrice scalare).
Definizione. Lo scalare tr(A) si chiama traccia della matrice A.
Esercizio 16.17 Anche la funzione J che ad ogni matrice A = (ai,j )ni,j=1 di
Pn
Mn (K) associa i,j=1 ai,j è un funzionale lineare su Mn (K). Supposto K = R
oppure C, si trovi il vettore normale di Ker(J ).
Risposta. La matrice tutta-uno (Capitolo 13, Esercizio 13.23) o una qualunque
matrice ad essa proporzionale.
16.5 Un’ applicazione all’ analisi
Nel Capitolo 10 (§10.3.2) abbiamo parlato di equazioni differenziali, mostrando
che la soluzione generale di un’ equazione differenziale lineare, se non è vuota,
è un sottospazio affine di C∞ (R) e che la direzione di questo sottospazio affine
è la soluzione generale dell’ equazione omogenea associata a quell’ equazione.
Ritorniamo ora sull’ argomento, ma ci occupiamo solo di equazioni a coefficienti
costanti, cioè di questa forma:
n
X
(∗F ) ak Y (k) = F
k=0
16.5. UN’ APPLICAZIONE ALL’ ANALISI 339
ove l’ incognita Y si riferisce ad elementi di C∞ (R), F (termine noto) è un dato
elemento di C∞ (R) ed a0 , a1 , ..., an sono numeri reali con an 6= 0. Il numero
naturale n è l’ ordine dell’ equazione.
Indicando conPn D l’ operatore di derivazione su C∞ (R) (come in §16.2.3),
poniamo E = k=0 ak Dk . Quindi E −1 (F ) è la soluzione generale della (∗F ).
Ma E è un operatore lineare. Sicchè, se Y0 ∈ E −1 (F ), la soluzione generale
di (∗F ) è il sottospazio affine Y0 + Ker(E). Il sottospazio lineare Ker(E) è la
soluzione generale dell’ equazione omogenea associata alla (∗F ):
n
X
(∗O ) ak Y (k) = O
k=0
In §16.2.3 si è visto che quando n = 1 la soluzione di (∗F ) è una retta. Qui
generalizzeremo quel risultato dimostrando che la dimensione della soluzione di
(∗F ) è n e troveremo anche una base per la sua direzione Ker(E). Otterremo
questo risultato per via quasi solo algebrica. (Ovviamente, qualche risultato d’
Analisi lo useremo; per esempio, questo: per ogni scalare c l’ operatore D − cI
è suriettivo e ha nullità 1.)
16.5.1 Alcuni lemmi
Stabiliamo prima alcuni lemmi generali che sfrutteremo poi nella discussione
dell’ equazione (∗)O . Nel seguito V è uno spazio vettoriale qualunque, non im-
porta su quale campo di scalari, e ϕ, ψ, ϕ1 , ϕ2 , ..., ϕn sono trasformazioni lineari
di V in sè.
Il seguente lemma si deduce dal Corollario 16.19, applicandolo prima a ϕ e
ϕ, poi a ϕ2 e ϕ, poi a ϕ3 e ϕ e cosı̀ via.
Lemma 16.24 Se ϕ è suriettiva, allora nul(ϕn ) = n·nul(ϕ) per ogni numero
naturale n.
Nota. Se dim(V) < ∞, la suriettività di ϕ implica che nul(ϕ) = 0 (Capitolo
13, Corollario 13.23) ed il lemma precedente si riduce alla banalità 0 = n·0.
Lemma 16.25 Supponiamo che ϕψ = ψϕ. Allora
(i) Ker(ψϕ) ⊇ Ker(ϕ) + Ker(ψ) e
(ii) ψ(Ker(ϕ)) ⊆ Ker(ϕ).
Dimostrazione. Risulta Ker(ϕ) ⊆ Ker(ψϕ) e Ker(ψ) ⊆ Ker(ϕψ) per la
Proposizione 16.4. D’ altra parte, ϕψ = ψϕ per ipotesi. La (i) è dimostrata.
Sia X ∈ Ker(ϕ). Siccome ϕψ = ψϕ, si ha che ϕ(ψ(X)) = ψ(ϕ(X)). Ma
ϕ(X) = O perchè X ∈ Ker(ϕ). Quindi ϕ(ψ(X)) = O. Ed anche la (ii) è
dimostrata. 2
Lemma 16.26 Supponiamo che ψϕ = ϕψ e che Ker(ϕ) ∩ Ker(ψ) = {O}.
Allora Ker(ϕn ) ∩ Ker(ψ m ) = {O} per ogni scelta di numeri naturali n, m > 0.
340 Capitolo 16
Dimostrazione. Procediamo per induzione su n + m. Se n + m = 2 allora
n = m = 1 e l’ asserzione da dimostrare è vera per ipotesi. Sia n + m > 2.
Allora n > 1 oppure m > 1. Supponiamo per esempio che n > 1. Prendiamo
X ∈ Ker(ϕn ) ∩ Ker(ψ m ). Allora ϕ(X) ∈ Ker(ϕn−1 ). Inoltre, siccome ϕ e
ψ commutano, ψ m (ϕ(X)) = ϕ(ψ m (X)) = O perchè X ∈ Ker(ψ m ). Quindi
ϕ(X) ∈ Ker(ϕn−1 ) ∩ Ker(ψ m ) e pertanto ϕ(X) = O per ipotesi induttiva.
Dunque X ∈ Ker(ϕ) ∩ Ker(ψ m ). Ma 1 + m < n + m perchè si è supposto
n > 1. Quindi possiamo applicare l’ ipotesi induttiva a ϕ e ψ m e ne deduciamo
che X = O. 2
Lemma 16.27 Supponiamo che le trasformazioni ϕ1 , ϕ2 , ..., ϕn commutino tra
loro e per di più che
(i) Ker(ϕi ) ∩ Ker(ψj ) = {O} per i, j = 1, 2, ..., n con i 6= j e che
< ∞ per i = 1, 2, ..., n.
(ii) nul(ϕi ) Q
n
Allora Ker( i=1 ϕi ) = ⊕ni=1 Ker(ϕi ).
Dimostrazione. Per induzione su n. Sia n = 2. Da (i) e dal Lemma 16.25(i)
segue che Ker(ϕ1 ϕ2 ) ⊇ Ker(ϕ1 ) ⊕ Ker(ϕ2 ). Quindi nul(ϕ1 ϕ2 ) ≥ nul(ϕ1 ) +
nul(ϕ2 ). D’ altra parte, nul(ϕ1 ϕ2 ) ≤ nul(ϕ1 ) + nul(ϕ2 ) per il Corollario 16.18.
Quindi nul(ϕ1 ϕ2 ) = nul(ϕ1 ) + nul(ϕ2 ). Pertanto Ker(ϕ1 ϕ2 ) = Ker(ϕ1 ) ⊕
Ker(ϕ2 ) per (iii).
Sia invece n > 2. Poniamo ϕ = ϕ1 ϕ2 ...ϕn−1 e ψ = ϕn . Per ipotesi induttiva,
(iii) Ker(ϕ) = ⊕n−1
i=1 Ker(ϕi )
D’ altra parte, ψ commuta con ϕ perchè commutaPn−1 con ciascuna delle trasfor-
mazioni ϕ1 , ϕ2 , ..., ϕn−1 . Inoltre, nul(ϕ) = i=1 nul(ϕi ) < ∞ per (iii) ed (ii).
Sia X ∈ Ker(ϕ) ∩ Ker(ψ). Per (iii), si ha X = X1 + X2 + ... + Xn−1 per
opportuni vettori Xi ∈ Ker(ϕi ). D’ altra parte, X ∈ Ker(ψ). Quindi
(iv) O = ψ(X1 ) + ψ(X2 ) + ... + ψ(Xn−1 )
Però ψ(Ker(ϕi )) ⊆ Ker(ϕi ) per i = 1, 2, ..., n − 1, per il Lemma 16.25(ii).
Pn−1 n−1
Perciò e siccome i=1 Ker(ϕi ) = ⊕i=1 Ker(ϕi ) (cfr. (iii)), l’ uguaglianza (iv)
implica che ψ(Xi ) = O per i = 1, 2, ..., n − 1. Dunque, per i = 1, 2, ..., n − 1
risulta Xi ∈ Ker(ϕi ) ∩ Ker(ψ) e quindi Xi = O per (i). Ne segue che X = O.
Abbiamo cosı̀ dimostrato che Ker(ϕ) ∩ Ker(ψ) = {O}. Possiamo ora applicare
a ϕ e ψ quanto già dimostrato nel caso di n = 2 ottenendo che Ker(ϕψ) =
Ker(ϕ) ⊕ Ker(ψ). Da ciò e da (iii) segue che
n−1
Ker(ϕ1 ϕ2 ...ϕn ) = (⊕i=1 Ker(ϕi )) ⊕ Ker(ϕn ) = ⊕ni=1 Ker(ϕi ),
come dovevamo dimostrare. 2
16.5.2 Decomposizione di E in C∞ (R, C)
Pn
Ritorniamo all’ operatore E = k=0 ak Dk . Per prima cosa, lo decomporremo
in un prodotto di operatori più semplici. A questo scopo conviene ampliare il
16.5. UN’ APPLICAZIONE ALL’ ANALISI 341
campo degli scalari passando da C∞ (R) allo spazio vettoriale C∞ (R, C) consi-
derato in §16.2.3. (Si noti che C∞ (R) non è un sottospazio lineare di C∞ (R, C);
è invece un sottospazio lineare dello spazio vettoriale ottenuto da C∞ (R, C) per
restrizione del campo di scalari da C a R; cfr. Capitolo 1, Sezione 1.6.)
Indichiamo con D anche l’ operatore di derivazionePin C∞ (R, C) come in
n
§16.2.3, e manteniamo in C∞ (R, C) la definizione E = k=0 ak Dk . Per il Teo-
rema Fondamentale dell’ Algebra (Volume 2, Capitolo 6) esistono numeri com-
plessi c1 , c2 , ..., cm a due a due distinti e numeri naturali non nulli n1 , n2 , ..., nm
tali che
Xn Ym
ak z k = an · (z − ck )nk , (∀z ∈ C)
k=0 k=1
Pm
(e k=1 nk = n).QDati questi numeri c1 , c2 ,P..., cm ed n1 , n2 , ..., nm , per portare
m n
l’ espressione an · k=1 (z−ck )nk nella forma k=0 ak z k servono solo la proprietà
associativa e commutativa del prodotto e la proprietà distributiva del prodotto
rispetto alla somma. Ma tutte queste proprietà valgono nella sottoalgebra ge-
nerata da D ed I nell’ algebra delle trasformazioni lineari di C∞ (R, C) in sè
(Capitolo 14, Esercizio 14.7). Quindi:
n
X m
Y
(1) E = ak Dk = an · (D − ck I)nk
k=0 k=1
Gli operatori D − ck I sono suriettivi (§16.2.3). Quindi E è suriettivo. Cioè:
Lemma 16.28 Qualunque sia F ∈ C∞ (R, C), l’ equazione (∗F ) ha soluzione
in C∞ (R, C).
Rammentando che i numeri c1 , c2 , ..., cm sono a due a due distinti, si vede subito
che Ker(D − ck I) ∩ Ker(D − ch I) = {O}, per h, k = 1, 2, ..., m con h 6= k. D’
altra parte, gli operatori D − ck I commutano tra di loro. Quindi, posto
Ek = (D − ck I)nk , (per k = 1, 2, ..., m),
dal Lemma 16.26 si ha che
(2) Ker(Ek ) ∩ Ker(Eh ) = {O}, (1 ≤ k < h ≤ m)
Inoltre:
(3) nul(Ek ) = nk , (k = 1, 2, ..., m)
per il Lemma 16.24 e perchè gli operatori D − ck I sono suriettivi ed hanno
nullità 1, come si è detto in §16.2.3. Siccome gli operatori D − ck I commutano,
anche E1 , E2 , ..., Em commutano tra loro. Da ciò, da (2), (3) e dal Lemma 16.27
si ha che:
(4) Ker(E) = ⊕m
k=1 Ker(Ek )
Quindi
(5) nul(E) = n
per (4) ed (3). Mettendo insieme (5) col Lemma 16.28 otteniamo che:
342 Capitolo 16
Lemma 16.29 La soluzione generale della (∗F ) in C∞ (R, C) è un sottospazio
affine di dimensione n, qualunque sia F ∈ C∞ (R, C).
Vogliamo ora descrivere una base di Ker(E). Per (4), è sufficiente trovare basi
di Ker(E1 ), Ker(E2 ),..., Ker(Em ) e metterle insieme. Ci farà comodo avere
introdotto la seguente abbreviazione. Poniamo
Eh,k (x) = xh eck x , (k = 1, 2, ..., m, h = 0, 1, ..., nk − 1)
Una verifica diretta mostra che per ogni c ∈ C ed ogni h ∈ N la funzione xh ecx
appartiene a Ker((D − cI)h+1 ) ma non a Ker((D − cI)h ). Quindi, per ogni
k = 1, 2, ..., m e per h < nk si ha che
(6) Eh,k ∈ Ker((D − ck I)h+1 ) \ Ker((D − ck I)h )
Inoltre, se r ≤ s risulta
(7) Ker((D − ck I)r ) ⊆ Ker((D − ck I)s )
(Proposizione 16.4). Quindi,
(8) Ker((D − ck I)h ) ⊆ Ker(Ek )
per k = 1, 2, ..., m e per h < nk .
Lemma 16.30 Le funzioni E0,k , E1,k , ..., Enk −1,k formano una base di Ker(Ek ).
Dimostrazione. Si ha E0,k , E1,k , ..., Eh−1,k ∈ Ker((D − ck I)h ) per (6) e (7). Da
ciò e da (6) segue che Eh,k 6∈ L(E0,k , E1,k , ..., Eh−1,k ) per ogni h < nk . Dunque
i vettori E0,k , E1,k , ..., Enk −1,k sono linearmente indipendenti. Per (8), essi ap-
partengono a Ker(Ek ). Quindi formano una base di Ker(Ek ), dal momento che
si ha dim(Ker(Ek )) = nk , per (3). 2
Dal Lemma 16.30 e da (4) si ottiene questo:
Lemma 16.31 le seguenti n funzioni formano una base di Ker(E):
E0,1 , E1,1 , ...., En1 −1,1
E0,2 , E1,2 , ...., En2 −1,2
..... ..... .... .....
E0,m , E1,m , ...., Enm −1,m
16.5.3 Ritornando a C∞ (R)
Siamo passati da C∞ (R) a C∞ (R, C) per poter decomporre E in un prodotto
di fattori di primo grado in D. Ma quello che ci interessava era la soluzione
generale di (∗F ) in C∞ (R). Reinterpretiamo dunque in C∞ (R) i risultati che
abbiamo ottenuti. Cominciamo con l’ osservare che, se Y1 , Y2 ∈ C∞ (R), allora
Pn
E(YP1 + iY2 ) = Dk (Y1 + iY2 ) =
k=0 akP
n k n k
= k=0 ak D (Y1 ) + i k=0 ak D (Y2 ) = E(Y1 ) + iE(Y2 )
16.5. UN’ APPLICAZIONE ALL’ ANALISI 343
Sicchè, data una funzione F ∈ C∞ (R), se Y = Y1 + iY2 è una soluzione di (∗F )
in C∞ (R, C), allora Y1 è una soluzione di (∗F ) (mentre Y2 è una soluzione dell’
equazione omogenea (∗O )). Quindi, per il Lemma 16.28:
Lemma 16.32 Qualunque sia F ∈ C∞ (R), l’ equazione (∗F ) ha sempre solu-
zioni in C∞ (R).
Resta da trovare la dimensione del nucleo di E in C∞ (R) e da descriverne
una base. Ma mettiamo prima un po’ d’ ordine nella m-pla (c1 , c2 , ..., cm ).
I numeri non reali che vi compaiono sono coniugati (Volume 2, Capitolo 6,
§6.4.2). Poniamo che in questa sequenza compaiano s coppie di numeri non
reali coniugati tra loro (nulla vieta che s = 0, cioè che tutti i numeri c1 , c2 , ..., cm
siano reali). Supponiamo di avere ordinato i numeri c1 , c2 , ..., cm mettendo all’
inizio quelli che non sono reali (se ce ne sono), raggruppati a coppie di coniugati:
un numero e poi il suo coniugato, poi un altro, e subito dopo il suo coniugato, e
cosı̀ via. Cioè c2h−1 = ah + ibh e c2h = c2h−1 = ah − ibh (per h = 1, 2, ..., s), ove
ah e ibh sono la parte reale e la parte immaginaria di c2h−1 . Se 2s < m, i numeri
c2s+1 , c2s+2 ,..., cm sono reali. Inoltre, per ogni h = 1, 2, ..., s, gli esponenti n2h−1
ed n2h sono uguali (Volume 2, Capitolo 6, §6.4.2). Poniamo mh = n2h−1 = n2h .
Per ogni h = 1, 2, ..., s ed ogni j = 0, 1, ..., mh − 1 risulta
Ej,2h−1 (x) = xj e(ah +ibh )x = xj eah x (cos bh x + i sin bh x)
Ej,2h (x) = xj e(ah −ibh )x = xj eah x (cos bh x − i sin bh x)
Poniamo
+ Ej,2h−1 + Ej,2h − Ej,2h−1 − Ej,2h
Fj,h = , Fj,h =
2 2i
+ −
Evidentemente, le coppie {Ej,2h−1 , Ej,2h } ed {Fj,h , Fj,h } sono equivalenti (nel
senso del Capitolo 3). Quindi, per il Lemma 16.30:
Lemma 16.33 Le seguenti n funzioni formano una base di Ker(E) in C∞ (R, C):
+ + +
F0,1 , F1,1 , ....., Fm 1 −1,1
− − −
F0,1 , F1,1 , ....., Fm1 −1,1
.... .... ..... ......
+ + +
F0,s , F1,s , ....., Fm s −1,s
− − −
F0,s , F1,s , ....., Fm s −1,s
E0,2s+1 , E1,2s+1 , .... En2s+1 −1,2s+1
.... .... ..... ......
E0,m , E1,m , .... Enm −1,m
D’ altra parte, si vede subito che
+ −
Fj,h (x) = xj eah x cos bh x, Fj,h (x) = xj eah x sin bh x
Quindi tutte le n funzioni elencate nel Lemma 16.33 appartengono a C∞ (R).
Siccome esse sono indipendenti in quanto vettori di C∞ (R, C), tali restano in
344 Capitolo 16
C∞ (R). Indichiamo con Ker(E)R il nucleo di E in quanto operatore su C∞ (R),
per distinguerlo dal nucleo di E in C∞ (R, C), che continuiamo ad indicare con
Ker(E). È ovvio che Ker(E)R = Ker(E) ∩ C∞ (R).
Teorema 16.34 Una base di Ker(E)R è costituita dalle n funzioni elencate nel
Lemma 16.33.
Dimostrazione. Per alleggerire la notazione, indiciamo quelle n funzioni con G1 ,
G2 ,..., Gn . Si è già detto che esse sono vettori indipendenti di Ker(E)R . Resta
da vedere che generano Ker(E)R . Sia G ∈ Ker(E)R . Per il Lemma 16.33,
esistono numeri complessi u1 , u2 ,..., un tali che
X n
(i) G = uk Gk
k=1
Dobbiamo dimostrare che tutti i numeri u1 , u2 , ..., un sono reali. Per ogni k =
1, 2, ..., n, indichiamo con vk e wk la parte reale ed il coefficiente della parte
immaginaria di uk . Siccome G ∈ C∞ (R), la (i) si spezza nella seguente coppia
di equazioni:
Xn Xn
(ii) G = vk Gk , O = wk Gk
k=1 k=1
Per il Lemma 16.33, risulta wk = 0 per ogni k = 1, 2, ..., n. Quindi tutti i numeri
u1 , u2 ,..., un sono reali. 2
Corollario 16.35 Per ogni F ∈ C∞ (R), la soluzione generale dell’ equazione
(∗F ) è un sottospazio affine di C∞ (R) di dimensione n.
(Ovvio, per il Teorema 16.36 ed il Lemma 16.32.)
Nota. Nell’ Esercizio 4.13 del Capitolo 4 si chiedeva di verificare l’ indipendenza
dell’ insieme {eax }a∈R delle funzioni esponenziali da R ad R. Ora la possiamo
dedurre dal Teorema 16.34, evitando verifiche dirette: se i numeri a1 , a2 , ..., an
ai x n
Qn a due a due distinti, l’ insieme {e }i=1 è una base di Ker(E), ove E =
sono
i=1 (D − a i I). Analogamente per gli Esercizi 4.15, 4.16 e 4.18.
16.5.4 Due parole sul caso generale
Ritorniamo ad una equazione differenziale lineare qualunque:
Xn
(∗∗F ) ak Y (k) = F
k=0
n , F ∈ C∞ (R), e supponiamo Fn (x) 6= 0 per ogni x ∈ R. Po-
ove F0 , F1 , ..., FP
n
niamo ora E = k=0 Fk Dk . L’ operatore E è ancora lineare. Il suo nucleo è la
soluzione generale dell’ equazione omogenea
Xn
(∗∗O ) ak Y (k) = O
k=0
16.5. UN’ APPLICAZIONE ALL’ ANALISI 345
La funzione, chiamiamola δ, che ad ogni Y ∈ C∞ (R) associa la n-pla
(Y (0), Y 0 (0), ..., Y (n−1) (0))
delle prime n derivate di Y calcolate in 0, è una trasformazione lineare da C∞ (R)
a Vn (R). Si dimostra (e questo è un autentico teorema d’ Analisi) che
Teorema 16.36 La trasformazione δ induce un isomorfismo da Ker(E) a Vn (R)
(cioè, C∞ (R) = Ker(E) ⊕ Ker(δ)) e l’ operatore E è suriettivo.
Quindi nul(E) = n e la soluzione di (∗∗)F è un sottospazio affine di C∞ (R) di
dimensione n.
346 Capitolo 16
Capitolo 17
Autovettori e autovalori
17.1 Sottospazi invarianti
17.1.1 Definizioni e qualche proprietà
Dato uno spazio vettoriale V, sia ϕ ∈ L(V). Un insieme X di vettori di V si dice
invariante per ϕ (o ϕ–invariante) se ϕ(X) ⊆ X. Se per di più ϕ(X) = X allora
si dice che ϕ fissa l’ insieme X, o che lo stabilizza. In particolare, i vettori X
tali che ϕ(X) = X si dicono punti fissi di ϕ.
Le dimostrazioni delle due seguenti proposizioni sono facili. Le lascio al
lettore. (Per la seconda si usi la Proposizione 13.1 del Capitolo 13.)
Proposizione
T S Sia {Xi }i∈I una famiglia di insiemi ϕ–invarianti. Allora
17.1
sia i∈I Xi che i∈I Xi sono ϕ–invarianti.
T Se per
S di più tutti gli insiemi Xi
sono fissati da ϕ, allora ϕ fissa anche i∈I Xi e i∈I Xi .
Proposizione 17.2 Se X è un insieme ϕ–invariante, allora anche L(X) è
invariante per ϕ. Se per di più X è fissato da ϕ, allora ϕ fissa L(X).
Dalle Proposizioni 17.1 e 17.2 segue subito che:
Corollario 17.3 Sia {Xi }i∈I una famiglia S di sottoinsiemi di V. Se tutti gli
insiemi Xi sono ϕ–invarianti, allora L( Si∈I Xi ) è ϕ–invariante. Se per di più
ϕ fissa tutti gli Xi , allora fissa anche L( i∈I Xi ).
Nel seguito ci interesseremo (quasi) solo ai sottoinsiemi ϕ–invarianti che sono
sottospazi lineari di V. Li chiamiamo brevemente sottospazi invarianti per ϕ (o
sottospazi ϕ–invarianti).
Proposizione 17.4 Sia X un sottospazio ϕ–invariante di dimensione finita e
supponiamo che Ker(ϕ) ∩ X = {O}. Allora ϕ fissa X .
347
348 Capitolo 17
Dimostrazione. Consideriamo la restrizione di ϕ ad X ed applichiamo ad essa
la formula Nullità+Rango (Capitolo 16, Teorema 16.13). Otteniamo:
dim(ϕ(X )) + dim(Ker(ϕ) ∩ X ) = dim(X )
Quindi, se Ker(ϕ) ∩ X = {O} allora dim(ϕ(X )) = dim(X ). Perciò ϕ(X ) = X
perchè ϕ(X ) ⊆ X e dim(X ) < ∞. 2
Corollario 17.5 Se ϕ è iniettiva e se dim(V) < ∞, allora tutti i sottospazi
ϕ–invarianti sono fissati da ϕ.
Sia V = ⊕m i=1 Ai per certi suoi sottospazi lineari A1 , A2 ,..., Am . Se questi sono
ϕ–invarianti, allora si dice che ϕ conserva la decomposizione ⊕m i=1 Ai di V e che
è somma diretta delle trasformazioni lineari ϕ1 , ϕ2 ,..., ϕm indotte da ϕ su A1 ,
A2 ,..., Am . In simboli: ϕ = ϕ1 ⊕ ϕ2 ⊕ ... ⊕ ϕm = ⊕m i=1 ϕi . Le stesse definizioni
possono stabilirsi anche per somme dirette con infiniti addendi.
17.1.2 Qualche esempio
Ovvii esempi di sottospazi ϕ-invarianti sono {O}, V, Ker(ϕ) ed Im(ϕ). Anche
tutti i sottospazi lineari di Ker(ϕ) sono ϕ–invarianti. In particolare, tutti i
sottospazi lineari di V sono invarianti per la trasformazione nulla.
Il sottospazio F ix(ϕ). Data ϕ ∈ L(V), una combinazione lineare di punti
fissi di ϕ è ancora un punto fisso di ϕ. Quindi l’ insieme dei punti fissi di ϕ è
un sottospazio lineare di V. Ovviamente, è fissato da ϕ. Lo indicheremo con
F ix(ϕ), in coerenza con la notazione stabilita per le isometrie (Capitolo 12,
§12.9.7). Siccome ϕ induce l’ identità su F ix(ϕ), anche ogni sottospazio lineare
di F ix(ϕ) è fissato da ϕ.
Omotetie. Ogni sottospazio lineare di V è invariante per (anzi, fissato da)
ogni omotetia di V. Però l’ identità è l’ unica omotetia che ammetta punti fissi
diversi da O.
Proiezioni. Dato un sottospazio lineare A di V, sia B un suo complementare.
B B B
Il nucleo di πA è B mentre A = F ix(πA ). Quindi πA conserva la decomposizione
A⊕B ed è somma diretta della trasformazione nulla OB da B a B e dell’ identità
IA su A.
Dato un sottospazio lineare X di A ed un sottospazio lineare Y di B, il
B B
sottospazio X +Y è invariante per πA . Esso è fissato da πA se e solo se Y = {O}.
B
Viceversa, sia S un sottospazio lineare di V invariante per πA . Se S è addirittura
B
fissato da πA , allora S ⊆ A.
Supponiamo invece che S 6⊆ A e, posto X = S ∩ A, sia Y un complementare
di X in S e sia {Ci }m i=1 una base di Y. Per ogni i = 1, 2, ..., m, siano Ai ∈ A
B
e Bi ∈ B tali che Ci = Ai + Bi . Siccome S è invariante per πA e siccome
17.1. SOTTOSPAZI INVARIANTI 349
B
πA (Ci ) = Ai , risulta Ai ∈ X per ogni i = 1, 2, ..., m. Quindi Bi ∈ S per ogni
i = 1, 2, ..., m. Pertanto
S = L(C1 , C2 , ..., Cm ) + X = L(B1 , B2 , ..., Bm ) + X
Dunque S è somma di X e di un sottospazio lineare di B. In definitiva: i
B
sottospazi invarianti per πA sono quelli che possono ottenersi sommando un
sottospazio lineare di A con un sottospazio lineare di B.
Riflessioni. Dato un iperpiano S di Vn (R) passante per O, sia σ la riflessione
attorno ad S. Allora S = F ix(σ). È evidente che anche la retta S ⊥ è fissata
da σ. Pertanto, ogni sottospazio lineare X di Vn (R) contenente S ⊥ , essendo
generato da S ⊥ e da X ∩ S, è fissato da σ (Corollario 17.3).
Viceversa, sia X è un sottospazio σ–invariante non contenuto in S. Allora
X = L(X) + (X ∩ S) ove X è un qualunque vettore di X \ S. Siccome X è
σ–invariante, risulta σ(X) ∈ X . Ma σ(X) = X − 2hX, N iN , ove N è un vettore
normale ad S, di norma 1 (Capitolo 12, (6) con P = O). Sicchè
hX, N iN = 2−1 (X − σ(X)) ∈ X
D’ altra parte, hX, N i 6= 0 perchè X 6∈ S. Pertanto N ∈ X . Quindi X =
L(N ) + (X ∩ S) = S ⊥ + (X ∩ S).
Ne segue che i sottospazi σ–invarianti sono i sottospazi lineari di S e quelli
che contengono la retta S ⊥ . (In particolare, quando n = 2 le rette S ed S ⊥ sono
gli unici sottospazi σ–invarianti diversi da {O} e da V2 (R).) Evidentemente, σ
conserva la decomposizione S ⊕ S ⊥ di Vn (R).
Rotazioni. Sia ρ una rotazione lineare di Vn (R), di angolo θ 6= 0. Quando
n = 2, se θ 6= π allora {O} e V2 (R) sono gli unici sottospazi ρ–invarianti. Se
invece θ = π, allora ρ è l’ omotetia di ragione −1 (in questo caso tutte le rette
per O sono ρ–invarianti).
Sia invece n ≥ 3 e sia A l’ asse di rotazione di ρ. Allora A = F ix(ρ).
Quindi tutti i sottospazi lineari di A sono ρ–invarianti. Ma anche il piano A⊥ è
ρ–invariante. Quindi, per la Proposizione 17.2 sono ρ–invarianti anche tutte le
somme A⊥ + X , con X sottospazio lineare di A.
Se θ 6= π, questi sono tutti i sottospazi ρ–invarianti. Infatti, sia θ 6= π e
sia X un sottospazio ρ–invariante. Per la Proposizione 17.1 anche X ∩ A⊥ è
ρ–invariante. Ma nessuna retta di A⊥ per O è ρ–invariante (perchè θ 6= π).
Quindi, o X ∩ A⊥ = {O} oppure A⊥ ⊆ X . Nel primo caso X ⊆ A, mentre nel
secondo caso X = A⊥ + (X ∩ A). (Lascio al lettore il compito di dimostrare
queste due ultime asserzioni.)
Sia invece θ = π. In questo caso anche le somme di rette di A⊥ per O con
sottospazi lineari di A sono ρ–invarianti. Insomma, tutti i sottospazi lineari che
possono ottenersi come somma di un sottospazio lineare di A e di un sottospazio
lineare di A⊥ sono ρ–invarianti. E non ci sono altri sottospazi ρ–invarianti oltre
a questi. (Al lettore la dimostrazione). In ogni caso, ρ è somma diretta della
rotazione che essa induce sul piano A⊥ e dell’ identità su A.
350 Capitolo 17
17.1.3 Sottospazi invarianti e matrici
Dato un campo K ed uno spazio vettoriale V su K di dimensione n < ∞, sia
ϕ ∈ L(V) e sia A = 6 {O} un sottospazio ϕ–invariante di dimensione m < n.
Presa una base E = (Ei )ni=1 di V in modo tale che (Ei )m
i=1 sia una base di A,
la matrice µE (ϕ) che rappresenta ϕ rispetto ad E si decompone in blocchi ‘a
squadra’
A C
µE (ϕ) =
On−m,m B
ove On−m,m è la matrice nulla (n − m) × m ed A è la matrice (quadrata di
ordine m) che, rispetto ad (Ei )m i=1 , rappresenta l’ azione di ϕ su A. Le matrici
B e C appartengono rispettivamente ad Mn−m (K) e ad Mm,n−m (K). Posto
B = L(Em+1 , Em+2 , ..., En ), la matrice n × (n − m) formata dai blocchi C e B
rappresenta la restrizione ϕ|B . Le matrici B e C rappresentano rispettivamente
πBA ϕ|B e πAB
ϕ|B (Capitolo 15, §15.6.1). In particolare, se anche B è ϕ–invariante
(cioè se ϕ conserva la decomposizione V = A ⊕ B) allora C = Om,n−m :
A Om,n−m
µE (ϕ) = dg(A, B) =
On−m,m B
Più in generale, supponiamo che ϕ conservi una decomposizione di V in somma
diretta di certi suoi sottospazi lineari A1 , A2 ,..., Am . Per ogni i = 1, 2, ..., m, sia
Ei una base di Ai e sia Ai la Sm matrice che rispetto ad Ei rappresenta l’ azione
di ϕ su Ai . Prendiamo E = i=1 Ei come base di V. Allora
µE (ϕ) = dg(A1 , A2 , ..., Am )
Viceversa, data una base E = (Ei )ni=1 di V, se
A C
µE (ϕ) =
On−m,m B
con A ∈ Mm (K), B ∈ Mn−m (K) e C ∈ Mm,n−m (K), allora L(E1 , E2 , ..., Em ) è
ϕ–invariante. In particolare, L(E1 ) è ϕ–invariante se e solo se la prima colonna
di µE (ϕ) ha tutti i coefficienti nulli escluso al più il primo, cioè se e solo se la
matrice A ha questa forma:
∗ ∗ ∗ .... ∗
0 ∗ ∗ .... ∗
0 ∗ ∗ .... ∗
... ... ... .... ...
0 ∗ ∗ .... ∗
Più
Pm in generale, dati m numeri naturali non nulli n1 , n2 , ..., nm tali che n =
m
n
k=1 k , risulta µE (ϕ) = dg(A )
k k=1 per certe matrici quadrate A1 , A2 , ..., Am
di ordine ripettivamente n1 , n2 ,...,Pnm se e solo se P
ϕ conserva la decomposizione
k−1 k
V = ⊕m A
k=1 k , ove A k = L({E i | n
j=1 j < i ≤ j=1 nj }) per k = 1, 2, ..., m.
In particolare,
17.2. AUTOVETTORI E AUTOVALORI 351
Proposizione 17.6 La matrice µE (ϕ) è diagonale se e solo se tutti i sottospazi
lineari L(Ei ) sono ϕ–invarianti.
È anche ovvio che
Proposizione 17.7 La matrice µE (ϕ) è triangolare superiore (Capitolo 15,
§15.2.3) se e solo se tutti i sottospazi L(E1 ), L(E1 , E2 ),..., L(E1 , E2 , ..., En−1 )
sono ϕ–invarianti.
17.2 Autovettori e autovalori
17.2.1 Definizioni e prime proprietà
Dato uno spazio vettoriale V ed una trasformazione lineare ϕ ∈ L(V), un vettore
A 6= O si dice un autovettore di ϕ se L(A) è ϕ–invariante, cioè se ϕ(A) ∈ L(A).
Vale a dire, un autovettore di ϕ è un vettore A 6= O tale che ϕ(A) = xA per
qualche scalare x.
Sia A un autovettore di ϕ. Di scalari x tali che ϕ(A) = xA ce n’ è uno solo.
(Infatti, se ϕ(A) = xA = yA allora (x − y)A = O, quindi x = y perchè per
ipotesi A 6= O.) Quello scalare x per cui ϕ(A) = xA lo si chiama l’ autovalore
di ϕ relativo ad A. Si dice anche che x è un autovalore di A.
Insomma, uno scalare a è un autovalore di ϕ se e solo se l’ equazione ϕ(X) =
aX ha soluzioni diverse da O (e queste sono gli autovettori di autovalore a, o
relativi ad a). Ma dire che ϕ(X) = aX è come dire che ϕ(X) − aX = O, cioè
che (ϕ − aI)(X) = O. Dunque,
Proposizione 17.8 Uno scalare a è un autovalore di ϕ se e solo se Ker(ϕ −
aI) 6= {O}. Se questo è il caso, allora Ker(ϕ − aI) \ {O} è l’ insieme degli
autovettori di a.
Quindi, per il Teorema 6.11 del Capitolo 6:
Corollario 17.9 Uno scalare a è un autovalore di ϕ se e solo se ϕ − aI non è
iniettiva.
Dato un autovalore a di ϕ chiamiamo Ker(ϕ − aI) l’ autospazio di ϕ relativo
all’ autovalore a (rammentiamo che Ker(ϕ − aI) è un sottospazio lineare di
V). Siccome ϕ(X) = aX per ogni vettore X ∈ Ker(ϕ − aI), l’ autospazio
Ker(ϕ − aI) è ϕ–invariante (anzi, se a 6= 0 esso è fissato da ϕ). Lo stesso per i
suoi sottospazi lineari.
Se A è un autovettore di ϕ, ogni multiplo di A diverso da O è ancora un
autovettore di ϕ, con lo stesso autovalore di A. Però, quando Ker(ϕ − aI)
ha dimensione 1 ci si prende la libertà di riferirsi ad un qualunque autovettore
A ∈ Ker(ϕ − aI) \ {O} con l’ articolo “il” (l’ autovettore relativo ad a), come
se Ker(ϕ − aI) \ {O} contenesse un solo vettore, intendendo A dato ‘a meno di
proporzionalità’.
352 Capitolo 17
Due esempi. Se ϕ non è iniettiva allora 0 è un suo autovalore e l’ autospazio
di ϕ relativo a 0 è Ker(ϕ). Se ϕ fissa qualche punto 6= O allora 1 è un suo
autovalore e F ix(ϕ) (= Ker(ϕ − I)) è l’ autospazio relativo ad 1.
Supponiamo ora che dim(V) = n < ∞. Fissata in V una base ordinata E, sia
M la matrice che rappresenta ϕ rispetto ad E. Dato uno scalare a, la matrice
M − aI rappresenta ϕ − aI. Se a è un autovalore di ϕ, gli autovettori di ϕ,
essendo gli elementi non nulli di Ker(ϕ − aI), corrispondono alle soluzioni non
nulle del seguente sistema omogeneo:
(1) (M − aI)X = O, (cioè, M X = aX)
Per il Corollario 17.9 e per la Proposizione 15.4 del Capitolo 15 si ha che:
Corollario 17.10 Lo scalare a è un autovalore di ϕ se e solo se rank(M −aI) <
n.
Se M è triangolare, anche M − aI è triangolare e, se a1 , a2 , ..., an sono i termini
sulla diagonale principale di M , i termini sulla diagonale principale di M − aI
sono a1 − a, a2 − a,..., an − a. Quindi, rank(M − aI) < n se e solo se a = ai
per qualche i = 1, 2, ..., n (Capitolo 15, Proposizione 15.6). Vale a dire,
Corollario 17.11 Se la matrice M è triangolare (superiore o inferiore), allora
gli autovalori di ϕ sono gli scalari che compaiono sulla diagonale principale di
M.
In particolare,
Corollario 17.12 Sia M = dg(ai )ni=1 . Allora gli scalari a1 , a2 , ..., an sono gli
autovalori di ϕ.
17.2.2 Esempi
Omotetie. Tutti i vettori non nulli di V sono autovettori per tutte le omotetie
di V. La ragione di un’ omotetia è il suo unico autovalore.
B
Proiezioni. Sia V = A ⊕ B. La proiezione πA ha solo due autovalori, 0 ed 1.
B B
Gli autospazi relativi ad essi sono B (= Ker(πA )) ed A (= F ix(πA )).
Riflessioni. Sia S un iperpiano di Vn (R) per O e sia σ la riflessione attorno ad
S. Gli autovalori di σ sono 1 e −1. L’ autospazio relativo ad 1 è F ix(σ), cioè
S. Invece la retta S ⊥ è l’ autospazio relativo a −1.
Rotazioni. Sia ρ una rotazione di Vn (R) di angolo θ 6= 0. Sia A il suo asse.
Supponiamo che −π < θ < π. Se n = 2 allora ρ non ha autovalori. Se invece
n ≥ 3, allora 1 è l’ unico autovalore di ρ ed A è il suo autospazio.
17.2. AUTOVETTORI E AUTOVALORI 353
Supponiamo invece che θ = π. Se n = 2, allora θ è l’ omotetia −I, di
ragione −1. Sia invece n > 2. Allora 1 e −1 sono gli autovalori di θ, con
autospazi rispettivamente A e B = A⊥ . La trasformazione θ è somma diretta
di IA e di −IB .
La derivata. Sia D l’ operatore di derivazione su C∞ (R). Ogni numero reale è
un autovalore di D e, dato a ∈ R, l’ autospazio relativo ad a è la retta generata
dal vettore eax (Capitolo 16, §16.2.3). Analogamente in C∞ (R, C) (Capitolo
16, §16.2.3).
17.2.3 Indipendenza di autovettori
Dato uno spazio vettoriale V, sia ϕ ∈ L(V).
Teorema 17.13 Dato un insieme X di autovettori di ϕ, supponiamo che i loro
autovalori siano a due a due distinti. Allora l’ insieme X è indipendente.
Dimostrazione. Per assurdo, X sia dipendente. Allora X0 ∈ L(X \ {X0 }) per
qualche X0 ∈ X, ed X0 6= O perchè, per ipotesi, tutti i vettori di X sono
autovettori di ϕ. Per il Teorema 4.18 del Capitolo 4, esiste un sottoinsieme Y
di X \ {X0 } indipendente ed equivalente ad X \ {X0 }. Si noti che Y 6= ∅, perchè
X0 ∈ L(X \ {X0 }) = L(Y) ed X0 6= O. Quindi,
n
X
(i) X0 = xi Xi
i=1
per opportuni vettori X1 , X2 , ..., Xn ∈ Y, a due a due distinti. Da (i) si ottiene
n
X
(ii) ϕ(X0 ) = xi ϕ(Xi )
i=1
Per ogni i = 0, 1, ..., n, sia ai l’ autovalore di ϕ relativo ad Xi . Allora (ii) diventa
n
X
(iii) a0 X0 = xi ai Xi
i=1
D’ altra parte, moltiplicando (i) per a0 si ha
n
X
(iv) a0 X0 = a0 xi Xi
i=1
e quindi, da (iii) e (iv):
n
X n
X
(v) a0 xi Xi = ai xi Xi
i=1 i=1
Ma X1 , X2 , ..., Xn sono vettori distinti di Y, che è indipendente. Quindi
(vi) a0 xi = ai xi , (i = 1, 2, ..., n)
354 Capitolo 17
D’ altra parte, siccome X0 6= O, qualcuno dei coefficienti x1 , x2 , ..., xn è diverso
da 0. Per esempio, x1 6= 0. Quindi da (vi) con i = 1 otteniamo a0 = a1 ,
contro l’ ipotesi che a distinti autovettori di ϕ appartenenti ad X corrispondano
autovalori distinti. L’ assurdo è raggiunto. 2
Corollario 17.14 Sia (ai )i∈I una famiglia di autovalori di ϕ, a due a due
distinti. Allora
[
(2) L( Ker(ϕ − ai I)) = ⊕i∈I Ker(ϕ − ai I)
i∈I
Dimostrazione. Mi limito a considerare il caso finito (ma il ragionamento è lo
stesso nel caso infinito). Sia dunque I = {1, 2, ..., n}. Per dimostrare la (2)
dobbiamo fare vedere che per ogni k = 1, 2, ..., n risulta
[
Ker(ϕ − ak I) ∩ L( (Ker(ϕ − ai I) | i = 1, 2, ..., n, i 6= k)) = {O}
Sia dunque
(i) X = X1 + ... + Xk−1 + Xk+1 + ... + Xn
con X ∈ Ker(ϕ − ak I) ed Xi ∈ Ker(ϕ − ai I) per i = 1, ..., k − 1, k + 1, ..., n.
Da (i) si ha subito che
(ii) X1 + ... + Xk−1 − X + Xk+1 + ... + Xn = O
I vettori Xi ed il vettore X, se non sono nulli, sono autovettori e i loro autovalori
sono distinti, per ipotesi. Quindi quelli di essi che non sono nulli formano un
insieme indipendente, per il Teorema 17.13. D’ altra parte, i coefficienti che
compaiono nella combinazione lineare (ii) sono 1,..., 1, −1, 1,..., 1. Quindi
Xi = O per ogni i = 1, ..., k − 1, k + 1, ..., n ed X = O. 2
Corollario 17.15 Il numero degli autovalori di ϕ non supera dim(V).
Dimostrazione. Se ϕ ammettesse un numero di autovalori superiore a dim(V),
per il Teorema 17.13 avremmo in V un insieme indipendente con un numero di
vettori superiore a dim(V), il chè è impossibile. 2
Corollario 17.16 Supponiamo che dim(V) = n < ∞. Se ϕ ammette esatta-
mente n autovalori, allora V ammette una base formata da autovettori di V e
tutti gli autospazi di ϕ hanno dimensione 1.
Dimostrazione. Supponiamo che ϕ ammetta n autovalori distinti, a1 , a2 , ..., an .
Per il Corollario 17.14, la somma delle dimensioni degli autospazi di ϕ non
supera n. Quindi nul(ϕ − ai I) = 1 per ogni i = 1, 2, ..., n. Cioè, dato un
autovettore Ei di ϕ di autovalore ai , L(Ei ) = Ker(ϕ − ai I). Per il Corollario
17.14, i vettori E1 , E2 , ..., En formano una base di V. 2
17.3. DIAGONALIZZABILITÀ 355
17.2.4 Esempi
Si è detto nell’ Esercizio 4.13 del Capitolo 4 che l’ insieme delle funzioni esponen-
ziali da R ad R è indipendente (in RR ). Abbiamo riottenuto questo risultato in
un altro modo nel Capitolo 16 (Teorema 16.34). Anche le funzioni esponenziali
da R a C formano un insieme indipendente (Capitolo 16, Lemma 16.30) e nel
Teorema 16.34 del Capitolo 16 è implicito che l’ insieme
{cos ax | a ∈ R, a ≥ 0} ∪ {sin ax | a ∈ R, a > 0}
è indipendente in RR (come già si era osservato nella nota all’ Esercizio 4.15 del
Capitolo 4). Come vedremo ora, questi risultati possono riottenersi dal Teorema
17.13 e dal Corollario 17.14.
Esponenziali. Per ogni numero reale a, la funzione eax è un autovettore
dell’ operatore di derivazione su C∞ (R), con autovalore a. Quindi l’ insieme
{eax }a∈R è indipendente, per il Teorema 17.13. Analogamente, per ogni numero
complesso a, la funzione eax è un autovettore dell’ operatore di derivazione su
C∞ (R, C), con autovalore a. Quindi ...
Coseni e seni. Per ogni numero reale a, la funzione cos ax è un autovettore
del quadrato D2 dell’ operatore di derivazione D su C∞ (R), con autovalore
−a2 . Quindi, per il Teorema 17.13, l’ insieme X = {cos ax | a ∈ R, a ≥ 0} è
indipendente. (Rammento che cos ax = cos (−a)x; per questo ho preso a ≥ 0.)
Analogamente, se a 6= 0, la funzione sin ax è un autovettore del quadrato D2
dell’ operatore di derivazione D su C∞ (R), con autovalore −a2 . (Deve essere
a 6= 0 perchè la funzione sin 0x è il vettore nullo.) Siccome sin (−a)x = − sin ax,
per avere un insieme indipendente di funzioni, da ogni coppia {a, −a} di numeri
reali opposti dobbiamo scegliere uno dei due termini; stabiliamo di prendere
sempre quello positivo. Ora possiamo applicare il Teorema 17.13 e ne deduciamo
che anche l’ insieme Y = {sin ax | a ∈ R, a > 0} è indipendente. Inoltre, per
ogni a > 0, i vettori cos ax e sin ax sono non proporzionali ed appartengono a
Ker(D2 + a2 I). D’ altra parte,
[
L( (Ker(D2 + a2 I) | a ∈ R, a > 0)) = ⊕(Ker(D2 + a2 I) | a ∈ R, a > 0)
per il Corollario 17.14. Ne segue che l’ insieme X ∪ Y è indipendente.
17.3 Diagonalizzabilità
Sia dim(V) = n < ∞ e sia ϕ ∈ L(V). La Proposizione 17.6 può riformularsi
cosı̀:
Proposizione 17.17 Data una base E di V, la matrice µE (ϕ) che rappresenta
ϕ rispetto ad E è diagonale se e solo se E consiste di autovettori di ϕ.
(Cfr. anche Corollario 17.12.) Quindi,
356 Capitolo 17
Corollario 17.18 Data una base E di V, la matrice µE (ϕ) è diagonalizzabile
se e solo se V ammette una base formata da autovettori di ϕ.
Diciamo che ϕ è diagonalizzabile se V ammette una base formata da autovettori
di ϕ (cioè, se è diagonalizzabile la matrice che rappresenta ϕ rispetto ad una base
di V, non importa quale). Mettendo insieme i Corollari 17.16 e 17.18 otteniamo
che:
Corollario 17.19 Se ϕ ammette esattamente n autovalori distinti, allora è
diagonalizzabile.
Sia ϕ diagonalizzabile e sia E = (Ei )ni=1 una base di V formata da autovettori di
ϕ. Possiamo sempre supporre di avere ordinato i vettori E1 , E2 , ..., En in modo
che autovettori con lo stesso autovalore siano elencati uno dopo l’ altro:
E1 , E2 , ..., Em1 di autovalore a1
Em1 +1 , Em1 +2 , ..., Em2 di autovalore a2
....... ....... .... .... .................. ...
Ems−1 +1 , Ems−1 +2 , ..., Ems di autovalore as
ove gli autovalori a1 , a2 , ..., as sono a due a due distinti. Ovviamente, risulta
m1 + m2 + ... + ms = n e
(3) µE (ϕ) = dg(a1 Im1 , a2 Im2 , ..., as Ims )
Lemma 17.20 Gli scalari a1 , a2 , ..., as sono tutti gli autovalori di ϕ e risulta
(4) Ker(ϕ − ai I) = L(Emi−1 +1 , Emi−1 +2 , ..., Emi ), (i = 1, 2, ..., s)
(ove quando i = 1 poniamo m0 = 0).
Dimostrazione. Posto Vi = L(Emi−1 +1 , Emi−1 +2 , ..., Emi ), è ovvio che
(i) Vi ⊆ Ker(ϕ − ai I), (i = 1, 2, ..., s)
e che
(ii) V = ⊕si=1 Vi
Sia X un autovettore di ϕ e sia a il suo autovalore.
Ps Per (ii), esistono vettori
X1 ∈ V1 , X2 ∈ V2 ,..., Xs ∈ Vs tali che X = i=1 Xi . Per (i) e siccome X è un
autovettore di autovalore a, si ha che
s
X s
X s
X
ai Xi = ϕ(Xi ) = ϕ(X) = aX = aXi
i=1 i=1 i=1
Quindi
s
X
(iii) (ai − a)Xi = O
i=1
17.4. ESERCIZI 357
Da (iii) e (ii) segue che (ai − a)Xi = O per ogni i = 1, 2, ..., s. Quindi, per ogni
i = 1, 2, ..., s, o risulta Xi = O oppure a = ai . Ma non può essere X1 = X2 =
... = Xs = O. Infatti, se cosı̀ fosse, avremmo X = O, mentre X 6= O perchè X
è un autovettore. Dunque Xi 6= O per qualche i = 1, 2, ..., s. Per quegli i deve
risultare a = ai . Ma gli autovalori a1 , a2 , ..., as sono a due a due distinti. Quindi
a = ai per un solo valore di i. Per esempio, a = a1 6= ai per ogni i = 2, 3, ..., s.
Dunque Xi = O per ogni i = 2, 3, ..., s. Pertanto X = X1 . 2
Il seguente teorema si ottiene mettendo insieme il Corollario 17.18 ed il Lemma
17.20.
Teorema 17.21 La trasformazione ϕ è diagonalizzabile se e solo se V è somma
diretta degli autospazi di ϕ.
L’ azione indotta da ϕ su un suo autospazio è un’ omotetia oppure, se l’
autovalore è 0, una trasformazione nulla. Quindi, per il Teorema 17.21:
Corollario 17.22 La trasformazione ϕ è diagonalizzabile se e solo se è somma
diretta di omotetie ed eventualmente di una trasformazione nulla.
Corollario 17.23 Se ϕ è diagonalizzabile, le matrici diagonali rappresentanti
ϕ differiscono solo per permutazioni dei termini sulla loro diagonale principale.
Dimostrazione. Per il Lemma 17.20, se ϕ è diagonalizzabile ed A è una matrice
diagonale rappresentante ϕ, allora il numero di volte che un dato autovalore
compare sulla diagonale di A è uguale alla dimensione del suo autospazio. 2
Corollario 17.24 Se ϕ è diagonalizzabile, allora V = Ker(ϕ) ⊕ Im(ϕ) ed
Im(ϕ) è la somma diretta degli autospazi di ϕ relativi agli autovalori diversi
da 0.
Dimostrazione. Supponiamo che ϕ sia diagonalizzabile e siano L1 ,..., Lm i suoi
autospazi con Pmautovalore 6= 0. Allora, per il Teorema 17.21, dato X ∈ V,
risulta X P = i=0 Xi con X0 ∈ Ker(ϕ) ed Xi ∈ Li , per i = 1, 2, ..., m. Sicchè
m m m
ϕ(X) = i=1 ϕ(Xi ) ∈ ⊕i=1 Li . Quindi Im(ϕ) ⊆ ⊕i=1 Li . Per il Teorema
17.21, questa
Pm somma diretta è un complementare di Ker(ϕ). L’ uguaglianza
Im(ϕ) = i=1 Li segue dal Teorema 16.13 del Capitolo 16; oppure cosı̀: se ai
è l’ autovalore
Pm di Li , P
allora per ogni scelta di X1 , X2 ,..., Xm in L1 , L2 ,..., Lm ,
m
risulta i=1 Xi = ϕ( i=1 a−1 i Xi ). 2
17.4 Esercizi
Esercizio 17.1 Dato uno spazio vettoriale V e due trasformazioni lineari ϕ, ψ ∈
L(V), sia S un sottospazio lineare di V invariante per ϕ e per ψ. Si dimostri
che S è invariante anche per ψϕ e che l’ azione di ψϕ su S è la composizione
dell’ azione indotta da ϕ con quella indotta da ψ.
358 Capitolo 17
Esercizio 17.2 Nel Capitolo 15 (§15.6.2, (11.a)) si è visto che, date in Mn (K)
due matrici di questa forma
A1 ∗ A2 ∗
M1 = , M2 =
On−m,m ∗ On−m,m ∗
con A1 , A2 ∈ Mm (K) (ove 1 ≤ m < n), risulta
A1 A2 ∗
M1 M2 =
On−m,m ∗
Si riottenga questo risultato deducendolo dall’ Esercizio 17.1 e da quel che si è
detto in §17.1.3.
Esercizio 17.3 Dall’ Esercizio 17.1 si deducano le cose dette nei §§15.2.3 e
15.2.4 del Capitolo 15 su prodotti di matrici triangolari superiori e di matrici a
blocchi in diagonale.
Esercizio 17.4 Dato uno spazio vettoriale V e una trasformazione lineare in-
vertibile ϕ ∈ L(V), sia S un sottospazio lineare di V fissato da ϕ. È facile vedere
che anche ϕ−1 fissa S e che l’ azione di ϕ−1 su S è invertibile ed è l’ inversa
dell’ azione indotta da ϕ su S.
Da ciò e dal Corollario 17.5 si deduca che, data in Mn (K) una matrice
invertibile M di una di queste due forme
A ∗ ∗ Om,n−m
oppure
On−m,m ∗ ∗ A
con A ∈ Mm (K), ove 1 ≤ m < n, la matrice A è invertibile ed M −1 ha questa
forma:
−1
A ∗ ∗ Om,n−m
oppure
On−m,m ∗ ∗ A−1
Nota. Allo stesso modo possiamo riottenere la (5.2) del Capitolo 15.
Esercizio 17.5 Dato uno spazio vettoriale V, sia ϕ ∈ L(V). Si dimostri che,
se ϕ è involutoria (cioè, se ϕ2 = I 6= ϕ), gli autovalori di ϕ sono solo 1 o −1.
Esempio. Le riflessioni sono trasformazioni involutorie.
Esercizio 17.6 Sia ϕ ∈ L(V), periodica di periodo m (Capitolo 14, §14.2.4). Si
dimostri che gli autovalori di ϕ, se esistono, sono radici m–esime di 1.
Esempio. Le rotazioni di Vn (R) di angolo 2π/m sono trasformazioni periodiche
di periodo m. Per i loro autovalori, si veda §17.2.2. (Si noti che, in R, se m è
dispari, l’ unica radice m–esima di 1 è 1 mentre, se m è pari, anche −1 è una
radice m–esima di 1.)
17.4. ESERCIZI 359
Esercizio 17.7 Si dimostri che 0 è l’ unico autovalore di una trasformazione
nilpotente.
Soluzione. Sia ϕ nilpotente di esponente m. Allora {O} 6= Im(ϕm−1 ) ⊆
Ker(ϕ). Quindi 0 è un autovalore di ϕ. D’ altra parte, se a è un autovalore di
ϕ ed A è un autovettore relativo ad a, allora am A = ϕm (A) = O. Quindi a = 0.
Esempi. Le trasformazioni non nulle da V2 (K) a V2 (K) rappresentate da matrici
della forma T (0, x) e T 0 (0, x) (Capitolo 15, Esercizi 15.2 e 15.3) sono nilpotenti
di esponente 2. Le trasformazioni non nulle da V3 (K) a V3 (K) rappresentate da
matrici della forma T (0, x, y, z) o T 0 (0, x, y, z) (Capitolo 15, Esercizi 15.6 e 15.7)
sono nilpotenti di esponente 2 o 3 (Capitolo 15, Esercizio 15.9). Un esempio di
trasformazione nilpotente di esponente 2 è dato anche nell’ Esercizio 13.3 del
Capitolo 13.
Esercizio 17.8 Dato uno spazio vettoriale V ed una trasformazione Pm lineare
ϕ ∈ L(V), supponiamo che per certi scalari c0 , c1 , ..., cm ∈ K risulti i=0 ci ϕi =
O.
Pm Si dimostri che tutti gli autovalori di ϕ sono soluzioni dell’ equazione
i
i=0 ci x = O.
Esercizio 17.9 Dato uno spazio vettoriale V su un campo K, una P trasforma-
m
zione lineare ϕ ∈ L(V) e certi scalari c0 , c1 , ..., cm ∈ K, poniamo ψ = i=0 ci ϕi .
Si dimostri che, se A è un autovettore
Pm di ϕ ed a è il suo autovalore, allora A è
anche un autovettore di ψ ed ha i=0 ci ai come autovalore.
Esercizio 17.10 Dato uno spazio vettoriale V di dimensione finita n, siano
ϕ, ψ ∈ L(V) tali che ϕψ = ψϕ. Supponiamo che ψ abbia n autovalori distinti.
Si dimostri che tutti gli autovettori di ψ sono anche autovettori di ϕ.
Soluzione. Sia a un autovalore di ψ. La trasformazione ϕ, commutando con
ψ, commuta anche con ψ − aI. Quindi Ker(ψ − aI) è ϕ–invariante (Capitolo
16, Lemma 16.25(ii)). D’ altra parte, dim(Ker(ψ − aI)) = 1 per il Corollario
17.14 e perchè per ipotesi ψ ha n autovalori distinti. Pertanto, ogni generatore
di Ker(ψ − aI) è un autovettore per ϕ.
Esercizio 17.11 Siano ϕ, ψ ∈ L(V) con ψϕ = ϕψ. Si dimostri che ψ porta
insiemi ϕ–invarianti in insiemi ϕ–invarianti.
Esercizio 17.12 Siano ϕ, ψ ∈ L(V) con ψ invertibile e sia X un insieme di
punti di V. Si dimostri che X è ϕ–invariante se e solo se ψ(X) è invariante
per la trasformazione ψϕψ −1 .
Esercizio 17.13 Dato uno spazio vettoriale V, siano ϕ, ψ ∈ L(V) tali che ψϕ =
I (quindi ϕ è iniettiva e perciò 0 non è un suo autovalore). Sia A un autovettore
di ϕ e sia a il suo autovalore. Si dimostri che A è anche un autovettore di ψ
con a−1 come autovalore.
Suggerimento. A = ψ(ϕ(A)) = ψ(aA) = aψ(A).
360 Capitolo 17
Esercizio 17.14 Dato uno spazio vettoriale V, sia ϕ una trasformazione lineare
invertibile di V in sè. Si dimostri che ϕ e ϕ−1 hanno gli stessi autovettori e che
gli autovalori di ϕ−1 sono gli inversi di quelli di ϕ.
Esercizio 17.15 Dato uno spazio vettoriale di dimensione n < ∞, una sua
base E = (Ei )ni=1 ed una permutazione α ∈ Sym(n), sia ϕα la trasformazione
permutazionale su E associata ad α. Dato un sottoinsieme P I di {1, 2, ..., n}
stabilizzato da α (cioè tale che α(I) = I), poniamo EI = i∈I Ei . Si verifichi
che EI è un autovettore di ϕα di autovalore 1.
Esercizio 17.16 Ferme le notazioni dell’ Esercizio 17.15, supponiamo per di
più che α sia una permutazione ciclica. Si trovino gli autovettori di ϕα .
Traccia. Per esempio, sia α = γ[1,2,...,m] . Allora ϕα è periodica di periodo m.
I suoi autovalori sono le radici m–esime diP 1. Sia a uno di essi. Se a 6= 1, il suo
m
autospazio è la retta generata dal vettore i=1 a1−iP Ei . Invece l’ autospazio di
m
1 ha dimensione n − m + 1 ed è generato dal vettore i=1 Ei assieme agli n − m
vettori Em+1 , Em+2 ,..., En .
Esercizio 17.17 Dati α e ϕα come nell’ Esercizio 17.16, sia C il campo degli
scalari. Si dimostri che ϕα è diagonalizzabile.
Sggerimento. L’ equazione xm = 1 ha m soluzioni distinte in C.
Esercizio 17.18 Sia V uno spazio vettoriale di dimensione n < ∞ sul campo
C. Si dimostri che, per ogni base E di V, ogni trasformazione permutazionale
su E è diagonalizzabile.
Suggerimento. Data α ∈ Sym(n), la si spezzi in prodotto di cicli disgiunti.
Esercizio 17.19 Sia ϕ ∈ L3 (R) rappresentata dalla seguente matrice rispetto
ai versori di V3 (R):
−1 1 2
0 1 2
0 0 2
Si trovino i suoi autovettori.
Risposta. Per il Corollario 17.11, gli autovalori sono −1, 1 e 2. Risolven-
do il sistema (1) di §17.2.1 si vede che i loro autospazi sono le rette generate
rispettivamente da (1, 0, 0), (1, 2, 0) e (4, 6, 3).
17.4. ESERCIZI 361
Esercizio 17.20 (Matrici di Jordan) Dato uno spazio vettoriale V di di-
mensione n < ∞ e una sua base E = (Ei )ni=1 , sia ϕ ∈ L(V) rappresentata
rispetto ad E da una matrice triangolare di questo tipo:
a 1 0 0 .... 0 0 0
0 a 1 0 .... 0 0 0
0 0 a 1 .... 0 0 0
... ... ... ... .... ... ... ...
0 0 0 0 .... a 1 0
0 0 0 0 .... 0 a 1
0 0 0 0 .... 0 0 a
Per il Corollario 17.11, l’ unico autovalore di ϕ è a. Si trovi il suo autospazio.
Risposta. L(E1 ).
Definizione. Le matrici come quella qui considerata si dicono di Jordan.
Esercizio 17.21 Ferme le ipotesi dell’ Esercizio 17.20, si supponga n = 3. Si
dimostri che gli unici sottospazi ϕ–invarianti diversi da {O} e V sono L(E1 ) ed
L(E1 , E2 ).
Esercizio 17.22 Dato uno spazio vettoriale V di dimensione n < ∞ su un
campo K di caratteristica 6= n, sia E = (Ei )ni=1 una base di V e sia ϕ ∈ L(V)
rappresentata rispetto ad E dalla matrice Jn (a, b) descritta nell’ Esercizio 13.26
del Capitolo 13, con b 6= 0. Si trovino gli autovalori e gli autospazi di ϕ.
Soluzione. Gli scalari c1 = a+(n−1)bPn e c2 = a−b sono autovalori di ϕ. Infatti
Ker(ϕ − c1 I)P = L(E), ove E = i=1 Ei , mentre Ker(ϕ − c2 I) è l’ iperpiano
n
di equazione i=1 xi = 0. (Quando V è euclideo ed E è ortonormale, quest’
iperpiano è E ⊥ ). Per il Corollario 17.14, non ci sono altri autovalori.
Esercizio 17.23 Dato uno spazio vettoriale V su un campo K di caratteristica
6= 2, sia ϕ una trasformazione lineare di V in sè, con autovalori 1 e −1 e tale
che, detti A e B gli autospazi di ϕ rispettivamente per 1 e −1, sia V = A ⊕ B.
B
Si verifichi che I + ϕ = 2πA e I − ϕ = 2πBA .
Esercizio 17.24 Dato a ∈ R, sia RIa l’ operatore su C∞ (R) che associa ad ogni
x
funzione f ∈ C∞ (R) la funzione a f (t)dt (Capitolo 13, §13.2.5). Si dimostri
che Ia è privo di autovalori.
Soluzione. Per l’ Esercizio 17.13, siccome DIa = I, gli eventuali autovettori
di Ia andrebbero cercati tra le funzioni del tipo ecx con c 6= 0. Ma
Z x
ecx − eca
ect dt =
a c
e, siccome eca 6= 0, la funzione (ecx − eca )/c non è proporzionale ad ecx .
Esercizio 17.25 Si trovino gli autovalori e gli autovettori degli operatori D e
T definiti negli Esercizi 13.41 e 13.42 del Capitolo 13.
Risposta. Tanto D che T hanno un solo autovalore, rispettivamente 0 ed 1, e
lo stesso autospazio: l’ insieme delle costanti.
362 Capitolo 17
Esercizio 17.26 Sia K un campo di caratteristica 0 e sia I la trasformazione
lineare di P∞ (K) in sè che, per ogni n ∈ N, porta xn in (n + 1)−1 xn+1 . Si
dimostri che I è privo di autovalori.
Esercizio 17.27 Sia ϕ ∈ L(V). Per il Corollario 17.3, tutti i sottospazi genera-
ti da autovettori di ϕ sono ϕ–invarianti. Si dimostri che, se dim(V) = n < ∞
e se ϕ ammette esattamente n autovalori, allora i sottospazi ϕ–invarianti di
dimensione > 0 sono solo quelli generati da autovettori.
Traccia. Per il Corollario 17.16, lo spazio V ammette una base E = (Ei )ni=1
formata da autovettori di ϕ. Le rette L(Ei ) sono i sottospazi ϕ–invarianti di
dimensione 1. Dato un sottospazio ϕ–invariante S di dimensione 2, poniamo
Si = S ∩ L(E1 , E2 , ..., Ei−1 , Ei+1 , ..., En )
Si è ϕ–invariante (Proposizione 17.1) e 1 ≤ dim(Si ) ≤ 2. Risulta dim(Si ) = 1
per esattamente due valori di i. Per ciascuno di quei due valori il sottospazio
Si , essendo una retta, è generato da un autovettore di ϕ. Cosı̀ S contiene due
rette generate da autovettori di ϕ. Quindi ... Poi si prosegua per induzione su
dim(S).
Esercizio 17.28 Sia ϕ un’ isometria lineare di Vn (R), con n ≥ 2. Si dimostri
che ϕ è una riflessione se e solo se F ix(ϕ) è un iperpiano; si dimostri che invece
ϕ è una rotazione se e solo se cod(F ix(ϕ)) = 2. (Cfr. Capitolo 12, Esercizio
12.17.)
Esercizio 17.29 Sia ϕ un’ omotetia di uno spazio vettoriale V. Si dimostri che
i sottospazi lineari di V sono gli unici sottospazi affini di V invarianti per ϕ.
Esercizio 17.30 Dato uno spazio vettoriale V ed un suo sottospazio lineare
A, sia B un complementare di A in V. Si dimostri che i sottospazi affini di
B
V invarianti per πA sono quelli che intersecano A in qualche punto e la cui
B
direzione è invariante per πA .
Esercizio 17.31 Sia S un iperpiano di Vn (R) passante per O e sia σ la rifles-
sione attorno ad S. Si dimostri che i sottospazi affini di Vn (R) invarianti per
σ sono quelli che hanno intersezione non vuota con S e direzione σ–invariante.
Esercizio 17.32 Sia ρ una rotazione lineare non nulla di Vn (R), con n ≥ 3.
Si dimostri che i sottospazi affini di Vn (R) invarianti per ρ sono quelli che
intersecano l’ asse di ρ in qualche punto ed hanno direzione ρ–invariante.
Esercizio 17.33 Data una trasformazione lineare ϕ ∈ L(V), sia S un sottospa-
zio affine di V e sia X la sua direzione. Si dimostri che le seguenti affermazioni
si equivalgono:
(i) Il sottospazio affine S è ϕ–invariante;
(ii) risulta (ϕ − I)(S) ⊆ X ;
(iii) il sottospazio X è ϕ–invariante e (ϕ − I)(S) ∩ X 6= ∅.
Capitolo 18
Trasposte e aggiunte
18.1 Il caso reale
In questa sezione V e W stanno sempre ad indicare due spazi euclidei reali.
18.1.1 Definizione e prime proprietà
Data una trasformazione lineare ϕ : V → W, diciamo che una trasformazione
lineare θ : W → V è trasposta di ϕ se
(1) hϕ(X), Y i = hX, θ(Y )i, (∀X ∈ V, ∀Y ∈ W)
Per la commutatività del prodotto scalare,
Proposizione 18.1 Se θ è trasposta di ϕ, allora anche ϕ è trasposta di θ.
Proposizione 18.2 Ogni trasformazione lineare da V a W ammette al più una
trasposta.
Dimostrazione. Siano θ e ζ trasposte di una stessa trasformazione ϕ da V a W.
Scelta una base E = (Ei )i∈I di V ed una base F = (Fj )j∈J di W, per (1) risulta
hEi , θ(Fj )i = hϕ(Ei ), Fj i = hEi , ζ(Fj )i, (∀i ∈ I, ∀j ∈ J)
Quindi hEi , θ(Fj )−ζ(Fj )i = 0 per ogni i ∈ I e per ogni j ∈ J. Cioè θ(Fj )−ζ(Fj )
è ortogonale a tutti i vettori di E e quindi è O. Cioè θ(Fj ) = ζ(Fj ) per ogni
j ∈ J. Questo basta per concludere che θ = ζ. 2
La trasposta di ϕ (se esiste), verrà indicata con ϕt . Con questa notazione la (1)
diventa:
(10 ) hϕ(X), Y i = hX, ϕt (Y )i, (∀X ∈ V, ∀Y ∈ W)
La Proposizione 18.1 può riformularsi cosı̀:
(2) (ϕt )t = ϕ
363
364 Capitolo 18
Proposizione 18.3 Dato un altro spazio euclideo reale U, siano ϕ ∈ L(V, W) e
ψ ∈ L(W, U). Se tanto ϕ che ψ ammettono trasposta, allora anche ψϕ ammette
trasposta e risulta
(3) (ψϕ)t = ϕt ψ t
Dimostrazione. Applicando (10 ) prima a ψ e poi a ϕ otteniamo
hψ(ϕ(X)), Zi = hϕ(X), ψ t (X)i = hX, ϕt (ψ t (Z))i
per ogni scelta di X ∈ V e Z ∈ U. 2
Proposizione 18.4 Siano ϕ, ψ ∈ L(V, W). Se tanto ϕ che ψ ammettono tra-
sposta allora, per ogni scelta di numeri reali x, y, anche xϕ + yψ ammette
trasposta e risulta
(4) (xϕ + yψ)t = xϕt + yψ t
(Lascio la dimostrazione al lettore). È ovvio che la trasformazione identità
ammette trasposta ed è la trasposta di sè stessa:
(5) IVt = IV
Proposizione 18.5 Sia ϕ un isomorfismo da V a W e supponiamo che tanto
ϕ che ϕ−1 ammettano trasposta. Allora anche ϕt è invertibile e risulta
(6) (ϕt )−1 = (ϕ−1 )t
Dimostrazione. Per (3) e (5) risulta IV = IVt = (ϕ−1 ϕ)t = ϕt (ϕ−1 )t e IW =
t
IW = (ϕϕ−1 )t = (ϕ−1 )t ϕ. Quindi (ϕt )−1 = (ϕ−1 )t . 2
18.1.2 Il caso di dimensione finita
Supponiamo che dim(V) = n < ∞ e dim(W) = m < ∞.
Teorema 18.6 Ogni trasformazione lineare da V a W ammette trasposta.
Dimostrazione. Siano E = (Ek )nk=1 ed F = (Fj )m j=1 basi ortonormali rispettiva-
mente di V e W (Capitolo 9, Teorema 9.11) e sia A = (ai,j )m,n
i,j=1 la matrice che
rappresenta ϕ rispetto alla coppia di basi (E, F). Indichiamo con At la matrice
(a0i,j )n,m
i,j=1 , ove poniamo
(7) a0i,j = aj,i , (i = 1, 2, ..., n, j = 1, 2, ..., m)
e sia θ la trasformazione lineare da W a V rappresentata da At rispetto alla
coppia di basi (F, E). Per ogni scelta di k = 1, 2, ..., n ed h = 1, 2, ..., m risulta
Xm m
X
hϕ(Ek ), Fh i = h Fj aj,k , Fh i = aj,k hFj , Fh i = ah,k
j=1 j=1
18.1. IL CASO REALE 365
n
X n
X
hEk , θ(Fh )i = hEk , Ei a0i,h i = hEk , Ei ia0i,h = a0k,h
i=1 i=1
perchè le basi F ed E sono ortonormali. Insomma,
(8) hϕ(Ek ), Fh i = ah,k , hEk , θ(Fh )i = a0k,h
per k = 1, 2, ..., n ed h = 1, 2, ..., m. Ma a0k,h = ah,k per (7). Dunque
hϕ(Ek ), Fh i = hEk , θ(Fh )i, (k = 1, 2, ..., n, h = 1, 2, ..., m)
Pn Pm
Pertanto, per ogni scelta di vettori X = i=1 xi Ei in V ed Y = j=1 Fj yj in
W risulta
Pn Pm
hϕ(X),
Pn,m
Y i = hϕ( i=1 xi Ei ), j=1 Fj yj i =
Pn,m
(9) = xi hϕ(Ei ), Fj iyj = i,j=1 xi hEi , θ(Fj )iyj =
Pi,j=1
n Pm
= h i=1 xi Ei , θ( j=1 Fj yj )i = hX, θ(Y )i
Cioè θ = ϕt . 2
Per (2) e (4), la funzione che porta ogni elemento di L(V, W) nella sua trasposta
è un isomorfismo dallo spazio vettoriale L(V, W) allo spazio vettoriale L(W, V)
(e, per (2), è inverso di sè stesso).
Nota. Quando W = V quest’ isomorfismo ‘assomiglia’ ad un automorfismo
dell’ algebra L(V), ma non lo è. Infatti, scambia l’ ordine dei fattori (cfr.
(3)). Se invece consideriamo la funzione che ad ogni ϕ ∈ Aut(V) associa (ϕ−1 )t
otteniamo un automorfismo del gruppo Aut(V).
Siano ora E ed F basi ortonormali di V e W. Come nella dimostrazione del
Teorema 18.6, poniamo A = µE,F (ϕ). La matrice µF,E (ϕt ) è quella che nella
dimostrazione del Teorema 18.6 indicavamo con At . Per (7), essa si ottiene da
A scambiandovi le righe con le colonne:
a1,1 a1,2 ..... a1,n
a2,1 a2,2 ..... a2,n
A= ....
.... ..... ....
am,1 am,2 ..... am,n
a1,1 a2,1 ..... am,1
t
a1,2 a2,2 ..... am,2
A =
.... .... ..... ....
a1,n a2,n ..... am,n
Chiamiamo At la trasposta di A e manteniamo per essa il simbolo At introdotto
nella dimostrazione del Teorema 18.6. (Quando n = 1 ritroviamo la nozione di
trasposta di una matrice-colonna, data nella Sezione 15.7 del Capitolo 15.)
366 Capitolo 18
Tenendo conto delle (8) ed usando la notazione stabilita nella Sezione 15.7
del Capitolo 15, le (9) si possono riassumere cosı̀:
([Link]) (X)tE · A · (Y )F = hϕ(X), Y i = hX, ϕt (Y )i
È ovvio che le proprietà (2), (3), (4), (5) e (6) si ‘trasferiscono’ dalle trasforma-
zioni alle loro matrici rappresentative:
([Link]) (At )t = A, (∀A ∈ Mm,n (R))
([Link]) (AB)t = B t At , (∀A ∈ Mm,n (R), ∀B ∈ Ms,m (R))
([Link]) (xA + yB)t = xAt + yB t , (∀A, B ∈ Mm,n (R), ∀x, y ∈ R)
([Link]) It = I
([Link]) (At )−1 = (A−1 )t , (∀A ∈ Mn (R), A invertibile)
18.1.3 Trasformazioni simmetriche
Qui assumiamo W = V. Una trasformazione lineare ϕ da V a V si dice
simmetrica (o autotrasposta) se ammette trasposta e se ϕt = ϕ, cioè se
(10) hϕ(X), Y i = hX, ϕ(Y )i, (∀X, Y ∈ V)
Sia E = (Ei )i∈I una base di V. Sostituendo i vettori di E in (10) si ottiene il
seguente sistema di relazioni:
(100 ) hϕ(Ei ), Ej i = hEi , ϕ(Ej )i, (∀i, j ∈ I)
Da queste per linearità si riottiene la (10). (Lascio i dettagli al lettore). Quindi
una trasformazione lineare ϕ ∈ L(V) è simmetrica se e solo se verifica le (100 ).
Esempi. La trasformazione identità è simmetrica (cfr. (5)). Sono simmetriche
anche la trasformazione nulla e tutte le omotetie. Per le Proposizioni 18.3 e 18.4,
prodotti e combinazioni lineari di trasformazioni
Pn simmetriche sono simmetriche.
Quindi, se ϕ è simmetrica, anche i=0 ai ϕi è simmetrica, per ogni n ∈ N ed
ogni scelta di scalari a0 , a1 , ..., an ∈ R. (In breve: la sottoalgebra di L(V)
generata da I e da una trasformazione simmetrica contiene solo trasformazioni
simmetriche.)
Matrici simmetriche. Supponiamo che dim(V) < ∞. Presa una base or-
tonormale E di V sia A = µE (ϕ) la matrice che rappresenta ϕ rispetto a E.
Quindi At = µE (ϕt ). Pertanto, ϕ è simmetrica se e solo se
([Link]) At = A
Le matrici che hanno questa proprietà si dicono simmetriche. Evidentemente,
una matrice quadrata A = (ai,j )ni,j=1 è simmetrica se e solo se
(100 .bis) ai,j = aj,i , (1 ≤ i < j ≤ n)
18.1. IL CASO REALE 367
Cioè, le matrici simmetriche sono quelle di questo tipo
a1,1 a1,2 a1,3 ..... a1,n
a1,2 a2,2 a2,3 ..... a2,n
a1,3 a2,3 a3,3 ..... a3,n
.... .... .... ..... ....
a1,n a2,n a3,n ..... an,n
Autovettori e sottospazi invarianti. Si è osservato che la trasformazione
nulla, l’ identità e tutte le omotetie di uno spazio euclideo sono trasformazioni
simmetriche. Più in generale:
Teorema 18.7 Se V ammette una base ortogonale formata da autovettori di
ϕ, allora ϕ è simmetrica.
Dimostrazione. Sia E = (Ei )i∈I una base ortogonale di V formata da autovettori
di ϕ. Per ogni i ∈ I, sia ai l’ autovalore di Ei . Allora
(i) hϕ(Ei ), Ej i = hai Ei , Ej i = ai hEi , Ej i = ai δi,j
(ii) hEi , ϕ(Ej )i = hEi , aj Ej i = aj hEi , Ej i = aj δi,j
(ove δi,j è il simbolo di Kronecker). Ma
0 se i 6= j
ai δi,j = aj δi,j =
ai se i = j
Quindi hϕ(Ei ), Ej i = hEi , ϕ(Ej )i. Dunque, ϕ è simmetrica. 2
Nel Capitolo 22 vedremo che quando dim(V) < ∞ vale anche il viceversa: una
trasformazione simmetrica ammette sempre una base ortogonale di autovettori.
Quindi, nel caso di dimensione finita le trasformazioni simmetriche sono quelle
che ammettono basi ortogonali di autovettori.
Il Teorema 18.7 lascia indovinare l’ esistenza di una qualche relazione tra
simmetria e ortogonalità. La seguente proposizione dovrebbe chiarire questo
punto. (Essa è un caso particolare di una proprietà generale delle trasposte; cfr.
Sezione 18.3, Esercizio 18.7(i).)
Proposizione 18.8 Sia ϕ ∈ L(V) simmetrica e sia X un sottospazio lineare di
V. Se X è ϕ-invariante, allora X ⊥ è ϕ-invariante.
Dimostrazione. Sia Y ∈ X ⊥ . Per la simmetria di ϕ risulta hX, ϕ(Y )i =
hϕ(X), Y i per ogni X ∈ X . Ma per ipotesi X è ϕ-invariante. Quindi ϕ(X) ∈ X .
Sicchè hϕ(X), Y i = 0 perchè Y ∈ X ⊥ . Quindi hX, ϕ(Y )i = 0. 2
Corollario 18.9 La trasformazione ϕ sia simmetrica. Un sottospazio lineare di
V di dimensione finita è ϕ-invariante se e solo se il suo complemento ortogonale
è ϕ-invariante.
368 Capitolo 18
(Questo segue dalla proposizione precedente e dal Teorema 9.19 del Capitolo 9).
Quindi:
Corollario 18.10 Un vettore A 6= O è un autovettore di una trasformazione
simmetrica ϕ se e solo se l’ iperpiano A⊥ è ϕ-invariante.
Dalla Proposizione 18.7 segue anche che, se ϕ è simmetrica, allora i comple-
menti ortogonali degli autospazi di ϕ sono ϕ-invarianti. In particolare, se ϕ è
simmetrica allora Ker(ϕ)⊥ è ϕ-invariante.
Proposizione 18.11 La trasformazione ϕ sia simmetrica. Allora autovettori
di ϕ relativi a suoi autovalori distinti sono tra loro ortogonali.
Dimostrazione. Siano A, B autovettori di ϕ, con autovalori a e b. Risulta
ahA, Bi = haA, Bi = hϕ(A), Bi = hA, ϕ(B)i = hA, bBi = bhA, Bi
Quindi, se a 6= b deve essere hA, Bi = 0. 2
Ferma l’ ipotesi che ϕ sia simmetrica, supponiamo che V ammetta una base
formata da autovettori di ϕ. Allora V è somma diretta degli autospazi di ϕ
(Capitolo 17, Corollario 17.14 e Lemma 17.20) e questi sono a due a due orto-
gonali per la Proposizione 18.11. Sicchè, se ciascuno di essi ammette una base
ortogonale, V ammette una base ortogonale formata da autovettori di ϕ. (Nel
Capitolo 22, senza usare la Proposizione 18.11, otterremo la stessa conclusione
supponendo solo che dim(V) < ∞, sempre nell’ ipotesi che ϕ sia simmetrica.)
18.1.4 Trasformazioni antisimmetriche
Una trasformazione lineare ϕ ∈ L(V) si dice antisimmetrica se ammette traspo-
sta e ϕt = −ϕ, cioè
(11) hϕ(X), Y i + hX, ϕ(Y )i = 0, (∀X, Y ∈ V)
Proposizione 18.12 Una trasformazione antisimmetrica non ammette auto-
valori diversi da 0.
Dimostrazione. Sia ϕ antisimmetrica, sia A un suo autovettore ed a il relativo
autovalore. Sostituendo A ad X ed Y in (11) si ha haA, Ai + hA, aAi = 0.
6 0, in quanto A 6= O. 2
Quindi 2ahA, Ai = 0 e perciò a = 0 perchè hA, Ai =
Corollario 18.13 Se ϕ è antisimmetrica e 6= O, allora nessuna base di V è
formata da autovettori di ϕ.
Dimostrazione. Infatti, per la Proposizione 18.12, tutti gli autovettori di una
trasformazione antisimmetrica appartengono al suo nucleo. 2
18.2. IL CASO COMPLESSO 369
Supponendo dim(V) = n < ∞, e scelta una base ortonormale E di V, sia
A = µE (ϕ). Evidentemente, ϕ è antisimmetrica se e solo se At = −A; cioè, se
e solo se A ha questa forma:
0 a1,2 a1,3 ..... a1,n−1 a1,n
−a1,2 0 a2,3 ..... a2,n−1 a2,n
−a1,3 −a2,3 0 ..... a3,n−1 a3,n
..... ..... ..... ..... ..... .....
−a1,n−1 −a2,n−1 −a3,n−1 ..... 0 an−1,n
−a1,n −a2,n −a3,n ..... −an−1,n 0
Queste matrici si dicono antisimmetriche.
18.2 Il caso complesso
18.2.1 Aggiunte
Siano V e W due spazi euclidei complessi e sia ϕ una trasformazione lineare da
V a W. Diciamo che una trasformazione lineare θ : W → V è aggiunta di ϕ se
(1)∗ hϕ(X), Y i = hX, θ(Y )i, (∀X ∈ V, ∀Y ∈ W)
Come per la trasposta nel caso reale, l’ aggiunta se esiste è unica. L’ aggiunta
di ϕ (quando esiste) viene indicata col simbolo ϕ∗ . Cosı̀ la (1)∗ diventa:
(10 )∗ hϕ(X), Y i = hX, ϕ∗ (Y )i, (∀X ∈ V, ∀Y ∈ W)
Valgono per le aggiunte proprietà analoghe alle (2)-(6) della Sezione 18.1, con
una piccola modifica nella (4):
(2)∗ (ϕ∗ )∗ = ϕ
(3)∗ (ψϕ)∗ = ϕ∗ ψ ∗
(4)∗ (xϕ + yψ)∗ = xϕ∗ + yψ ∗
(5)∗ I∗ = I
(6)∗ (ϕ∗ )−1 = (ϕ−1 )∗ , (se ϕ è invertibile e se (ϕ−1 )∗ esiste)
Supponiamo che V e W abbiano dimensione finita. Come nel caso reale, si
dimostra che ogni trasformazione lineare da V a W ammette aggiunta. Ora
però la funzione che ad ogni ϕ ∈ L(V, W) associa la sua aggiunta ϕ∗ ∈ L(W, V)
non è lineare ma ‘semilineare’ ((4)∗ ; cfr. Capitolo 13, §13.2.4, osservazioni sul
caso complesso).
Data una base ortonormale E = (Ei )ni=1 di V ed una base ortonormale
∗ ∗
F = (Fi )mi=1 di W, posto A = µE,F (ϕ), la matrice µF,E (ϕ ) si indica con A e si
ottiene da A scambiando le righe con le colonne e sostituendo ogni coefficiente
col suo coniugato:
a1,1 a1,2 ..... a1,n
a2,1 a2,2 ..... a2,n
A= ....
.... ..... ....
am,1 am,2 ..... am,n
370 Capitolo 18
a1,1 a2,1 ..... am,1
∗
a1,2 a2,2 ..... am,2
A =
.... .... ..... ....
a1,n a2,n ..... am,n
La matrice A∗ si chiama aggiunta di A. Come nel caso reale, le proprietà
(2)∗ − (6)∗ si ‘trasferiscono’ alle matrici. (Lascio i dettagli al lettore.)
18.2.2 Trasformazioni hermitiane
Una trasformazione lineare ϕ di uno spazio euclideo complesso V in sè si dice
hermitiana (o autoaggiunta) se ammette aggiunta e se ϕ∗ = ϕ, cioè se
(10)∗ hϕ(X), Y i = hX, ϕ(Y )i, (∀X, Y ∈ V)
Sia E = (Ei )i∈I una base di V. Come nel caso reale, una trasformazione lineare
ϕ ∈ L(V) è hermitiana se e solo se
(100 )∗ hϕ(Ei ), Ej i = hEi , ϕ(Ej )i, (∀i, j ∈ I)
Matrici hermitiane. Supponiamo che dim(V) < ∞. Presa una base orto-
normale E di V sia A = µE (ϕ) la matrice che rappresenta ϕ rispetto ad E.
Quindi A∗ = µE (ϕ∗ ). Pertanto, ϕ è hermitiana se e solo se A∗ = A. Le matrici
che hanno questa proprietà si dicono hermitiane (o autoaggiunte). Esso sono le
matrici di questo tipo:
a1,1 a1,2 a1,3 ..... a1,n−1 a1,n
a1,2 a2,2 a2,3 ..... a2,n−1 a2,n
a1,3 a2,3 a3,3 ..... a3,n−1 a3,n
.... .... .... ..... .... ....
a1,n a2,n a3,n ..... an−1,n an,n
ove a1,1 , a2,2 , ..., an,n ∈ R.
Autovalori e autovettori. Valgono per sottospazi invarianti di trasformazio-
ni hermitiane le stesse cose che per sottospazi invarianti di trasformazioni sim-
metriche. Per esempio, se A è un autovettore di una trasformazione hermitiana
ϕ, allora A⊥ è ϕ-invariante. Al Teorema 18.6 corrisponde questo:
Teorema 18.14 Sia ϕ una trasformazione lineare di uno spazio euclideo com-
plesso V in sè. Se tutti gli autovalori di ϕ sono reali e se V ammette una base
ortogonale formata da autovettori di ϕ, allora ϕ è hermitiana.
(La dimostrazione è simile a quella del Teorema 18.7; la lascio al lettore.) Nel
Capitolo 22 vedremo che quando dim(V) < ∞ vale anche il viceversa: se ϕ è
hermitiana, allora V ammette basi ortogonali formate da autovettori di ϕ. Per
il momento mi limito a dimostrare che:
18.3. ESERCIZI 371
Proposizione 18.15 Tutti gli autovalori di una trasformazione hermitiana so-
no reali.
Dimostrazione. Sia ϕ hermitiana, sia A un suo autovettore e sia a l’ autovalore
di A. Allora ahA, Ai = haA, Ai = hϕ(A), Ai = hA, ϕ(A)i = hA, aAi = ahA, Ai.
Quindi ahA, Ai = ahA, Ai. Ma hA, Ai 6= 0 perchè A, essendo un autovettore,
non è O. Pertanto a = a. Cioè a ∈ R. 2
Corollario 18.16 La trasformazione ϕ sia hermitiana. Allora autovettori di ϕ
relativi ad autovalori distinti sono tra loro ortogonali.
Dimostrazione. Siccome per la Proposizione 18.15, tutti gli autovalori di ϕ
sono reali, possiamo imitare passo passo la dimostrazione data nel caso reale
(Proposizione 18.11). 2
18.2.3 Trasformazioni anti-hermitiane
Una trasformazione lineare ϕ di uno spazio euclideo complesso V in sè si dice
anti-hermitiana se ammette aggiunta e ϕ∗ = −ϕ, cioè
(11)∗ hϕ(X), Y i + hX, ϕ(Y )i = 0, (∀X, Y ∈ V)
Proposizione 18.17 Gli autovalori non nulli di una trasformazione anti-hermitiana
sono sempre immaginari.
Dimostrazione. Si proceda come nella dimostrazione della Proposizione 18.12.
Ora però la conclusione è che (a + ā)hA, Ai = 0, che ci dice solo che a + ā = 0,
cioè che a, se non è 0, è immaginario. 2
Supponendo dim(V) = n < ∞, e scelta una base ortonormale E di V, sia
A = µE (ϕ). Evidentemente, ϕ è anti-hermitiana se e solo se A∗ = −A; cioè, se
e solo se A ha questa forma:
0 a1,2 a1,3 ..... a1,n−1 a1,n
−a1,2 0 a2,3 ..... a2,n−1 a2,n
−a1,3 −a2,3 0 ..... a3,n−1 a3,n
..... ..... ..... ..... ..... .....
−a1,n−1 −a2,n−1 −a3,n−1 ..... 0 an−1,n
−a1,n −a2,n −a3,n ..... −an−1,n 0
Queste matrici si dicono anti-hermitiane.
18.3 Esercizi
Esercizio 18.1 Quali tra le seguenti trasformazioni lineari di Vn (R) in sè sono
simmetriche ?
Proiezioni, riflessioni, rotazioni.
Risposta. Le proiezioni e le riflessioni sono simmetriche. Invece una rotazione
non nulla di angolo 6= π non è mai simmetrica.
372 Capitolo 18
Esercizio 18.2 Siano ϕ e ψ due trasformazioni lineari simmetriche da uno
spazio euclideo reale V a V. Si dimostri che ψϕ è simmetrica se e solo se
ψϕ = ϕψ.
Suggerimento. Si usi la (3).
Esercizio 18.3 Sia ϕ una trasformazione lineare invertibile da uno spazio eu-
clideo reale V a V. Si dimostri che, se ϕ è simmetrica, allora anche ϕ−1 è
simmetrica.
Soluzione. Supponiamo che ϕ sia simmetrica. Se già sappiamo che (ϕ−1 )t
esiste (come quando dim(V) < ∞, per esempio), allora possiamo ottenere la
conclusione da (4). Supponiamo invece di non saperlo. Allora
hϕ−1 (X), Y i = hϕ−1 (X), ϕ(ϕ−1 (Y ))i = hϕ(ϕ−1 (X)), ϕ−1 (Y )i = hX, ϕ−1 (Y )i.
Queste identità dimostrano che (ϕ−1 )t esiste e che coincide con ϕ−1 .
Esercizio 18.4 Si dimostri con un esempio che non è detto che una trasfor-
mazione simmetrica conservi l’ ortogonalità tra vettori.
Soluzione. Per esempio, sia (E1 , E2 ) una base ortonormale di V2 (R) e sia ϕ
la trasformazione lineare da V2 (R) a V2 (R) che fissa E1 e porta E2 in 2E2 .
La trasformazione ϕ è simmetrica (Teorema 18.7). Poniamo A = E1 + E2 e
B = E1 − E2 . Allora A ⊥ B. Però hϕ(A), ϕ(B)i = −3.
Esercizio 18.5 Siano V e W spazi euclidei reali e ϕ ∈ L(V, W). Supponiamo
che ϕ ammetta trasposta. Si dimostri che
(i) (ϕ(X))⊥ = (ϕt )−1 (X⊥ ), per ogni X ⊆ V;
(ii) Ker(ϕ) = (Im(ϕt ))⊥ ;
(iii) ϕ è iniettiva se e solo se ϕt è suriettiva.
Traccia. La (i) è ovvia. Per ottenere (ii), si dimostri che X ∈ Ker(ϕ) se e solo
se X ⊥ ⊇ Im(ϕt ). (Altrimenti, si usi (i) sostituendovi ϕ con ϕt ed X con W.)
La (iii) segue subito da (ii).
Esercizio 18.6 Si deduca dalla (ii) dell’ Esercizio 18.5 l’ enunciato del Teore-
ma 16.23 del Capitolo 16 (limitatamente a matrici a coefficienti in R).
Esercizio 18.7 Sia V uno spazio reale euclideo e ϕ ∈ L(V). Supponiamo che
ϕ ammetta trasposta. Si dimostri che:
(i) se X ⊆ V è ϕ-invariante, allora X⊥ è ϕt -invariante;
(ii) se X è un sottospazio lineare di V di dimensione finita, allora X è ϕ-
invariante se e solo se X ⊥ è ϕt -invariante.
Traccia. Se ϕ(X) ⊆ X allora (ϕ(X))⊥ ⊇ X⊥ . La (i) segue dall’ Esercizio
18.5(i). Passiamo a (ii). Se dim(X ) < ∞, allora X = X ⊥⊥ (Capitolo 9,
Teorema 9.19). La conclusione si ottiene da (i).
Nota. Da (i) segue, per esempio, che il complemento ortogonale di ogni auto-
spazio di ϕ è ϕt -invariante. Cfr. anche Esercizio 18.5(ii) e l’ esercizio seguente.
18.3. ESERCIZI 373
Esercizio 18.8 Sia V uno spazio reale euclideo e ϕ ∈ L(V). Supponiamo che
ϕ ammetta trasposta. Dato un autovettore A di ϕ, sia a il suo autovalore. Si
dimostri che
(i) se a 6= 0, allora A⊥ = (ϕt )−1 (A⊥ );
(ii) in ogni caso, Ker(ϕ − aI) = (Im(ϕt − aI))⊥ .
Suggerimento. Per (i): Esercizio 18.5(i). Per (ii): Esercizio 18.5(ii).
Esercizio 18.9 Sia V uno spazio euclideo reale e ϕ ∈ L(V). Supponiamo che
ϕ ammetta trasposta e che sia invertibile. Si dimostri che
ϕ(A⊥ ) = ((ϕ−1 )t (A))⊥ , (∀A ∈ V)
Soluzione. Sia θ il funzionale lineare che ad ogni X ∈ V associa hX, Ai e
poniamo ψ = ϕ−1 . Risulta ψ −1 (Ker(θ)) = Ker(θψ) (Capitolo 16, Proposizione
16.4). Quindi
(i) ϕ(Ker(θ)) = Ker(θϕ−1 ) = {X | hϕ−1 (X), Ai = 0}
D’ altra parte, hϕ−1 (X), Ai = hX, (ϕ−1 )t (A)i. Pertanto,
(ii) Ker(θϕ−1 ) = ((ϕ−1 )t (A))⊥
Da (i) e (ii) segue che ϕ(Ker(θ)) = ((ϕ−1 )t (A))⊥ . Inoltre, Ker(θ) = A⊥ .
Da qui la conclusione. (Nel caso di dimensione finita si può ragionare più
sveltamente, sfruttando la (i) dell’ Esercizio 18.5, oppure la (14) della Sezione
18.4).
Esercizio 18.10 Sia ϕ un funzionale lineare di uno spazio euclideo reale V.
Prendiamo in V1 (R) il prodotto scalare standard, che è il solito prodotto di
numeri reali. Si dimostri che ϕ ammette trasposta se e solo se esiste un vettore
A ∈ V tale che ϕ(X) = hX, Ai per ogni X ∈ V. (Ovviamente questo vettore A,
se esite, è unico.) Si dimostri anche che, se un tale vettore A esiste, allora ϕt
è la funzione che porta ogni numero reale x in xA. (Cioè ϕt (1) = A).
Esercizio 18.11 Siano V e W spazi euclidei reali. Supponiamo che ammettano
basi ortogonali e siano E = (Ei )i∈I ed F = (Fj )j∈J basi ortogonali rispettiva-
mente di V e W. Si dimostri che una trasformazione lineare ϕ da V a W
ammette trasposta se e solo se per ogni j ∈ J risulta hFj , ϕ(Ei )i =
6 0 solo per
un numero finito di indici i ∈ I.
Esercizio 18.12 In P∞ (R) si definisca un prodotto scalare prendendo {xn }∞ n=0
come base ortonormale (Capitolo 8, §8.3.2). Cosı̀ P∞ (R) diventa uno spazio eu-
clideo. Sia D l’ operatore di derivazione su P∞ (R). Si dimostri che la trasposta
Dt di D esiste e la si calcoli.
Soluzione. L’ esistenza di Dt segue dall’ Esercizio 18.11. Per averla, basta
rispecchiare attorno alla sua diagonale la ‘matrice’ descritta nell’ Esercizio 13.41
del Capitolo 13.
374 Capitolo 18
Esercizio 18.13 Sia ϕ una trasformazione lineare di uno spazio euclideo reale
in sè. Si dimostri che ϕ è antisimmetrica se e solo se
(12) hϕ(X), Xi = 0, (∀X ∈ V)
Soluzione. (12) è un caso particolare di (11). D’ altra parte,
hϕ(X + Y ), X + Y i = hϕ(X), Xi + hϕ(X), Y i + hϕ(Y ), Xi + hϕ(Y ), Y i
Quindi, se vale (12), allora hϕ(X), Y i + hϕ(Y ), Xi = 0; e questo equivale a (11).
Esercizio 18.14 Sia V uno spazio euclideo reale. Per (4), l’ insieme delle tra-
sformazioni lineari di V in sè che ammettono trasposta è un sottospazio lineare
di L(V), diciamolo L. Siano L+ e L− i sottoinsiemi di L formati rispettivamen-
te dalle trasformazioni simmetriche e da quelle antisimmetriche. Anche questi
sono sottospazi lineari di L(V). Si dimostri che L = L+ ⊕ L− .
Traccia. Per ogni ϕ ∈ L, si ha ϕ + ϕt ∈ L+ , ϕ − ϕt ∈ L− e
ϕ + ϕt ϕ − ϕt
ϕ = +
2 2
Se ψ ∈ L+ ∩ L− allora hψ(X), Xi = hX, ψ(Y )i = −hX, ψ(Y )i ...
Esercizio 18.15 Ferme le notazioni dell’ Esercizio 18.14, indichiamo con T l’
automorfismo di L che porta ogni ϕ ∈ L in ϕt . L’ operatore T ha solo due
autovalori, 1 e −1 (cfr. (2) e Capitolo 17, Esercizio 17.5). Si dimostri che L+
ed L− sono i due autospazi di T , relativi rispettivamente a 1 e a −1.
Nota. Quindi, siccome L = L+ ⊕ L− (Esercizio 18.14), T ammette una base
L− L+
di autovettori e T = πL + + πL− . (Cfr. Capitolo 17, Esercizio 17.23.)
Esercizio 18.16 Siano Ui,j (i, j = 1, 2, ..., n) i versori di Mn (R). Indichiamo
con M+ ed M− l’ insieme delle matrici simmetriche e l’ insieme delle matrici
antisimmetriche di Mn (R). Si verifichi che
M+ = L({Ui,i }ni=1 ∪ {Ui,j + Uj,i }1≤i<j≤n )
M− = L({Ui,j − Uj,i }1≤i<j≤n )
Se ne deduca che dim(M+ ) = n(n + 1)/2, dim(M− ) = n(n − 1)/2 e che
Mn (R) = M+ ⊕ M− . (Cfr. Esercizio 18.14.)
Esercizio 18.17 Sia T : Mn (R) −→ Mn (R) la funzione che ad ogni matrice di
Mn (R) associa la sua trasposta. Per ([Link]), la trasformazione T è lineare. Si
definisca su Mn (R) un prodotto scalare Φ prendendo i versori di Mn (R) come
base ortonormale (Capitolo 8, Sezione 8.5 e Capitolo 13, Esercizio 13.45). I
vettori
Ui,i , (i = 1, 2, ..., n)
Ui,j + Uj,i , (1 ≤ i < j ≤ n)
Ui,j − Uj,i , (1 ≤ i < j ≤ n)
18.3. ESERCIZI 375
formano una base ortogonale di autovettori di T . Se ne deduca che T è simme-
trica, che è un’ automorfismo di (Mn (R), Φ) e che è un prodotto di n(n − 1)/2
riflessioni attorno a iperpiani a due a due ortogonali.
Esercizio 18.18 Riformulate nel caso complesso gli enunciati degli Esercizi
18.5 e 18.7 − −18.11 e dimostrateli.
Esercizio 18.19 Dato uno spazio euclideo complesso V, sia ϕ ∈ L(V). Si
dimostri che ϕ è hermitiana se e solo se
(13) hϕ(X), Xi = hX, ϕ(X)i, (∀X ∈ V)
(cioè, se e solo se il numero hϕ(X), Xi è sempre reale)
Soluzione. Ponendo Y = X in (10)∗ otteniamo (13). Viceversa, assumiamo
(13). Allora il numero hϕ(xX + yY ), xX + yY i è reale, per ogni scelta di numeri
complessi x, y. Ma anche xhϕ(X), Xix ed yhϕ(Y ), Y iy sono numeri reali, per
(13) e perchè xx, yy ∈ R. Pertanto, il numero xhϕ(X), Y iy + yhϕ(Y ), Xix è
sempre reale. D’ altra parte, non è difficile dimostrare che, dati a, b ∈ C, l’
espressione xay + ybx è reale per ogni scelta di x, y ∈ C se e solo se b = a. Ne
segue che hϕ(Y ), Xiy = hϕ(X), Y i, cioè: hX, ϕ(Y )i = hϕ(X), Y i.
Nota. La Proposizione 18.15 può ottenersi anche da (13): si sostituisca X in
(13) con un autovettore ...
Esercizio 18.20 Sia ϕ una trasformazione lineare di uno spazio euclideo com-
plesso in sè. Si dimostri che ϕ è anti-hermitiana se e solo se
(12)∗ hϕ(X), Y i + hX, ϕ(Y )i = 0, (∀X, Y ∈ V)
Suggerimento. Per dedurre (12)∗ da (11)∗ si ragioni come nella soluzione dell’
Esercizio 18.19.
Esercizio 18.21 Si dimostri che una trasformazione lineare ϕ di uno spazio
euclideo complesso V è hermitiana (anti-hermitiana) se e solo se iϕ è anti-
hermitiana (hermitiana).
Esercizio 18.22 Ogni matrice M ∈ Mn (C) si rappresenta in modo unico nella
forma A + iB, con A, B ∈ Mn (R). Si dimostri che M è hermitiana (oppure,
anti-hermitiana) se e solo se A è simmetrica e B è antisimmetrica (rispettivamente,
A è antisimmetrica e B è simmetrica).
Esercizio 18.23 Si riformuli l’ enunciato dell’ Esercizio 18.14 per il caso com-
plesso e lo si dimostri.
Esercizio 18.24 Sia V uno spazio euclideo complesso e sia ϕ ∈ V. Supponiamo
che ϕ ammetta aggiunta. Si dimostri che esiste un’ unica coppia ϕ1 , ϕ2 di
trasformazioni hermitiane di V tali che ϕ = ϕ1 + iϕ2 .
Suggerimento. Esercizi 18.23 e 18.21.
376 Capitolo 18
Esercizio 18.25 Dato uno spazio euclideo complesso V e una trasformazione
lineare ϕ ∈ L(V), supponiamo che ϕ ammetta aggiunta. Sia A un autovettore
di A e sia a il suo autovalore. Si dimostri che le seguenti affermazioni sono
equivalenti:
(i) A è autovettore di ϕ∗ con autovalore a;
(ii) ϕ∗ (A) − aA ⊥ ϕ∗ (A);
(iii) (ϕϕ∗ − ϕ∗ ϕ)(A) ⊥ A.
Traccia. Risulta ϕ∗ (A) − aA ⊥ A per l’ analogo dell’ Esercizio 18.8(ii) nel caso
complesso. L’ equivalenza di (i) e (ii) segue da questo. Per dimostrare invece l’
equivalenza di (ii) ed (iii) si osservi che hϕ∗ (A), ϕ∗ (A)i = hA, ϕ(ϕ∗ (A))i e che
hA, ϕ∗ (ϕ(A))i = hA, aϕ∗ (A)i = haA, ϕ∗ (A)i. Sottraendo membro a membro...
Nota. Ovviamente, un analogo risultato vale nel caso reale.
Esercizio 18.26 (Trasformazioni normali) Dato uno spazio euclideo com-
plesso V, sia ϕ ∈ L(V) e supponiamo che ϕ ammetta aggiunta e che commuti
con la propria aggiunta. Sia A un suo autovettore, con autovalore a. Si dimostri
che A è un autovettore di ϕ∗ con autovalore a.
Suggerimento. Esercizio 18.25.
Definizione. Le trasformazioni lineari di uno spazio euclideo complesso in sè
che ammettono aggiunta e che commutano con la propria aggiunta si dicono
normali. Per esempio, le trasformazioni hermitiane e quelle anti-hermitiane
sono normali. Sono normali anche le trasformazioni unitarie di spazi euclidei di
dimensione finita, delle quali diremo nel prossimo capitolo.
Trasformazioni normali si possono definire anche nel caso reale. Esempi:
le trasformazioni simmetriche, quelle antisimmetriche e le trasformazioni orto-
gonali di spazi euclidei di dimensione finita. Vale nel caso reale un risultato
analogo a quello ora stabilito per il caso complesso: se ϕ è normale allora ϕ e
ϕt hanno gli stessi autovettori, con gli stessi autovalori.
Nota. La Proposizione 18.15 si ottiene subito dal precedente enunciato: A è
autovettore di ϕ∗ con autovalore a; ma se ϕ = ϕ∗ allora ϕ∗ (A) = ϕ(A) = aA ...
Esercizio 18.27 Data una trasformazione normale ϕ, siano A e B autovettori
di ϕ. Si dimostri che se i loro autovalori sono diversi allora A ⊥ B.
Suggerimento. Si imiti la dimostrazione della Proposizione 18.10, sfruttando
l’ Esercizio 18.26.
Nota. Evidentemente, la Proposizione 18.11 ed il Corollario 18.16 sono casi
particolari di quest’ enunciato.
18.4 Trasposte di matrici in Mm,n (K)
Si può parlare di trasposte anche per matrici a coefficienti in campi diversi da
R (e già lo abbiamo fatto nel Capitolo 15, Sezione 15.7, anche se limitatamente
a matrici colonna): data una matrice A ∈ Mm,n (K), la matrice n × m ottenuta
scambiando le righe con le colonne di A si dice la trasposta di A. La si indica
con At . Una matrice quadrata A ∈ Mn (K) si dice simmetrica se At = A.
18.4. TRASPOSTE DI MATRICI IN MM,N (K) 377
Le proprietà ([Link]) − ([Link]) di §18.1.2 restano valide. (Lascio la loro di-
mostrazione al lettore.) È anche ovvio che la trasposta At di una matri-
ce A ∈ Mm,n (K) è l’ unica matrice B ∈ Mn,m (K) soddisfacente la seguente
identità, analoga alla (1):
(AX)t ·Y = X t ·(BY ), (∀X ∈ Vn (K), ∀Y ∈ Vm (K))
(L’ analogia con la (1) diventa evidente non appena si rammenti che in Vn (R)
vale l’ identità X t Y = hX, Y i.) Riferirsi alle trasposte torna utile in molti casi,
come vedremo ora.
18.4.1 Equazioni lineari
n
PnA = (ai )i=1 in Vn (K)t e uno scalare a ∈ K, possiamo
Dato un vettore
n
abbreviare
l’ equazione i=1 ai x i = a cosı̀: A X = a (ove X sta per (x i )i=1 ); oppure
cosı̀: X t A = a (infatti X t A = At X, perchè X t A = X t (At )t = (At X)t ed
(At X)t = At X; quest’ ultima uguaglianza vale perchè At X è uno scalare ed
ogni scalare, pensato come matrice 1 × 1, è una matrice simmetrica).
18.4.2 Immagini di iperpiani
Dato un automorfismo ϕ di Vn (K) ed un iperpiano S di Vn (K), l’ immagine
ϕ(S) di S mediante ϕ è un iperpiano (Capitolo 13, Corollario 13.4 e Capitolo
16, Corollario 16.17).
Sia M la matrice rappresentativa di ϕ rispetto alla base U dei versori di
Vn (K) e siano At X = b e B t X = b le rappresentazioni cartesiane di S e ϕ(S)
rispetto al sistema di riferimento (O, U). Per ogni punto X ∈ Vn (K) si ha che
At X = a ⇐⇒ X ∈ S ⇐⇒ M X ∈ ϕ(S) ⇐⇒ B t ·M X = b
(si rammenti che ϕ(X) = M X). In definitiva,
At X = a ⇐⇒ B t M ·X = b
Quindi, siccome B t M = (M t B)t ,
At X = a ⇐⇒ (M t B)t X = b
Pertanto, M t B = cA e b = ca per qualche scalare c 6= 0. Salvo eventualmente
sostituire B con c−1 B e b con b/c, possiamo supporre che c = 1. Cosı̀, M t B = A
e b = a. Sicchè B = (M t )−1 A (cfr. Esercizio 18.9). Questa è dunque l’ equazione
dell’ iperpiano ϕ(S):
(14) (M t )−1 AX = a
378 Capitolo 18
18.4.3 Altri usi delle trasposte
Vari prodotti tra matrici. Mediante le trasposte si possono definire ‘pro-
dotti’ di matrici diversi da quello considerato nel Capitolo 15. Per esempio,
possiamo definire un ‘prodotto per righe’ cosı̀
A ◦ B =def AB t , (A ∈ Mm,n (K), B ∈ Ms,n (K))
ed un ‘prodotto per colonne’ cosı̀:
A • B =def At B, (A ∈ Mm,n (K), B ∈ Mm,s (K))
(Per esempio, con questa notazione, (A ⊗ B)(X) = AX ◦ B.) Tanto ◦ che •,
viste come operazioni su Mn (K), conferiscono ad Mn (K) una struttura simile a
quella di un’ algebra, salvo che nessuno di questi due ‘prodotti’ è associativo;
invece della proprietà associativa, valgono per ◦ e • le seguenti identità:
A ◦ (B ◦ C) = (A ◦ C t ) ◦ B, A • (B • C) = (B t • A) • C
Comunque, nel seguito non farò mai uso dei prodotti ◦ e •. Quando parlerò
di prodotti di matrici mi riferirò sempre solo al prodotto ‘righe-per-colonne’
considerato nel Capitolo 15.
Capitolo 19
Trasformazioni ortogonali e
unitarie
19.1 Il caso reale
Dati due spazi euclidei reali (V, Φ) e (W, Ψ), diciamo ortogonali le trasformazioni
lineari ϕ da V a W che conservano i prodotti scalari, cioè tali che
(1) hϕ(X), ϕ(Y )i = hX, Y i, (∀X, Y ∈ V)
ove hX, Y i e hϕ(X), ϕ(Y )i stanno per Φ(X, Y ) e Ψ(ϕ(X), ϕ(Y )), rispettivamen-
te.
19.1.1 Prime proprietà
È ovvio che la composizione di due trasformazioni ortogonali è ortogonale. L’
identità è una trasformazione ortogonale e l’ inversa di una trasformazione
ortogonale invertibile è ortogonale (Capitolo 8, Proposizione 8.6).
Proposizione 19.1 Le trasformazioni ortogonali sono iniettive.
Dimostrazione. Le trasformazioni ortogonali, conservando i prodotti scalari,
conservano anche le norme. Quindi, se ϕ è ortogonale, la condizione ϕ(X) = O
equivale a ||X|| = 0, cioè X = O; pertanto ϕ è iniettiva per il Teorema 16.11
del Capitolo 16. (Oppure, senza usare quel teorema, possiamo osservare che ϕ,
conservando le norme, conserva le distanze tra i punti, cioè è un’ isometria e
quindi, è iniettiva.) 2
Gli isomorfismi da (V, Φ) a (W, Ψ) (nel caso che dim(V) = dim(W)) sono
trasformazioni ortogonali. Anzi:
Proposizione 19.2 Se dim(V) = dim(W) < ∞, allora le trasformazioni orto-
gonali da V a W sono proprio gli isomorfismi da (V, Φ) a (W, Ψ).
379
380 Capitolo 19
Dimostrazione. Supponiamo che dim(V) = dim(W) = n < ∞ e sia ϕ una
trasformazione ortogonale da V a W. Scelti due isomorfismi ε ed η dallo spazio
euclideo Vn (R) a (V, Φ) e a (W, Ψ), la trasformazione η −1 ϕε è un’ isometria
di Vn (R) e quindi un automorfismo di Vn (R) (Capitolo 12, Teorema 12.23; cfr.
anche Capitolo 13, Corollari 13.10 e 13.11). Pertanto ϕ è un isomorfismo da
(V, Φ) a (W, Ψ). 2
Supponiamo che V ammetta una base ortonormale E e sia ϕ una trasformazione
lineare da V a W. Per il Teorema 13.20 del Capitolo 13, la trasformazione ϕ
è iniettiva se e solo se la funzione ϕ|E è iniettiva e l’ insieme F = ϕ(E) è
indipendente. Supponiamo che questo sia il caso. Quindi F è una base di
L(F). Indichiamo con ΦF il prodotto scalare di L(F) naturale per F (Capitolo
8, Sezione 8.5). Evidentemente, ϕ è un isomorfismo da (V, Φ) ad (L(F), ΦF ).
Perchè ϕ sia una trasformazione ortogonale da (V, Φ) a (W, Ψ) occorre e basta
che ΦF coincida col prodotto scalare indotto da Ψ su L(F). Questo succede se
e solo se l’ insieme F è ortonormale. Riassumendo:
Proposizione 19.3 Sia E una base ortonormale di V. Una trasformazione
lineare ϕ ∈ L(V, W) è ortogonale se e solo se la sua restrizione ad E è iniettiva
e ϕ(E) è un insieme ortonormale.
Corollario 19.4 Se dim(V) = dim(W) < ∞, una trasformazione lineare ϕ da
V a W è ortogonale se e solo se porta una base ortonormale di V in una base
ortonormale di W.
Dimostrazione. Sia dim(V) = dim(W) = n < ∞. Allora V ammette basi
ortonormali (Capitolo 9, Corollario 9.12). Se E è una di esse e se ϕ(E) è una
base ortonormale di W, allora la restrizione di ϕ ad E è iniettiva (altrimenti
avremmo una base di W con meno di n elementi). Per la Proposizione 19.3,
la trasformazione ϕ è ortogonale. Viceversa, se ϕ è ortogonale allora è un
isomorfismo da (V, Φ) a (W, Ψ) (Proposizione 19.2) e quindi ϕ(E) è una base
ortonormale di W. 2
Nota. La Proposizione 13.26 del Capitolo 13 è un caso particolare di questo
corollario.
19.1.2 Il caso di W = V
Sia V uno spazio euclideo reale. Le trasformazioni ortogonali da V a V sono dette
trasformazioni ortogonali di V. Esse sono le isometrie lineari di V (Capitolo 13,
Corollario 13.11).
Proposizione 19.5 Sia ϕ una trasformazione lineare da V a V e supponiamo
che ammetta trasposta. Allora ϕ è ortogonale se e solo se
(2) ϕt ϕ = I
19.1. IL CASO REALE 381
Dimostrazione. La (1) può riscriversi cosı̀
hX, Y i = hX, ϕt (ϕ(Y ))i, (∀X, Y ∈ V)
cioè cosı̀:
hX, Y − ϕt (ϕ(Y ))i = 0, (∀X, Y ∈ V)
Questa seconda identità dice che Y − ϕt (ϕ(Y )) = O, per ogni Y ∈ V, cioè che
ϕt ϕ = I. Dunque questa condizione equivale alla (1). 2
La (2) ci rammenta che ogni trasformazione ortogonale è iniettiva (Proposizione
19.1) e ci informa che la trasposta di una trasformazione ortogonale è suriettiva
(cfr. Capitolo 18, Esercizio 18.5(iii)).
Il caso di dimensione finita. Supponiamo che dim(V) < ∞ e sia ϕ ∈ L(V).
La trasformazione ϕ ammette trasposta (Capitolo 18, Teorema 18.6). Quindi,
per la Proposizione 19.5, la trasformazione ϕ è ortogonale se e solo se verifica
la (2).
Supponiamo che ϕ sia ortogonale. Allora ϕ è invertibile (Proposizione 19.2)
e la (2) ci dice che
(2.a) ϕ−1 = ϕt
Cioè
(2.b) ϕt ϕ = ϕϕt = I
Scelta una base ortonormale E di V, sia A = µE (ϕ) la matrice che rappresenta
ϕ rispetto ad E. Ferma l’ ipotesi che ϕ sia ortogonale, A è invertibile e, siccome
At = µE (ϕt ), la (2.a) implica che
(20 .a) A−1 = At
Vale a dire,
(20 .b) At A = AAt = I
Nota. Che At A = I lo si poteva dedurre anche dal Corollario 19.4, rammen-
tando che le colonne di A corrispondono ai vettori di ϕ(E). Ma la relazione
AAt = I ci dice qualcosa di più: anche le righe di A formano un sistema orto-
normale. (Del resto, le righe di A sono le colonne di At e queste rappresentano
i vettori di ϕt (E); siccome ϕt , che è uguale a ϕ−1 , è ortogonale ...)
Le matrici quadrate a coefficienti in R che soddisfano (20 .b) (cioè, quelle inverti-
bili che soddisfano (20 .a)) si dicono ortogonali. Per il Corollario 19.4, le matrici
ortogonali sono quelle che fanno passare da una base ortonormale ad una base
ortonormale. (Cfr. Capitolo 15, Esercizio 15.18.)
382 Capitolo 19
Autovalori, autovettori e sottospazi invarianti. Ritornando al caso ge-
nerale, sia V un sottospazio euclideo reale, non importa di quale dimensione.
Proposizione 19.6 I numeri 1 e −1 sono i possibili autovalori di una trasfor-
mazione ortogonale.
Dimostrazione. Sia ϕ una trasformazione ortogonale. Dato un suo autovettore
A, sia a il suo autovalore. Allora hA, Ai = hϕ(A), ϕ(A)i = haA, aAi = a2 hA, Ai.
Sicchè a2 = 1. Cioè a è 1 oppure −1. 2
Proposizione 19.7 Sia ϕ una trasformazione ortogonale di uno spazio euclideo
reale e siano A e B suoi autovettori di autovalore rispettivamente 1 e −1. Allora
A ⊥ B.
(Infatti, hA, Bi = hϕ(A), ϕ(B)i = hA, −Bi = −hA, Bi; cfr. Capitolo 18,
Esercizio 18.27.)
Proposizione 19.8 Sia ϕ una trasformazione ortogonale di uno spazio eucli-
deo reale V. Se X è un sottospazio lineare di V fissato da ϕ, allora X ⊥ è
ϕ-invariante.
Dimostrazione. In ogni caso, ϕ(X ⊥ ) ⊆ (ϕ(X ))⊥ per l’ ortogonalità di ϕ. Quindi,
se ϕ(X ) = X , allora ϕ(X ⊥ ) ⊆ X ⊥ . 2
Nota. Dalla Proposizione 19.3 segue che una trasformazione lineare da V a V, se
ammette autovettori con autovalori 1 o −1 e formanti una base ortogonale di V,
allora è ortogonale. Però, data una trasformazione ortogonale ϕ di V, non capita
quasi mai che V ammetta una base formata da autovettori di ϕ (cfr. Capitolo
17, §§17.1.2 e 17.2.2.). Ma supponiamo che succeda e che ϕ 6= ±I. Allora
ϕ ha due autospazi (relativi ad 1 e a −1). Essi sono l’ uno il complemento
ortogonale dell’ altro; infatti sono tra loro ortogonali (Proposizione 19.7) e V è
la loro somma diretta (Capitolo 17, Teorema 17.21). Se per di più dim(V) < ∞,
allora possiamo prendere una base ortogonale in ciascuno di quei due autospazi
(Capitolo 9, Teorema 9.11), ottenendo cosı̀ una base ortogonale di V formata
da autovettori di ϕ; in questo caso ϕ è un prodotto di riflessioni attorno ad
iperpiani a due a due ortogonali, come nell’ Esercizio 13.37 del Capitolo 13.
19.1.3 Isogonie
Dato uno spazio euclideo reale V, una trasformazione lineare iniettiva ϕ da V a
V si dice un’ isogonia (o una similitudine, o anche una trasformazione conforme)
se ‘conserva gli angoli’, cioè se
hϕ(X), ϕ(Y )i hX, Y i
(3) = , (∀X, Y ∈ V \ {O})
||ϕ(X)||·||ϕ(Y )|| ||X||·||Y ||
Per esempio, tutte le trasformazioni non nulle proporzionali a trasformazioni
ortogonali (ottenute cioè moltiplicando una trasformazione ortogonale per uno
scalare 6= 0) sono isogonie.
19.2. IL CASO COMPLESSO 383
Ovviamente, le isogonie conservano l’ ortogonalità; vale a dire, se ϕ è un’
isogonia, allora
(4) X ⊥ Y =⇒ ϕ(X) ⊥ ϕ(Y ), (∀X, Y ∈ V)
Lemma 19.9 Supponiamo che V ammetta una base ortogonale. Allora le tra-
sformazioni lineari da V a V che conservano l’ ortogonalità sono quelle propor-
zionali a trasformazioni ortogonali.
Dimostrazione. Sia ϕ una trasformazione lineare da V a V soddisfacente la (4).
Dobbiamo dimostrare che ϕ = aψ per un opportuno numero reale a ed un’
opportuna trasformazione ortogonale ψ.
Sia (Ei )i∈I una base ortonormale di V. Dati i, j ∈ I, se i 6= j allora Ei +Ej ⊥
Ei − Ej . Quindi
(i) hϕ(Ei − Ej ), ϕ(Ei + Ej )i = 0
per (4). D’ altra parte, Ei ⊥ Ej . Quindi ϕ(Ei ) ⊥ ϕ(Ej ) per (4). Ne segue che
(ii) hϕ(Ei − Ej ), ϕ(Ei + Ej )i = hϕ(Ei ), ϕ(Ei )i − hϕ(Ej ), ϕ(Ej )i
Da (i) e (ii) segue che ||ϕ(Ei )|| = ||ϕ(Ej )||. Dunque esiste un numero reale
a ≥ 0 tale che ||ϕ(Ei )|| = a per ogni i ∈ I. Se a = 0 allora ϕ = O e non c’ è
nulla da dimostrare. Altrimenti, la trasformazione ψ = a−1 ϕ porta (Ei )i∈I in
un insieme ortonormale e quindi è ortogonale (Proposizione 19.3). 2
Proposizione 19.10 Se V ammette una base ortogonale, allora le isogonie di
V sono precisamente le trasformazioni non nulle proporzionali a trasformazioni
ortogonali.
(Ovvio, per il Lemma 19.9.) In particolare, se dim(V) < ∞ allora tutte le sue
isogonie sono proporzionali a trasformazioni ortogonali.
19.2 Il caso complesso
Le stesse definizioni date nel caso reale si possono dare in spazi euclidei com-
plessi, e valgono gli stessi risultati che nel caso reale, con poche differenze. La
differenza principale riguarda la terminologia: nel caso complesso si parla di
trasformazioni (e matrici) unitarie anzichè di trasformazioni (matrici) ortogo-
nali. Naturalmente, nel ritradurre per il caso complesso le cose dette in §19.1.2
dovremmo parlare di aggiunte anzichè di trasposte. Per esempio, (2) e (2.a)
diventano rispettivamente ϕ∗ ϕ = I e ϕ∗ = ϕ−1 .
Mi limito a formulare le analoghe delle Proposizioni 19.6, 19.7 e 19.8. Le
dimostrazioni sono simili a quelle date nel caso reale; le lascio al lettore.
Proposizione 19.11 Gli autovalori di una trasformazione unitaria hanno sem-
pre modulo 1.
384 Capitolo 19
Proposizione 19.12 Autovettori di una trasformazione unitaria relativi ad
autovalori diversi sono tra loro ortogonali.
Proposizione 19.13 Se ϕ è una trasformazione unitaria di uno spazio euclideo
complesso V e se X è un sottospazio lineare di V fissato da ϕ, allora X ⊥ è
ϕ-invariante.
Nel Capitolo 22 vedremo che, se ϕ è una trasformazione unitaria di uno spazio
euclideo complesso V di dimensione finita, allora V ammette sempre una base
ortogonale formata da autovettori di ϕ. Inversamente:
Teorema 19.14 Sia V uno spazio euclideo complesso e sia ϕ ∈ L(V). Se V
ammette una base ortogonale formata da autovettori di ϕ con tutti gli autovalori
di modulo 1, allora ϕ è unitaria.
(Questo si ottiene dall’ analoga della Proposizione 19.3; lascio la dimostrazione
al lettore.)
19.3 Esercizi
Esercizio 19.1 Si dimostri che le matrici ortogonali di M2 (R) sono quelle di
questa forma (cfr. Capitolo 13, Esercizio 13.35):
cos θ − sin θ cos θ sin θ
,
sin θ cos θ sin θ − cos θ
Esercizio 19.2 Si descrivano le matrici unitarie di V2 (C).
Risposta. Sono quelle di questa forma
cos θ·eiα sin θ·eiβ
sin θ·eiγ cos θ·eiδ
ove 0 ≤ θ ≤ π/2 ed α + δ = β + γ + kπ, con k numero intero dispari. Quelle
ortogonali (cioè, a coefficienti reali) si ottengono con α, β, γ e δ come sotto, ove
a, b, c, d sono numeri interi con a + b + c + d pari:
α β γ δ
aπ bπ + π/2 cπ + π/2 dπ
Esercizio 19.3 Sia V uno spazio euclideo reale di dimensione infinita, ma prov-
visto di una base ortonormale. Si trovi un modo per costruire trasformazioni
ortogonali di V che non sono suriettive.
Soluzione. Data una base ortonormale E di V, sia α una qualunque funzione
iniettiva ma non suriettiva da E ad E. La trasformazione lineare che porta E
in α(E) è ortogonale (Proposizione 19.3), ma non è suriettiva.
19.3. ESERCIZI 385
Esercizio 19.4 Si dimostri che, se ϕ è un automorfismo di uno spazio euclideo
complesso, gli autovalori di ϕ−1 sono i coniugati degli autovalori di ϕ (invece,
nel caso reale, sono gli stessi di ϕ).
Traccia. Proposizione 19.11 (nel caso reale, Proposizione 19.6) e Capitolo 17,
Esercizio 17.14 (si rammenti che l’ inverso di un numero complesso di modulo
1 è il suo coniugato). Oppure si può usare l’ Esercizio 18.26 del Capitolo 18,
rammentando la (2.a) nel caso reale e la sua analoga nel caso complesso.
386 Capitolo 19
Capitolo 20
Trasformazioni affini
20.1 Definizione e prime proprietà
Dati due spazi vettoriali V e W sullo stesso campo K, chiamiamo trasformazioni
affini da V a W le funzioni da V a W ottenute componendo una trasformazione
lineare da V a W con una traslazione di W, cioè le funzioni del tipo τA ψ ove
A ∈ W e ψ ∈ L(V, W). In altre parole, le trasformazioni affini da V a W
sono le trasformazioni lineari da V agli spazi vettoriali ottenuti ‘traslando’ W
su qualche suo punto.
Per esempio, le isometrie di uno spazio euclideo reale sono trasformazioni
affini (Capitolo 13, Corollario 13.12). Ovviamente, le traslazioni di uno spazio
vettoriale V sono trasformazioni affini da V a V e le trasformazioni lineari da V
a W sono trasformazioni affini da V a W.
Indichiamo con Af (V, W) l’ insieme delle trasformazioni affini da V a W, e
scriviamo brevemente Af (V) anzichè Af (V, V).
Dato A ∈ W e data ψ ∈ L(V, W), sia ϕ = τA ψ (∈ Af (V, W)). Allora
A = ϕ(O) e, siccome le traslazioni sono invertibili, ψ = τA−1 ϕ (= τϕ(O) −1
ϕ).
Sicchè ϕ determina A e ψ univocamente. Diciamo A e ψ rispettivamente parte
vettoriale e parte lineare della trasformazione affine ϕ.
Per esempio, le trasformazioni lineari da V a W sono le trasformazioni af-
fini con parte vettoriale nulla, cioè quelle che portano il vettore nullo di V nel
vettore nullo di W. In particolare, le trasformazioni lineari da V a V sono le
trasformazioni affini da V a V che fissano O. Invece le traslazioni di V sono le
trasformazioni affini da V a V con l’ identità come parte lineare.
Proposizione 20.1 Risulta ϕτP = τϕ(P ) ϕ per ogni scelta di ϕ ∈ L(V, W) e
P ∈ V.
Dimostrazione. Se ϕ è lineare, allora ϕ(X + P ) = ϕ(X) + ϕ(P ) per ogni X ∈ V.
D’ altra parte, (ϕτP )(X) = ϕ(X + P ) e (τϕ(P ) ϕ)(X) = ϕ(X) + ϕ(P ), donde la
conclusione. 2
387
388 Capitolo 20
Corollario 20.2 Dato un altro spazio vettoriale U sullo stesso campo K, siano
ϕ ∈ Af (V, W) e ψ ∈ Af (W, U). Allora ψϕ ∈ Af (V, U).
Dimostrazione. Siano θ e ζ le parti lineari di ϕ e ψ e siano A e B le loro parti
vettoriali. Allora
ψϕ = τB ζτA θ = τB τζ(A) ζθ = τB+ζ(A) ζθ
Quindi ψϕ è affine, con B + ζ(A) come parte vettoriale e ζθ come parte lineare.
2
Sia ϕ ∈ Af (V, W), con parte vettoriale A e parte lineare ψ = τA−1 ϕ. È ovvio che
ϕ è iniettiva (o suriettiva) se e solo se ψ è iniettiva (rispettivamente, suriettiva).
In particolare, ϕ è invertibile se e solo se ψ è invertibile.
Corollario 20.3 Sia ϕ ∈ Af (V, W) invertibile. Allora ϕ−1 ∈ Af (W, V).
Dimostrazione. Siano A e ψ la parte vettoriale e la parte lineare di ϕ. Siccome
ϕ è invertibile, anche ψ lo è e risulta ϕ−1 = ψ −1 τA−1 = ψ −1 τ−A (perchè τA−1 =
τ−A ). Quindi ϕ−1 = τ−ψ−1 (A) ψ −1 , per la Proposizione 20.1. Dunque ϕ−1 è
affine, con parte lineare ψ −1 e parte vettoriale −ψ −1 (A). 2
Nota. Dai Corollari 20.2 e 20.3 segue che le trasformazioni affini invertibili
da V a V formano un gruppo. Il gruppo Aut(V) degli automorfismi di V ed il
gruppo delle traslazioni di V sono sottogruppi di questo gruppo.
È facile vedere che Af (V, W) è un sottospazio lineare dello spazio vettoriale
delle funzioni da V a W e che è isomorfo al prodotto cartesiano di L(V, W) e
W. In particolare, quando V ∼= Vn (K) e W ∼ = Vm (K), risulta
Af (V, W) ∼ = Mm,n (K) × Vm (K) ∼ = Mm,n+1 (K)
In questo caso, scelta una base ordinata E di V ed una base ordinata F in
W, possiamo rappresentare una trasformazione affine ϕ ∈ Af (V, W) con una
matrice ME,F (ϕ) ∈ Mm,n+1 (K) , ove le prime n colonne formano la matrice che
rappresenta la parte lineare di ϕ rispetto ad E ed F, mentre l’ ultima colonna
è la m-pla delle coordinate rispetto ad F della parte vettoriale di ϕ. Cioè, se ψ
ed A sono la parte lineare e la parte vettoriale di ϕ, se
a1,1 a1,2 ..... a1,n
a2,1 a2,2 ..... a2,n
µE,F (ψ) = ....
.... ..... ....
am,1 am,2 ..... am,n
è la matrice che rappresenta ψ rispetto ad E e F ed (A)F = (ai )m
i=1 è la n-pla
delle coordinate di A rispetto ad F, allora
a1,1 a1,2 ..... a1,n a1
a2,1 a2,2 ..... a2,n a2
ME,F (ϕ) = ....
.... ..... .... ...
am,1 am,2 ..... am,n am
20.2. PUNTI FISSI 389
Quindi, dato X ∈ V e posto Y = ϕ(X), (xi )ni=1 = (X)E ed (yj )m
j=1 = (Y )F ,
risulta:
n
X
yj = aj + aj,i xi , (j = 1, 2, ..., m)
i=1
Quando W = V ed F = E scriviamo brevemente ME (ϕ) anzichè ME,E (ϕ) e
diciamo che la matrice ME (ϕ) rappresenta ϕ rispetto ad E.
Cambi di sistemi di riferimento. Nel §11.5.2 del Capitolo 11 abbiamo
parlato di sistemi di riferimento. Le trasformazioni affini invertibili da V a V
corrispondono ai cambiamenti di sistema di riferimento in V.
20.2 Punti fissi
Dato uno spazio vettoriale V, sia ϕ ∈ Af (V). Si dice che ϕ fissa un punto X ∈ V
(o che X è un punto fisso per ϕ) se ϕ(X) = X. Come nel Capitolo 12 (§12.9.7;
anche Capitolo 17, §17.1.2), indichiamo con F ix(ϕ) l’ insieme dei punti fissi di
ϕ. Naturalmente, nulla vieta che F ix(ϕ) = ∅; per esempio, le traslazioni diverse
da I non fissano alcun punto.
Proposizione 20.4 Siano A e ψ la parte vettoriale e la parte lineare di ϕ.
Allora l’ insieme F ix(ϕ) è la soluzione dell’ equazione X − ψ(X) = A, cioè la
retroimmagine di A mediante la trasformazione lineare I − ψ.
Dimostrazione. Dire che ϕ(X) = X è come dire che A + ψ(X) = X, cioè che
X − ψ(X) = A. 2
Da questa proposizione e dal Corollario 16.9 del Capitolo 16 si ottiene subito la
seguente affermazione (che generalizza il Corollario 12.22 del Capitolo 12):
Corollario 20.5 L’ insieme F ix(ϕ), se non è vuoto, è un sottospazio affine di
V e F ix(ψ) è la sua direzione.
Dato un punto P ∈ V, chiamiamo coniugata di ϕ mediante τP la funzione
τP ϕτP−1 . Per il Corollario 20.2, questa è una trasformazione affine. Dalla
Proposizione 20.1 si ha poi subito che
Proposizione 20.6 Risulta τP ϕτP−1 = τP −ϕ(P ) ϕ per ogni trasformazione li-
neare ϕ ∈ L(V) ed ogni punto P ∈ V.
Nota. Implicitamente, abbiamo già usato questa proposizione nella Soluzione
dell’ Esercizio 12.23 del Capitolo 12; e anche negli Esercizi 12.20 e 12.21 di quel
Capitolo. Per esempio, nell’ Esercizio 12.20, la rotazione ρ è un automorfismo
del traslato di V2 (R) su C e τA ρ = τC 0 ρτC−1
0 , ove C
0
è l’ unica soluzione dell’
equazione X − ρ(X) = A.
390 Capitolo 20
Proposizione 20.7 Risulta F ix(τP ϕτP−1 ) = P + F ix(ϕ) per ogni trasforma-
zione affine ϕ ∈ Af (V) ed ogni punto P ∈ V.
Dimostrazione. Poniamo ψ = τP ϕτP−1 . Dire che ψ(X) = X è come dire che
P + ϕ(X − P ) = X, cioè che ϕ(X − P ) = X − P . Insomma, risulta X ∈ F ix(ψ)
se e solo se X − P ∈ F ix(ϕ). 2
Corollario 20.8 Dato un punto P ∈ V ed una trasformazione affine ϕ ∈
Af (V), risulta P ∈ F ix(τP ϕτP−1 ) se e solo se ϕ è lineare.
Dimostrazione. Per la Proposizione 20.7, risulta P ∈ F ix(τP ϕτP−1 ) se e solo se
O ∈ F ix(ϕ), cioè se e solo se ϕ è lineare. 2
Il Corollario 20.8 può anche riformularsi come segue, sostituendo in esso τP−1 ϕτP
a ϕ:
Corollario 20.9 Una trasformazione affine ϕ ∈ Af (V) fissa un punto P ∈ V
se e solo se τP−1 ϕτP è lineare.
Insomma, le trasformazioni affini di V che fissano un dato punto P sono le
coniugate delle trasformazioni lineari di V mediante la traslazione τP . Esse
sono le trasformazioni lineari del traslato VP di V su P in sè.
20.3 Esercizi
Esercizio 20.1 Sia ϕ la trasformazione affine da V3 (R) a V3 (R) rappresentata
da questa matrice rispetto alla base dei versori
1 1 0 1
0 1 1 1
1 0 1 1
Si determinino F ix(ϕ) e ϕ−1 (O).
Risposta. L’ unico punto fisso di ϕ è l’ opposto −A della sua parte vettoriale
A = (1, 1, 1). Il punto −2−1 A è l’ unico punto di ϕ−1 (O).
Esercizio 20.2 Si dimostri che una trasformazione ϕ ∈ Af (V, W) è lineare se
e solo se ϕτP = τϕ(P ) ϕ per qualche punto P ∈ V.
Esercizio 20.3 È vero che τP ϕτP−1 = τQ ϕτQ
−1
implica P = Q ?
−1 −1
Riposta. No. Infatti τP ϕτP = τQ ϕτQ per ogni Q ∈ P + F ix(ϕ) ed ogni
ϕ ∈ L(V).
Esercizio 20.4 Siano ϕ ∈ Af (V) e P ∈ V. Si dimostri che le seguenti condi-
zioni si equivalgono:
(i) F ix(τP ϕτP−1 ) ∩ F ix(ϕ) 6= ∅;
20.3. ESERCIZI 391
(ii) τP ϕτP−1 = ϕ (cioè τP ϕ = ϕτP );
(iii) P ∈ F ix(ϕ).
Si dimostri inoltre che, se per di più ϕ ∈ L(V), allora le precedenti condizioni
equivalgono alla linearità di τP ϕτP−1 .
392 Capitolo 20
Capitolo 21
Determinanti
Come nel Capitolo 6 del Volume 1, nel seguito Sym(n) sta ad indicare il gruppo
delle permutazioni dell’ insieme {1, 2, ..., n}. Modificando un po’ la notazio-
ne usata nel Capitolo 6 del Volume 1, data una permutazione α ∈ Sym(n)
indichiamo con sgn(α) la sua segnatura (Volume 1, Capitolo 6, §6.2.6).
21.1 Definizione
Sia K un campo, fissato una volta per tutte. Data una matrice quadrata A =
(ai,j )ni,j=1 di ordine n a coefficienti in K, poniamo
X n
Y
(∗) det(A) =def sgn(ξ) ai,ξ(i)
ξ∈Sym(n) i=1
e chiamiamo lo scalare det(A) determinante di A. Si usa anche dire che det(A)
è un determinante di ordine n.
Esempi. Sia n = 1. Le matrici 1 × 1 sono null’ altro che gli scalari. In
questo caso (∗) stabilisce che det(a) = a. Sia invece n = 2. Vi sono solo
due permutazioni di {1, 2}, cioè l’ identità, diciamola ι, e la permutazione che
scambia 1 e 2, diciamola τ . In questo caso la definizione (∗) assume il seguente
aspetto:
a1,1 a1,2
det = sgn(ι)a1,ι(1) a2,ι(2) + sgn(τ )a1,τ (1) a2,τ (2) =
a2,1 a2,2
= a1,1 a2,2 − a1,2 a2,1
(Questo è proprio lo scalare considerato nella Proposizione 15.5 del Capitolo
15).
Sia invece n = 3. Ci sono sei permutazioni di {1, 2, 3}: l’ identità, che ancora
indichiamo con ι, tre trasposizioni e due cicli di lunghezza 3. Per ogni i = 1, 2, 3,
393
394 Capitolo 21
indichiamo con τi la trasposizione che fissa i scambiando gli altri due numeri.
Sia invece ξ il ciclo che porta 1 in 2, 2 in 3 e 3 in 1. Cosı̀, il suo inverso ξ −1
è il ciclo che porta 3 in 2, 2 in 1 ed 1 in 3. Le trasposizioni sono permutazioni
dispari mentre i cicli di lunghezza 3 sono permutazioni pari (Volume 1, Capitolo
6, Lemma 6.16 e Corollario 6.19). Quindi la (∗) diventa:
a1,1 a1,2 a1,3
det a2,1 a2,2 a2,3 =
a3,1 a3,2 a3,3
= sgn(ι)a1,ι(1) a2,ι(2) a3,ι(3) +
+ sgn(ξ)a1,ξ(1) a2,ξ(2) a3,ξ(3) +
+ sgn(ξ −1 )a1,ξ−1 (1) a2,ξ−1 (2) a3,ξ−1 (3) +
+ sgn(τ2 )a1,τ2 (1) a2,τ2 (2) a3,τ2 (3) +
+ sgn(τ1 )a1,τ1 (1) a2,τ1 (2) a3,τ1 (3) +
+ sgn(τ3 )a1,τ3 (1) a2,τ3 (2) a3,τ3 (3) =
= a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 −
−a1,3 a2,2 a3,1 − a1,1 a2,3 a3,2 − a1,2 a2,1 a3,3
21.2 Proprietà elementari
Data una matrice A ∈ Mn (K), sia At la sua trasposta (Capitolo 18, Sezione
18.4).
Teorema 21.1 Risulta det(A) = det(At ).
Dimostrazione. Sia A = (ai,j )ni,j=1 . Cosı̀ At = (bi,j )ni,j=1 con bi,j = aj,i per ogni
scelta di i, j = 1, 2, ..., n. Risulta
X n
Y
det(A) = sgn(ξ) ai,ξ(i) =
ξ∈Sym(n) i=1
X n
Y X n
Y
= sgn(ξ) aξ−1 (j),j = sgn(ξ) bj,ξ−1 (j)
ξ∈Sym(n) j=1 ξ∈Sym(n) j=1
ove si è posto j = ξ(i). Quindi, tenendo anche conto del fatto che sgn(ξ) =
sgn(ξ −1 ) per ogni ξ ∈ Sym(n) (Volume 1, Capitolo 6, Corollario 6.18), si ottiene
che
X n
Y
det(A) = sgn(ξ −1 ) bi,ξ−1 (i) =
ξ∈Sym(n) i=1
X n
Y
= sgn(χ) bi,χ(i)
χ∈Sym(n) i=1
21.2. PROPRIETÀ ELEMENTARI 395
ove si è posto χ = ξ −1 e si è poi preso χ anzichè ξ come indice di sommatoria (il
chè è lecito, perchè la funzione che ad ogni permutazione associa la sua inversa
è una biiezione da Sym(n) a Sym(n)). Ma
X n
Y
sgn(χ) bi,χ(i) = det(At )
χ∈Sym(n) i=1
Quindi det(A) = det(At ). 2
Rammento che una matrice A ∈ Mn (K) può vedersi come una n-pla di vettori
di Vn (K) in due modi, a seconda che si pensi alle sue righe o alle sue colonne.
Nelle proprietà seguenti la matrice A verrà sempre vista come una n-pla di righe.
Però, siccome le sue colonne sono le righe della sua trasposta, per il Teorema
21.1 tutto quel che diremo resterà valido anche se riferito alle colonne invece che
alle righe.
Usiamo le seguenti convenzioni. Data una matrice quadrata A = (ai,j )ni,j=1
indicheremo le sue righe con A1 , A2 , ...An , cioè Ai = (ai,j )nj=1 . Sicchè, identifi-
cando A con la n-pla (Ai )ni=1 delle sue righe, ci prenderemo la libertà di scrivere
det((Ai )ni=1 ) o det(A1 , A2 , ..., An ) anzichè det(A).
Data una permutazione α ∈ Sym(n), indicheremo con α(A) la matrice otte-
nuta da A permutando le sue righe conformemente ad α. Cioè, α(A) = (bi,j )ni,j=1
con bi,j = aα−1 (i),j per i, j = 1, 2, ..., n. Vale a dire, α(A) è il prodotto Mα A,
ove Mα è la matrice permutazionale associata ad α (cfr. Capitolo 15, §15.2.2).
Proposizione 21.2 Risulta det(α(A)) = sgn(α)det(A) per ogni A ∈ Mn (K)
ed ogni α ∈ Sym(n).
Dimostrazione. Risulta
X n
Y
det(α(A)) = sgn(ξ) aα−1 (i),ξ(i) =
ξ∈Sym(n) i=1
X n
Y X n
Y
= sgn(ξ) aj,ξ(α(j)) = sgn(χα−1 ) aj,χ(j)
ξ∈Sym(n) j=1 χ∈Sym(n) j=1
ove si è posto j = α−1 (i) e χ = ξα (quindi ξ = χα−1 ). D’ altra parte,
sgn(χα−1 ) = sgn(χ)sgn(α−1 ) (Volume 1, Capitolo 6, Lemma 6.15) e sgn(α−1 ) =
sgn(α). Quindi
X n
Y
det(α(A)) = sgn(α) sgn(χ) aj,χ(j) = sgn(α)det(A)
χ∈Sym(n) j=1
Come si voleva. 2
396 Capitolo 21
Corollario 21.3 Se in una matrice quadrata scambiamo due righe, il suo de-
terminante resta moltiplicato per −1.
Questo segue subito dalla Proposizione 21.2 e dal fatto che le trasposizioni sono
permutazioni dispari (Volume 1, Capitolo 6, Lemma 6.16).
Proposizione 21.4 Comunque si scelgano m + n − 1 vettori
A1 , ..., Ak−1 , Ak+1 , ..., An , B1 , ..., Bm
in Vn (K) ed m scalari c1 , c2 , ..., cm ∈ K, risulta
Pm
det(A1 , ..., Ak−1 , i=1 ci Bi , Ak+1 , ..., An ) =
Pm
= i=1 ci det(A1 , ..., Ak−1 , Bi , Ak+1 , ..., An )
Dimostrazione. Se Ai = (ai,j )nj=1 per i = {1, ..., k−1, k+1, ..., n} e Bi = (bi,j )nj=1
per i = 1, 2, ..., m, allora
m
X
det(A1 , ..., Ak−1 , ci Bi , Ak+1 , ..., An ) =
i=1
X k−1
Y m
X n
Y
= sgn(ξ)( ai,ξ(i) )( cj bj,ξ(k) )( ai,ξ(i) ) =
ξ∈Sym(n) i=1 j=1 i=k+1
X m
X
= sgn(ξ) cj a1,ξ(1) ...ak−1,ξ(k−1) bj,ξ(k) ak+1,ξ(k+1) ...an,ξ(n) =
ξ∈Sym(n) j=1
m
X X
= cj sgn(ξ)a1,ξ(1) ...ak−1,ξ(k−1) bj,ξ(k) ak+1,ξ(k+1) ...an,ξ(n) =
j=1 ξ∈Sym(n)
m
X
= cj det(A1 , ..., Ak−1 , Bj , Ak+1 , ..., An )
j=1
Come si voleva. 2
I seguenti corollari si ottengono dalla Proposizione 21.4 come casi particolari.
Corollario 21.5 Risulta
det(A1 , ..., Ak−1 , B + C, Ak+1 , ..., An ) =
= det(A1 , ..., Ak−1 , B, Ak+1 , ..., An ) + det(A1 , ..., Ak−1 , C, Ak+1 , ..., An )
per ogni scelta di n + 1 vettori A1 , ..., Ak−1 , Ak+1 , ..., An , B, C ∈ Vn (K).
Corollario 21.6 Se si moltiplica una riga di una matrice quadrata per uno
scalare, allora il determinante di quella matrice resta moltiplicato per quello
scalare.
21.2. PROPRIETÀ ELEMENTARI 397
Il vettore nullo può sempre pensarsi ottenuto moltiplicando un qualunque vet-
tore per 0. Quindi, per il Corollario 21.6,
Corollario 21.7 Se una matrice quadrata ha una riga nulla, allora il suo de-
terminante è 0.
In particolare, 0 è il determinante della matrice nulla: det(On ) = 0. Dal
Corollario 21.6 segue anche che
Corollario 21.8 Risulta det(aA) = an det(A) per ogni scelta di A ∈ Mn (K) e
di a ∈ K.
In particolare:
Corollario 21.9 Risulta det(−A) = (−1)n det(A) per ogni matrice quadrata A
di ordine n.
Proposizione 21.10 Se una matrice quadrata ha due righe uguali, allora il suo
determinante è 0.
Dimostrazione. Supponiamo che ch(K) 6= 2. Data A ∈ Mn (K), sia Ai la sua
i-esima riga (i = 1, 2, ..., n) e supponiamo per esempio che A1 = A2 . Abbiamo
det(A2 , A1 , A3 , ..., An ) = −det(A1 , A2 , A3 , ..., An )
per il Corollario 21.3. D’ altra parte,
det(A2 , A1 , A3 , ..., An ) = det(A1 , A2 , A3 , ..., An )
perchè A1 = A2 . Quindi det(A) = −det(A). Pertanto det(A) = 0, perchè
ch(K) 6= 2.
Invece quando ch(K) = 2 risulta x = −x per ogni x ∈ K. In questo caso l’
uguaglianza det(A) = −det(A) non dà nessuna informazione. Che det(A) = 0
resta vero, ma per dimostrarlo occorre un ragionamento diverso, che preferisco
tralasciare. 2
Corollario 21.11 Se una matrice quadrata ha due righe proporzionali, allora
il suo determinante è 0.
Dimostrazione. Data A ∈ Mn (K), siano A1 , A2 , ..., An le sue righe e supponiamo
per esempio che A1 = aA2 per qualche scalare a ∈ K. Allora
det(A) = a · det(A2 , A2 , A3 , ..., An )
per il Corollario 21.6. D’ altra parte, det(A2 , A2 , A3 , ..., An ) = 0 per la Propo-
sizione 21.10. Quindi det(A) = 0. 2
Corollario 21.12 Se in una matrice quadrata una riga è combinazione lineare
della altre, allora il determinante della matrice è 0.
398 Capitolo 21
Dimostrazione. Data A ∈ Mn (K), siano A1 , A2 , ..., An le sue righe e supponiamo
Pn−1
per esempio che An = i=1 ai Ai per certi scalari a1 , a2 , ..., an−1 . Allora
n−1
X
det(A) = ai det(A1 , A2 , ..., An−1 , Ai )
i=1
per la Proposizione 21.4. D’ altra parte det(A1 , A2 , ..., An−1 , Ai ) = 0 per ogni
i = 1, 2, ..., n − 1 (Proposizione 21.10). Quindi det(A) = 0. 2
Corollario 21.13 Sia A ∈ Mn (K). Se rank(A) < n allora det(A) = 0.
Dimostrazione. Se le righe di una matrice sono linearmente dipendenti, allora
almeno una di esse è combinazione lineare delle altre. La conclusione segue dal
Corollario 21.12. 2
Corollario 21.14 Se ad una riga di una matrice quadrata sommiamo una
combinazione lineare di altre righe il suo determinante non cambia.
Dimostrazione. Siano A1 , A2 , ..., An le righe di una matrice A ∈ Mn (K). Sup-
poniamo,Pnper fissare le idee, di avere sommato alla prima riga una combinazione
lineare i=2 ai Ai delle rimanenti righe. Per il Corollario 21.5,
Pn
det(A1 + i=2 aP i Ai , A2 , A3 , ..., An ) =
n
= det(A) + det( i=2 ai Ai , A2 , A3 , ..., An )
Pn
Quindi det(A
Pn1 + i=2 ai Ai , A2 , A3 , ..., An ) = det(A) perchè, per il Corollario
21.12, det( i=2 ai Ai , A2 , A3 , ..., An ) = 0. 2
Proposizione 21.15 La matrice identità ha determinante 1.
Dimostrazione. Sia I la matrice identità di ordine n. Il coefficiente di I di posto
(i, j) è il simbolo di Kronecker δi,j . La (∗) diventa:
X n
Y
det(I) = sgn(ξ) δi,ξ(i)
ξ∈Sym(n) i=1
D’ altra parte, δi,ξ(i) 6= 0 se e solo se ξ(i) = i. Quindi l’ unico addendo non nullo
di questa somma è quello che corrisponde alla permutazione identità. Siccome
poi δi,i = 1 per ogni i, quell’ unico addendo non nullo vale 1. 2
Qn
Corollario 21.16 det(dg(ai )ni=1 ) = i=1 ai , per ogni matrice diagonale dg(ai )ni=1 .
Dimostrazione. Possiamo pensare dg(ai )ni=1 ottenuta dalla matrice identità mol-
tiplicandone le righe per a1 , a2 , ..., an . La conclusione segue dal Corollario 21.6
e dalla Proposizione 21.15. 2
Corollario 21.17 Sia A una matrice triangolare, superiore o inferiore. Allora
det(A) è il prodotto dei coefficienti che si trovano sulla sua diagonale principale.
21.2. PROPRIETÀ ELEMENTARI 399
Dimostrazione. Supponiamo che A sia triangolare superiore:
a1 a1,2 .... a1,n−1 a1,n
0 a2 .... a2,n−1 a2,n
A = ... ...
.... ... ...
0 0 .... an−1 an−1,n
0 0 .... 0 an
(Se A fosse triangolare inferiore, basterebbe passare alla sua trasposta: Teorema
21.1.) Consideriamo prima il caso che nessuno degli scalari a1 , a2 , ..., an sia
0. In questo caso possiamo sostituire ad A la matrice diagonale (ai )ni=1 con
manipolazioni ‘alla Gauss-Jordan’. Mostrerò che possiamo farlo senza alterare
il determinante.
Poniamo M1 = A. Per ogni i = 1, 2, ..., n − 1, dalla i-esima riga di M1 sot-
traiamo l’ ultima moltiplicata per ai,n /an . Otteniamo cosı̀ la seguente matrice
a1 a1,2 .... a1,n−1 0
0 a2 .... a2,n−1 0
... ... .... ... ...
0 0 .... an−1 0
0 0 .... 0 an
Indichiamola con M2 . Risulta det(M2 ) = det(M1 ) per il Corollario 21.14.
Per ogni i = 1, 2, ..., n − 2, dalla i-esima riga di M2 sottraiamo la penultima
moltiplicata per ai,n−1 /an−1 . Otteniamo cosı̀ la seguente matrice
a1 a1,2 .... a1,n−2 0 0
0 a2 .... a2,n−2 0 0
... ... .... ... ... ...
M3 =
0 0 .... a n−2 0 0
0 0 .... 0 an−1 0
0 0 .... 0 0 an
Per il Corollario 21.14, risulta det(M3 ) = det(M2 ). Cioè det(M3 ) = det(A),
perchè det(M2 ) = det(M1 ) ed M1 = A. Continuiamo in questo modo. Alla fine
arriviamo a
a1 0 .... 0 0
0 a2 .... 0 0
... ... .... ... ...
Mn = = dg(ai )ni=1
0 0 .... 0 0
0 0 .... an−1 0
0 0 .... 0 an
eQdet(Mn ) = det(Mn−1 ) = ... = det(M2 ) = det(MQ1 ) = det(A). Ma det(Mn ) =
n n
i=1 ai per il Corollario 21.16. Quindi det(A) = i=1 ai . Qn
Supponiamo invece che ak = 0 per qualche k = 1, 2, ..., n. Quindi i=1 ai =
0. Inoltre, rank(A) < n (Capitolo 15, Proposizioni 15.6 e 15.4) e pertanto
det(A) = 0 (Corollario 21.13). 2
400 Capitolo 21
Nota. Se n > 1, la funzione, diciamola detn , che ad ogni matrice A ∈ Mn (K)
associa det(A) non è un funzionale lineare di Mn (K). Essa non conserva la
moltiplicazione per scalari (Corollario 21.8); ma nemmeno conserva le somme
(Sezione 21.6, Esercizio 21.14). Però la Proposizione 21.4 dice che detn , vi-
sta come una funzione in n variabili in Vn (K), è ‘lineare in ogni posizione’.
Ritorneremo su queste cose nel Capitolo 23.
21.3 Metodi di calcolo
La formula (∗), con la quale abbiamo definito i determinanti, è molto utile nel-
le applicazioni teoriche ma non è molto maneggevole per i calcoli. Nel calcolo
è meglio ricorrere a manipolazioni alla ‘Gauss-Jordan’: possiamo sempre fare
assumere ad una matrice una conformazione triangolare superiore (o inferiore)
sommando a qualche riga (o a qualche colonna) opportune combinazioni lineari
di altre righe (o di altre colonne, rispettivamente) e permutando le righe (o le
colonne) quando ci torna comodo. Le operazioni del primo tipo non alterano
il determinante (Corollario 21.14). La Proposizione 21.2 ci dice che una per-
mutazione di righe (o di colonne) non altera il determinante se la permutazione
operata è pari, mentre produce un cambio di segno se la permutazione è dispa-
ri. In particolare, se ci limitiamo a scambiare righe (o colonne) tra loro, se il
numero totale di scambi operati è pari il determinante non cambia, mentre se
operiamo un numero dispari di scambi cambia di segno.
In questo modo perveniamo ad una matrice triangolare (superiore o inferiore)
che ha lo stesso determinante della matrice da cui eravamo partiti, a parte
eventualmente il segno. Per il Corollario 21.17, il determinante di una matrice
triangolare è il prodotto dei coefficienti sulla diagonale principale. E abbiamo
finito.
Il metodo è simile a quello descritto nel Capitolo 3 per calcolare il rango di
una sequenza di vettori di Vn (K), con due differenze.
1) Ora operiamo solo su n-ple di vettori di Vn (K) (righe o colonne di matrici
quadrate di ordine n) e ad ogni passo dobbiamo riottenere una n-pla di vettori di
Vn (K). Quindi non possiamo cancellare righe (o colonne) nulle. Però, quando
compare una riga (o una colonna) nulla, possiamo interrompere il calcolo: il
determinante è 0 per il Corollario 21.7.
2) Se moltiplichiamo una riga (o una colonna) per uno scalare 6= 0 alteriamo
il determinante (Corollario 21.6) mentre questa operazione non altera il rango
della matrice. Possiamo anche eseguire di queste moltiplicazioni, se vogliamo,
purchè alla fine ci ricordiamo di dividere il risultato per tutti quegli scalari per
i quali abbiamo moltiplicato nel corso del calcolo.
Talvolta non interessa tanto trovare il valore del determinante, quanto appurare
se esso è 0 oppure no. In tal caso possiamo tranquillamente permutare righe (o
colonne) e moltiplicare righe (o colonne) per scalari diversi da 0, senza curarci
di prenderne nota.
21.3. METODI DI CALCOLO 401
21.3.1 Esempi
1) Calcoliamo det(A), ove
1 2 −1 −2
2 1 −2 −1
A= 1 −1
2 −2
1 1 2 2
Sottraendo dalla seconda riga il doppio della prima e dalla quarta il doppio della
terza, si ottiene la seguente matrice
1 2 −1 −2
0 −3 0 3
M1 = 1 −1
2 −2
0 2 0 4
e risulta det(M1 ) = det(A) per il Corollario 21.14. Sottraiamo ora la prima riga
di M1 dalla terza. Otteniamo questa matrice
1 2 −1 −2
0 −3 0 3
M2 = 0 −3
3 0
0 2 0 4
Dividiamo la seconda e la terza riga di M2 per −3 e la quarta per 2. Otteniamo
1 2 −1 −2
0 1 0 −1
M3 = 0 1 −1
0
0 1 0 2
e det(M3 ) = det(M2 )/18 (= det(A)/18) per il Corollario 21.6. In M3 , sottraiamo
la seconda riga dalla terza e dalla quarta. Otteniamo
1 2 −1 −2
0 1 0 −1
M4 = 0 0 −1
1
0 0 0 3
e risulta det(M4 ) = det(M3 ) (= det(A)/18) per il Corollario 21.14. Per il
Corollario 21.17, det(M4 ) = −3. Quindi det(A) = −54.
2) Sia invece A la seguente matrice di M5 (R):
1 2 −1 −2 0
2 1 −2 −1 0
A = 0 1 −1
2 −2
0 2 −2 1 −1
1 2 0 −2 −1
402 Capitolo 21
Sottraendo dalla seconda riga il doppio della prima, dalla quinta la prima e dalla
quarta il doppio della terza, si ottiene la seguente matrice
1 2 −1 −2 0
0 −3 0 3 0
M1 = 0
1 −1 2 −2
0 0 0 −3 3
0 0 1 0 −1
e risulta det(M1 ) = det(A) per il Corollario 21.14. Dividendo la seconda e la
quarta riga di M1 per 3 si ottiene questa matrice
1 2 −1 −2 0
0 −1 0 1 0
M2 = 0 1 −1 2 −2
0 0 0 −1 1
0 0 1 0 −1
e risulta det(M2 ) = det(M1 )/9 (= det(A)/9) per il Corollario 21.6. Se in M2
sommiamo la seconda riga alla terza otteniamo
1 2 −1 −2 0
0 −1 0 1 0
M3 = 0 0 −1 3 −2
0 0 0 −1 1
0 0 1 0 −1
e det(M3 ) = det(M2 ) (= det(A)/9) per il Corollario 21.14. Sommiamo ora la
quinta riga di M3 alla quarta. Otteniamo
1 2 −1 −2 0
0 −1 0 1 0
M4 = 0 0 0 3 −3
0 0 0 −1 1
0 0 1 0 −1
Risulta det(M4 ) = det(M3 ) (= det(A)/9), sempre per il Corollario 21.14. Po-
tremmo continuare per raggiungere la disposizione triangolare scambiando tra
loro la terza e la quinta riga e poi sommando alla quinta riga il triplo della
quarta. Troveremmo cosı̀ la seguente matrice
1 2 −1 −2 0
0 −1 0 1 0
0 0 1 0 −1
0 0 0 −1 1
0 0 0 0 0
Ma non serve. La terza e la quarta riga di M4 sono proporzionali. Questo basta
per concludere che det(M4 ) = 0 (Corollario 21.11). Quindi det(A) = 0.
21.3. METODI DI CALCOLO 403
Abbiamo operato sulle righe. Ma potevamo anche lavorare con le colonne, o
in parte con le righe e in parte con le colonne. Per esempio, se in A sommiamo la
terza colonna alla seconda e la quinta colonna alla quarta otteniamo la seguente
matrice:
1 1 −1 −2 0
2 −1 −2 −1 0
0
M 1 =
0 0 −1 0 −2
0 0 −2 0 −1
1 2 0 −3 −1
Per il Corollario 21.14 (riferito alle colonne) risulta det(M 0 1 ) = det(A). Ritor-
niamo ora alle righe, sommando in M10 la prima riga alla seconda e la terza alla
quarta. Otteniamo questa matrice
1 1 −1 −2 0
3 0 −3 −3 0
0
M 2 =
0 0 −1 0 −2
0 0 −3 0 −3
1 2 0 −3 −1
Sempre per il Corollario 21.14, abbiamo det(M 0 2 ) = det(M 0 1 ) (= det(A)).
Dividiamo la seconda e la quarta riga di M 0 2 per 3. Otteniamo
1 1 −1 −2 0
1 0 −1 −1 0
M 03 =
0 0 −1 0 −2
0 0 −1 0 −1
1 2 0 −3 −1
Dal Corollario 21.6 si ha che det(M 0 3 ) = det(M 0 2 )/9 (= det(A)/9). Sottraiamo
la seconda riga di M 0 3 dalla prima e la quarta dalla terza. Otteniamo
0 1 0 −1 0
1 0 −1 −1 0
0
M 4 =
0 0 0 0 −1
0 0 −1 0 −1
1 2 0 −3 −1
Dal Corollario 21.14 segue che det(M 0 4 ) = det(M 0 3 ) (= det(A)/9). Possiamo
ora vedere che la quarta colonna di M 0 4 è l’ opposta della somma della prima
e della seconda. Quindi det(M 0 4 ) = 0, per il Corollario 21.12 (riferito alle
colonne). Dunque det(A) = 0 (come già sapevamo).
404 Capitolo 21
21.3.2 Un caso particolare
Proposizione 21.18 Sia M una matrice quadrata conformata a blocchi cosı̀:
A1 ∗ .... ∗ ∗
O A2 .... ∗ ∗
M=
... ... .... ... ...
O O .... Ak−1 ∗
O O .... O Ak
oppure cosı̀
A1 O .... O O
∗ A2 .... O O
M=
... ... .... ... ...
∗ ∗ .... Ak−1 O
∗ ∗ .... ∗ Ak
ove A1 , A2 ,..., AQ
k sono matrici quadrate ed O sta ad indicare matrici nulle.
k
Allora det(M ) = j=1 det(Aj ).
Dimostrazione. Per fissare le idee, supponiamo che M sia conformata nel primo
dei due modi considerati. Con manipolazioni ‘alla Gauss-Jordan’ possiamo so-
stituire a ciascuna matrice Aj (j = 1, 2, ..., k) una matrice triangolare superiore
A0 j
aj,1 ∗ .... ∗
0 aj,2 .... ∗
A0 j =
... ... .... ...
0 0 .... aj,nj
Per i Corollari 21.14 e 21.3 risulta det(Aj ) = (−1)hj det(A0 j ) ove hj è il nume-
ro di scambi di righe che eventualmente abbiamo Qnj dovuto fare per ottenere la
conformazione A0 j . Dunque det(Aj ) = (−1)hj i=1 aj,i per il Corollario 21.17.
D’ altra parte, quelle stesse manipolazioni, se eseguite su M , ci fanno pervenire
alla seguente matrice triangolare superiore:
A0 1
∗ .... ∗
O A0 2 .... ∗
M0 =
=
... ... .... ...
O O .... A0 k
21.3. METODI DI CALCOLO 405
a1,1 ... ∗ ∗ ... ∗ ..... ∗ ... ∗
... ... ... ... ... ... ..... ... ... ...
0 ... a1,n1 ∗ ... ∗ ..... ∗ ... ∗
0 ... 0 a2,1 ... ∗ ..... ∗ ... ∗
... ... ... ... ... ... ..... ... ... ...
=
... ... ... ... ... ... ..... ... ... ...
0 ... 0 0 ... a2,n2 ..... ∗ ... ∗
... ... ... ... ... ... ..... ... ... ...
0 ... 0 0 ... 0 ..... ak,1 ... ∗
... ... ... ... ... ... ..... ... ... ...
0 ... 0 0 ... 0 ..... 0 ... ak,nk
Per i Corollari 21.14 e 21.3 risulta det(M ) = (−1)h det(M 0 ) ove h è il numero di
scambi di righe che eventualmente P abbiamo dovuto fare per ottenere
Qk la Qconfor-
k nj
mazione M 0 . Ma è ovvio che h = j=1 hj . Inoltre det(M 0 ) = j=1 i=1 aj,i
Qk
per il Corollario 21.17. Quindi det(M ) = j=1 det(Aj ). 2
Dalla Proposizione 21.18 otteniamo come casi particolari i seguenti corollari.
Corollario 21.19 Sia M una matrice quadrata decomponibile in blocchi cosı̀
A B A O
, oppure cosı̀ ,
O C B C
con A e C quadrate ed O una matrice nulla. Allora det(M ) = det(A)det(C).
Corollario 21.20 Sia M = dg(Ai )ki=1 una matrice a blocchi in diagonale (Capitolo
Qk
16, §16.2.4). Allora det(M ) = i=1 det(Ai ).
21.3.3 La regola di Laplace
Data una matrice quadrata A = (ai,j )ni,j=1 di ordine n, indichiamo con Ai,j
la matrice ottenuta da A cancellando la riga i-esima e la colonna j-esima. Le
formule che ora stabiliremo (note col nome di regole di Laplace) ci danno un
altro modo per calcolare det(A).
Teorema 21.21 Per ogni k = 1, 2, ..., n, risulta
n
X n
X
det(A) = ak,i (−1)k+i det(Ak,i ) = ai,k (−1)i+k det(Ai,k )
i=1 i=1
Dimostrazione. Mi limiterò a dimostrare che
n
X
(i) det(A) = a1,i (−1)1+i det(A1,i )
i=1
406 Capitolo 21
Le altre formule, per le altre righe (e per le colonne) si dimostrano alla stessa
maniera; oppure, le si possono dedurre da (i) usando la Proposizione 21.2 (e il
Teorema 21.1).
Per ogni h = 1, 2, ..., n, indichiamo con Ph l’ insieme delle permutazioni di
{1, 2, ..., n} che portano 1 in h. Possiamo allora riscrivere la definizione (∗) cosı̀:
n X
X n
Y
(ii) det(A) = sgn(ξ)a1,h ai,x(i)
h=1 ξ∈Ph i=2
Sia γ ∈ Sym(n) il ciclo che porta i in i + 1 (per i = 1, 2, ..., n − 1) ed n in 1
e, dato h = 1, 2, ..., n, indichiamo con γh il ciclo che porta n in n − 1, n − 1
in n − 2,..., h + 1 in h ed h in n. Per ogni ξ ∈ Ph , la permutazione γh ξγ fissa
n. Inoltre sgn(γh ξγ) = (−1)n−1 sgn(ξ)(−1)n−h = (−1)h+1 sgn(ξ) (Volume 1,
Capitolo 6, Lemma 6.15 e Corollario 6.19). Indichiamo con ξ 0 la permutazione
indotta da γh ξγ su {1, 2, ..., n − 1}. È ovvio che sgn(ξ 0 ) = sgn(γh ξγ). Dunque
(iii) sgn(ξ) = (−1)h+1 sgn(ξ 0 )
Per i, h = 1, 2, ..., n − 1 poniamo
ai+1,j se j < h
a0i,j =
ai+1,j+1 se j ≥ h
Cioè a0i,j è il coefficiente di A1,k di posto (i, j). Non è difficile vedere che ai,ξ(i) =
a0i−1,ξ0 (i−1) per ogni i = 2, 3, ..., n e per ogni ξ ∈ Ph . Quindi possiamo riscrivere
la (i) cosı̀:
n X
X n−1
Y
det(A) = sgn(ξ)a1,h a0i,ξ0 (i)
h=1 ξ∈Ph i=1
Per (iii), questa uguaglianza diventa:
n X
X n−1
Y
(iv) det(A) = (−1)1+h sgn(ξ 0 )a1,h a0i,ξ0 (i)
h=1 ξ∈Ph i=1
D’ altra parte, la funzione che ad ogni ξ ∈ Ph associa la restrizione ξ 0 di γh ξγ
ad {1, 2, ..., n − 1} è una biiezione tra Ph e Sym(n − 1). Quindi la (iv) può
riscriversi cosı̀:
n
X X n−1
Y
(v) det(A) = (−1)1+h a1,h sgn(ξ 0 ) a0i,ξ0 (i)
h=1 ξ 0 ∈Sym(n−1) i=1
Qn−1
sgn(ξ 0 ) a0i,ξ0 (i) = det(A1,h ) da (v) si ha subito la
P
Siccome ξ 0 ∈Sym(n−1) i=1
(i). 2
Si usa dire che la regola
n
X
det(A) = ak,i (−1)k+i det(Ak,i )
i=1
21.3. METODI DI CALCOLO 407
sviluppa il determinante per cofattori lungo la k-esima riga, mentre la regola
n
X
det(A) = ai,k (−1)i+k det(Ai,k )
i=1
lo sviluppa per cofattori lungo la k-esima colonna. Lo scalare (−1)i+j det(Ai,j )
si dice cofattore di A di posto (i, j).
21.3.4 Paragoni
Lo sviluppo per cofattori non è un metodo da raccomandarsi, almeno in generale.
Vediamolo all’ opera sulla matrice
1 2 −1 −2
2 1 −2 −1
A=
1 −1 2 −2
1 1 2 2
già considerata in §21.3.1. Sviluppandone il determinante per cofattori lungo la
prima riga otteniamo
det(A) = det(A1,1 ) − 2det(A1,2 ) − det(A1,3 ) + 2det(A1,4 )
ove
1 −2 −1 2 −2 −1
A1,1 = −1 2 −2 , A1,2 = 1 2 −2
1 2 2 1 2 2
2 1 −1 2 1 −2
A1,3 = 1 −1 −2 , A1,4 = 1 −1 2
1 1 2 1 1 2
Dobbiamo ora calcolare i determinanti di queste quattro matrici. Continuando
per cofattori, ciascuno di questi quattro determinanti ci rimanda ad altri tre
determinanti di ordine 2. Ci troviamo cosı̀ a dover calcolare 12 determinanti
di ordine 2. Ma tra questi ve ne sono di ripetuti. Per esempio, la matrice
ottenuta dalla A1,1 cancellandone la prima riga e la prima colonna è la stessa
che si ottiene dalla A1,2 cancellando la prima riga e la prima colonna. Tolte le
ripetizioni e supponendo di sviluppare i determinanti sempre sulla prima riga,
il numero di determinanti di ordine 2 da calcolare è 42 , cioè 6 (tante quante
sono le coppie di colonne che si possono cancellare dalla matrice A). Non sono
tanti, ma nemmeno pochi (e si consideri che stiamo calcolando il determinante
di una matrice molto piccola).
408 Capitolo 21
Ingombro in memoria. È soprattutto la quantità di dati da registrare che
rende il procedimento di Laplace poco pratico. Esaminiamo meglio questo
aspetto.
Sia n l’ ordine della matrice A della quale vogliamo calcolare il determinante
usando la regola di Laplace. Per non dover ricalcolare più volte il determinante
di una stessa sottomatrice, conviene organizzare il calcolo ‘alla rovescia’. Per
esempio, volendo calcolare det(A) per cofattori lungo l’ ultima riga, calcoliamo
prima i determinanti di tutte le matrici 2 × 2 che possiamo formare con la prima
e la seconda riga di A; poi, mediante questi, calcoliamo i determinanti di tutte
le matrici 3 × 3 che possiamo formare con le prime tre righe; poi passiamo
alle matrici 4 × 4 che si possono formare con le prime quattro righe ... e cosı̀
via. Al passo k-esimo ci troviamo ad utilizzare nk determinanti già calcolati
n
per calcolarne altri k+1 . Considerando che a quel punto ci restano ancora da
usare n − k delle n righe di A, il numero di dati che al passo k-esimo dobbiamo
avere sottomano o, comunque, conservare è
n
fn (k) = n(n − k) +
k
Si noti che fn (1) = n2 , che è il numero dei termini di A. Il valore massimo
assunto dalla funzione fn (k) ci dà il massimo numero di dati da tenere registrati.
Se n è abbastanza grande, il massimo di fn (k) è molto maggiore di fn (1) (= n2 )
e viene raggiunto quando k è la metà di n o di n − 1 (a seconda che n sia pari
o dispari).
Se invece si segue un metodo ‘alla Gauss-Jordan’, la quantità di dati da
tenere presenti è n2 all’ inizio e diminuisce col procedere del calcolo.
Volume di calcoli da svolgere. Paragoneremo ora il metodo di Laplace e
quello ‘alla Gauss-Jordan’ tenendo conto della quantità di calcoli da fare anzichè
della quantità di dati da tenere annotati. Conveniamo di contare come 1 ogni
esecuzione di un’ operazione elementare (addizione, moltiplicazione, sottrazione
o divisione) tra due scalari.
La quantità di calcoli necessari per passare col metodo di Gauss-Jordan da
una matrice triangolare A di ordine n > 1 ad una matrice triangolare superiore
è al massimo
(2(n − 1)2 + (n − 1)) + (2(n − 2)2 + (n − 2)) + ... + 3
Infatti, al primo passo dobbiamo dividere il secondo, il terzo,... l’ n-esimo coef-
ficiente di una certa riga per il primo coefficiente di quella riga (n − 1 divisioni,
a meno che non ce ne possiamo risparmiare qualcuna, come, per esempio, quan-
do qualche coefficiente è 0); poi dobbiamo moltiplicare i risultati per il primo
coefficiente di ciascuna delle rimanenti n − 1 righe ((n − 1)2 moltiplicazioni,
al massimo) e sottrarre i numeri cosı̀ ottenuti dai corrispondenti coefficienti di
ciascuna di quelle righe ((n − 1)2 sottrazioni, al massimo). In totale, eseguiamo
al più 2(n − 1)2 + (n − 1) operazioni. Al secondo passo le cose vanno allo stesso
21.3. METODI DI CALCOLO 409
modo, salvo che ora operiamo su una matrice di ordine n − 1; quindi dobbiamo
eseguire al più 2(n − 2)2 + (n − 2) operazioni ...
Poi, raggiunta una configurazione triangolare, per calcolare det(A) si devono
moltiplicare gli n numeri sulla diagonale principale. Quindi questo numero
n−1
X n−1
X
fGJ (n) =def (n − 1) + 2i2 + i
i=1 i=1
rappresenta il massimo volume di calcoli necessari per trovare det(A) con questo
metodo. Risulta
n−1 n−1
X X (2n − 1)n(n − 1) n(n − 1)
2i2 + i = +
i=1 i=1
3 2
(Volume 1, Capitolo 6, (7.4) e (7.5)). Quindi
2 3 1 2 5 2
fGJ (n) = n − n + n − 1 < n3
3 2 6 3
Supponiamo invece di seguire la regola di Laplace (applicata nel modo più econo-
mico, cioè ‘alla rovescia’). Al primo passo dobbiamo calcolare n2 determinanti
di ordine 2 e per ciascuno di essi dobbiamo eseguire due prodotti ed una sottra-
zione (salvo l’ eventualità di potersi risparmiare qualcuna di queste operazioni);
al secondo passo usiamo gli n2 determinanti già trovati per calcolare n3 de-
terminanti di ordine 3 e per ciascuno di essi dobbiamo eseguire (al massimo) 3
prodotti e 2 somme o sottrazioni; e cosı̀ via. Dunque questo numero
n
n n X n
fL (n) =def (2 + 1) + (3 + 2) + ... = (2i − 1)
2 3 i=2
i
ci dà la massima quantità di calcoli richiesta dalla regola di Laplace. È facile
vedere che, se n > 2, allora fL (n) > 2n . Quindi
3·2n
fL (n)/fGJ (n) > , (quando n > 2)
2n3
Il numero (3·2n )/(2n3 ) è minore di 1 quando 2 ≤ n ≤ 8 e circa uguale ad 1
quando n = 9. Ma è maggiore di 1 per n ≥ 10 e diverge al divergere di n.
Quindi, quando n ≥ 10 il metodo di Laplace è svantaggioso rispetto a quello di
Gauss-Jordan anche per la quantità di calcoli da fare.
A parziale rettifica. Vi sono però dei casi in cui il metodo di Laplace risulta
meno svantaggioso, come quando la matrice presenta molte righe con molti
coefficienti nulli. Per esempio, consideriamo la seguente matrice:
2 −1 0 0 0
−1 2 −1 0 0
A = 0 −1
2 −1 0
0 0 −1 2 −1
0 0 0 −1 2
410 Capitolo 21
Sviluppando il determinante lungo la prima riga otteniamo
det(A) = 2det(A1,1 ) + det(A1,2 )
ove
2 −1 0 0 −1 −1 0 0
−1 2 −1 0 0 2 −1 0
A1,1 = , A1,2 =
0 −1 2 −1 0 −1 2 −1
0 0 −1 2 0 0 −1 2
Per calcolare det(A1,1 ) procediamo ancora per cofattori lungo la prima riga.
Otteniamo det(A1,1 ) = 2det(A1,2;1,2 ) + det(A1,2;1,3 ) ove
2 −1 0 −1 −1 0
A1,2;1,2 = −1 2 −1 , A1,2;1,3 = 0 2 −1
0 −1 2 0 −1 2
(qui uso la convenzione di indicare con Ai,j;h,k la matrice ottenuta da A cancel-
lando le righe i e j e le colonne h e k). Per calcolare det(A1,2 ) conviene invece
muoversi lungo la prima colonna. Si ottiene det(A1,2 ) = −det(A1,2;1,2 ).
I determinanti di A1,2;1,2 ed A1,2;1,3 si calcolano facilmente (cfr. Sezione 21.1,
Esempi). Risulta det(A1,2;1,2 ) = 4 e det(A1,2;1,3 ) = −3. Quindi det(A1,1 ) =
8 − 3 = 5 e det(A1,2 ) = −4. Infine, det(A) = 10 − 4 = 6.
21.3.5 La matrice di Cauchy-Vandermonde
Nel paragonare i due metodi, di Gauss-Jordan e di Laplace, mi sono riferito al
caso di una matrice ‘concreta’, di dato ordine n e con dati coefficienti. In questa
situazione, se n non è molto piccolo, il metodo di Gauss-Jordan è certamente
più vantaggioso. Ma questo non significa che un approccio alla Gauss-Jordan
sia sempre da preferirsi in ogni caso. A volte è meglio inventarsi una strategia
‘ad hoc’, combinando spunti presi da un metodo e da un altro. Vedremo ora un
esempio di questo tipo.
Dati n + 1 scalari a0 , a1 , ..., an ∈ K, sia M la seguente matrice quadrata di
ordine n + 1:
1 a0 a20 .... an−1
0 an0
1 a1 a21 .... an−1
1 an1
1 a2 a22 .... an−1
2 an2
... ... ... .... ... ...
1 an−1 a2n−1 .... an−1
n−1 ann−1
1 an a2n .... an−1
n ann
La chiamiamo la matrice di Cauchy-Vandermonde della (n + 1)-pla (ai )ni=0 .
Indichiamo il suo determinante con dn (a0 , a1 , ..., an ). Troveremo prima una
formula che ci dà dn (a0 , a1 , ..., an ) in funzione di dn−1 (a1 , a2 , ..., an ). Quella
formula ci suggerirà come calcolare dn (a0 , a1 , ..., an ).
21.3. METODI DI CALCOLO 411
Sottraendo la prima riga di M dalle altre otteniamo questa matrice
1 a0 a20 ...... an0
0 a1 − a0 a21 − a20 ...... a1 − an0
n
0 a2 − a0 a22 − a20 ...... an2 − an0
... ........ ........ ...... ........
0 an − a0 a2n − a20 ...... ann − an0
Indichiamola con M1 . Risulta dn (a0 , a1 , ..., an ) = det(M1 ) per il Corollario
21.14. Sviluppiamo il determinante di M1 per cofattori lungo la prima colonna.
Otteniamo det(M1 ) = det(M2 ), ove M2 è la seguente matrice di ordine n:
a1 − a0 a21 − a20 ...... an1 − an0
a2 − a0 a22 − a20 ...... an2 − an0
........ ........ ...... ........
an − a0 a2n − a20 ...... ann − an0
D’ altra parte,
h−1
X
(i) ahk − ah0 = (ak − a0 ) aik a0h−i−1 , (k, h = 1, 2, ..., n)
i=0
Per (i) e per il Corollario 21.6 abbiamo
(ii) det(M2 ) = (a1 − a0 )(a2 − a0 )...(an−1 − a0 )det(M3 )
ove M3 è la seguente matrice di ordine n:
Pn−1 i n−i−1
1 a1 + a0 a21 + a1 a0 + a20 ...... i=0 a1 a0
Pn−1 i n−i−1
1 a2 + a0 a22 + a2 a0 + a20 ...... i=0 a2 a0
... ........ ............... ...... ............
Pn−1 i n−i−1
1 an + a0 a2n + an a0 + a20 ...... i=0 an a0
Quindi
n
Y
(iii) dn (a0 , a1 , ..., an ) = det(M3 ) · (ai − a0 )
i=1
per (ii) e perchè dn (a0 , a1 , ..., an ) = det(M1 ) = det(M2 ). Per ogni i = 2, 3, ..., n,
dalla i-esima colonna di M3 sottraiamo la prima moltiplicata per ai0 . Otteniamo
cosı̀ la seguente matrice, che indicherò con M3,1 :
Pn−2 i n−i−1 Pn−1 i n−i−1
1 a1 a21 + a1 a0 ...... a1 a0 a1 a0
Pi=1
n−2 i n−i−1 Pi=1
n−1 i n−i−1
1 a2 a22 + a2 a0 ...... i=1 a2 a0 i=1 a2 a0
... ... ......... ...... ............ ............
Pn−2 i n−i−1 Pn−1 i n−i−1
1 an a2n + an a0 ...... i=1 an a0 i=1 an a0
412 Capitolo 21
Per ogni i = 3, 4, ..., n, dalla i-esima colonna di M3,1 sottraiamo la seconda
moltiplicata per ai−1
0 . Otteniamo cosı̀ la seguente matrice, diciamola M3,2 :
Pn−1 i n−i−1
1 a1 a21 a31 + a21 a0 ...... a1 a0
Pi=2
n−1 i n−i−1
1 a2 a22 a32 + a22 a0 ...... i=2 a2 a0
... ... ... ......... ...... ............
Pn−1 i n−i−1
1 an a2n a3n + a2n a0 ...... i=2 an a0
Per ogni i = 4, 5, ..., n, dalla i-esima colonna di M3,2 sottraiamo la terza molti-
plicata per ai−2
0 . Otteniamo cosı̀ la seguente matrice, diciamola M3,3 :
Pn−1 i n−i−1
1 a1 a21 a31 a41 + a31 a0 ...... a1 a0
Pi=3
n−1 i n−i−1
1 a2 a22 a32 a42 + a32 a0 ...... i=3 a2 a0
... ... ... ... ......... ...... ............
Pn−1 i n−i−1
1 an a2n a3n a4n + a3n a0 ...... i=3 an a0
E cosı̀ via. Alla fine, perveniamo alla seguente matrice di ordine n:
a1 a21 a31 ..... an−1
1 1
1 a2 a22 a32 ..... an−1
2
M3,n = ...
... ... ... ..... ....
1 an a2n a3n ..... an−1n
Per il Corollario 21.14 (riferito alle colonne) risulta
det(M3 ) = det(M3,1 ) = det(M3,2 ) = ... = det(M3,n )
Qn
Quindi dn (a0 , a1 , ....an ) = i=1 (ai − a0 )det(M3,n ) per (iii). Ma M3,n è la
matrice di Cauchy-Vandermonde della n-pla (ai )ni=1 . Quindi
n
Y
(iv)1 dn (a0 , a1 , ..., an ) = dn−1 (a1 , a2 , ..., an ) · (ai − a0 )
i=1
Analogamente,
Qn
(iv)2 dn−1 (a1 , a2 , ..., an ) = dn−2 (a2 , a3 , ..., an ) · Qi=2 (ai − a1 )
n
(iv)3 dn−2 (a2 , a3 , ..., an ) = dn−3 (a3 , a4 , ..., an ) · i=3 (ai − a2 )
.... ............................................................................
(iv)n−1 d2 (an−2 , an−1 , an ) = d1 (an−1 , an )(an−1 − an−2 )(an − an−2 )
Però,
1 an−1
M1 (an−1 , an ) =
1 an
Quindi d1 (an−1 , an ) = an − an−1 . Da ciò e da (iv)1 , (iv)2 ,..., (iv)n−1 otteniamo
che:
Proposizione 21.22 Risulta
Y
dn (a0 , a1 , ..., an ) = (aj − ai )
0≤i<j≤n
21.4. PRODOTTI E INVERSE 413
Corollario 21.23 Risulta dn (a0 , a1 , ..., an ) 6= 0 se e solo se gli scalari a0 , a1 , ..., an
sono a due a due distinti.
Nella Sezione 21.7 daremo alcune applicazioni di questo corollario.
21.4 Prodotti e inverse
Teorema 21.24 Risulta det(AB) = det(A)det(B) per ogni scelta di due matrici
A, B ∈ Mn (K)).
Dimostrazione. Siano A = (ai,j )ni,j=1 e B = (bi,j )ni,j=1 . Indicata con Ci l’ i-
Pn
esima riga di AB, abbiamo Ci = h=1 ai,h Bh ove Bh sta ad indicare la h-esima
colonna di B. Quindi
det(AB)Pn= det(C1 , CP
2 , ..., Cn ) =
(i) n Pn
= det( h=1 a1,h Bh , h=1 a2,h Bh , ..., h=1 an,h Bh )
Applicando ripetutamente la Proposizione 21.4, da (i) ricaviamo che
n
XY
(ii) det(AB) = ai,ϕ(i) det(Bϕ(1) , Bϕ(2) , ..., Bϕ(n) )
ϕ∈F i=1
ove indichiamo con F l’ insieme delle funzioni da {1, 2, ..., n} ad {1, 2, ..., n}. Se
ϕ non è iniettiva, allora
(iii.a) det(Bϕ(1) , Bϕ(2) , ..., Bϕ(n) ) = 0
per la Proposizione 21.10. Se invece ϕ è una permutazione, allora
(iii.b) det(Bϕ(1) , Bϕ(2) , ..., Bϕ(n) ) = sgn(ϕ)det(B)
per la Proposizione 21.2. Da (ii), (iii.a) e (iii.b) segue che
X n
Y
det(AB) = ( ai,ϕ(i) ) · sgn(ϕ)det(B) =
ϕ∈Sym(n) i=1
X n
Y
= ( sgn(ϕ) ai,ϕ(i) ) · det(B) = det(A)det(B)
ϕ∈Sym(n) i=1
Quindi det(AB) = det(A)det(B). 2
Nel Capitolo 15 (Proposizione 15.5) si è dimostrato che una matrice quadrata di
ordine 2 è invertibile se e solo se il suo determinante è diverso da 0. Il seguente
teorema generalizza quel risultato a matrici di ordine arbitrario e completa la
Proposizione 15.4 del Capitolo 15 ed il Corollario 21.13:
414 Capitolo 21
Teorema 21.25 Sia A ∈ Mn (K). Le seguenti condizioni si equivalgono:
(i) La matrice A è invertibile;
(ii) det(A) 6= 0;
(iii) rank(A) = n.
Inoltre, se A è invertibile, allora det(A−1 ) = (det(A))−1 .
Dimostrazione. Sappiamo già che le condizioni (i) e (iii) si equivalgono (Ca-
pitolo 15, Proposizione 15.4) e che (ii) implica (iii) (Corollario 21.13). Per
concludere, basta dimostrare che (i) implica (ii). Supponiamo che A sia inverti-
bile. Allora det(A)det(A−1 ) = det(I) = 1 per il Teorema 21.24 e la Proposizione
21.15. Quindi det(A) 6= 0. Per di più, det(A−1 ) = (det(A))−1 . 2
Le matrici quadrate di determinante 0 (cioè, per il Teorema 21.25, non inverti-
bili) sono anche dette singolari.
21.4.1 Matrici cofattore e matrici inverse
Nel Capitolo 15 (§15.3.2) si è dato un metodo per calcolare l’ inversa di una
matrice quadrata invertibile. Vedremo ora un altro metodo, che generalizza
quanto visto in §15.3.1 del Capitolo 15 per matrici di ordine 2.
Sia A ∈ Mn (K) non singolare (quindi invertibile). Per ogni scelta di i, j =
1, 2, ..., n indichiamo con ci,j il cofattore di A di posto (i, j) (come in §21.3.3) e
poniamo C = (ci,j )ni,j=1 . Questa matrice è detta matrice cofattore di A.
Proposizione 21.26 L’ inversa di A è la trasposta della sua matrice cofattore
moltiplicata per lo scalare (det(A))−1 .
Dimostrazione. Calcoliamo AC t . Il termine di posto (i, j) di questo prodotto è
n
X
(i) ai,h (−1)i+h det(Aj,h )
h=1
Se i = j l’ espressione (i) è lo sviluppo di det(A) per cofattori lungo la i-esima
riga. Quindi
n
X
(ii.a) i = j =⇒ ai,h (−1)i+h det(Aj,h ) = det(A)
h=1
Supponiamo invece che i 6= j ed indichiamo con A[ij ] la matrice ottenuta da A
rimpiazzando la j-esima riga con la i-esima. L’ espressione (i) ora rappresenta
lo sviluppo per cofattori del determinante di A[ij ] lungo la j-esima riga. Ma
A[ij ] ha due righe uguali (la i-esima e la j-esima). Quindi det(A[ij ]) = 0 per la
Proposizione 21.15. Ne segue che
n
X
(ii.b) i 6= j =⇒ ai,h (−1)i+h det(Aj,h ) = 0
h=1
21.5. IL DETERMINANTE DI UNA TRASFORMAZIONE 415
Da (ii.a) e (ii.b) segue che AC t = det(A)I. Quindi A · det(A)−1 C t = I e
pertanto A−1 = det(A)−1 C t . 2
Esempio. Sia A una matrice quadrata di ordine 2, invertibile.
a b
A=
c d
La sua matrice cofattore è
d −c
−b a
e il suo determinante ad − bc (6= 0 perchè, per ipotesi, A è invertibile). Quindi,
1 d −b
A−1 =
ad − bc −c a
(come del resto già sappiamo dal Capitolo 15).
21.4.2 Paragoni
Col metodo descritto in §15.3.2 del Capitolo 15, per trovare l’ inversa di una
matrice quadrata invertibile di ordine n occorre mediamente una quantità di
calcoli doppia di quella richiesta dalla procedura di Gauss-Jordan per sostituire
una matrice triangolare ad una matrice quadrata di ordine n. Precisamente,
indicata con g1 (n) la massima quantità di calcoli che può capitarci di dover fare
con questo metodo, g1 (n) è un polinomio di terzo grado in n (cfr. §21.3.4); anzi,
g1 (n) non supera mai 4n3 /3.
Se invece procediamo come suggerito nella Proposizione 21.26, dobbiamo
calcolare n2 determinanti di ordine n − 1 e dividerli per il determinante della
matrice di cui vogliamo calcolare l’ inversa. Il numero
g2 (n) = n2 f (n − 1) + f (n) + n2
ci dà la massima quantità di calcoli da fare, ove f (n) è il massimo numero di
operazioni da eseguire per calcolare un determinante di ordine n, col metodo che
supponiamo di avere scelto. Per esempio, se scegliamo il metodo ‘alla Gauss-
Jordan’, allora f (n) è un polinomio di terzo grado in n (cfr. §21.3.4). Quindi
g2 (n) è un polinomio di quinto grado in n e il rapporto g2 (n)/g1 (n) diverge
con la stessa velocità di n2 . Dunque, quando n non è molto piccolo, la massa
di calcoli richiesti dal metodo indicato nella Proposizione 21.26 è eccessiva se
paragonata con la procedura proposta in §15.3.2 del Capitolo 15.
21.5 Il determinante di una trasformazione
Sia V uno spazio vettoriale di dimensione n < ∞ su un campo K e sia ϕ ∈
L(V). La matrice A = µE (ϕ) che rappresenta ϕ rispetto ad una data base
416 Capitolo 21
E di V dipende dalla scelta di quella base. Precisamente, data una matrice
invertibile C ∈ Mn (K), la matrice che rappresenta ϕ rispetto alla base F = EC
è µF (ϕ) = C −1 AC (Capitolo 15, (8)). Però
det(C −1 AC) = (det(C))−1 det(A)det(C) = det(A)
per i Teoremi 21.24 e 21.25. Quindi det(µF (ϕ)) = det(µE (ϕ)). Insomma, anche
se la matrice rappresentativa di ϕ dipende dalla base E che si è scelta, il suo
determinante non dipende da E. Poniamo
det(ϕ) =def det(µE (ϕ))
e chiamiamo det(ϕ) determinante di ϕ.
21.5.1 Qualche proprietà
Per il Teorema 21.25, la trasformazione ϕ è invertibile se e solo se det(ϕ) 6= 0
e, se ϕ è invertibile, allora det(ϕ−1 ) = (det(ϕ))−1 . Data poi un’ altra trasfor-
mazione ψ ∈ L(V), risulta det(ϕψ) = det(ϕ)det(ψ) (Teorema 21.24). Inoltre, la
trasformazione identità ha determinante 1 (Proposizione 21.15).
Le proprietà ora enunciate ci dicono che la funzione che ad ogni ϕ ∈ Aut(V)
associa det(ϕ) è un omomorfismo dal gruppo Aut(V) al gruppo moltiplicativo
di K (Volume 2, Capitolo 8). Il nucleo di questo omomorfismo è formato dalle
trasformazioni di determinante 1. Esse dunque formano un sottogruppo normale
di Aut(V).
21.5.2 Qualche esempio
1. Ogni riflessione lineare di Vn (R) è rappresentabile rispetto ad un’ opportuna
base da questa matrice (Capitolo 13, §13.6.5),
−1 0 0 .... 0
0 1 0 .... 0
0 0 1 .... 0
... ... ... .... ...
0 0 0 .... 1
Quindi le riflessioni lineari di Vn (R) hanno determinante −1. Pertanto, ogni
isometria lineare di Vn (R), essendo esprimibile come un prodotto di riflessio-
ni (Capitolo 12, Teorema 12.26) ha determinante 1 o −1. Precisamente, ha
determinante 1 se è un prodotto di un numero pari di riflessioni, −1 in caso
contrario. Per esempio, le rotazioni, potendosi ottenere sempre come prodotti
di due opportune riflessioni, hanno determinante 1.
Le isometrie lineari di Vn (R) di determinante 1 si dicono movimenti.
2. Sia ϕ una trasformazione unitaria di Vn (C) (Capitolo 19). Sappiamo che
ϕϕ∗ = I. Quindi
(i) det(ϕ)det(ϕ∗ ) = 1
21.6. ESERCIZI 417
per il Teorema 21.24 e la Proposizione 21.15. D’ altra parte,
(ii) det(ϕ∗ ) = det(ϕ)
per il Teorema 21.1 e perchè, se A è la matrice ottenuta sostituendo tutti i
termini di una matrice A ∈ Mn (C) coi loro coniugati, allora det(A) = det(A).
Da (i) e (ii) si ottiene che det(ϕ)det(ϕ) = 1. Cioè, |det(ϕ)| = 1. (Nel caso reale,
con lo stesso ragionamento ritroviamo che det(ϕ) = ±1.)
21.6 Esercizi
Esercizio 21.1 Si calcoli il determinante della seguente matrice quadrata di
ordine n:
0 0 .... 0 a1
0 0 .... a2 0
... ... .... ... ...
0 an−1 .... 0 0
an 0 .... 0 0
Qn
Risposta. (−1)[n/2] i=1 ai , ove [n/2] indica il più grande numero naturale
non superiore ad n/2 (cioè, [n/2] = n/2 se n è pari, mentre [n/2] = (n − 1)/2 se
n è dispari). Infatti questa matrice si ottiene dalla matrice diagonale dg(ai )ni=1
scambiando la prima riga con l’ ultima, la seconda con la penultima, ecc.
Esercizio 21.2 Sia A una matrice quadrata di ordine n conformata in uno di
questi due modi:
0 0 .... 0 a1 ∗ ∗ .... ∗ a1
0
0 .... a2 ∗
∗
∗ .... a2 0
... ... .... ... ... ... ... .... ... ...
0 an−1 .... ∗ ∗ ∗ an−1 .... 0 0
an ∗ .... ∗ ∗ an 0 .... 0 0
Se ne calcoli il determinante.
Qn
Risposta. (−1)[n/2] i=1 ai , ove [n/2] ha il senso stabilito nell’ Esercizio 21.2.
(Infatti A si ottiene da una matrice triangolare scambiando la prima riga con l’
ultima, la seconda con la penultima, ...)
Esercizio 21.3 Si calcoli il determinante della seguente matrice quadrata di
ordine 2n:
0 0 .... 0 a1 0 .... 0
0 0 .... 0 0 a2 .... 0
... ... .... ... ... ... .... ...
0 0 .... 0 0 0 .... an
b1 0 .... 0 0 0 .... 0
0 b2 .... 0 0 0 .... 0
... ... .... ... ... ... .... ...
0 0 .... bn 0 0 .... 0
418 Capitolo 21
Qn
Risposta. (−1)n i=1 ai bi . (Infatti otteniamo questa matrice dalla matri-
ce dg(a1 , ..., an , b1 , ..., bn ) scambiando le colonne di posto i ed i + n, per i =
1, 2, ..., n.)
Esercizio 21.4 Si calcoli il determinante della seguente matrice quadrata di
ordine 2n:
0 a1 0 0 .... 0 0
b1 0 0 0 .... 0 0
0 0 0 a2 .... 0 0
0 0 b2 0 .... 0 0
... ... ... ... .... ... ...
0 0 0 0 .... 0 an
0 0 0 0 .... bn 0
Qn
Risposta. (−1)n i=1 ai bi . (Infatti otteniamo questa matrice dalla matrice
dg(a1 , b1 , ..., an , bn ) scambiando le colonne di posto 2i−1 e 2i, per i = 1, 2, ..., n.)
Esercizio 21.5 Data una permutazione α ∈ Sym(n), sia Mα la matrice per-
mutazionale associata ad α (Capitolo 13, §13.6.4). Si dimostri che det(Mα ) =
sgn(α).
Traccia. La matrice Mα si ottiene dalla matrice identità permutandone le righe
(o le colonne) mediante α.
Nota. Dalla relazione det(Mα ) = sgn(α) e dal Teorema 21.24 si ottiene subito
un’ espressione per il determinante di una matrice monomiale (Capitolo 13, Eser-
M = AMα con A = dg(ai )ni=1 ed Mα permutazionale,
cizio 13.29). Infatti, se Q
n
allora det(M ) = sgn(α) i=1 ai .
Esercizio 21.6 Sia A ∈ Mn (K) conformata a blocchi in uno di questi due modi:
O O .... O A1 ∗ ∗ .... ∗ A1
O
O .... A2 ∗
∗
∗ .... A2 O
... ... .... ... ... ... ... .... ... ...
O Ak−1 .... ∗ ∗ ∗ Ak−1 .... O O
Ak ∗ .... ∗ ∗ Ak O .... O O
ove A
P1k, A2 ,..., Ak sono matrici quadrate di ordine rispettivamente n1 , n2 ,...,
nk ( j=1 nj = n) ed O sta ad indicare matrici nulle. Si dimostri che
Pk k
Y
det(A) = (−1)[n/2]+ j=1 [nj /2] det(Aj )
j=1
ove i simboli [n/2] ed [nj /2] hanno il senso stabilito nell’ Esercizio 21.1.
Traccia. Mediante scambi di righe ci si può ricondurre ad una delle due
configurazioni considerate nella Proposizione 21.18.
21.6. ESERCIZI 419
Esercizio 21.7 Si calcoli il determinante della seguente matrice quadrata di
ordine n + 1:
t −1 0 .... 0 0
0 t −1 .... 0 0
0 0 t .... 0 0
... ... ... .... ... ...
0 0 0 .... t −1
a0 a1 a2 .... an−1 an
Soluzione. Indichiamo questo determinante con da0 ,a1 ,...,an (t). Sviluppandolo
per cofattori lungo la prima riga, otteniamo la seguente formula
(i) da0 ,a1 ,...,an (t) = t·da1 ,a2 ,...,an (t) + det(M1 )
ove M1 è la seguente matrice di ordine n:
0 −1 0 .... 0 0
0 t −1 .... 0 0
0 0 t .... 0 0
... ... ... .... ... ...
0 0 0 .... t −1
a0 a2 a3 .... an−1 an
Sviluppando det(M1 ) per cofattori lungo la prima colonna otteniamo
(ii) det(M1 ) = (−1)n+1 a0 det(M2 )
ove M2 è la seguente matrice quadrata di ordine n − 1:
−1 0 0 .... 0 0
t −1 0 .... 0 0
0 t −1 .... 0 0
... ... ... .... ... ...
0 0 0 .... −1 0
0 0 0 .... t −1
Risulta det(M2 ) = (−1)n−1 (Corollario 21.17). Quindi det(M1 ) = a0 per (ii).
Infine,
(iii)1 da0 ,a1 ,...,an (t) = t·da1 ,a2 ,...,an (t) + a0
per (i). Analogamente,
(iii)2 da1 ,a2 ,...,an (t) = t·da2 ,a3 ...,an (t) + a1
(iii)3 t·da2 ,a3 ,...,an (t) = t·da3 ,a4 ...,an (t) + a2
..... .............................................
(iii)n−1 dan−2 ,an−1 ,an (t) = t·dan−1 ,an (t) + an−2
Ma
t −1
dan−1 ,an (t) = det = tan + an−1
an−1 an
420 Capitolo 21
Da ciò e dalle (iii)1 –(iii)n−1 si ottiene che
da0 ,a1 ,...,an (t) = an tn + an−1 tn−1 + ... + a1 t + a0
Esercizio 21.8 Si calcoli il determinante della matrice Jn (a, b) considerata
nell’ Esercizio 13.26 del Capitolo 13.
Risposta. (a−b)n−1 (a+(n−1)b). Lo si può vedere in molti modi; per esempio,
sottraendo l’ ultima colonna da tutte le altre, poi sommando tutte le righe all’
ultima...
Esercizio 21.9 Si calcoli il determinante della seguente matrice quadrata di
ordine n ≥ 2:
2 −1 0 0 .... 0 0 0
−1 2 −1 0 .... 0 0 0
0 −1 2 −1 .... 0 0 0
... ... ... ... .... ... ... ...
0 0 0 0 .... −1 2 −1
0 0 0 0 .... 0 −1 2
Risposta. n + 1.
Esercizio 21.10 Si calcoli il determinante della seguente matrice quadrata di
ordine n ≥ 2:
2 −1 0 .... 0 0 0 0 0
−1 2 −1 .... 0 0 0 0 0
0 −1 2 .... 0 0 0 0 0
... ... ... .... ... ... ... ... ...
0 0 0 .... −1 2 −1 0 0
0 0 0 .... 0 −1 2 −1 0
0 0 0 .... 0 0 −1 2 −2
0 0 0 .... 0 0 0 −2 2
Risposta. 2(2 − n).
Esercizio 21.11 Si calcoli il determinante della seguente matrice quadrata di
ordine n ≥ 4:
2 −1 0 .... 0 0 0 0 0
−1 2 −1 .... 0 0 0 0 0
0 −1 2 .... 0 0 0 0 0
... ... ... .... ... ... ... ... ...
0 0 0 .... −1 2 −1 0 0
0 0 0 .... 0 −1 2 −1 −1
0 0 0 .... 0 0 −1 2 0
0 0 0 .... 0 0 −1 0 2
Risposta. 4.
21.7. APPLICAZIONI 421
Esercizio 21.12 Si stimi l’ ingombro di memoria e la quantità di calcoli che si
rischia di dover fare se si segue la regola di Laplace alla lettera, cioè prendendo
nota dei cofattori di A relativi ad una data riga, poi dei loro cofattori, poi dei
cofattori di questi, ...
Risposta. L’ ingombro di memoria è dato da questo numero
n−1
X n
n2 + (n − 1)2 n + (n − 2)2 n(n − 1) + ... = (n − i)2 i!
i=0
i
(che è maggiore di n!). Invece, indicata con f (n) la quantità massima di calcoli
da fare, risulta
f (n) = nf (n − 1) + 2n − 1
f (2) = 3
Queste due condizioni individuano f (n) per ogni n ≥ 2. Esse mostrano anche
che f (n) > n!.
Esercizio 21.13 Qual’ à la massima quantità di calcoli richiesti dall’ espres-
sione usata in (∗) per definire det(A) ?
Risposta. n!n, senza tener conto del lavoro necessario per elencare le n!
permutazioni di {1, 2, ..., n}.
Esercizio 21.14 Date due matrici A, B ∈ Mn (K), si dimostri che
X
det(A + B) = det(C1,f (1) , C2,f (2) , ..., Cn,f (n) )
f ∈{0,1}n
ove Ci,0 è l’ i-esima riga di A e Ci,1 è l’ i-esima riga di B.
Esempio. Con n = 2, A = (A1 , A2 ) e B = (B1 , B2 ), risulta
det(A + B) = det(A) + det(A1 , B2 ) + det(B1 , A2 ) + det(B)
21.7 Applicazioni
Il calcolo degli autovalori, a cui sarà dedicato il Capitolo 22, è tra le più im-
portanti applicazioni dei determinanti. Ma ve ne sono molte altre. Vediamone
alcune.
21.7.1 Il principio d’ identità dei polinomi
Nel Capitolo 5 del Volume 2 si è enunciata la seguente proposizione, senza
dimostrarla (Volume 2, Capitolo 5, Lemma 5.3). Ora la possiamo dimostare.
Pn
Proposizione 21.27 Sia P (x) = i=0 ai xi . Il polinomio P ammette più di n
zeri solo se è il polinomio nullo.
422 Capitolo 21
Dimostrazione. Siano b0 , b1 , ..., bn zeri di P , a due a due distinti. Allora la
(n + 1)-pla (ai )ni=0 dei coefficienti di P è una soluzione del seguente sistema di
n + 1 equazioni lineari omogenee nelle n + 1 incognite x0 , x1 , ..., xn :
x0 + b0 x1 + b20 x2 + ... + bn0 xn = 0
x0 + b1 x1 + b21 x2 + ... + bn1 xn = 0
.............................................. ... ...
x0 + bn x1 + b2n x2 + ... + bnn xn = 0
La matrice incompleta di questo sistema è una matrice di Cauchy-Vandermonde
1 b0 b20 .... bn0
1 b1 b21 .... bn1
... ... ... .... ...
1 bn b2n .... bnn
ed è non singolare, perchè gli scalari b0 , b1 , ..., bn sono a due a due distinti (Co-
rollario 21.23). Quindi il sistema ammette solo la soluzione nulla (Corollario
21.13 e Capitolo 15, Proposizione 15.12). 2
Allo stesso modo, sempre usando la Proposizione 15.12 del Capitolo 15 e i
Corollari 21.13 e 21.23, si dimostra anche la seguente proposizione:
Proposizione 21.28 Siano c0 , c1 , ..., cn , b0 , b1 , ..., bn elementi di un campo K
con b0 , b1 ,..., bn a due a due distinti. Allora esiste un unico polinomio P ∈
Pn (K) tale che P (bi ) = ci per ogni i = 0, 1, ..., n.
21.7.2 Il Wronskiano di una sequenza di funzioni
Date n + 1 funzioni f0 , f1 , ..., fn ∈ C∞ (R), si dice matrice Wronskiana della
sequenza (fi )ni=0 la funzione da R ad Mn+1 (R) che ad ogni x ∈ R associa la
(i) (i)
matrice W (x) = (fj (x))ni,j=0 , ove fj sta ad indicare la derivata i-esima di
n
fj . Il Wronskiano di (fi )i=0 è la funzione che ad ogni x ∈ R associa il numero
w(x) = det(W (x)).
Proposizione 21.29 Se w(x) 6= 0 per qualche x ∈ R, allora l’ insieme {fi }ni=0
è linearmente indipendente.
Pn
Dimostrazione. Supponiamo che i=0 ci fi = O, cioè che valga l’ identità
n
X
ci fi (x) =∀ 0
i=0
Pn (j)
Allora i=0 ci fi (x) =∀ 0 per ogni j = 0, 1, ..., n. Quindi, per ogni x ∈ R, la
sequenza (ci )ni=0 è una soluzione del sistema omogeneo che ha la matrice W (x)
come matrice incompleta. Se per qualche a risulta w(a) 6= 0, allora quel sistema
è determinato (Corollario 21.13 e Capitolo 15, Proposizione 15.12). Pertanto
c0 = c1 = ... = cn = 0. 2
21.7. APPLICAZIONI 423
Esempio. Dati n + 1 numeri reali distinti a0 , a1 , ..., an , la matrice Wronskiana
di ea0 x , ea1 x , ..., ean x è
ea0 x ea1 x ean x
.....
a0 ea0 x a1 ea1 x ..... an ean x
W (x) = = V · dg(eai x )ni=0
........ ........ ..... ........
an0 ea0 x an1 ea1 x ..... ann ean x
ove V sta ad indicare la matrice di Cauchy-Vandermonde di a0 , a1 , ..., an . Sicchè
W (0) = V . La matrice V è non singolare (Corollario 21.23). Quindi, per la
Proposizione 21.29, le funzioni ea0 x , ea1 x ,..., ean x sono linearmente indipendenti
(come già sappiamo dal Capitolo 4, Esercizio 4.13; anche Capitolo 16, §16.2.4).
21.7.3 Il volume di un simplesso
Dato un punto X = (x1 , x2 , ..., xn ) di Vn (R), poniamo
X
b =def (x1 , x2 , ..., xn , 1)
Proposizione 21.30 Dati in V2 (R) tre punti non collineari A, B e C, il
numero
|det(A,
b B,
b C)|
b
2
è l’ area del triangolo [A, B, C] di vertici A, B e C.
Dimostrazione. Supponiamo che C = O e che B sia proporzionale ad uno dei
versori. Risulta O b = (0, 0, 1). Quindi det(A, b B,
b O)
b = det(A, B) ed è facile
controllare che |det(A, B)|/2 è l’ area di [A, B, O].
Veniamo al caso generale. Sia ϕ una rotazione di centro O che porta B − C
su un vettore proporzionale ad un versore. I triangoli [A, B, C], [A−C, B −C, O]
e [ϕ(A − C), ϕ(B − C), O] hanno la stessa area e, per quel che si è detto sopra,
la loro area è |det(ϕ(A − C), ϕ(B − C))|/2. D’ altra parte,
(i) det(ϕ(A − C), ϕ(B − C)) = det(ϕ)det(A − C, B − C)
perchè la matrice (ϕ(A − C), ϕ(B − C)) è il prodotto della matrice che rappre-
senta ϕ rispetto ai versori per la matrice (A − C, B − C). Inoltre
(ii) det(ϕ) = 1
perchè ϕ è una rotazione (§21.5.2) e
(iii) det(A − C, B − C) = det(A,
b B,
b C)
b
perchè sottraendo la colonna C b dalle colonne A
beB b di (A,b B,
b C)
b si ottiene una
matrice formata da due blocchi in diagonale, uno dei quali è (A − C, B − C) e
l’ altro consiste del solo scalare 1. Sostituendo (ii) e (iii) in (i) si ottiene
det(A,
b B, b = det(ϕ(A − C), ϕ(B − C))
b C)
424 Capitolo 21
Come si è già osservato, |det(ϕ(A − C), ϕ(B − C))|/2 è l’ area del triangolo
[A, B, C]. Quindi quest’ area è uguale a |det(A,
b B,
b C)|/2.
b 2
Con un ragionamento simile a questo si dimostra anche la seguente proposizione:
Proposizione 21.31 Dati in V3 (R) quattro punti non collineari A, B, C e D,
il numero
|det(A,
b B,
b C,
b D)|
b
6
è il volume del tetraedro [A, B, C, D] di vertici A, B, C e D.
Queste due proposizioni giustificano la seguente definizione. Sia [P0 , P1 , ..., Pn ]
un simplesso n-dimensionale di Vn (K), ove n > 3 (Capitolo 12, §12.12.3).
Prendiamo come volume di [P0 , P1 , ..., Pn ] il numero |det(Pb0 , Pb1 , ..., Pbn )|/n!.
21.8 Il prodotto vettoriale
Dati n − 1 vettori X1 = (x1,i )ni=1 , X2 = (x2,i )ni=1 ,..., Xn−1 = (xn−1,i )ni=1 di
Vn (K) (ove n ≥ 3), si pone
X Qn−1
(?) X1 ∧ X2 ∧ ... ∧ Xn−1 =def sgn(ξ)( i=1 xi,ξ(i) )Uξ(n)
ξ∈Sym(n)
ove U1 , U2 , ..., Un sono i versori di Vn (K). Il simbolo X1 ∧ X2 ∧ ... ∧ Xn−1 viene
spesso abbreviato in ∧n−1 n−1
i=1 Xi . Il vettore ∧i=1 Xi si chiama prodotto vettoriale
(anche, prodotto esterno) di X1 , X2 ,..., Xn−1 .
Le seguenti proprietà non sono difficili da dimostrare. Esse assomigliano
a proprietà dei determinanti: Corollario 21.13 e Teorema 21.25, Proposizione
21.2, Proposizione 21.4, Teorema 21.24. (Queste analogie non devono stupire;
l’ espressione usata in (?) per definire ∧n−1i=1 Xi è simile a quella usata in (∗) per
definire det(A).)
(i) ∧n−1 n−1
i=1 Xi = O se e solo se rank((Xi )i=1 ) < n − 1.
(ii) ∧n−1 n−1
i=1 Xξ(i) = sgn(ξ) ∧i=1 Xi , (∀ξ ∈ Sym(n)).
Pm
(iii) X1P ∧ ... ∧ Xk−1 ∧ ( i=1 yi Yi ) ∧ Xk+1 ∧ ... ∧ Xn−1 =
m
= i=1 yi (X1 ∧ ... ∧ Xk−1 ∧ Yi ∧ Xk+1 ∧ ... ∧ Xn−1 ).
(iv) ∧ni=1 ϕ(Xi ) = det(ϕ) ∧n−1
i=1 Xi , (∀ϕ ∈ Ln (K)).
Per di più, quando K = R,
(v) ∧n−1
i=1 Xi ⊥ Xk (k = 1, 2, ..., n).
(vi) h∧n−1
i=1 Xi , Xn i = det(X1 , X2 , ..., Xn−1 , Xn ).
Capitolo 22
Calcolo di autovalori
22.1 Il polinomio caratteristico
Nel seguito V sta ad indicare uno spazio vettoriale di dimensione n < ∞ su un
dato campo K e ϕ è una trasformazione lineare di V in sè. Useremo la lettera I
per indicare sia la trasformazione identità IV su V che la matrice identità In di
ordine n. Il senso da attribuire ad I di volta in volta sarà chiaro dal contesto.
Perchè un certo scalare a ∈ K sia un autovalore di ϕ occorre e basta che
Ker(ϕ − aI) 6= {O} (Capitolo 17, Corollario 17.9), cioè che rank(ϕ − aI) < n
(Capitolo 17, Corollario 17.10). Fissiamo ora una base E di V e sia A = µE (ϕ)
la matrice che rappresenta ϕ rispetto ad E. La condizione rank(ϕ − aI) < n
equivale alla condizione det(A − aI) = 0 (Capitolo 21, Teorema 21.25). Dunque
a è un autovalore di ϕ se e solo se det(A − aI) = 0. Vale a dire,
Lemma 22.1 Gli autovalori di ϕ sono le soluzioni dell’ equazione det(A−tI) =
0, ove t ∈ K.
Gli autovalori di ϕ si chiamano anche autovalori di A (in K, se vogliamo rammen-
tare che K è il campo degli scalari). La matrice A dipende dalla scelta della base
E, ma il suo determinante è il determinante det(ϕ) di ϕ e non dipende da E ma
solo da ϕ (Capitolo 21, Sezione 21.5). Analogamente, det(A − tI) = det(ϕ − tI).
D’ altra parte,
det(A − tI) = (−1)n det(tI − A) = (−1)n det(tI − ϕ)
per il Corollario 21.9 del Capitolo 21. Quindi le equazioni det(ϕ − tI) = 0 e
det(tI − ϕ) = 0 sono equivalenti. L’ equazione det(tI − ϕ) = 0 è detta equazione
caratteristica di ϕ (o anche equazione caratteristica di A). Cosı̀,
Teorema 22.2 Gli autovalori di ϕ sono le soluzioni in K dell’ equazione ca-
ratteristica di ϕ.
425
426 Capitolo 22
Sia A = µE (ϕ), come sopra. Indichiamo con ai,j il termine di A di posto (i, j) e
poniamo ti,j = −ai,j se i 6= j e ti,i = t − ai,i . Cosı̀, tI − A = (ti,j )ni,j=1 . Risulta
X n
Y
det(tI − ϕ) = det(tI − A) = sgn(ξ) ti,ξ(i)
ξ∈Sym(n) i=1
Qn
Data una permutazione ξ ∈ Sym(n), poniamo pξ (t) = i=1 ti,ξ(i) . Indicato con
F l’ insieme degli elementi di {1, 2, ..., n} fissati da ξ, sia F 0 = {1, 2, ..., n} \ F .
Allora
0 Y Y
pξ (t) = (−1)card(F ) ai,ξ(i) · (t − ai,ξ(i) )
i∈F 0 i∈F
Dunque pξ (t) è un polinomio in t. È evidente che pξ (t) non è il polinomio nullo
se e solo se ai,ξ(i) 6= 0 per ogni i ∈ F 0 e che, se pξ (t) non è il polinomio nullo,
allora card(F ) è il suo grado. In particolare, indicata con ι la permutazione
identità, risulta
n
Y Xn
(i) pι (t) = (t − ai,i ) = tn − ( ai,i )tn−1 + R1 (t)
i=1 i=1
ove R1 (t) è un polinomio di grado ≤ n − 2. Quindi pι (t) ha grado n. D’ altra
parte, se ξ 6= ι, allora ξ fissa al più n − 2 elementi, quindi pξ (t) ha grado ≤ n − 2.
Poniamo Sym(n)∗ = Sym(n) \ {ι}. Allora
X
(ii) det(tI − ϕ) = sgn(ξ)pξ (t) =
ξ∈Sym(n)
X
= pι (t) + sgn(ξ)pξ (t) = pι (t) + R2 (t)
ξ∈Sym(n)∗
P
ove si è posto R2 (t) = ξ∈Sym(n)∗ sgn(ξ)pξ (t). Sostituendo (i) in (ii) si ottiene
che
Xn
(iii) det(tI − ϕ) = tn − ( ai,i )tn−1 + (R1 (t) + R2 (t))
i=1
Siccome pξ (t) ha grado ≤ n − 2 per ogni ξ ∈ Sym(n)∗ , il polinomio R2 (t) ha
grado ≤ n − 2. Quindi R1 (t) + R2 (t), essendo somma di due polinomi di grado
≤ n − 2, ha grado ≤ nP− 2. Pertanto det(tI − ϕ) è un polinomio di grado n,
n
monico, e lo scalare − i=1 ai,i è il coefficiente del suo termine di grado n − 1.
Il polinomio det(tI − ϕ) è detto polinomio caratteristico di ϕ (anche polinomio
caratteristico di A). Lo indicheremo con Pϕ (con PA quando preferiamo riferirci
alla matrice A).P
n
Lo scalare i=1 ai,i è la traccia della matrice A (Capitolo 16, Esercizio
16.16). Rammento che A dipende da E. Però, siccome la sua traccia è l’
opposta del coefficiente del termine di grado n − 1 di Pϕ , essa dipende solo da ϕ
e non dalla particolare scelta di E. La chiamiamo la traccia di ϕ e la indichiamo
22.1. IL POLINOMIO CARATTERISTICO 427
col simbolo tr(ϕ). (Si noti che, per l’ Esercizio 16.16 del Capitolo 16, la funzione
che ad ogni elemento di L(V) associa la sua traccia è un funzionale lineare di
L(V).)
Invece det(ϕ) = (−1)n Pϕ (0) (Capitolo 21, Corollario 21.9). Per esempio,
quando n = 2 abbiamo
Pϕ (t) = t2 − tr(ϕ) + det(ϕ) = t2 − (a + d)t + ad − bc
ove la matrice
a b
c d
è una qualunque delle matrici che rappresentano ϕ.
22.1.1 Molteplicità
Si dice molteplicità di un autovalore di ϕ la sua molteplicità in quanto soluzione
dell’ equazione Pϕ (t) = 0 (Volume 2, Capitolo 6, §6.3.2). Siccome il polinomio
Pϕ (t) ha grado n, per il Teorema 6.21 del Capitolo 6 del Volume 2 si ha che:
Proposizione 22.3 La somma delle molteplicità degli autovalori di ϕ non su-
pera la dimensione n di V.
Dunque ϕ ha al più n autovalori distinti (come già si è detto nel Capitolo 17,
Corollario 17.15).
Sia m la dimensione dell’ autospazio Ker(ϕ − aI) di ϕ relativo ad un dato
autovalore a di ϕ e sia (Ei )mi=1 una base di Ker(ϕ − aI). Aggiungiamo alla
sequenza (Ei )m
i=1 altri n − m vettori in modo da formare una base di V. La
matrice che rappresenta ϕ rispetto a questa base ha la forma seguente, ove
B ∈ Mm,n−m (K), C ∈ Mn−m (K) ed On−m,m è la matrice nulla (n − m) × m.
aIm B
A=
On−m,m C
Risulta PA (t) = (t − a)m PC (t) (Capitolo 21, Proposizione 21.18). Pertanto, la
molteplicità dell’ autovalore a è almeno m. In definitiva:
Proposizione 22.4 La dimensione di un autospazio non supera mai la molte-
plicità del suo autovalore.
Ma può capitare che la dimensione di un autospazio sia inferiore alla molteplicità
del relativo autovalore. Per esempio, supponiamo che rispetto a un’ opportuna
base la trasformazione ϕ sia rappresentata da una matrice di Jordan (Capitolo
17, Esercizio 17.20):
a 1 0 ..... 0 0
0 a 1 ..... 0 0
0 0 a ..... 0 0
... ... ... ..... ... ...
0 0 0 ..... a 1
0 0 0 ..... 0 a
428 Capitolo 22
Allora Pϕ (t) = (t − a)n . Quindi a è l’ unico autovalore di ϕ ed ha molteplicità
n. Però il suo autospazio ha dimensione 1 (Capitolo 17, Esercizio 17.20).
Nota. Alcuni chiamano molteplicità algebrica la molteplicità di un autovalore
e molteplicità geometrica la dimensione del suo autospazio.
22.1.2 Riducibilità del polinomio caratteristico
Rammento che un polinomio in una sola variabile è completamente riducibile
(cioè, si decompone in un prodotto di fattori di primo grado) se e solo se ammette
zeri e la somma delle molteplicità dei suoi zeri è uguale al suo grado (Volume 2,
Capitolo 6). Sicchè:
Lemma 22.5 Il polinomio Pϕ è completamente riducibile se e solo se ϕ am-
mette autovalori e la somma delle loro molteplicità è uguale ad n.
Supponiamo che Pϕ sia completamente riducibile,
n
Y
Pϕ (t) = (t − ai )
i=1
(ove non escludiamo
Qn che nella sequenza (a1 , a2 , ..., an ) compaiano ripetizioni).
Allora (−1)n i=1 ai = Pϕ (0). Ma Pϕ (0) = (−1)n det(ϕ). Quindi:
Lemma 22.6 Se Pϕ è completamente riducibile, allora det(ϕ) è il prodotto degli
autovalori di ϕ, elevati alle rispettive molteplicità.
Per il Teorema Fondamentale dell’ Algebra (Volume 2, Capitolo 6), quando
K = C il polinomio Pϕ è completamente riducibile. Quindi:
Proposizione 22.7 Sia K = C. Allora ϕ ammette autovalori e la somma delle
loro molteplicità è uguale ad n. Inoltre, det(ϕ) è il prodotto degli autovalori di
ϕ, elevati alle rispettive molteplicità.
Ritorneremo sul caso di K = C nella Sezione 22.4. Supponiamo invece che
K = R. In questo caso può capitare che Pϕ (t) non abbia zeri (in R), cioè che
ϕ non abbia autovalori. (Per esempio, una rotazione lineare di V2 (R) di angolo
6= kπ non ha autovettori). Però
Proposizione 22.8 Se K = R ed n è dispari, allora ϕ ammette autovalori.
Infatti ogni polinomio in R di grado dispari ammette zeri in R (Volume 2,
Capitolo 6, Corollario 6.30). Questo dipende dal fatto che ogni polinomio in R
si decompone in R in un prodotto di fattori irriducibili di grado 1 o 2 (Volume 2,
Capitolo 6, Teorema 6.29). Quindi, se un polinomio a coefficienti in R ammette
zeri in R, la differenza tra il suo grado e la somma delle molteplicità dei suoi
zeri reali è pari. Pertanto,
22.1. IL POLINOMIO CARATTERISTICO 429
Proposizione 22.9 Se K = R e se ϕ ammette autovalori, allora la differenza
tra n e la somma delle molteplicità degli autovalori di ϕ è pari.
22.1.3 Un consiglio
Scelta una base E di V, sia A = µE (ϕ). Per semplicità, supponiamo che V =
Vn (K) e che E sia la base dei versori. Dato un autovalore a di ϕ, il suo autospazio
è la soluzione generale del sistema omogeneo
(∗) AX = aX
Questo sistema è indeterminato, di rango n − k ove k = dim(Ker(ϕ − aI)) ≥ 1.
In generale, k dipende da a. Ma in alcuni casi possiamo trovare k prima ancora
di aver calcolato a. Per esempio, potremmo aver scoperto che a ha molteplicità
1, senza conoscere ancora il valore esatto di a. Allora k ≤ 1 per la Proposizione
22.4 e quindi k = 1.
Supponiamo dunque di conoscere già k. Allora dal sistema (∗) si possono
cancellare k equazioni in modo che le rimanenti n − k equazioni ci diano un
sistema equivalente a (∗). (A questo scopo occorre e basta che le equazioni che
restano siano indipendenti; equivalentemente, che quelle che cancelliamo siano
combinazioni lineari di quelle che conserviamo.) Supponiamo dunque di avere
trovato k equazioni superflue e di avere ‘ripulito’ (∗), cancellandole. La soluzione
del sistema cosı̀ ripulito è l’ autospazio cercato.
È sempre meglio ripulire il sistema (∗) prima di risolverlo, se lo si può fare
(e lo si può fare quasi sempre); soprattutto quando ci si deve accontentare di
stime approssimate per gli autovalori di ϕ.
Esempio. Sia K = R, n = 3 e
1 1 0
A= 0 1 1
1 1 1
Sia a un autovalore di A (lo calcoleremo poi). Questo è ora il sistema (∗):
x + y = ax (1 − a)x + y = 0
(i) y + z = ay cioè (1 − a)y + z = 0
x + y + z = az x + y + (1 − a)z = 0
Si vede subito che le prime due equazioni di (i) sono indipendenti, qualunque
sia a. Quindi possiamo ‘ripulire’ (i) cosı̀:
x + y = ax
(ii)
y + z = ay
La soluzione di (ii) è
(iii) L((1, (a − 1), (a − 1)2 ))
430 Capitolo 22
Questo è dunque l’ autospazio di a. Possiamo ora calcolare a. Risulta
PA (t) = t3 − 3t2 + 2t − 1
Essendo di terzo grado, il polinomio PA ha almeno uno zero in R. Studiando
il suo andamento, si vede subito che questo polinomio si annulla una sola volta
in R, in un punto a compreso tra 2 e 3 e che a è una soluzione semplice dell’
equazione PA (t) = 0. Quindi a è l’ unico autovalore di A (in R) ed il suo
autospazio ha dimensione 1 (come già sappiamo da (iii)). Col metodo suggerito
nel Volume 2 (Capitolo 6, §§6.5.2–6.5.4) possiamo trovare due stime a1 ed a2
di a, rispettivamente per difetto e per eccesso, con a2 − a1 minore di un certo δ
prefissato. Sostituendo a1 ed a2 ad a in (iii) troviamo non il vero autospazio,
ma due sue ‘approssimazioni’:
L((1, (a1 − 1), (a1 − 1)2 )), L((1, (a2 − 1), (a2 − 1)2 ))
L’ autospazio vero è localizzato tra queste due rette. L’ angolo da esse formato
−2
diminuisce al diminuire√ di δ. Per esempio, si può vedere che, se δ < 10 , quest’
angolo è minore di δ/ 2.
Per esempio, a1 = 13/6 ed a2 = 2, 17 sono stime di a, per difetto e per
eccesso, approssimate per meno di 1/250. Quindi l’ autospazio di a è situato
tra le due rette generate dai vettori
7 49 117 13689
(1, , ), (1, , )
6 36 100 10000
L’ angolo tra questi due vettori è minore di 1/350 (che è circa 100 ).
Se invece sostituiamo subito a1 o a2 nel sistema (i) al posto di a, senza
prima ripulirlo, ci ritroviamo con un sistema determinato (infatti a non è nè
a1 nè a2 ) e otteniamo solo (0, 0, 0) come soluzione, cioè nulla; a meno che, per
una fortunata coincidenza, l’ errore commesso nel sostituire a1 o a2 ad a in (i)
non venga poi compensato da arrotondamenti nei calcoli eseguiti per risolvere
il sistema cosı̀ ottenuto.
22.2 Casi particolari ed esempi
Anche in questa sezione V sta ad indicare uno spazio vettoriale di dimensione
finita n su un dato campo K.
22.2.1 Omotetie
Un’ omotetia di V di ragione a ha a come suo unico autovalore. Il suo polino-
mio caratteristico è (t − a)n e la molteplicità di a è n. Analogamente, tn è il
polinomio caratteristico della trasformazione nulla e 0 è il suo unico autovalore,
di molteplicità n.
22.2. CASI PARTICOLARI ED ESEMPI 431
22.2.2 Trasformazioni diagonalizzabili
Sia ϕ una trasformazione lineare da V a V rappresentata da una matrice dia-
gonale rispetto a qualche base di V (cioè, V è somma diretta degli autospazi
di ϕ; Capitolo 17, Sezione 17. 3). Siano a1 , a2 , ..., ak gli autovalori di ϕ ed
Pk
n1 , n2 , ..., nk le dimensioni dei relativi autospazi. Allora n = i=1 ni e
k
Y
Pϕ (t) = (t − ai )ni
i=1
Qui la molteplicità di un autovalore è uguale alla dimensione del suo autospazio.
Nel Capitolo 17 si sono già considerati vari esempi di questo tipo. Li richiamo
brevemente.
1. Dato un sottospazio lineare A = 6 {O} di V di dimensione m < n ed un
B B
suo complementare B, consideriamo la proiezione πA . La trasformazione πA è
diagonalizzabile. I suoi autovalori sono 1 e 0, con autospazi rispettivamente A
e B e molteplicità m ed n − m. Il suo polinomio caratteristico è (t − 1)m tn−m .
2. Dato un iperpiano lineare S di Vn (R), sia σ la riflessione attorno ad S. La
trasformazione σ è diagonalizzabile. I suoi autovalori sono 1 e −1, con autospazi
rispettivamente S e S ⊥ e molteplicità n − 1 ed 1. Il suo polinomio caratteristico
è (t − 1)n−1 (t + 1).
3. Dato in Vn (L) (n ≥ 3) un sottospazio lineare A di codimensione 2, sia ρ la
rotazione di angolo π ed asse A. La trasformazione ρ è diagonalizzabile. I suoi
autovalori sono 1 e −1, con autospazi rispettivamente A e A⊥ e molteplicità
n − 2 e 2. Il suo polinomio caratteristico è (t − 1)n−2 (t + 1)2 .
22.2.3 Matrici triangolari
Sia A una matrice di Mn (K) di forma triangolare e siano a1 , a2 , ..., an i termini
sulla sua diagonale principale. Allora
n
Y
PA (t) = (t − ai )
i=1
(Capitolo 21, Corollario 21.17). In questo caso PA è completamente riducibile
e gli scalari a1 , a2 , ..., an sono le soluzioni dell’ equazione caratteristica di A.
Pertanto {a1 , a2 , ..., an } è l’ insieme degli autovalori di A (come già si era dimo-
strato nel Capitolo 17, Corollario 17.11). La molteplicità di un autovalore di A
è il numero di volte che esso ricorre nella sequenza (a1 , a2 , ..., an ).
432 Capitolo 22
22.2.4 Configurazioni a blocchi
Sia A una matrice conformata a blocchi in diagonale, A = dg(A1 , A2 , ..., Am ).
(Quindi, A rappresenta la somma diretta delle trasformazioni rappresentate
dalle matrici A1 , A2 , ..., An ; Capitolo 17, §17.1.3). Si ha
m
Y
PA (t) = PAk (t)
k=1
per il Corollario 21.20 del Capitolo 21. Quindi l’ insieme degli autovalori di A
è l’ unione degli insiemi di autovalori delle matrici A1 , A2 ,..., Am .
Più in generale, supponiamo che la matrice A sia formata da blocchi disposti
‘a triangolo’, cosı̀:
A1 ∗ ∗ ..... ∗ ∗
O A2 ∗ ..... ∗ ∗
O O A3 ..... ∗ ∗
... ... ... ..... ... ...
O O O ..... Am−1 ∗
O O O ..... O Am
oppure cosı̀
A1 O O ..... O O
∗ A2 O ..... O O
∗ ∗ A3 ..... O O
... ... ... ..... ... ...
∗ ∗ ∗ ..... Am−1 O
∗ ∗ ∗ ..... ∗ Am
Qm
ove le matrici A1 , A2 ,..., Am sono quadrate. Allora PA (t) = k=1 PAk (t), per
la Proposizione 21.18 del Capitolo 21. Per esempio, sia
a B
A=
O C
ove a ∈ K, B è un vettore Vn−1 (K), scritto in riga, C ∈ Mn−1 (K) ed O sta ad
indicare il vettore nullo di Vn−1 (K), scritto in colonna. Allora
PA (t) = (t − a)PC (t)
Sicchè a è un autovalore di A (come già si era visto nel Capitolo 17, §17.1.3) e
gli eventuali altri autovalori di A sono quelli di C.
22.2.5 Rotazioni
Rotazioni in V2 (R). Sia ρ una rotazione di V2 (R) di centro O ed angolo θ. La
seguente matrice rappresenta ρ rispetto ad una qualunque base ortonormale di
V2 (R) (Capitolo 13, §13.6.6):
cos θ − sin θ
R(θ) =
sin θ cos θ
22.2. CASI PARTICOLARI ED ESEMPI 433
Quindi tr(ρ) = 2 cos θ e det(ρ) = 1 (cfr. anche Capitolo 21, §21.5.2). Pertanto
Pρ (t) = t2 − 2t cos θ + 1
Supponiamo che θ non sia un multiplo di π. Quindi ρ non ha autovettori e l’
equazione Pρ (t) = 0 non ha soluzioni in R. Però essa ha soluzioni in C. Le sue
soluzioni in C sono eiθ (= cos θ + i sin θ) ed e−iθ (= cos θ − i sin θ). Dunque eiθ
ed e−iθ sono gli autovalori di R(θ) in C. Cioè, indicata con ρC la trasformazione
lineare di V2 (C) a V2 (C) rappresentata da R(θ) rispetto alla base dei versori,
eiθ ed e−iθ sono gli autovalori di ρC . (Con la terminologia che introdurremo in
§22.6.1, la trasformazione ρC è l’ estensione di ρ a C.)
L’ autospazio di ρC relativo ad eiθ è la soluzione generale in V2 (C) della
seguente equazione lineare omogenea in due incognite:
(a) x cos θ − y sin θ = (cos θ + i sin θ)x
Invece l’ autospazio relativo ad eiθ è la soluzione generale dell’ equazione
(b) x cos θ − y sin θ = (cos θ − i sin θ)x
La soluzione dell’ equazione (a) è la retta generata da (1, −i), mentre la retta
generata da (1, i) è la soluzione dell’ equazione (b). Quindi queste due rette
sono gli autospazi di ρC . (Si noti che essi non dipendono da θ.) Ne segue che in
M2 (C) la matrice R(θ) è simile alla seguente matrice diagonale
iθ
iθ −iθ e 0
dg(e , e ) =
0 e−iθ
Precisamente, C −1 R(θ)C = dg(eiθ , e−iθ ) ove
1 1
C=
−i i
Naturalmente, per passare da R(θ) a dg(eiθ , e−iθ ) potremmo anche usare una
qualunque altra matrice non nulla proporzionale a C. (Per esempio, la matrice
2−1/2 C, che risulta unitaria.)
Rotazioni in Vn (R). Sia ρ una rotazione lineare di Vn (R) (ove n ≥ 3), sia A
il suo asse e sia θ il suo angolo di rotazione. La seguente matrice rappresenta ρ
rispetto ad una base di V formata da una base di A e da una base ortonormale
di A⊥ (Capitolo 13, §13.6.6):
1 0 ..... 0 0 0
0 1 ..... 0 0 0
... ... ..... ... .... ....
A= 0 0 ...... 1
0 0
0 0 ..... 0 cos θ − sin θ
0 0 ..... 0 sin θ cos θ
434 Capitolo 22
(Capitolo 13, §13.6.6). Quindi
Pρ (t) = (t − 1)n−2 (t2 − 2t cos θ + 1)
Supponiamo che θ non sia un multiplo di π. Allora 1 è l’ unico autovalore di ρ,
il suo autospazio è A e la sua molteplicità è n − 2 (= dim(A)).
Passiamo da R a C, come si è fatto nel caso di V2 (R). In C l’ equazione
Pρ (t) = 0 acquista le due soluzioni eiθ ed e−iθ e possiamo diagonalizzare A in
Mn (C) usando la seguente matrice
1 0 ..... 0 0 0
0 1 ..... 0 0 0
... ... ..... ... ... ...
C= 0 0 ...... 1 0 0
0 0 ..... 0 1 1
0 0 ..... 0 i −i
Otteniamo C −1 AC = dg(1, 1, ..., 1, eiθ , e−iθ ). In definitiva: ogni rotazione linea-
re di Vn (R) può sempre diagonalizzarsi in Vn (C).
Ritorneremo su questo argomento in §22.6.4, dove dimostreremo che la stessa
cosa vale per ogni trasformazione ortogonale di Vn (R).
22.3 Esercizi
Esercizio 22.1 Sia D la trasformazione lineare di Pn (K) in sè che per k =
0, 1, ..., n porta xk in kxk−1 (Capitolo 13, Esercizio 13.41). Qual’ è il suo
polinomio caratteristico ?
Risposta. tn+1 . Quindi 0 è l’ unico autovalore di D, di molteplicità n + 1. Il
suo autospazio è L(1), di dimensione 1.
Esercizio 22.2 Dato a ∈ K, sia Ta la trasformazione lineare di Pn (K) in sè
che per k = 0, 1, ..., n porta xk in (x + a)k (Capitolo 13, Esercizio 13.42). Qual’
è il suo polinomio caratteristico ?
Risposta. (t−1)n+1 . Quindi 1 è l’ unico autovalore di Ta , di molteplicità n+1.
Il suo autospazio è L(1), di dimensione 1.
Esercizio 22.3 Sia dim(V) = n < ∞ e ϕ ∈ L(V) sia rappresentata rispetto ad
un’ opportuna base E = (Ei )ni=1 da una matrice triangolare di questa forma:
a b1 ∗ ∗ ..... ∗ ∗
0 a b1 ∗ ..... ∗ ∗
0 0 a b1 ..... ∗ ∗
0 0 0 a ..... ∗ ∗
... ... ... ... ..... ... ...
0 0 0 0 ..... a bn−1
0 0 0 0 ..... 0 a
22.3. ESERCIZI 435
Risulta Pϕ (t) = (t − a)n e lo scalare a è l’ unico autovalore di ϕ, di molteplicità
n. Si dimostri che, se nessuno degli scalari b1 , b2 ,..., bn è 0, allora l’ autospazio
di a è L(E1 ).
Nota. Le matrici di Jordan, considerate nell’ Esercizio 17.20 del Capitolo 17,
sono un caso particolare di quelle qui considerate.
Esercizio 22.4 Sia D l’ operatore di derivazione in C∞ (R) e, dati tre distinti
numeri reali a, b, c, sia V il sottospazio lineare di C∞ (R) generato dalle seguenti
funzioni:
x2 ax x2 bx x3 bx
eax , xeax , 2 e , ebx , xebx , 2 e , 3! e , ecx , xecx .
L’ insieme di queste funzioni è indipendente (Capitolo 16, Lemma 16.33). Quin-
di dim(V) = 9. Inoltre, il sottospazio V è D-invariante. Sia DV l’ azione indotta
da D su V. Si calcolino gli autovalori e gli autovettori di DV .
Soluzione. La seguente matrice rappresenta DV rispetto alla base formata
dalle nove funzioni sopra elencate:
a 1 0 0 0 0 0 0 0
0 a 1 0 0 0 0 0 0
0 0 a 0 0 0 0 0 0
0 0 0 b 1 0 0 0 0
0 0 0 0 b 1 0 0 0
0 0 0 0 0 b 1 0 0
0 0 0 0 0 0 b 0 0
0 0 0 0 0 0 0 c 1
0 0 0 0 0 0 0 0 c
Quindi a, b e c sono gli autovalori di DV , di molteplicità rispettivamente 3, 4 e
2. I loro autospazi sono le rette L(eax ), L(ebx ) ed L(ecx ) (cfr. Esercizio 22.3).
Esercizio 22.5 Data D come nell’ Esercizio 22.4 e dati m distinti numeri reali
a1 , a2 ,..., am ed m numeri naturali n1 , n2 ,..., nm , poniamo
xk ai x
fi,k (x) = e , (i = 1, 2, ..., m, k = 0, 1, ..., ni )
k!
Pm
L’ insieme di queste i=1 (1 + ni ) funzioni è indipendente in C∞ (R) (Capitolo
16, Lemma 16.33). Sia V il sottospazio lineare di C∞ (R) da esse generato.
Esso è D-invariante. Si calcolino gli autovalori e gli autovettori dell’ azione DV
indotta da D su V. Qm
Risposta. Il polinomio caratteristico di DV è i=1 (t − ai )ni +1 . Quindi gli
autovalori di DV sono gli scalari ai (i = 1, 2, ..., m), con molteplicità ni + 1. L’
autospazio di ai è la retta L(eai x ).
Esercizio 22.6 Sia D l’ operatore di derivazione in C∞ (R), come negli Esercizi
22.4 e 22.5. Dati a, b ∈ R con b 6= 0, poniamo
f (x) = eax cos bx, g(x) = eax sin bx
436 Capitolo 22
Il sottospazio lineare L(f, g) di C∞ (R) è D-invariante. L’ azione indotta da D
su di esso ammette autovalori ?
Risposta. No. La matrice che rappresenta questa azione rispetto ad (f, g) è
a b
−b a
Quindi il polinomio caratteristico è (t − a)2 + b2 , che non ha zeri in R. (I suoi
zeri in C sono a + ib ed a − ib.)
Esercizio 22.7 Sia D l’ operatore di derivazione in C∞ (R), come negli Esercizi
22.4–22.6. Dati a, b ∈ R con b 6= 0, le seguenti quattro funzioni
eax cos bx, eax sin bx, xeax cos bx, xeax sin bx
sono indipendenti (Capitolo 17, Teorema 17.13). Il sottospazio lineare di C∞ (R)
da esse generato, diciamolo V, è D-invariante. L’ azione indotta da D su V
ammette autovalori ?
Risposta. No. La matrice che rappresenta questa azione rispetto alla base di
V formata dalle quattro funzioni sopra elencate è
a b 1 0
−b a 0 1
0 0 a b
0 0 −b a
Quindi il polinomio caratteristico è ((t − a)2 + b2 )2 e non ha zeri in R. (I suoi
zeri in C sono a + ib ed a − ib, entrambi di molteplicità 2.)
Esercizio 22.8 La funzione che ad ogni matrice M ∈ Mn (K) associa la sua
trasposta M t (Capitolo 18, Sezione 18.4) è una trasformazione lineare di Mn (K)
in sè. Se ne calcoli il polinomio caratteristico.
Risposta. (t−1)n(n+1)/2 (t+1)n(n−1)/2 . Cfr. Capitolo 18, Esercizi 18.14–18.17.
Esercizio 22.9 Sia Jn (a, b) come nell’ Esercizio 13.26 del Capitolo 13 (cfr.
anche Capitolo 17, Esercizio 17.22 e Capitolo 21, Esercizio 21.8). Si calcoli il
polinomio caratteristico di Jn (a, b).
Risposta. (t − a + b)n−1 (t − a + b − nb).
Esercizio 22.10 Dato uno spazio vettoriale V di dimensione finita n, sia ϕ ∈
L(V) di rango 1. Si dimostri che Pϕ (t) = tn−1 (t − a) per un opportuno scalare
a e che a = 0 se e solo se Im(ϕ) ⊆ Ker(ϕ).
Soluzione. Siccome Im(ϕ) è una retta, i suoi vettori non nulli sono portati da
ϕ in vettori ad essi proporzionali e quindi sono autovettori di ϕ. Inoltre Ker(ϕ)
è un iperpiano (per ‘nullità più rango’; Capitolo 16, Teorema 16.13) e pertanto,
per la Proposizione 22.4, la molteplicità di 0 in quanto autovalore di ϕ è almeno
n − 1. Sicchè Pϕ (t) = tn−1 (t − a) per qualche a ∈ K. Se a 6= 0, la retta Im(ϕ) è
l’ autospazio di ϕ relativo ad a ed Im(ϕ) ∩ Ker(ϕ) = {O}. Supponiamo invece
22.4. RIDUZIONE A FORMA TRIANGOLARE 437
che a = 0. Allora 0 è l’ unico autovalore di ϕ. Quindi ϕ(X) = O per ogni
X ∈ Im(ϕ), cioè Im(ϕ) ⊆ Ker(ϕ).
Nota. Data una base E di V, sia B t X = 0 l’ equazione cartesiana dell’ iperpiano
Ker(ϕ) rispetto ad E e sia A la n-pla delle coordinate rispetto ad E di un
generatore di Im(ϕ). La matrice che rappresenta ϕ rispetto ad E è M = cAB t
(= cA ⊗ B) per qualche scalare c 6= 0 (Capitolo 15, Esercizio 15.30). Risulta
ϕ(A) = M A = c(AB t )A = cA(B t A). Quindi Pϕ (t) = tn−1 (t − cB t A).
22.4 Riduzione a forma triangolare
Anche in questa sezione V sta ad indicare un dato spazio vettoriale di dimensione
n < ∞ su un certo campo K e ϕ ∈ L(V).
Lemma 22.10 Se il polinomio caratteristico di ϕ è completamente riducibile,
allora esiste qualche base E di V tale che la matrice µE (ϕ) che rappresenta ϕ
rispetto ad E abbia forma triangolare superiore.
Dimostrazione. Supponiamo che Pϕ sia completamente riducibile, cioè:
(i.1) Pϕ (t) = (t − a1 )(t − a2 )...(t − an )
per opportuni scalari a1 , a2 , ..., an ∈ K, non necessariamente distinti tra loro.
Per il Teorema 22.2, lo scalare a1 è un autovalore di ϕ. Sia E1 un autovettore di
ϕ per a1 e siano E1,2 , E1,3 , ..., E1,n altri n − 1 vettori presi in modo da formare
assieme ad E1 una base di V. La matrice che rappresenta ϕ rispetto alla base
E1 = (E1 , E1,2 , E1,3 , ..., E1,n )
ha questa forma:
a1 B1
(ii.1)
O A1
ove B1 è un vettore di Vn−1 (K) scritto in riga, O è il vettore nullo di Vn−1 (K)
scritto in colonna ed A1 ∈ Mn−1 (K). Si ha
(iii.1) Pϕ (t) = (t − a1 )P1 (t)
ove P1 (t) = det(tI − A1 ) (§22.2.4). Indichiamo L(E1,2 , E1,3 , ..., E1,n ) con V1
e sia ψ1 la restrizione di ϕ a V1 . Risulta V = L(E1 ) ⊕ V1 e la matrice A1
L(E )
rappresenta la trasformazione ϕ1 = πV1 1 ψ1 , intesa come trasformazione da
V1 a V1 (Capitolo 15, Proposizione 15.10). Il polinomio caratteristico di ϕ1
è P1 (t). Da (i.1) e (iii.1) e per legge di cancellazione (Volume 2, Capitolo 5,
Proposizione 5.8), risulta
(i.2) P1 (t) = (t − a2 )(t − a3 )...(t − an )
438 Capitolo 22
Per il Teorema 22.2, lo scalare a2 è un autovalore di ϕ1 . Sia E2 un autovettore di
ϕ1 per a2 e siano E2,3 , E2,4 , ..., E2,n altri n − 2 vettori presi in modo da formare
assieme ad E2 una base di V1 . Siccome V = L(E1 ) ⊕ V1 , la n-pla
E2 = (E1 , E2 , E2,3 , E2,4 , ..., E2,n )
è una base di V. Inoltre, ϕ(E2 ) = ψ1 (E2 ) e ψ1 (E2 ) − a2 E2 ∈ L(E1 ) perchè
L(E )
a2 E2 = ϕ1 (E2 ) = πV1 1 ψ1 (E2 ). Quindi la matrice che rappresenta ϕ rispetto
alla base E2 ha la forma seguente
a1 a1,2 B2,1
(ii.2) 0 a2 B2,2
O O A2
ove a1,2 ∈ K, B2,1 , B2,2 sono vettori di Vn−2 (K) (scritti in riga), O sta ad
indicare il vettore nullo di Vn−2 (K) (scritto in colonna) ed A2 ∈ Mn−2 (K). Si
ha
(iii.2) P (t) = (t − a1 )(t − a2 )P2 (t)
ove P2 (t) = det(tI − A2 ). Indichiamo L(E2,3 , E2,4 , ..., E2,n ) con V2 e sia ψ2 la
restrizione di ϕ a V2 . Risulta, V = L(E1 , E2 ) ⊕ V2 , la matrice A2 rappresenta la
L(E ,E )
trasformazione ϕ2 = πV2 1 2 ψ2 , intesa come trasformazione da V2 a V2 , e P2 (t)
è il polinomio caratteristico di ϕ1 . Da (i.2) e (iii.2) e per legge di cancellazione,
risulta
(i.3) P2 (t) = (t − a3 )(t − a4 )...(t − an )
Lo scalare a3 è un autovalore di ϕ2 . Sia E3 un autovettore di ϕ2 per a3 e siano
E3,4 , E3,5 , ..., E3,n altri n − 3 vettori presi in modo da formare assieme ad E3
una base di V2 . Siccome V = L(E1 , E2 ) ⊕ V1 , la n-pla
E3 = (E1 , E2 , E3 , E2,3 , E2,4 , ..., E2,n )
è una base di V. Inoltre, ϕ(E3 ) = ψ2 (E3 ) e ψ2 (E3 ) − a3 E3 ∈ L(E1 , E2 )
L(E ,E )
perchè a3 E3 = ϕ2 (E3 ) = πV2 1 2 ψ2 (E3 ). Quindi la matrice che rappresenta
ϕ rispetto alla base E3 ha la forma seguente
a1 a1,2 a1,3 B3,1
0 a2 a2,3 B3,2
(ii.3)
0 0
a3 B3,2
O O O A3
ove a1,3 , a2,3 ∈ K, B3,1 , B3,2 , B3,3 sono vettori di Vn−3 (K) (scritti in riga), O sta
ad indicare il vettore nullo di Vn−3 (K) (scritto in colonna) ed A3 ∈ Mn−3 (K).
Risulta
(iii.3) P (t) = (t − a1 )(t − a2 )(t − a3 )P3 (t)
ove P3 (t) = det(tI − A3 ). Indichiamo L(E3,4 , E3,5 , ..., E3,n ) con V3 e sia ψ3 la
restrizione di ϕ a V3 ... E tutto si ripete. Alla fine, otteniamo una base
En = (E1 , E2 , E3 , ..., En )
22.5. FORMA NORMALE DI JORDAN 439
rispetto alla quale la matrice rappresentativa di ϕ ha forma triangolare superio-
re. 2
Da questo lemma e dal Teorema Fondamentale dell’ Algebra (Volume 2, Capitolo
6) si ottiene subito questo:
Teorema 22.11 Sia K = C. Allora, qualunque sia ϕ ∈ L(V), esiste sempre
qualche base E di V tale che µE (ϕ) abbia forma triangolare superiore.
Nota. Nella dimostrazione del Lemma 22.10 è anche implicito che, se Pϕ è
completamente riducibile (in particolare, se K = C), allora ogni insieme linear-
mente indipendente di autovettori di ϕ è contenuto in una base di V rispetto
alla quale ϕ è rappresentata da una matrice triangolare superiore.
22.5 Forma normale di Jordan
22.5.1 Blocchi di Jordan
Dato uno scalare a, indichiamo con Jm (a) la matrice di Jordan (Capitolo 17,
Esercizio 17.20) di ordine m con a sulla diagonale principale:
a 1 0 ..... 0 0
0 a 1 ..... 0 0
0 0 a ..... 0 0
... ... ... ..... ... ...
0 0 0 ..... a 1
0 0 0 ..... 0 a
Lo scalare a è l’ unico autovalore di Jm (a) (§22.2.3; anche Capitolo 17, Esercizio
17.20) e, se ϕ ∈ Lm (K) è rappresentata da Jm (a) rispetto ad una data base
(Ei )m
i=1 di Vm (K), allora L(E1 ) è l’ unico autospazio di ϕ (Esercizio 22.3; anche
Capitolo 17, Esercizio 17.20). Chiamiamo Jm (a) matrice di Jordan di autovalore
a ed ordine m.
Una matrice quadrata A si dice conformata alla Jordan se è conformata a
blocchi in diagonale, ove i blocchi sono matrici di Jordan, detti blocchi di Jordan
di A.
440 Capitolo 22
22.5.2 Esempi
1. La seguente matrice (cfr. Esercizio 22.5) è conformata alla Jordan
a 1 0 0 0 0 0 0 0
0 a 1 0 0 0 0 0 0
0 0 a 0 0 0 0 0 0
0 0 0 b 1 0 0 0 0
0 0 0 0 b 1 0 0 0
0 0 0 0 0 b 1 0 0
0 0 0 0 0 0 b 0 0
0 0 0 0 0 0 0 c 1
0 0 0 0 0 0 0 0 c
Essa consiste dei blocchi J3 (a), J4 (b) e J2 (c). Supponiamo che gli scalari a, b, c
siano a due a due distinti. Allora gli autospazi della trasformazione lineare da
V9 (K) a V9 (K) rappresentata da questa matrice rispetto ai versori U1 , U2 , ..., U9
sono L(U1 ) (per a), L(U4 ) (per b) ed L(U8 ) (per c).
2. Anche la seguente matrice è conformata alla Jordan:
a 1 0 0 0 0 0 0 0
0 a 0 0 0 0 0 0 0
0 0 a 0 0 0 0 0 0
0 0 0 b 1 0 0 0 0
0 0 0 0 b 0 0 0 0
0 0 0 0 0 b 1 0 0
0 0 0 0 0 0 b 0 0
0 0 0 0 0 0 0 c 0
0 0 0 0 0 0 0 0 c
Essa consiste di sei blocchi: J2 (a), J1 (a), J2 (b), J2 (b), J1 (c) e J1 (c). Supponia-
mo che gli scalari a, b, c siano a due a due distinti. Allora gli autospazi della
trasformazione lineare da V9 (K) a V9 (K) rappresentata da questa matrice rispet-
to ai versori U1 , U2 , ..., U9 sono L(U1 , U3 ) (per a), L(U4 , U6 ) (per b) ed L(U8 , U9 )
(per c).
3. Le matrici diagonali sono casi particolari di matrici conformate alla Jordan,
con tutti i blocchi di ordine 1.
22.5.3 La forma normale di Jordan
Nel teorema seguente V è uno spazio vettoriale di dimensione finita sul campo
C dei numeri complessi e ϕ è una trasformazione lineare da V a V.
Teorema 22.12 Esiste sempre una qualche base E di V tale che µE (ϕ) sia
conformata alla Jordan. Inoltre, se F è un’ altra base con µF (ϕ) conformata
alla Jordan, allora in µE (ϕ) ed in µF (ϕ) compaiono gli stessi blocchi di Jordan
e ciascuno lo stesso numero di volte.
22.5. FORMA NORMALE DI JORDAN 441
Una matrice che rappresenta ϕ, se è conformata alla Jordan, la si dice forma
normale di Jordan per ϕ. Il Teorema 22.12 dice dunque che una trasformazione
lineare da V a V ammette sempre forma normale di Jordan e che questa è unica,
salvo permutarne i blocchi.
Dimostreremo il Teorema 22.12 alla fine di questa sottosezione, deducendolo
da una serie di lemmi che ora enuncerò.
Lemmi su trasformazioni nilpotenti. In tutti i lemmi seguenti, salvo gli
ultimi due, come campo di scalari possiamo prendere un qualunque campo K.
Lemma 22.13 Sia k un numero naturale positivo. Per i, j = 1, 2, ..., m, il
coefficiente di (Jm (a))k di posto (i, j) è nullo quando j è minore di i o maggiore
k
di i + k, mentre è (j−i )ak+i−j quando i ≤ j ≤ i + k.
Schema di dimostrazione. Per induzione su k. Per il passo induttivo basta
eseguire il prodotto (Jm (a))k ·Jm (a). 2
Rimando al Capitolo 14 (§14.2.4; anche Volume 2, Capitolo 8) per la definizione
di nilpotenza. Modificando un po’ le convenzioni stabilite nel Capitolo 8 del
Volume 2, stabiliamo che anche la trasformazione (la matrice) nulla vada an-
noverata tra le trasformazioni (le matrici) nilpotenti, con esponente 1. Cosı̀, le
trasformazioni (o le matrici) nilpotenti non nulle sono quelle di esponente > 1.
Dal Lemma 22.13 si ottiene subito questo:
Corollario 22.14 La matrice Jm (a) è nilpotente se e solo se a = 0. L’ espo-
nente della matrice nilpotente Jm (0) è m.
Anche il seguente lemma è facile da dimostrare. (Un suo caso particolare è
considerato nell’ Esercizio 15.9 del Capitolo 15.)
Lemma 22.15 Sia M ∈ Mm (K) di forma triangolare, superiore o inferiore. La
matrice M è nilpotente se e solo se tutti i termini sulla sua diagonale principale
sono nulli. Se M è nilpotente, allora M m = O, quindi il suo esponente non
supera m.
Nei quattro lemmi che seguono W è uno spazio vettoriale di dimensione finita
m e ψ ∈ L(W).
Lemma 22.16 Supponiamo che ψ sia nilpotente di esponente k > 1. Allora
ψ(Ker(ψ i )) ⊆ Ker(ψ i−1 ) ⊂ Ker(ψ i ), (i = 1, 2, ..., k)
(ovviamente Ker(ψ 0 ) = {O} e Ker(ψ k ) = W).
Schema di dimostrazione. Le inclusioni ψ(Ker(ψ i )) ⊆ Ker(ψ i−1 ) ⊆ Ker(ψ i )
non sono difficili da dimostrare. Che Ker(ψ i−1 ) 6= Ker(ψ i ) lo si dimostra per
assurdo: da Ker(ψ i−1 ) = Ker(ψ i ) si dedurrebbe Ker(ψ i ) = Ker(ψ i+1 ), e poi
Ker(ψ i+1 ) = Ker(ψ i+2 ) e cosı̀ via; sicchè Ker(ψ i ) = Ker(ψ k ) = W, il chè è
impossibile. 2
442 Capitolo 22
Lemma 22.17 Sia ψ ∈ L(W) nilpotente di esponente k > 1. Per ogni i =
1, 2, ..., k − 1, sia Xi un complementare di Ker(ψ i ) in Ker(ψ i+1 ). La restrizione
di ψ a Xi è iniettiva e ψ(Xi ) è contenuta in un complementare di Ker(ψ i−1 )
in Ker(ψ i ). (Quindi la codimensione di Ker(ψ i ) in Ker(ψ i+1 ) non supera la
codimensione di Ker(ψ i−1 ) in Ker(ψ i ).)
Schema di dimostrazione. Sia X ∈ Xi . Se ψ(X) ∈ Ker(ψ i−1 ), allora X ∈
Ker(ψ i ), quindi X = O. 2
Lemma 22.18 Sia ψ ∈ L(W) nilpotente e non nulla. Allora è possibile trovare
una base di W rispetto a cui ψ sia rappresentata da una matrice in forma di
Jordan (con tutti i blocchi di autovalore 0, perchè ψ è nilpotente).
Schema di dimostrazione. Sia k l’ esponente di ψ e sia X1 un complementare di
Ker(ψ k−1 ). Per il Lemma 22.17, il sottospazio ψ(X1 ) è contenuto in un com-
plementare X2 di Ker(ψ k−2 ) in Ker(ψ k−1 ); analogamente, ψ(X2 ) è contenuto
in un complementare X3 di Ker(ψ k−3 ) in Ker(ψ k−2 ), ecc. Si ha X1 6= {O} per
il Lemma 22.16. Sia E1 una base di X1 . Per il Lemma 22.17, l’ insieme ψ(E1 )
è contenuto in una base E2 di X2 , l’ insieme ψ(E2 ) è contenuto in una base E3
di X3 ; e cosı̀ via.
Indichiamo con E1,1 , E1,2 , ... i vettori di E1 , con E2,1 , E2,2 , ... quelli di E2 \
ψ(E1 ), con E3,1 , E3,2 , ... quelli di E3 \ ψ(E2 ) e cosı̀ via. Con E indichiamo la
sequenza
E1,1 , ψ(E1,1 ), ψ 2 (E1,1 ), ....
E1,2 , ψ(E1,2 ), ψ 2 (E1,2 ), ....
..... ....... ....... ....
E2,1 , ψ(E2,1 ), ψ 2 (E2,1 ), ....
E2,2 , ψ(E1,2 ), ψ 2 (E2,2 ), ....
..... ....... ....... ....
E3,1 , ψ(E3,1 ), ψ 2 (E3,1 ), ....
E3,2 , ψ(E3,2 ), ψ 2 (E3,2 ), ....
..... ....... ....... ....
La matrice che rappresenta ψ rispetto ad E ha la forma desiderata. 2
Lemma 22.19 Sia K = C. Allora la trasformazione ψ è nilpotente se e solo
se 0 è il suo unico autovalore (di molteplicità necessariamente m). Se ψ è
nilpotente, allora ψ m = O, quindi il suo esponente non supera m.
(Questo segue subito dal Lemma 22.15 e dal Teorema 22.12.)
Nel lemma seguente e nel suo corollario V è uno spazio vettoriale di dimen-
sione finita n su C e ϕ ∈ L(V).
Lemma 22.20 Sia a un autovalore di ϕ di molteplicità m. Allora Ker((ϕ −
aI)m ) è ϕ-invariante, ha dimensione m e (t − a)m è il polinomio caratteristico
dell’ azione indotta da ϕ su Ker((ϕ − aI)m ). Inoltre, se b è un altro autovalore
di ϕ, di molteplicità r, allora Ker((ϕ − aI)m ) ∩ Ker((ϕ − bI)r ) = {O}.
22.5. FORMA NORMALE DI JORDAN 443
Schema di dimostrazione. Per il Teorema 22.12, esiste una base E = (Ei )ni=1
di V tale che la matrice µE (ϕ) abbia forma triangolare superiore e possiamo
scegliere E in modo che i coefficienti uguali ad a sulla diagonale principale di
µE (ϕ) siano proprio i primi m:
A ∗
µE (ϕ) =
0 B
ove
a ∗ ..... ∗ b1 ∗ ..... ∗
0 a ..... ∗ 0 b2 ..... ∗
A=
...
B=
... ..... ... ... ... ..... ...
0 0 ..... a 0 0 ..... bn−m
ove a 6= b1 , b2 , ..., bn−m . Per il Lemma 22.15, la matrice A − aIm è nilpotente di
esponente m. Quindi L(E1 , E2 , ..., Em ) ⊆ Ker((ϕ − aI)m ). Invece la matrice
(B − aIn−m )m è invertibile (Capitolo 15, Proposizione 15.6). Da ciò si deduce
che Ker((ϕ − aI)) ⊆ L(E1 , E2 , ..., Em ) e pertanto
Ker((ϕ − aI)) = L(E1 , E2 , ..., Em )
La prima parte del lemma è dimostrata. Sia poi b un’ altro autovalore di ϕ, di
molteplicità r. Siccome b 6= a, la matrice (A − bIm )r è invertibile. Quindi
Ker((ϕ − bI)r ) ∩ L(E1 , E2 , ..., Em ) = {O}
e pertanto Ker((ϕ − aI)m ) ∩ Ker((ϕ − bI)r ) = {O}. 2
Corollario 22.21 Siano a1 , a2 , ..., as gli autovalori di ϕ e siano m1 , m2 ,..., ms
le loro molteplicità. Allora V = ⊕si=1 Ker((ϕ − ai I)mi )
(Questo segue subito dal Lemma 22.20 e dal Teorema Fondamentale dell’ Alge-
bra.)
Dimostrazione del Teorema 22.12. Siano a1 , a2 , ..., as gli autovalori di ϕ
e siano m1 , m2 , ..., ms le loro molteplicità. Risulta V = ⊕si=1 Ker((ϕ − ai I)mi )
mi
per il Corollario 22.21. Quindi, scelta Ss una base Ei di Ker((ϕ − ai I) ) per
ogni i = 1, 2, ..., s, l’ insieme E = i=1 Ei è una base di V. Per il Lemma
22.20, tutti i sottospazi Ker((ϕ − ai I)mi ) sono ϕ-invarianti. Quindi µE (ϕ) =
dg(A1 , A2 , ..., As ) ove, detta ϕi l’ azione indotta da ϕ su Ker((ϕ − ai I)mi ), la
matrice Ai rappresenta ϕi rispetto ad Ei . Per il Lemma 22.18, possiamo sempre
scegliere Ei in modo che Ai − ai I sia conformata alla Jordan con tutti i blocchi
di autovalore 0. Quindi con quella scelta di Ei la matrice Ai risulta conformata
alla Jordan, con tutti i blocchi di autovalore ai .
Con ciò si è provato che ϕ può sempre rappresentarsi in forma normale di
Jordan. Tralascio la dimostrazione del fatto che le forme normali di Jordan di
ϕ differiscono solo per l’ ordine in cui sono presi i blocchi.
444 Capitolo 22
22.5.4 Autospazi e blocchi di Jordan
Come nel Teorema 22.12, nella seguente proposizione ϕ ∈ L(C), ove V è uno
spazio vettoriale di dimensione n < ∞ sul campo C. Indichiamo con Jϕ la forma
normale di Jordan di ϕ. Dato un autovalore a di ϕ, sia k il numero di blocchi di
Jordan con autovalore a che compaiono in Jϕ e siano h1 , h2 ,..., hk i loro ordini.
Pk
Ovviamente, m = i=1 hi è la molteplicità di a.
Sia E = (Ei )ni=1 una base di V con µE (ϕ) = Jϕ . Possiamo sempre supporre
di avere ordinato i suoi vettori in modo che
L(E1 , E2 , ..., Em ) = Ker((ϕ − aI)m )
Vale a dire, in Jϕ i k blocchi di autovalore a compaiono per primi. Il seguente
lemma non è difficile da dimostrare. (L’ abbiamo già applicato negli esempi dati
in §22.5.2, senza dirlo.)
Lemma 22.22 Ker(ϕ−aI) = L(E1 , Eh1 +1 , Eh1 +h2 +1 , ..., Eh1 +h2 +...+hk−1 +1 ).
Quindi,
Proposizione 22.23 k = dim(Ker(ϕ − aI)).
In certi casi basta conoscere gli autovalori di ϕ, le loro molteplicità e le di-
mensioni dei loro autospazi per ricostruire Jϕ . Per esempio, supponiamo che
ϕ ∈ L8 (C) abbia tre autovalori distinti a, b, c, di molteplicità rispettivamente 3,
3 e 2 e supponiamo che i loro autospazi abbiano dimensione rispettivamente 2,
1 e 2. Allora in Jϕ compaiono due blocchi di autovalore a, di ordini necessa-
riamente 2 ed 1, un solo blocco di autovalore b, di ordine 3, e due blocchi di
autovalore 1, entrambi di ordine 1. Cioè
a 1 0 0 0 0 0 0
0 a 0 0 0 0 0 0
0 0 a 0 0 0 0 0
0 0 0 b 1 0 0 0
Jϕ =
0 0 0 0 b 1 0 0
0 0 0 0 0 b 0 0
0 0 0 0 0 0 c 0
0 0 0 0 0 0 0 c
22.5.5 Il polinomio minimo
Ferme le ipotesi di §22.5.4, siano
Ps a1 , a2 , ..., as gli autovalori
Qs di ϕ ed m1 , m2 , ..., ms
le loro molteplicità. Quindi i=1 mi = n e Pϕ (t) = i=1 (t − ai )mi .
Sia E = (Ei )ni=1 una base di V tale che µE (ϕ) = Jϕ , ove Jϕ sta ad indicare
la forma normale di Jordan di ϕ, come in §22.5.4. Possiamo sempre supporre
di avere ordinato i vettori di E in modo che in Jϕ compaiano prima i blocchi di
autovalore a1 , poi quelli di autovalore a2 , poi quelli di autovalore a3 , e cosı̀ via.
22.5. FORMA NORMALE DI JORDAN 445
Per ogni i = 1, 2, ..., s, sia ki il numero di blocchi di Jϕ con autovalore ai e
Pki
siano hi,1 , hi,2 , ..., hi,ki i loro ordini. Quindi mi = j=1 hi,j . Per j = 1, 2, ..., ki
poniamo
ui,j = m1 + m2 + ... + mi−1 + hi,1 + hi,2 + ... + hi,j−1 + 1
Ei,j = {Eui,j , Eui,j +1 , ..., Eui,j +hi,j −1 }
Il sottospazio lineare L(Ei,j ) è ϕ-invariante e, detta ϕi,j l’ azione indotta da
ϕ su di esso, la matrice che rappresenta ϕi,j rispetto ad Ei,j è il j-esimo tra i
blocchi di Jϕ di autovalore ai . Risulta
ϕ = ⊕(ϕi,j | i = 1, 2, ..., s, j = 1, 2, ..., ki )
Quindi, per ogni r = 1, 2, ..., s si ha che:
(i) ϕ − ar I = ⊕(ϕi,j − ar I | i = 1, 2, ..., s, j = 1, 2, ..., ki )
Sk i
Analogamente, posto Ei = j=1 Ei,j e indicata con ϕi l’ azione indotta da ϕ su
L(Ei ), risulta ϕi = ⊕kj=1
i
ϕi,j . Quindi possiamo riscrivere la (i) cosı̀:
(ii) ϕ − ar I = ⊕si=1 (ϕi − ar I)
Per il Corollario 22.14, la trasformazione ϕi,j −ai I è nilpotente di esponente hi,j .
Quindi, indicato con hi il massimo tra hi,1 , hi,2 , ..., hi,ki , risulta (ϕi,j − ai I)hi =
O per ogni i = 1, 2, ..., s e per ogni j = 1, 2, ..., ki . Pertanto (ϕi − ai I)hi = O.
Invece ϕr − ai I è invertibile, per ogni r 6= i. Dal fatto che (ϕi − ai I)hi = O e
da (ii) segue che
s
Y s
Y
(ϕ − ai I)hi = O (quindi anche Pϕ (ϕ) = (ϕ − ai I)mi = O)
i=1 i=1
Qs hi
Il polinomio i=1 (t − ai ) è detto polinomio minimo di ϕ (o anche polinomio
di Cayley-Hamilton di ϕ). Lo indicheremo col simbolo Pbϕ .
Siccome 1 ≤ hi ≤ mi per ogni Qi = 1, 2, ..., s, il polinomio minimo Pbϕ divide
s
il polinomio caratteristico Pϕ (= i=1 (t − ai )mi ) ed ha esattamente gli stessi
Qs
zeri di Pϕ ; dunque Pbϕ e Pϕ hanno la stessa parte separabile: i=1 (t − ai ).
Proposizione 22.24 La trasformazione ϕ è diagonalizzabile se e solo se il
polinomio Pbϕ è separabile.
(Infatti, ϕ è diagonalizzabile se e solo se hi = 1 per ogni i = 1, 2, ..., s.) Invece,
Pbϕ coincide con Pϕ se e solo se hi = mi per ogni i = 1, 2, ..., s, il chè è come
dire che ki = 1 per i = 1, 2, ..., s. Quindi, per la Proposizione 22.23,
Proposizione 22.25 Si ha Pbϕ = Pϕ se e solo se tutti gli autospazi di ϕ hanno
dimensione 1.
La denominazione “polinomio minimo” per Pbϕ è giustificata dalla seguente
proposizione:
446 Capitolo 22
Proposizione 22.26 Per ogni polinomio P a coefficienti in C, risulta P (ϕ) =
O se e solo se Pbϕ divide P .
Schema di dimostrazione. Limitiamoci alla parte “solo se”. (La parte “se” è
ovvia.) Supponiamo che P (ϕ) = 0. Sia Q il massimo comune divisore di P e
Pϕ (Volume 2, Capitolo 6). Allora Q(ϕ) = O per il Teorema 6.8 del Capitolo 6
del Volume 2.
Per assurdo, P non sia multiplo di Pbϕ . Allora Q è un divisore proprio di
Qs
Pbϕ . Quindi Q(t) = i=1 (t − ai )ri ove 0 ≤ ri ≤ hi per ogni i = 1, 2, ..., s ed
ri < hi per qualche i = 1, 2, ..., s. Da ciò, considerando che hi è il massimo tra
hi,1 , hi,2 ,..., hi,ki , si può dedurre che Q(ϕ) 6= O. 2
22.6 Diagonalizzazioni
22.6.1 Premessa
In questa sezione ci occuperemo di trasformazioni lineari di spazi euclidei, reali
o complessi. Spesso è utile reinterpretare le trasformazioni lineari di uno spazio
vettoriale reale come trasformazioni lineari di uno spazio vettoriale complesso.
Per esempio, cosı̀ abbiamo fatto in §22.2.5 e nella Sezione 16.5 del Capitolo 16.
Spieghiamo meglio in cosa consista questa ‘reinterpretazione’.
Dato uno spazio vettoriale V su R, sia E = (Ei )i∈I una sua base e sia ε l’
isomorfismo da V a VI (R) che porta Ei nel ‘versore’ χi di VI (R) (cioè, nella
funzione caratteristica del sottoinsieme {i} di I; Capitolo 5, §5.4.3). Possiamo
vedere VI (R) come un sottoinsieme (ma non un sottospazio lineare) di VI (C).
Cosı̀, ε può vedersi come una funzione (iniettiva) da V a VI (C).
Sia ϕ ∈ L(V). Per il Teorema 13.15 del Capitolo 13, c’ è una sola trasfor-
mazione lineare da VI (C) a VI (C) che per ogni i ∈ I porta ε(Ui ) in ε(ϕ(Ui )).
Indichiamo questa trasformazione lineare con ϕC e la chiamiamo l’ estensione
di ϕ a C. È evidente che εϕ = ϕC ε. Cioè, l’ insieme VI (R) è ϕC -invariante e l’
azione indotta da ϕC su VI (R) è εϕε−1 . Diciamo che ϕ è la restrizione di ϕ a
V.
Supponiamo che dim(V) = n < ∞; quindi VI (R) = Vn (R) e VI (C) = Vn (C).
La matrice A = µE (ϕ) rappresenta anche εϕε−1 rispetto ai versori di Vn (R)
e ϕC rispetto ai versori di Vn (C). Pertanto il suo polinomio caratteristico PA
(= Pϕ ) è anche il polinomio caratteristico di ϕC .
Supponiamo per di più che su V sia dato un prodotto scalare Φ e che E
sia ortonormale per Φ. Il prodotto scalare Φ(X, Y ) di due vettori X, Y di V
coincide con il loro prodotto scalare standard in Vn (C). Quindi ϕ è simmetrica
se e solo se ϕC è Hermitiana. Analogamente, ϕ è ortogonale se e solo se ϕC è
unitaria.
22.6.2 Trasformazioni simmetriche ed hermitiane
Nel seguito ϕ è una trasformazione lineare da V a V, ove V è uno spazio euclideo
reale di dimensione n < ∞.
22.6. DIAGONALIZZAZIONI 447
Lemma 22.27 Se ϕ è simmetrica, allora il suo polinomio caratteristico Pϕ è
completamente riducibile in R.
Dimostrazione. Supponiamo che ϕ sia simmetrica. L’ estensione ϕC di ϕ a
C è hermitiana ed il suo polinomio caratteristico è Pϕ . Gli zeri di Pϕ in C
sono gli autovalori di ϕC . Ma tutti gli autovalori di ϕC sono reali (Capitolo
18, Proposizione 18.15). Pertanto tutti gli zeri di Pϕ in C sono reali. Dunque
Pϕ è completamente riducible in R perchè, per il Teorema Fondamentale dell’
Algebra, è completamente riducibile in C. 2
Corollario 22.28 Se ϕ è simmetrica, ammette autovettori.
(Ovvio, per il Lemma 22.27.) Possiamo ora dimostrare il seguente teorema, che
completa il Teorema 18.7 del Capitolo 18:
Teorema 22.29 La trasformazione ϕ è simmetrica se e solo se V ammette una
base ortonormale formata da autovettori di ϕ.
Dimostrazione. La parte “se” di questa affermazione è il Teorema 18.7 del
Capitolo 18. Dimostriamo la parte “solo se”. Sia ϕ simmetrica. Siccome ogni
base ortogonale può essere normalizzata, è sufficiente dimostrare che V ammette
una base ortogonale formata da autovettori di ϕ.
Per il Corollario 22.28, la trasformazione ϕ ammette autovettori. Sia E1 uno
di essi. Per il Corollario 18.10 del Capitolo 18, l’ iperpiano E1⊥ è ϕ-invariante.
Sia ϕ1 l’ azione indotta da ϕ su E1⊥ . Ovviamente, ϕ1 è simmetrica. Quindi, per il
Corollario 22.28, esiste almeno un autovettore E2 di ϕ1 in E1⊥ . Ovviamente, E2
è anche un autovettore di ϕ. Per il Corollario 18.9 del Capitolo 18, il sottospazio
{E1 , E2 }⊥ è ϕ-invariante. Sia ϕ2 l’ azione indotta da ϕ su {E1 , E2 }⊥ . È ovvio
che ϕ2 è simmetrica. Quindi essa ammette un autovettore E3 ∈ {E1 , E2 }⊥ , che è
anche un autovettore di ϕ. Per il Corollario 18.9 del Capitolo 18, il sottospazio
{E1 , E2 , E3 }⊥ è ϕ-invariante. L’ azione ϕ3 indotta da ϕ su {E1 , E2 , E3 }⊥ è
una trasformazione simmetrica. Quindi essa ammette un autovettore E4 ∈
{E1 , E2 , E3 }⊥ ... E cosı̀ via.
Troviamo cosı̀ n autovettori di ϕ formanti una base ortogonale di V. 2
Ora invece supponiamo che V sia uno spazio euclideo complesso, sempre di
dimensione finita. Con un argomento simile a quello usato per il Teorema 22.29
si dimostra il seguente teorema, che completa il Teorema 18.14 del Capitolo 18.
Lascio al lettore i dettagli della dimostrazione.
Teorema 22.30 Se la trasformazione ϕ è hermitiana, allora V ammette una
base ortonormale di autovettori di ϕ.
Nota. Nella dimostrazione del Teorema 22.29 è anche implicito che, se ϕ è
simmetrica (oppure, hermitiana), allora ogni insieme ortogonale di autovettori
di ϕ è contenuto in una base ortogonale di V formata da autovettori di ϕ.
448 Capitolo 22
22.6.3 Trasformazioni unitarie
Sia V uno spazio euclideo complesso di dimensione n < ∞ e sia ϕ ∈ L(V). Il
seguente teorema completa il Teorema 19.14 del Capitolo 19:
Teorema 22.31 Se ϕ è unitaria, allora V ammette una base ortonormale for-
mata da autovettori di ϕ.
Dimostrazione. Sia ϕ unitaria. Siccome ogni base ortogonale può essere norma-
lizzata, è sufficiente dimostrare che V ammette una base ortogonale formata da
autovettori di ϕ.
Per il Teorema Fondamentale dell’ Algebra e per il Teorema 22.2, la tra-
sformazione ϕ ammette autovettori. Sia E1 uno di essi. Siccome ϕ è unitaria,
E1⊥ è ϕ-invariante (Capitolo 19, Proposizione 19.13). Sia E2 un autovettore per
l’ azione indotta da ϕ su E1⊥ . Ovviamente, E2 è anche un autovettore di ϕ.
Siccome ϕ è unitaria, {E1 , E2 }⊥ è ϕ-invariante. Sia E3 un autovettore per l’
azione indotta da ϕ su {E1 , E2 }⊥ . Ovviamente, E3 è anche un autovettore di
ϕ. Siccome ϕ è unitaria, {E1 , E2 , E3 }⊥ è ϕ-invariante. Sia E4 un autovettore
per l’ azione indotta da ϕ su {E1 , E2 , E3 }⊥ ... E cosı̀ via.
Alla fine troviamo n autovettori di ϕ formanti una base ortogonale di V. 2
Nota. Nella dimostrazione di questo teorema è anche implicito che, se ϕ è
unitaria, allora ogni insieme ortogonale di autovettori di ϕ è contenuto in una
base ortogonale di V formata da autovettori di ϕ.
22.6.4 Trasformazioni ortogonali
Sia invece V uno spazio euclideo reale di dimensione finita n e sia ϕ una trasfor-
mazione ortogonale da V a V. Non è detto che Pϕ sia completamente riducibile
in R. Però, per il Teorema 6.29 del Capitolo 6 del del Volume 2, possiamo
decomporre Pϕ in un prodotto di fattori irriducibili di primo o secondo grado.
Inoltre, gli zeri di Pϕ in R, se esistono, possono essere solo 1 o −1 (Capitolo 19,
Proposizione 19.6). Cioè,
s
Y
Pϕ (t) = (t − 1)m (t + 1)r (t2 + ah t + bh )
h=1
per opportuni numeri naturali m, r, s tali che m+r+2s = n ed opportuni numeri
reali a1 , b1 , a2 , b2 , ..., as , bs tali che a2h − 4bh < 0 per h = 1, 2, ..., s. Non è escluso
che qualcuno tra m, r ed s possa essere 0. Se per esempio m = r = 0, allora
Pϕ non ha zeri in R e quindi ϕ è priva di autovalori. Se invece s = 0, allora Pϕ
è completamente riducibile in R. In questo caso ϕ è un prodotto di riflessioni
attorno ad iperpiani a due a due ortogonali (Capitolo 19, §19.1.2, Nota finale).
Nemmeno escludiamo l’ eventualità che compaiano ripetizioni nella sequenza di
coppie (a1 , b1 ), (a2 , b2 ),..., (as , bs ).
22.6. DIAGONALIZZAZIONI 449
Supponiamo che s > 0. Il polinomio Pϕ è anche il polinomio caratteristico
dell’ estensione ϕC di ϕ a C, che è una trasformazione unitaria. Quindi per ogni
h = 1, 2, ..., s le due soluzioni complesse (tra loro coniugate) dell’ equazione
t2 + ah t + bh = 0
hanno modulo 1 (Capitolo 19, Proposizione 19.11). Diciamole ch,1 e ch,2 . I
numeri complessi di modulo 1 sono quelli del tipo eiθ ed il coniugato di eiθ è
e−iθ . Quindi ch,1 = eiθh e ch,2 = e−iθh , per un opportuno numero reale θh con
0 ≤ θh ≤ π. Quindi
t2 + ah t + bh = (t − eiθh )(t − e−iθh ), (∀t ∈ C)
Da ciò segue che ah = −2 cos θh e bh = 1. Valgono dunque queste identità:
s
Y
Pϕ (t) =∀ (t − 1)m (t + 1)r (t2 − 2t cos θh + 1)mh =∀
h=1
s
Y
=∀ (t − 1)m (t + 1)r ((t − eiθh )(t − e−iθh ))mh
h=1
Per il Teorema 22.31, esiste una base ortonormale F di Vn (C) formata da au-
tovettori di ϕC . Possiamo supporre di avere ordinato i vettori di F in modo
da mettere al primo posto quelli di autovalore 1 (se ve ne sono), poi quelli di
autovalore −1 (se ve ne sono), poi una coppia autovettori di autovalore eiθ1 ed
e−iθ1 , poi una coppia di autovettori di autovalore eiθ2 ed e−iθ2 ,... e cosı̀ via.
La matrice che rappresenta ϕC rispetto ad F è diagonale e i valori sulla sua
diagonale principale sono questi:
1, 1, ..., 1, (m volte, quando m > 0),
−1, −1, ..., −1, (r volte, quando r > 0),
eiθ1 , e−iθ1 , eiθ2 , e−iθ2 , ..., eiθs , e−iθs .
Per ogni h = 1, 2, ..., s, indichiamo con Fh+ ed Fh− gli elementi di F di autovalore
rispettivamente eiθh ed e−iθh e poniamo
Fh+ − Fh− Fh+ + Fh−
Eh+ = √ , Eh− = √
2 i 2
Sia E la base ottenuta da F sostituendo ai vettori F1+ , F1− , ..., Fs+ , Fs− i vettori
E1+ , E1− , ..., Es+ , Es− . Si vede subito che E è anch’ essa ortonormale. La matrice
che rappresenta ϕC rispetto ad E è conformata a blocchi disposti in diagonale.
Un blocco è la matrice identità Im di ordine m (quando m > 0). L’ opposta
−Ir della matrice identità di ordine r è un altro blocco (se r > 0). Poi, per ogni
h = 1, 2, ..., s c’ è questo blocco (cfr. §22.2.5):
cos θh − sin θh
sin θh cos θh
450 Capitolo 22
Lemma 22.32 Risulta E ⊆ ε(V) (= Vn (R)), ove ε è la funzione da V a Vn (C)
considerata in §22.6.1.
Tralascio la dimostrazione di questo lemma. Da esso dall’ ortonormalità di E
segue che:
Teorema 22.33 Esiste sempre una base ortonormale di V rispetto alla quale
ϕ sia rappresentata da una matrice conformata a blocchi in diagonale, cosı̀:
1 ..... 0 0 ..... 0 0 0 ..... 0 0
... ..... ... ... ..... ... .... .... ..... .... ....
0 ..... 1 0 ..... 0 0 0 ..... 0 0
0 ..... 0 −1 ..... 0 0 0 ..... 0 0
... ..... ... ... ..... ... .... .... ..... .... ....
0 ..... 0 0 ..... −1 0 0 ..... 0 0
0 ..... 0 0 ..... 0 cos θ1 − sin θ1 ..... 0 0
0 ..... 0 0 ..... 0 sin θ1 cos θ1 ..... 0 0
... ..... ... ... ..... ... .... .... ..... .... ....
0 ..... 0 0 ..... 0 0 0 ..... cos θs − sin θs
0 ..... 0 0 ..... 0 0 0 ..... sin θs cos θs
22.7 Esercizi
Esercizio 22.11 Sia V il sottospazio lineare di C∞ (R) generato dalle quattro
funzioni considerate nell’ Esercizio 22.7 e sia ϕ l’ estensione a C dell’ azione
indotta su V dall’ operatore di derivazione. Si trovi la forma normale di Jordan
di ϕ.
Risposta. Gli autovalori di ϕ sono a+ib ed a−ib, entrambi di molteplicità 2. I
loro autospazi sono le rette di V4 (C) generate dai vettori (1, i, 0, 0) ed (1, −i, 0, 0).
Quindi,
a + ib 1 0 0
0 a + ib 0 0
Jϕ =
0 0 a − ib 1
0 0 0 a − ib
Esercizio 22.12 Le due seguenti matrici di M6 (C) hanno gli stessi autovalori,
cioè 1, 1, −1, 2, 2, 2:
1 2 0 0 0 0 1 −1 0 0 0 0
0 1 −1 1 0 0 0 1 2 1 0 0
0 0 −1 0 0 0 0 0 −1 1 0 0
M1 = M2 =
0 0
0 2 1 0
0 0 0 2 −1 0
0 0 0 0 2 0 0 0 0 0 2 2
0 0 0 0 0 2 0 0 0 0 0 2
Sono simili ?
22.7. ESERCIZI 451
Risposta. Bisogna trovare le forme normali di Jordan delle trasformazioni
ϕ1 e ϕ2 che esse rappresentano rispetto alla base dei versori di V6 (C). Si ha
rank(M1 − I) = rank(M2 − I) = 5. Sicchè, l’ autospazio relativo ad 1 ha
dimensione 1 sia per ϕ1 che per ϕ2 . Invece rank(M1 −2I) = 5 e rank(M2 −2I) =
4. Quindi l’ autospazio relativo a 2 ha dimensione 1 per ϕ1 e 2 per ϕ2 . Dunque,
queste sono le forme normali di Jordan di ϕ1 e ϕ2 :
1 1 0 0 0 0 1 1 0 0 0 0
0 1 0 0 0 0 0 1 0 0 0 0
0 0 −1 0 0 0 0 0 −1 0 0 0
0 0 0 2 1 0 0 0 0 2 1 0
0 0 0 0 2 1 0 0 0 0 2 0
0 0 0 0 0 2 0 0 0 0 0 2
(La prima matrice è la forma di Jordan di ϕ1 e la seconda di ϕ2 .) Quindi, M1
ed M2 non sono simili.
Esercizio 22.13 Data ϕ ∈ Ln (R), sia A la matrice che rappresenta ϕ rispetto
ai versori di Vn (R). Quindi A rappresenta anche l’ estensione ϕC di ϕ a C. Se
a è uno zero reale di PA , il suo autospazio in Vn (C) è L(ε(Ker(ϕ − aI))). Sia
invece a uno zero non reale di PA . Allora anche a è uno zero di PA , con la stessa
molteplicità di a (Volume 2, Capitolo 6, §6.4.2). Si dimostri che Ker(ϕC − aI)
e Ker(ϕC − aI) hanno la stessa dimensione.
Soluzione. Siccome A ∈ Mn (R), le condizioni AX = aX ed AX = aX si
equivalgono. Quindi Ker(ϕC − aI) è l’ immagine di Ker(ϕC − aI) mediante la
funzione che ad ogni vettore di Vn (C) associa il suo coniugato.
Esercizio 22.14 Si dimostri che ogni trasformazione ortogonale di V3 (R), che
non sia nè l’ identità nè una riflessione nè una rotazione, è il prodotto di una
rotazione ρ per la riflessione con piano di riflessione ortogonale all’ asse di
rotazione di ρ.
Esercizio 22.15 Si dimostri che ogni trasformazione ortogonale di V4 (R) che
non sia nè l’ identità nè una riflessione nè una rotazione, è il prodotto di una
rotazione ρ per una riflessione con iperpiano di riflessione ortogonale all’ asse
di rotazione di ρ, oppure il prodotto di due rotazioni con assi di rotazione l’ uno
ortogonale all’ altro.
Esercizio 22.16 Si dimostri il Lemma 22.32 nei due casi particolari di n = 2
ed n = 3.
Esercizio 22.17 Dato uno spazio vettoriale V di dimensione finita sul campo C
ed una trasformazione lineare ϕ di V in sè, supponiamo che ϕ ammetta un solo
autovalore, diciamolo a, con |a| < 1 ed autospazio di dimensione 1. Si dimostri
che, per ogni vettore X ∈ V, la successione ||ϕk (X)|| tende a 0 al divergere di
k.
452 Capitolo 22
Soluzione. Presa una base E = (Ei )ni=1 di V con µE (ϕ) in forma di Jordan,
n
Pn su ϕ. Dato X ∈ V, sia (xi )i=1 = (X)E
risulta µE (ϕ) = Jn (a), per le ipotesi fatte
e, per h = 1, 2, ..., n, poniamo Yh = i=h xi Ei+1−h (in particolare, Y1 = X).
Per il Lemma 22.13, se k ≥ n allora
n−1
X k
ϕk (X) = (n − i)ak−i Yi
i=0
i
Quindi, per la disuguaglianza triangolare,
n−1
X k
k
||ϕ (X)|| ≤ (n − i)|a|k−i ||Yi ||
i=0
i
Se per di più k ≥ 2n, allora ki ≤ n−1 k
per i = 0, 1, 2, ..., n − 1. Inoltre,
k−i k−n+1
|a | ≤ |a| , perchè |a| < 1. Sicchè,
bn|a|k k!
k
||ϕk (X)|| ≤ n|a|k−n+1 b = n−1
n−1 |a| (n − 1)!(k − n + 1)!
ove b = max(||Y1 ||, ||Y2 ||, ..., ||Yn ||). Ma k!/(k − n + 1)! < k n−1 . Pertanto,
bn
||ϕk (X)|| ≤ |a|k k n−1
|a|n−1 (n − 1)!
Siccome |a| < 1, il numero |a|k k n−1 tende a 0 al divergere di k. Da qui la
conclusione.
Esercizio 22.18 Dato uno spazio vettoriale V di dimensione finita n sul campo
R ed una trasformazione lineare ϕ di V in sè, siano a1 , a2 , ..., as gli autovalori
di ϕ, contati ciascuno una volta sola, e supponiamo che a1 abbia molteplicità 1
e che |a1 | > |ai | per ogni i = 2, 3, ..., s. Sia A un autovettore di ϕ di autovalore
a1 e, dato un vettore X ∈ V, poniamo
k
ϕ (X) se ϕk (X) 6= O
Xk =
A se ϕk (X) = O
Ps
Si dimostri che, se X non appartiene a i=2 Ker((ϕ − ai I)n ), allora l’ angolo
AX
[k tende a 0 al divergere di k.
Traccia. Salvo eventualmente dividere ϕ per |a1 |, possiamo supporre che |a1 | =
1. Sia E = {Ei }ni=1 una base di V con µE (ϕ) in forma di Jordan. Possiamo
scegliere E in modo che E1 = A. L’ azione di ϕ su L(E2 , E3 , ..., En ) si spezza
in una somma diretta di trasformazioni rappresentate da matrici di Jordan con
autovalori di modulo < 1. L’ Esercizio 22.17 ci dà la conclusione.
Capitolo 23
Forme bilineari
23.1 Generalità
23.1.1 Definizione e prime proprietà
Dato uno spazio vettoriale V su un campo K, sia V il suo insieme di vettori.
Una forma bilineare su V è una funzione Φ : V × V −→ K tale che
Φ(X + Y, Z) = Φ(X, Z) + Φ(Y, Z), (∀X, Y, Z ∈ V)
(1)
Φ(X, Y + Z) = Φ(X, Y ) + Φ(X, Z), (∀X, Y, Z ∈ V)
(2) Φ(xX, Y ) = Φ(X, xY ) = xΦ(X, Y ), (∀X, Y ∈ V, ∀x ∈ K)
In particolare, da (2) segue che
(3) Φ(O, X) = Φ(X, O) = 0, (∀X ∈ V)
Da (1) e (2) segue che
n
X m
X n,m
X
(4) Φ( xi Xi , yj Yj ) = xi Φ(Xi , Yj )yj
i=1 j=1 i,j=1
(per ogni scelta di numeri naturali n, m > 0, di vettori X1 , ..., Xn , Y1 , ..., Ym e di
scalari x1 , ..., xn , y1 , ..., ym ). Viceversa, (1) e (2) si riottengono da (4) come casi
particolari. (Quindi potremmo anche prendere (4) come definizione di forma
bilineare.)
Esempio. Un prodotto scalare in uno spazio euclideo reale è una forma bilinea-
re. Invece non sono forme bilineari i prodotti scalari nel caso complesso. (Ma
essi rientrano nella classe più ampia delle forme sequilineari, delle quali diremo
qualcosa nella Sezione 23.6.)
La funzione nulla, che ad ogni coppia di vettori di uno spazio vettoriale V associa
0, è una forma bilineare su V; la diciamo forma nulla. Le forme bilineari su V,
453
454 Capitolo 23
in quanto funzioni da V × V a K, sono vettori dello spazio vettoriale KV×V .
Non è difficile verificare che ogni combinazione lineare di forme bilineari su V
è ancora una forma bilineare su V. Quindi le forme bilineari su V formano un
sottospazio lineare di KV×V , che indicherò con B(V).
Data una base E = (Ei )i∈I di V, poniamo ai,j = Φ(Ei , Ej ) ed indichiamo
con (Φ)E il vettore (ai,j )i,j∈I di KI×I . Da (4) otteniamo che
X X X
(5) Φ( xi E i , yj E j ) = ai,j xi yj
i j i,j
(con la solita convenzione che in queste somme solo un numero finito di scalari
xi ed yj sia 6= 0). La (5) ci dice che (Φ)E determina Φ completamente.
Viceversa, sia A = (ai,j )i,j∈I un vettore di KI×I e definiamo Φ come nella
(5). È immediato verificare che Φ, cosı̀ definita, è una forma bilineare su V. Ab-
biamo dunque la seguente proposizione (analoga al Teorema 13.15 del Capitolo
13):
Proposizione 23.1 La relazione (5) stabilisce una corrispondenza biunivoca
tra le forme bilineari su V ed i vettori di KI×I .
Anzi, questa corrispondenza è un isomorfismo da B(V) a KI×I , analogo all’
isomorfismo L(V) ∼= V I considerato nel Capitolo 14.
23.1.2 Matrici rappresentative e rango
Supponiamo ora che dim(V) = n < ∞. Come prima, fissiamo una base E =
(Ei )ni=1 di V. Ora I = {1, 2, ..., n} e KI×I = Mn (K). Ad ogni forma bilineare
Φ su V resta associata una matrice AΦ,E = (ai,j )ni,j=1 di Mn (K). La diciamo la
matrice rappresentativa di Φ rispetto ad E. Con questa notazione, la (5) può
riscriversi cosı̀:
(5.a) Φ(X, Y ) = (X)tE AΦ,E (Y )E , (∀X, Y ∈ V)
(Come al solito, indichiamo con (X)E la n-pla delle coordinate di un vettore X
rispetto ad E, scritta in colonna, ed (X)tE è la sua trasposta, cioè la stessa n-pla
scritta in riga). La funzione che ad ogni forma bilineare su V associa la sua
matrice rappresentativa è una corrispondenza biunivoca (anzi, un isomorfismo)
tra B(V) ed Mn (K). Usiamo la seguente convenzione: data una matrice A ∈
Mn (K), indichiamo con ΦA,E la forma bilineare rappresentata da A rispetto ad
E, cioè tale che AΦ,E = A. La (5) ora diventa:
(5.b) ΦA,E (X, Y ) = (X)tE · A · (Y )E , (∀X, Y ∈ V)
che, possiamo anche riscrivere cosı̀
ΦA (X, Y ) = X t AY, (∀X, Y ∈ V)
prendendoci la libertà di scrivere sbrigativamente X ed Y anzichè (X)E e (Y )E
e abbreviando ΦA,E in ΦA . Lo scalare X t AY può vedersi come una matri-
ce quadrata di ordine 1. Ovviamente, (X t AY )t = X t AY . D’ altra parte,
23.1. GENERALITÀ 455
(X t AY )t = Y t At X (Capitolo 18, Sezione 18.4). Quindi ΦA (X, Y ) = Y t At X.
Ne segue che
(6) ΦA (X, Y ) = ΦAt (Y, X), (∀X, Y ∈ V)
Sia F un’ altra base di V e sia M la matrice che fa passare da E ad F. Cioè,
F = EM ed (X)E = M ·(X)F per ogni vettore X ∈ V. Da (5.a) e rammentando
che (M ·(X)F )t = (X)tF M t (Capitolo 18, Sezione 18.4) otteniamo che
Φ(X, Y ) = (X)tF M t · AΦ,E · M (Y )E
D’ altra parte, Φ(X, Y ) = (X)tF · AΦ,F · (Y )F sempre per (5.a). Quindi:
(7) AΦ,F = M t · AΦ,E · M
Proposizione 23.2 Per ogni coppia di basi E ed F di V, risulta
rank(AΦ,F ) = rank(AΦ,E )
Dimostrazione. Sia M la matrice che porta E in F. Siccome M è invertibile,
anche M t lo è (Capitolo 16, Teorema 16.23 e Capitolo 15, Proposizione 15.4;
oppure Capitolo 21, Teoremi 21.1 e 21.25). Componendo una trasformazione
lineare con una trasformazione lineare invertibile non se ne altera il rango (Ca-
pitolo 13, Esercizio 13.5). Analogamente, moltiplicando una matrice quadrata
per una matrice invertibile non se ne altera il rango. La conclusione segue da
(7). 2
Per la Proposizione 23.2, il rango della matrice AΦ,E non dipende dalla scelta
della base E ma solo da Φ. Chiamiamo rank(AΦ,E ) rango di Φ e lo indichiamo
con rank(Φ). Se rank(Φ) = n allora Φ si dice non degenere, o anche non
singolare. Altrimenti, Φ si dice degenere, o singolare. Per esempio, la forma
bilineare nulla è degenere, di rango 0.
23.1.3 La forma fondamentale
Manteniamo l’ ipotesi che dim(V) = n < ∞ e sia E una base di V. Dicia-
mo forma fondamentale rispetto ad E la forma bilineare ΦI,E rappresentata
rispetto ad E dalla matrice identità. Indichiamola brevemente con ΦE . Dun-
que ΦE (X, Y ) = X t Y (cfr. (5.a)). Paragonando questa identità con la (5.b) si
ottiene subito che per ogni matrice A ∈ Mn (K) risulta:
(8) ΦA (X, Y ) = ΦE (X, ϕA (Y )), (∀X, Y ∈ V)
(ove indichiamo con ϕA la trasformazione lineare da V a V rappresentata da A
rispetto ad E). Data in V un’ altra base F = EM , può darsi che ΦE 6= ΦF .
Precisamente, la matrice che rispetto a F rappresenta ΦE è M t M (cfr. (7)).
Dunque ΦE = ΦF se e solo se M t = M −1 . In generale,
ΦE (X, Y ) = (X)tF · M t M · (Y )F = (M · (X)F )t (M · (Y )F )
456 Capitolo 23
per ogni scelta di X, Y ∈ V. Quindi, indicata con µ la trasformazione lineare
da V a V rappresentata da M rispetto ad F, risulta
(9) ΦE (X, Y ) = ΦF (µ(X), µ(Y )), (∀X, Y ∈ V)
(Si noti che M rappresenta µ anche rispetto ad E; Capitolo 15, (9).)
In particolare, sia V ∼
= Vn (R). Data una base E di V, la forma ΦE è proprio
il prodotto scalare di V naturale per E. Supponiamo che su V sia già dato un
prodotto scalare e che E sia ortonormale per esso. Allora ΦE coincide con quel
prodotto scalare e la (8) assume il seguente aspetto:
ΦA (X, Y ) = hX, AY i = hX, ϕA (Y )i, (∀X, Y ∈ V)
Sia F = EM un’ altra base di V. Allora ΦF è il prodotto scalare naturale per F.
Quindi ΦF = ΦE se e solo se F è ortonormale (Capitolo 9, Proposizione 9.10;
ma lo si potrebbe dedurre anche da (7), oppure da (9)).
23.1.4 Forme simmetriche e forme alternanti
Forme simmetriche. Una forma bilineare Φ su V si dice simmetrica se
soddisfa la seguente identità:
(10) Φ(X, Y ) = Φ(Y, X), (∀X, Y ∈ V)
Supponiamo che dim(V) < ∞. Da (6) segue subito che, se la matrice che
rappresenta Φ rispetto ad una qualche base di V è simmetrica, allora la forma
Φ è simmetrica. In particolare, la forma fondamentale rispetto ad una base di
V è sempre simmetrica. Viceversa, se Φ è simmetrica, allora la sua matrice
rappresentativa è simmetrica, qualunque base si scelga in V.
Forme alternanti. Si dice invece che Φ è alternante (o antisimmetrica) se
(11) Φ(X, X) = 0, (∀X ∈ V)
Da (11), sostituendovi X + Y ad X (come nella Soluzione dell’ Eercizio 18.13
del Capitolo 18) si deduce la seguente identità
(110 ) Φ(X, Y ) = −Φ(Y, X), (∀X ∈ V)
Da questa, ponendovi X = Y , otteniamo Φ(X, X) = −Φ(X, X) che, quando
ch(K) 6= 2, equivale all’ uguaglianza Φ(X, X) = 0. Quindi, quando ch(K) 6= 2
le condizioni (11) ed (110 ) si equivalgono e possiamo prendere una qualunque
delle due come definizione di “forma alternante”.
Invece, quando ch(K) = 2 la (110 ) equivale alla (10); in questo caso le forme
alternanti sono particolari forme simmetriche. (Al contrario, quando ch(K) 6= 2,
la forma nulla è l’ unica forma bilineare che sia al tempo stesso simmetrica e
alternante.)
Quando ch(K) 6= 2, una matrice quadrata A si dice antisimmetrica se At =
−A (cfr. Capitolo 18, §18.1.4). Invece, quando ch(K) = 2, si dice che A è
23.2. FORME SIMMETRICHE IN VN (R) 457
antisimmetrica se At = −A (= A) e per di più tutti i termini sulla sua diagonale
sono nulli. (Quando ch(K) 6= 2 questa seconda condizione è una conseguenza
della condizione At = −A.) Non è difficile dimostrare che una forma bilineare su
uno spazio vettoriale di dimensione finita è alternante se e solo se è rappresentata
da matrici antisimmetriche.
Esempio. Sia det la funzione che ad ogni coppia (X, Y ) di vettori di V2 (K)
associa il determinante det(X, Y ) della matrice quadrata di ordine 2 che ha X ed
Y come prima e seconda riga. La funzione det è una forma bilineare alternante
e questa è la matrice che la rappresenta rispetto alla base dei versori di V2 (K):
0 1
−1 0
Prendiamo invece come base di V2 (K) una qualunque altra coppia (U, V ) di
vettori non proporzionali. Usando la (7) si vede che la matrice che rappresenta
det rispetto a questa nuova base è la seguente, ove d = det(U, V ):
0 d
−d 0
23.2 Forme simmetriche in Vn (R)
In questa sezione V sta ad indicare un dato spazio euclideo reale di dimensione
n < ∞ e Φ è una data forma bilineare simmetrica su V.
Lemma 23.3 Siano E e F due basi ortonormali di V, sia M la matrice che fa
passare da E a F e sia A = AΦ,E la matrice che rappresenta Φ rispetto ad E.
Allora M −1 AM è la matrice che rappresenta Φ rispetto ad F.
Dimostrazione. Siccome tanto E che F sono ortonormali, la matrice M è orto-
gonale, cioè M −1 = M t . D’ altra parte, si ha M t AM = AΦ,F per (7). Quindi
AΦ,F = M −1 AM . 2
Teorema 23.4 Esiste qualche base ortonormale di V rispetto alla quale Φ è
rappresentata da una matrice diagonale.
Dimostrazione. Sia E una base ortonormale di V, sia A = AΦ,E e sia ϕ la
trasformazione lineare da V a V rappresentata da A rispetto ad E. Essendo E
ortonormale ed A simmetrica, la trasformazione ϕ è simmetrica. Per il Teorema
22.29 del Capitolo 22, esiste una base ortonormale F di V formata da autovettori
di ϕ. Dunque, se M è la matrice che porta E in F, la matrice M −1 AM , che
rappresenta ϕ rispetto ad F, è diagonale. D’ altra parte, M −1 AM = AΦ,F per il
Lemma 23.3 e perchè tanto E che F sono ortonormali. Quindi AΦ,F è diagonale.
2
458 Capitolo 23
Corollario 23.5 Esiste qualche base ortogonale di V rispetto alla quale Φ è rap-
presentata da una matrice diagonale ove i valori che compaiono sulla diagonale
principale sono 1, −1 o 0.
Dimostrazione. Sia E = (Ei )ni=1 una base ortonormale di V tale che AΦ,E
sia diagonale (Teorema 23.4), AΦ,E = dg(ai )ni=1 . Per ogni i per cui ai 6= 0,
sostituiamo Ei con |ai |−1/2 Ei . La matrice che rappresenta Φ rispetto a questa
nuova base ha la forma voluta. 2
23.2.1 Autovalori, traccia e determinante
Matrici diagonali simili differiscono solo per permutazioni dei termini sulla dia-
gonale principale. (Questo lo si può dedurre dal Corollario 17.23 del Capitolo
17, considerando che matrici simili possono vedersi come rappresentative della
stessa trasformazione lineare; oppure dal fatto che gli scalari sulla diagonale
principale di una matrice diagonale sono i suoi autovalori e che matrici simili
hanno lo stesso polinomio caratteristico.) D’ altra parte, le matrici diagonali
che rappresentano Φ rispetto ad opportune basi ortonormali di V sono simili tra
loro, per il Lemma 23.3. Quindi differiscono solo per permutazioni dei termini
sulla diagonale principale.
Dunque, se dg(ai )ni=1 è la matrice diagonale che rappresenta Φ rispetto ad
una opportuna base ortonormale di V, i numeri a1 , a2 , ..., an dipendono solo da
Φ e non dalla scelta di E, che invece influenza solo l’ ordine in cui essi sono
dati. Per il Lemma 23.3 e siccome matrici simili hanno lo stesso polinomio
caratteristico, i numeri a1 , a2 , ..., an sono gli autovalori di ogni matrice
Pn A che
rappresenti Φ Q rispetto ad una base ortonormale; la loro somma i=1 ai ed il
n
loro prodotto i=1 ai sono ripettivamente la traccia ed il determinante di A.
Diciamo autovalori, traccia e determinante di Φ gli autovalori, la traccia ed il
determinante di una qualunque matrice che rappresenti Φ rispetto ad una base
ortonormale. Indicheremo il determinante di Φ col simbolo det(Φ). È ovvio che
Φ è degenere se e solo se det(Φ) = 0, cioè se e solo se 0 è un autovalore di Φ.
Siano a1 , a2 , ..., an gli autovalori di Φ. Esiste dunque una base ortonormale E
di V tale che AΦ,E = dg(ai )ni=1 . (Si usa anche dire che E è una base di autovettori
di Φ, gli autovettori di Φ essendo, per definizione, i vettori che appartengono a
qualche base siffatta.) Per (5.a), per ogni X ∈ V risulta
n
X
(12) Φ(X, X) = ai x2i , (ove (xi )ni=1 = (X)E )
i=1
La definizione degli autovalori, della traccia e del determinante di Φ (e, natu-
ralmente, anche degli autovettori) è relativa ad un dato prodotto scalare scelto
su V. Cambiando questo, cambia l’ insieme delle basi ortonormali di V e quin-
di cambia anche l’ insieme delle matrici da considerare per definire autovalori,
traccia e determinante (e autovettori) di Φ. Per esempio, supponiamo di avere
scelta una base ortogonale (ma non necessariamente ortonormale) come nel Co-
rollario 23.5. In questo modo sostituiamo il prodotto scalare di V col prodotto
scalare naturale per questa nuova base e gli autovalori di Φ ora sono 1, −1 o 0.
23.2. FORME SIMMETRICHE IN VN (R) 459
Comunque, non dipende dalla scelta del prodotto scalare se 0 sia o no un
autovalore di Φ e, se è un autovalore, nemmeno la sua molteplicità dipende da
quella scelta. Infatti, come si è già osservato, 0 è un autovalore di Φ se e solo se Φ
è degenere e, se 0 è un autovalore di Φ, allora n − rank(Φ) è la sua molteplicità.
Si può dimostrare che, indicata con n+ (Φ) la somma delle molteplicità degli
autovalori positivi di Φ e con n− (Φ) la somma delle molteplicità degli autovalori
negativi, nemmeno i numeri n+ (Φ) ed n− (Φ) dipendono dalla scelta del prodotto
scalare (ma tralascio questa dimostrazione). Dunque, data una base E di V, se
AΦ,E è diagonale allora il numero dei termini positivi (oppure, negativi) sulla
diagonale principale di AΦ,E è sempre n+ (Φ) (rispettivamente, n− (Φ)).
23.2.2 Calcolo di n+ (Φ) ed n− (Φ)
Non è necessario trovare gli autovalori di Φ per calcolare i numeri n+ (Φ) ed
n− (Φ). Sia infatti E la base che si è scelta ed A = AΦ,E . Sappiamo di poter
trovare qualche base F tale che la matrice AΦ,F sia diagonale (possiamo anche
trovarla ortonormale, ma questo ora non ha importanza). Cioè, detta B la
matrice che porta E in F, la matrice B t AB (cfr. (7)) è diagonale. Per quel
che si è detto sopra, n+ (Φ) (rispettivamente, n− (Φ)) è il numero di coefficienti
positivi (negativi) sulla diagonale principale di B t AB. (Infatti, considerando
il prodotto scalare naturale per F,...) Dunque, basta trovare B in modo che
B t AB sia diagonale e calcolare n+ (Φ) ed n− (Φ) su B t AB.
Una matrice siffatta non è difficile da trovarsi. Osserviamo intanto che, in
ogni caso, B è un prodotto di matrici permutazionali o dei due tipi considerati
nell’ Esercizio 15.28 del Capitolo 15. Se T = I + aUi,j , l’ effetto della moltipli-
cazione T t M T su un’ arbitraria matrice M è di sommare alla j–esima colonna
(o riga) di M la i–esima colonna (riga) moltiplicata per a e poi sommare alla j–
esima riga (colonna) della matrice cosı̀ ottenuta la i–riga (colonna) moltiplicata
per a. Se invece T è diagonale con a (6= 0) nell’ i–esima posizione ed 1 nelle altre
posizioni, allora T t M T si ottiene moltiplicando per a i termini della i–esima riga
e dell’ i–esima colonna, salvo il termine di posto (i, i), che resta moltiplicato per
a2 . Infine, se T è permutazionale, T t M T si ottiene da M permutando le sue
righe e le sue colonne secondo la permutazione associata a T .
Dunque, dire che possiamo trovare B in modo che B t AB sia diagonale è
come dire che possiamo trasformare A in una matrice diagonale eseguendo sulle
sue righe e le sue colonne opportune manipolazioni dei tipi ora descritti; tro-
vare le manipolazioni giuste è sempre facile. (Le potremmo anche fissare in un
algoritmo, imitando quello descritto in §3.2.2 del Capitolo 3; ma non insisto su
questo.) Per esempio, consideriamo la seguente matrice simmetrica:
1 2 −1
A= 2 1 2
−1 2 1
e sia Φ la forma simmetrica rappresentata da A rispetto ad una base di V3 (R)
(per esempio, rispetto ai versori). Sottraendo dalla seconda colonna di A il
460 Capitolo 23
doppio della prima e poi dalla seconda riga il doppio della prima, otteniamo
questa matrice:
1 0 −1
0 −3 4
−1 4 1
Ora sommiamo la prima colonna alla terza e la prima riga alla terza, ottenendo:
1 0 0
0 −3 4
0 4 0
Infine, sommiamo alla terza colonna la seconda moltiplicata per 4/3 e alla ter-
za riga la seconda moltiplicata per 4/3. Otteniamo cosı̀ la seguente matrice
diagonale:
1 0 0
A0 = 0 −3 0
0 0 4/3
Quindi Φ è non degenere, con n+ (Φ) = 2 ed n− (Φ) = −1. Le tre trasformazioni
che abbiamo eseguite corrispondono alle seguenti matrici:
1 −2 0 1 0 1 1 0 0
T1 = 0 1 0 , T2 = 0 1 0 , T3 = 0 1 4/3
0 0 1 0 0 1 0 0 1
Quindi A0 = B t AB con B = T1 T2 T3 . Si noti che gli autovalori 1, −3 e 4/3 di A0
non sono gli autovalori di A. Gli autovalori di A sono infatti le soluzioni dell’
equazione
x3 − 3x2 − 6x + 16 = 0
(La matrice A0 non è simile ad A, non è la diagonalizzazione di A; e infatti B
non è ortogonale.)
23.2.3 Forme definite positive e prodotti scalari
Ovviamente, Φ(O, O) = 0 (cfr. (3)). La forma Φ si dice definita positiva (o,
semplicemente positiva) se Φ(X, X) > 0 per ogni vettore X 6= O. La forma Φ
si dice invece semi-definita positiva (o semi-positiva) se Φ(X, X) ≥ 0 per ogni
vettore X. Dalla (12) segue subito che
Proposizione 23.6 La forma Φ è definita (oppure semi-definita) positiva se e
solo se tutti i suoi autovalori sono positivi (rispettivamente, non negativi); cioè,
se e solo se n+ (Φ) = n (rispettivamente, n− (Φ) = 0).
Quindi,
23.2. FORME SIMMETRICHE IN VN (R) 461
Corollario 23.7 Una forma semi-definita positiva è addirittura definita posi-
tiva se e solo se è non degenere.
Sia ora E una qualunque base di V, non necessariamente ortonormale, e sia A
la matrice rappresentativa di Φ rispetto ad E.
Teorema 23.8 La forma Φ è semi-definita positiva se e solo se A = M t M per
qualche matrice M ∈ Mn (R).
Dimostrazione. Supponiamo che A = M t M e sia µ ∈ L(V) rappresentata da
M rispetto ad E. La forma fondamentale ΦE è il prodotto scalare naturale per
E ed M t rappresenta la trasposta µt di µ relativa a questo prodotto scalare.
Quindi
(i) ΦE (X, µt (µ(Y ))) = ΦE (µ(X), µ(Y ))
D’ altra parte
(ii) Φ(X, Y ) = ΦE (X, µt (µ(Y )))
per (8). Da (i) e (ii) segue che Φ(X, Y ) = ΦE (µ(X), µ(Y )). In particolare
Φ(X, X) = ΦE (µ(X), µ(X)). Quindi Φ(X, X) ≥ 0 per ogni X ∈ V.
Viceversa, Φ sia semi-definita positiva. Sia F una base di V, ortonormale
per il prodotto scalare che si suppone dato in V e tale che AΦ,F = dg(ai )ni=1 ,
ove a1 , a2 , ..., an sono gli autovalori di Φ. Siccome Φ è semi-definita positiva,
nessuno dei suoi autovalori è negativo (Proposizione 23.6). Cosı̀, possiamo porre
√
bi = ai per i = 1, 2, ..., n. Poniamo B = dg(bi )ni=1 . Risulta B 2 = dg(ai )ni=1
(= AΦ,F ). Ovviamente, B t = B. Quindi AΦ,F = B t B. Sia ora C la matrice che
fa passare da F ad E. Da (7), segue che
A = C t · AΦ,F · C = C t B t BC = (BC)t BC
Dunque A = M t M , ove M = BC. 2
La forma Φ è degenere se e solo se det(A) = 0. Quindi, per il Teorema 23.8,
Corollario 23.9 La forma Φ è definita positiva se e solo se A = M t M per
qualche matrice non-singolare M ∈ Mn (R).
Le forme bilineari su V definite positive sono null’ altro che i prodotti scalari
su V: la (1) del Capitolo 8 è la simmetria; le proprietà (2), (6), (3) e (7) del
Capitolo 8 sono la (1) e la (2) del presente capitolo; la (5) del Capitolo 8 è
la positività. Per il Teorema 9.11 del Capitolo 9, ogni prodotto scalare su V
(cioè, ogni forma bilineare simmetrica su V definita positiva) ammette una base
ortonormale. Nel Capitolo 9 si è decritto un metodo per trovarne una. La
dimostrazione del Teorema 23.8 ne contiene un’ altro. Vediamolo.
Sia Φ una forma bilineare simmetrica su V, definita positiva. Data una base
E di V, sia AΦ,E = M t M , come nel Corollario 23.9. Posto U = EM −1 , risulta
AΦ,U = (M −1 )t M t M M −1 = I
462 Capitolo 23
per (7) e perchè (M −1 )t = (M t )−1 . Quindi Φ è la forma fondamentale rispetto
alla base U. Cioè, U è una base ortonormale per il prodotto scalare Φ.
Nella dimostrazione del Teorema 23.8 è spiegato come determinare U: si
considera la trasformazione ϕ ∈ L(V) rappresentata dalla matrice AΦ,E rispetto
ad E; poi si trova una base F di autovettori di ϕ, ortonormale per il prodotto
scalare, diciamolo Φ0 , che si suppone assegnato in V fin dall’ inizio; infine si
cambiano le lunghezze dei vettori di F, se necessario. Si noti che la base U
ottenuta in questo modo è ortogonale (ma non necessariamente ortonormale)
per Φ0 . Dunque:
Teorema 23.10 Dati due prodotti scalari su V, è sempre possibile trovare qual-
che base di V che sia ortogonale per entrambi.
23.2.4 Forme definite negative
Diciamo che una forma bilineare simmetrica su V è semi-definita (o definita)
negativa se la sua opposta è semi-definita (definita) positiva. Valgono per le
forme definite o semi-definite negative risultati analoghi a quelli ora stabiliti per
le forme definite o semi-definite positive. Per esempio, il Teorema 23.8 ed il
Corollario 23.9 diventano:
Proposizione 23.11 La forma Φ è semi-definita negativa se e solo se A =
−M t M per qualche matrice M ∈ Mn (R). Essa è addirittura definita negativa
se e solo se M è non singolare.
23.3 Forme quadratiche
Ritorniamo al caso generale di un qualunque spazio vettoriale V su un campo
K, però supponiamo che K abbia caratteristica 6= 2. Sia Φ una forma bilineare
simmetrica su V. Poniamo qΦ (X) = Φ(X, X). La funzione qΦ : V −→ K si dice
una forma quadratica su V. La forma quadratica qΦ determina Φ univocamente.
Infatti,
qΦ (X + Y ) − qΦ (X) − qΦ (Y )
Φ(X, Y ) = , (∀X, Y ∈ V)
2
Lascio la dimostrazione al lettore (cfr. Capitolo 8, Esercizio 8.10).
Forme quadratiche e polinomi omogenei di grado 2. Supponiamo che
dim(V) = n < ∞ e, data una base E di V, sia (ai,j )ni,j=1 = AΦ,E . Per i, j =
1, 2, ..., n con i < j poniamo bi,j = ai,j + aj,i (= 2ai,j perchè la matrice AΦ,E è
simmetrica, siccome per ipotesi Φ è simmetrica). Poniamo poi bi,i = ai,i . Cosı̀,
se (xi )ni=1 = (X)E , da (5) segue che
X X
qΦ (X) = ai,j xi xj = bi,j xi xj
i,j 1≤i≤j≤n
23.4. ESERCIZI 463
Diciamo che il polinomio
X
P (x1 , x2 , ..., xn ) = bi,j xi xj
1≤i≤j≤n
esprime qΦ rispetto alla base E di V. Viceversa, dato un polinomio omogeneo
P di secondo grado,
X
P (x1 , x2 , ..., xn ) = bi,j xi xj
1≤i≤j≤n
poniamo ai,i = bi,i ed ai,j = aj,i = bi,j /2 per i < j. La matrice A = (ai,j )ni,j=1
è simmetrica. Quindi la forma bilineare ΦA rappresentata da A è simmetrica.
Il polinomio P (x1 , x2 , ..., xn ) esprime la forma quadratica definita da ΦA .
Ferma l’ ipotesi che dim(V) = n < ∞, supponiamo ora che il campo degli
scalari sia R. Sia q : V −→ R una forma quadratica su V. Per il Teorema
Pn base di V rispetto alla quale q è rappresentata da un
23.4, esiste sempre qualche
polinomio della forma i=1 ai x2i . I numeri a1 , a2 , ..., an sono gli autovalori della
forma simmetrica determinata da q. Quindi sono univocamente determinati Pn da
q (salvo cambiare l’ ordine in cui sono dati). Sicchè anche il polinomio i=1 ai x2i
è univocamente determinato da q. Lo diciamo l’ espressione normale di q.
Altra terminologia. La terminologia stabilita per forme bilineari simmetriche
si trasporta alle forme quadratiche. Per esempio, se Φ è degenere, si dice che qΦ
è degenere (o singolare); se V ∼ = Vn (R) e se Φ è definita positiva, allora si dice
che qΦ è definita positiva; ecc.
23.4 Esercizi
Esercizio 23.1 Dato un campo K, uno spazio vettoriale V di dimensione finita
n su K, una base E di V ed una matrice A ∈ Mn (K), sia ϕtA ∈ L(V) la tra-
sformazione lineare da V a V rappresentata da At rispetto ad E. Si dimostri
che
ΦA (X, Y ) = ΦE (ϕtA (X), Y ), (∀X, Y ∈ V)
Esercizio 23.2 Sia V uno spazio vettoriale di dimensione 2 su R e sia Φ una
forma bilineare su V. Si dimostri che Φ è definita, positiva o negativa, se e solo
se det(Φ) > 0. Se det(Φ) > 0, allora Φ è definita positiva o negativa a seconda
che la sua traccia sia positiva o negativa.
Nota. Le stesse cose possono dirsi per forme semi-definite, sostituendo > con
≥ e < con ≤.
Esercizio 23.3 Sia Φ una forma bilineare simmetrica su un dato spazio vetto-
riale V. Si dimostri che
qΦ (X) + qΦ (Y ) − qΦ (X − Y )
Φ(X, Y ) = , (∀X, Y ∈ V)
2
464 Capitolo 23
Esercizio 23.4 Data una forma quadratica q : V −→ K, sia Z(q) la soluzione
generale dell’ equazione q(X) = 0, cioè Z(q) = {X | q(X) = 0}. Si dimostri
che Z(q), se non è {O}, è l’ unione di rette di V per O.
Traccia. Basta fare vedere che se X ∈ Z(q) allora L(X) ⊆ Z(q). Questo segue
subito dall’ identità d(tX) = t2 q(X) (cfr. Volume 2, Capitolo 5, Esercizio 5.5).
Esercizio 23.5 Sia q : V2 (R) −→ R una forma quadratica, sia ax2 + by 2 la sua
espressione normale e sia Z(q) = {X | q(X) = 0}, come nell’ Esercizio 23.4. Si
dimostri che:
(i) Se ab > 0 allora Z(q) = {O}. (In questo caso q è definita, positiva o
negativa.)
(ii) Se ab < 0 allora p Z(q) è l’ unione di due rette, di equazioni y = mx ed
y = −mx, ove m = −a/b.
(iii) Se ab = 0 (cioè, se q è singolare) allora Z(q) è l’ asse delle ascisse, oppure
l’ asse delle ordinate oppure tutto V2 (R).
Esercizio 23.6 Si dimostri che una forma quadratica su V2 (R) è singolare se
e solo se è espressa da un polinomio della forma (ax + by)2 .
Esercizio 23.7 Data una forma quadratica q su Vn (R), si dimostri che per
ogni X ∈ Vn (R) risulta
ahX, Xi ≤ q(X) ≤ bhX, Xi
ove a e b sono il minimo ed il massimo tra gli autovalori della forma simmetrica
associata a q.
Traccia. Presa una base ortonormale E formata Pn da autovettori per la forma
simmetrica Φ associata a q, risulta q(X) = i=1 ai x2i ove (xi )ni=1 = (X)E ed
a1 , a2 , ..., an sono gli autovalori di Φ.
Esercizio 23.8 Data una matrice M ∈ Mm,n (R), sia A = M t M e sia ΦA la
forma bilineare simmetrica di Vn (R) rappresentata da A rispetto alla base dei
versori. Si dimostri che ΦA è semidefinita positiva e, inoltre, che ΦA è definita
positiva se e solo se rank(M ) = n.
Traccia. ΦA (X, Y ) è il prodotto scalare standard di M X ed M Y in Vn (R). In
altre parole, A è la matrice di Gram delle colonne di M .
23.5 Polarità e radicale
Nel seguito Φ è una data forma bilineare simmetrica o alternante su uno spazio
vettoriale V di dimensione finita n. Per ogni insieme X di vettori di V poniamo
XΦ =def {Y | (∀X ∈ X)(Φ(X, Y ) = 0)}
Si noti che, siccome per ipotesi Φ è simmetrica (Φ(X, Y ) = Φ(Y, X)) o alternante
(e quindi Φ(X, Y ) = −Φ(Y, X)), le condizioni Φ(X, Y ) = 0 e Φ(Y, X) = 0 sono
equivalenti. Quindi nella precedente definizione possiamo scrivere Φ(Y, X) = 0
23.5. POLARITÀ E RADICALE 465
anzichè Φ(X, Y ) = 0 senza con ciò cambiare nulla. È anche facile dimostrare
che
(13.1) XΦ = L(X)Φ = L(XΦ ), (∀X ⊆ V)
(cfr. Capitolo 9, (5), (6)). Quindi XΦ è sempre un sottospazio lineare di V. Lo
si chiama il sottospazio polare di X rispetto a Φ. L’ operatore che associa XΦ ad
X si chiama polarità associata a Φ. Valgono per la polarità proprietà analoghe
a quelle stabilite nel Capitolo 9 per il passaggio all’ ortogonale (cfr. Capitolo 9,
(2), (4) e (7)–(10)):
(13.2) X ⊆ {O} =⇒ XΦ = V
(13.3) X ⊆ Y =⇒ XΦ ⊇ YΦ ,
(13.4) L(X) ⊆ T(XΦ )Φ
(13.5) XS = X∈X XTΦ
Φ
(13.6) (Ti∈I Xi )Φ = i∈I X
Si
Φ
(13.7) ( i∈I L(Xi )) ⊇ L( i∈I XΦ
Φ
i )
(Lascio le dimostrazioni al lettore.) Poniamo poi
Rad(Φ) =def V Φ (= {Y | (∀X ∈ V)(Φ(X, Y ) = 0)})
e chiamiamo Rad(Φ) il radicale di Φ. Se A è la matrice che rappresenta Φ
rispetto ad una qualche base E di V e se ϕA è la trasformazione lineare da
V a V rappresentata da A rispetto ad E, allora la condizione X ∈ Rad(Φ) si
traduce nella condizione che X t AY = 0 per ogni Y ∈ V; questo succede se e
solo se X t A = O, cioè se e solo se ϕA (X) = O. Dunque, Rad(Φ) = Ker(ϕA ) e
pertanto
(14) dim(Rad(Φ)) = n − rank(Φ)
Quindi,
Proposizione 23.12 La forma Φ è non degenere se e solo se Rad(Φ) = {O}.
(cfr. Capitolo 9, (3)). Se Φ è non degenere, allora vale anche l’ inversa della
(13.2) (cfr. Capitolo 9, (2)); cioè:
Proposizione 23.13 Supponiamo che sia Φ non degenere e sia X ⊆ V. Risulta
XΦ = V solo se X ⊆ {O}.
Dimostrazione. Se XΦ = V allora (XΦ )Φ = {O} per la Proposizione 23.12 e
(13.4) ci dà la conclusione. 2
Proposizione 23.14 Supponiamo che dim(V) = n < ∞ e Φ sia non degenere.
Allora dim(XΦ ) + dim(L(X)) = n.
466 Capitolo 23
Dimostrazione. Se L(X) = {O} allora XΦ = V per (13.2). Supponiamo che
L(X) 6= {O} e sia {B1 , B2 , ..., Bm } una sua base, che possiamo sempre pensare
contenuta in X. Quindi, per (14.3) e (14.5),
m
\
XΦ = {B1 , B2 , ..., Bm }Φ = BiΦ
i=1
(ove scriviamo brevemente BiΦ anzichè {Bi }Φ ). Quindi XΦ è la soluzione del
seguente sistema di equazioni
(i) Φ(X, Bk ) = 0, (k = 1, 2, ..., m)
Se A è la matrice rappresentativa di Φ rispetto ad una data base E di V,
possiamo riscrivere il sistema (i) cosı̀:
(ii) X t ABk = 0, (k = 1, 2, ..., m)
(ove per brevità scriviamo X e Bk anzichè (X)E e (Bk )E ). Indicata con B
la matrice di Mn,m (K) che ha i vettori B1 , B2 , ..., Bm come colonne, possiamo
riassumere il sistema (ii) cosı̀
(iii) X t AB = 0
Per ipotesi, Φ è non degenere. Quindi A è non singolare. D’ altra parte, B ha
rango m perchè le sue colonne B1 , B2 , ..., Bm sono indipendenti. Ne segue che
AB ha rango m (Capitolo 13, Esercizio 13.5). Quindi la soluzione di (iii), che
è XΦ , ha dimensione n − m. 2
Corollario 23.15 Se dim(V) < ∞ e Φ è non degenere, allora (XΦ )Φ = L(X).
Dimostrazione. Sia dim(V) = n < ∞ e Φ sia non degenere. Dalla Proposizione
23.14 segue che
dim((XΦ )Φ ) = n − dim(XΦ ) = n − (n − dim(L(X))) = dim(L(X))
Quindi dim(L(X)) = dim((XΦ )Φ ). D’ altra parte, L(X) ⊆ (XΦ )Φ per (13.4).
Quindi L(X) = (XΦ )Φ . 2
Il Corollario 23.15 è l’ analogo del Teorema 9.19 del Capitolo 9 mentre la Pro-
posizione 23.14 può essere vista come l’ analoga del Corollario 9.17 del Capitolo
9. Si noti che però ora non è detto che V = L(X) ⊕ XΦ . Infatti non è detto
che valga l’ analoga della (1) del Capitolo 9. Per esempio, quando K = R e Φ
è simmetrica, assumere che X ∩ XΦ sia sempre ∅ o {O} è come assumere che Φ
sia definita positiva o negativa.
Proposizione 23.16 Sia dim(V) < ∞ e la forma Φ sia alternante. Allora
rank(Φ) è pari e, preso un qualunque complementare W di Rad(Φ), la forma
Φ|W×W indotta da Φ su W è non degenere e si può trovare una base di W tale
23.6. FORME SEQUILINEARI E FORME MULTILINEARI 467
che la matrice rappresentativa di Φ|W×W rispetto a quella base è diagonale a
blocchi, formata dal seguente blocco ripetuto rank(Φ)/2 volte:
0 1
−1 0
Schema di dimostrazione. Per induzione su dim(V). L’ asserzione è ovvia se
dim(V) = 1. Sia dim(V) > 1. Se Φ è la forma nulla, non c’ è nulla da dimostrare.
Supponiamo dunque che Φ non sia la forma nulla. Dunque Φ(U, V ) 6= 0 per due
opportuni vettori U, V e risulta V = {U, V }Φ ⊕ L(U, V ). Posto a = Φ(U, V )−1 ,
la forma indotta da Φ su L(U, V ) è rappresentata da questa matrice rispetto ad
(U, aV ):
0 1
−1 0
D’ altra parte, Rad(Φ) coincide col radicale della forma indotta da Φ su {U, V }Φ .
Siccome dim({U, V }Φ ) = dim(V) − 2, possiamo applicare l’ ipotesi induttiva ad
{U, V }Φ ... 2
Corollario 23.17 Tutte le forme alternanti su spazi vettoriali di dimensione
dispari sono degeneri.
23.6 Forme sequilineari e forme multilineari
Daremo ora due diverse generalizzazioni della nozione di forma bilineare. Anche
in questa sezione V è un dato spazio vettoriale, V è l’ insieme dei suoi vettori e
K è il campo degli scalari.
23.6.1 Forme sesquilineari
Sia γ un automorfismo di K. Una funzione Φ da V × V a K è detta una
forma γ-sesquilineare (brevemente, forma sesquilineare) se verifica le proprietà
(1) (Sezione 23.1) e queste due identità (cfr. Sezione 23.1, (2)):
Φ(xX, Y ) = xΦ(X, Y ), (∀X, Y ∈ V, ∀x ∈ K)
Φ(X, xY ) = Φ(X, Y )γ(x), (∀X, Y ∈ V, ∀x ∈ K)
Cioè, Φ è sesquilineare se e solo se
n
X m
X n,m
X
Φ( xi Xi , yj Yj ) = xi Φ(Xi , Yj )γ(yj )
i=1 j=1 i,j=1
per ogni scelta di numeri naturali n, m > 0, di vettori X1 , ..., Xn , Y1 , ..., Ym e di
scalari x1 , ..., xn , y1 , ..., ym .
Le forme bilineari sono le forme ι-sesquilineari (ove con ι indichiamo l’ au-
tomorfismo identità di K). Sia invece γ 2 = ι ma γ 6= ι e sia Φ una forma
γ-sesquilineare. La forma Φ è detta hermitiana se
Φ(X, Y ) = γ(Φ(Y, X)), (∀X, Y ∈ V)
468 Capitolo 23
Se invece
Φ(X, Y ) = −γ(Φ(Y, X)), (∀X, Y ∈ V)
allora Φ è detta anti-hermitiana (cfr. Capitolo 18, §18.2.3). Per esempio, il
prodotto scalare di uno spazio euclideo complesso è una forma hermitiana; in
questo caso γ è l’ automorfismo di C che porta ogni numero complesso nel suo
coniugato.
Le cose dette nella Sezione 23.5 per forme simmetriche ed alternanti valgono
anche per forme hermitiane e anti-hermitiane; ma non insisto su questo.
23.6.2 Forme multilineari
Sia n un numero naturale 6= 0. Una forma n-lineare su V è una funzione Φ da
Vn a K tale che
m1
X m2
X mn
X
Φ( xi1 ,1 Xi1 ,1 , xi2 ,2 Xi2 ,2 , ..., xin ,n Xin ,n ) =
i1 =1 i2 =1 in =1
m1 ,m
X 2 ...,mn
= xi1 ,1 xi2 ,2 ...xin ,n Φ(Xi1 ,1 , Xi2 ,2 , ..., Xin ,n )
i1 ,i2 ,...,in =1
per ogni scelta di interi positivi m1 , m2 , ..., mn , di vettori Xi,k e di scalari xi,k
(k = 1, 2, ..., n ed i = 1, 2, ..., mk ). Le forme 1-lineari sono i funzionali lineari.
Le forme 2-lineari sono quelle bilineari.
23.6.3 Forme n–alternanti
Una forma n–alternante su V è una forma n–lineare tale che per ogni scelta di
vettori X1 , X2 , ..., Xn ∈ V e per ogni permutazione α ∈ Sym(n) risulti
Φ(Xα(1) , Xα(2) , ..., Xα(n) ) = sgn(α)Φ(X1 , X2 , ..., Xn )
e inoltre
Xi = Xj =⇒ Φ(X1 , X2 , ..., Xn ) = 0, (se i 6= j)
(Quando ch(K) 6= 2 la seconda condizione si deduce dalla prima; cfr. Capitolo
21, dimostrazione della Proposizione 21.10; cfr. anche (11’) e (11) del presente
capitolo.)
Per le Proposizioni 21.2, 21.4 e 21.10 del Capitolo 21, la funzione, diciamola
detn , che ad ogni matrice di Mn (K) associa il suo determinante, è una forma n-
alternante su Vn (K), pensando le matrici di Mn (K) come n–ple di righe (oppure
di colonne). Anzi,
Teorema 23.18 La funzione detn è l’ unica forma n-alternante su Vn (K) che
valga 1 sulla n–pla dei versori di Vn (K) (che corrisponde alla matrice identità
di ordine n).
23.6. FORME SEQUILINEARI E FORME MULTILINEARI 469
(Tralascio la dimostrazione.) È ovvio che moltiplicando detn per uno scalare
si ottiene ancora una forma n-alternante su Vn (K). Viceversa, ogni forma n-
alternante su Vn (K) si ottiene moltiplicando detn per il valore che quella forma
assume in corrispondenza della n–pla dei versori.
In particolare, le forme bilineari alternanti su V2 (K) sono quelle che si
ottengono moltiplicando det2 per qualche scalare.
470 Capitolo 23
Capitolo 24
Quadriche e coniche
Le quadriche in Vn (R) sono l’ argomento di questo capitolo. (Veramente, per
parlare di quadriche, sarebbe meglio porsi in spazi proiettivi complessi, ma non
voglio parlare anche di spazi proiettivi; il punto di vista proiettivo non è una
nozione ma una tecnica; poche pagine non servirebbero a fare assimilare una
tecnica.)
Intenderemo Vn (R) come spazio euclideo, con il suo prodotto scalare stan-
dard, e supporremo sempre n > 1. Con U = (U1 , U2 , ..., Un ) indichiamo la n–pla
dei versori di Vn (R). Un sistema di riferimento in Vn (R) è detto ortonormale
quando i versori del sistema formano una base ortonormale di Vn (R). Per esem-
pio il sistema (O, U), che ha O come origine e i versori di Vn (R) come versori,
è ortonormale. Lo diciamo sistema di riferimento standard. (In esso possiamo
risparmiarci di distinguere tra un punto X di Vn (R) e la n–pla (xi )ni=1 delle sue
coordinate.)
In accordo con la convenzione adottata nel Capitolo 15, dato un vettore
X = (xi )ni=1 , se lo trattiamo come una matrice, lo prendiamo come matrice
colonna,
x1
x2
X=
...
xn
Per averlo in riga, considereremo il suo trasposto X t . Modificando la notazione
adottata in §21.7.3 del Capitolo 21, stabiliamo di indicare con [X] il vettore di
Vn+1 (R) ottenuto da X aggiungendo 1 come (n + 1)–esima componente,
x1
...
[X] =
xn
471
472 Capitolo 24
24.1 Sui polinomi di secondo grado
In questa sezione tratteremo solo di polinomi. Di quadriche e coniche comince-
remo a parlare nella Sezione 24.2. Dato un polinomio F di secondo grado in n
variabili e a coefficienti in R,
X n
X
F (x1 , x2 , ..., xn ) = ai,j xi xj + ai xi + a
1≤i≤j≤n i=1
definiamo la sua parte di primo grado F1 e la sua parte di secondo grado F2 cosı̀:
n
X
F1 (x1 , x2 , ..., xn ) =def ai xi
i=1
X
F2 (x1 , x2 , ..., xn ) =def ai,j xi xj
1≤i≤j≤n
Quindi F = F2 + F1 + a.
24.1.1 Notazione matriciale
Siano F , F2 , F1 ed a come sopra. Il polinomio F2 esprime una forma quadratica
(Capitolo 23, Sezione 23.3). Sia Φ la forma bilineare simmetrica determinata
da questa forma quadratica e sia A2 la matrice (simmetrica) che rappresenta Φ
rispetto alla base dei versori di Vn (R), cioè A2 = (mi,j )ni,j=1 ove
mi,j = mj,i = ai,j /2, (i, j = 1, 2, ..., n, i < j)
mi,i = ai,i , i = 1, 2, ..., n
Quindi
F2 (x1 , x2 , ..., xn ) = Φ(X, X) = X t A2 X
(ove X = (xi )ni=1 ). Diciamo A2 la matrice parziale di F . Poniamo poi A1 =
(ai /2)ni=1 . Abbiamo cosı̀
F1 (x1 , x2 , ..., xn ) = 2hA1 , Xi = 2At1 X
Pertanto
(1.1) F (x1 , x2 , ..., xn ) = X t A2 X + 2At1 X + a
cioè
(1.2) F (x1 , x2 , ..., xn ) = [X]t A[X]
ove
a1,1 a1,2 /2 ..... a1,n /2 a1 /2
a1,2 /2 a2,2 ..... a2,n /2 a2 /2
A2 A1
A = = .... .... ..... .... ....
At1 a
a1,n /2 a2,n /2 ..... an,n an /2
a1 /2 a2 /2 ..... an /2 a
24.1. SUI POLINOMI DI SECONDO GRADO 473
Diciamo A matrice completa di F . Si noti che anche questa matrice è simmetrica.
Se q : Vn+1 (R) −→ R è la forma quadratica ad essa associata, la (1.2) dice che
F (x1 , x2 , ..., xn ) = q(x1 , x2 , ..., xn , 1).
24.1.2 Cambiando il sistema di riferimento
Dato F come sopra, identifichiamo il polinomio F con la funzione dall’ insieme
dei punti di Vn (R) ad R espressa da F , che ad ogni punto X = (x1 , x2 , ..., xn )
di Vn (R) associa il numero F (X) = F (x1 , x2 , ..., xn ). Prendendo in Vn (R) un
sistema di riferimento (P, E) diverso dal sistema standard (O, U) cambiano le
coordinate di X. Vedremo ora come cambia l’ espressione che ci dà il valore
F (X) in funzione di queste nuove coordinate. Sia M la matrice che fa passare
da U ad E, cioè UM = E. Rammentiamo che, indicata con Y la n–pla delle
coordinate di X rispetto a (P, E), risulta X = M Y + P (Capitolo 12, (19)).
Sostituendo in (1.1) otteniamo
F (X) = X t A2 X + 2At1 X + a =
= (M Y + P )t A2 (M Y + P ) + 2At1 (M Y + P ) + a =
= (M Y )t A2 M Y + P t A2 M Y + (M Y )t A2 P + 2At1 M Y +
+P t A2 P + +2At1 P + a
D’ altra parte, (M Y )t = Y t M t . Inoltre (M Y )t A2 P , essendo uno scalare, è una
matrice simmetrica. Quindi
(M Y )t A2 P = ((M Y )t A2 P )t = P t At2 (M Y )tt = P t A2 M Y
perchè A2 è simmetrica ed (M Y )tt = M Y . Dunque
F (X) = Y t (M t A2 M )Y + 2(P t A2 + At1 )M Y + (P t A2 P + 2At1 P + a)
Cioè,
(2.1) F (X) = Y t B2 Y + 2B1t Y + b
ove si è posto
(2.2) B2 = M t A2 M
(2.3) B1 = M t (A2 P + A1 ) (= ((P t A2 + At1 )M )t )
(2.4) b = P t A2 P + 2At1 P + a (= F (P ))
La matrice B2 (simmetrica) rappresenta rispetto alla base E la stessa forma
bilineare rappresentata da A2 rispetto ad U (Capitolo 23, (7)). La diciamo
matrice parziale di F rispetto al sistema di riferimento (P, E) (ed A2 è la matrice
parziale di F rispetto al sistema di riferimento standard). Ponendo
B2 B1
B =
B1t b
possiamo riscrivere la (2.1) anche cosı̀:
(2.5) F (X) = [Y ]t B[Y ]
474 Capitolo 24
La matrice B (anch’ essa simmetrica) è detta matrice completa di F rispetto al
sistema di riferimento (P, E) (mentre A è la matrice completa di F rispetto al
sistema di riferimento standard). In particolare, quando P = O si ha
M t A2 M M t A1
B = =
At1 M a
(2.6)
Mt
On,1 A2 A1 M On,1
=
O1,n 1 At1 a O1,n 1
ove On,1 sta ad indicare la matrice nulla n × 1 ed O1,n è la matrice nulla 1 × n.
Invece, quando M = I si ha
A2 A1 + A2 P
(2.7) B =
P t A2 + At1 2At1 P + P t A2 P + a
24.1.3 Ranghi, autovalori e autovettori
Il passaggio da (O, U) ad un altro sistema di riferimento (P, E) può pensarsi
eseguito in due tappe: prima sostituiamo U con E e poi prendiamo P come
nuova origine. Sia
B2 B1
B =
B1t a
la matrice completa di F rispetto ad (O, E), ove B2 = M t A2 M (come in (2.2))
e B1 = M t A1 (come in (2.3) ma con O in vece di P ). Posto
M On,1
M1 =
O1,n 1
risulta B = M1t AM1 (cfr. (2.6)). D’ altra parte, M1 è invertibile (infatti M è
invertibile). Quindi B ad A hanno lo stesso rango (Capitolo 23, Proposizione
23.2). Analogamente, B2 ed A2 hanno lo stesso rango.
Ora prendiamo P come nuova origine. Indicata con C la matrice completa
di F rispetto al sistema (P, E), dalla (2.7) applicata a B anzichè ad A otteniamo
che
B2 B2 P + B1
C =
t t t t
P B2 + B1 P B2 P + 2B1 P + a
cioè
M t A2 M M t A2 M P + M t A1
C=
t t
P M A2 M + At1 M t t
P M A2 M P + 2At1 M P +a
(cfr (2.4); si noti che cambiando l’ origine non si produce alcun effetto sulla
matrice parziale). Indichiamo con p1 , p2 , ..., pn le coordinate di P rispetto ad
24.1. SUI POLINOMI DI SECONDO GRADO 475
(O, U). Se all’ ultima colonna di B aggiungiamo la prima moltiplicata per p1 ,
la seconda moltiplicata per p2 e cosı̀ via, otteniamo la seguente matrice:
B2 B2 P + B1
t t
B1 B1 P + a
Ripartiamo da questa ed alla sua ultima riga aggiungiamo la prima moltiplicata
per p1 , la seconda moltiplicata per p2 , ecc. Otteniamo cosı̀ la seguente matrice
B2 B2 P + B1
t t t t
P B2 + B1 P (B2 P + B1 ) + B1 P + a
che altro non è che C (si noti che P t B1 = B1t P ). Insomma, possiamo pas-
sare da B a C mediante manipolazioni elementari eseguite su colonne e su
righe. Manipolazioni di questo tipo non hanno alcun effetto sul rango. Quindi
rank(C) = rank(B). D’ altra parte, si è già visto che rank(B) = rank(A).
Sicchè rank(C) = rank(A). In definitiva, si è dimostrato quanto segue:
Teorema 24.1 Qualunque sia il sistema di riferimento (P, E), il rango della
matrice completa di F rispetto a (P, E) è sempre uguale al rango di A ed il
rango della matrice parziale di F rispetto a (P, E) è sempre uguale al rango di
A2 .
Chiamiamo rango di F il rango di A e lo indichiamo con rank(F ). Il rango
di A2 lo indichiamo con rank2 (F ). Si noti che A2 6= O, perchè F ha grado 2.
Dunque rank2 (F ) > 0. Inoltre rank(F ) ≥ rank2 (F ) perchè A2 si ottiene da
A cancellandone una riga ed una colonna. Naturalmente, nulla impedisce che
rank(F ) = rank2 (F ). Per esempio, questo succede quando F è omogeneo (cioè,
quando F = F2 ).
Gli autovalori di A2 sono gli autovalori della forma bilineare simmetrica Φ
rappresentata da A2 rispetto alla base U di Vn (R). Li diciamo autovalori di
F . Si noti che almeno uno di essi è 6= 0, dal momento che rank2 (F ) > 0. Gli
autovettori di Φ (Capitolo 23, §23.2.1) li chiamiamo autovettori di F .
24.1.4 Sistemi ortonormali
Di qui in poi considereremo sempre solo sistemi di riferimento ortonormali.
Come in §24.1.1, indichiamo con A2 la matrice parziale di F rispetto al sistema
di riferimento standard (O, U). Sia E una base ortonormale di Vn (R). La
matrice M che porta U in E è ortogonale. Dunque M t = M −1 e la (2.2) può
riscriversi cosı̀:
(3.1) B2 = M −1 A2 M
(cfr. Capitolo 23, Lemma 23.3). Per il Teorema 23.4 del Capitolo 23, possiamo
prendere E formata da autovettori di F . Con questa scelta di E la matrice B2
risulta diagonale, B2 = diag(ci )ni=1 ove c1 , c2 , ..., cn sono gli autovalori di F .
476 Capitolo 24
Dunque, preso un sistema di riferimento ortonormale (P, E) con E formata
da autovettori di F , la matrice completa di F rispetto a (P, E) ha questa forma,
c1 0 ..... 0 b1
0 c2 ..... 0 b2
... ... ..... ... ...
0 0 ..... cn bn
b1 b2 ..... bn b
ove la n–pla B1 = (bi )ni=1 dipende solo da E e b dipende solo da P . Infatti,
B1 = M t A2 M + M t A1 e b = F (P ), per (2.3) e (2.4).
Poniamo k = rank2 (F ) e, se k < n (cioè se 0 è un autovalore di F ), suppo-
niamo che gli autovettori di F che formano E siano dati in ordine tale che nella
sequenza (ci )ni=1 degli autovalori di F quelli 6= 0 vengano per primi. Cioè ci 6= 0
se i ≤ k e ci = 0 per i > k. Vogliamo scegliere P in modo da fare assumere a
B la forma più semplice possibile. Cominciamo col porre Q = (qi )ni=1 = M −1 P
(questo ci agevolerà un po’ i calcoli). Quindi P = M Q. Sicchè, scegliere Q
equivale a scegliere P . Risulta M t A2 P = M t A2 M M −1 P = B2 Q (per (2.2) e
perchè Q = M −1 P ). Perciò,
(3.2) B1 = B2 Q + M t A1
D’ altra parte B2 = diag(ci )ni=1 . Quindi, indicate con d1 , d2 , ..., dn le componenti
del vettore M t A1 , da (3.2) otteniamo che
B1 = (c1 q1 + d1 , c2 q2 + d2 , ..., ck qk + dk , dk+1 , dk+2 , ..., dn )
Poniamo qi = −di /ci per i = 1, 2, ..., k (possiamo farlo perchè, per ipotesi,
nessuno degli autovalori c1 , c2 , ..., ck è 0). Con questa scelta delle prime k coor-
dinate di Q risulta ci qi + di = 0 per i = 1, 2, ...k. La matrice B assume dunque
questa forma:
c1 0 ..... 0 0 ..... 0 0
0 c2 ..... 0 0 ..... 0 0
... ... ..... ... ... ..... ... ...
0 0 ..... ck 0 ..... 0 0
0 0 ..... 0 0 ..... 0 dk+1
... ... ..... ... ... ..... ... ...
0 0 ..... 0 0 ..... 0 dn
0 0 ..... 0 dk+1 ..... dn b
Se k = n, oppure se k < n ma dk+1 = dk+2 = ... = dn = 0, allora B ha già una
forma molto semplice:
c1 0 ..... 0 0 ..... 0 0
0 c2 ..... 0 0 ..... 0 0
... ... ..... ... ... ..... ... ...
0 0 ..... ck 0 ..... 0 0
(3.3) B = 0
0 ..... 0 0 ..... 0 0
... ... ..... ... ... ..... ... ...
0 0 ..... 0 0 ..... 0 0
0 0 ..... 0 0 ..... 0 b
24.1. SUI POLINOMI DI SECONDO GRADO 477
In particolare, se k = n abbiamo
c1 0 ..... 0 0
0 c2 ..... 0 0
(3.4) B = ... ... ..... ... ...
0 0 ..... cn 0
0 0 ..... 0 b
In questo caso B2 è invertibile (quindi anche A2 lo è) e le condizioni imposte su
Q determinano Q univocamente. Infatti ora B1 = O, quindi
Q = −B2−1 M t A1 = −M −1 A−1 t
2 M M A1 = −M
−1 −1
A2 A1
per (3.2), (3.1) e perchè M t = M −1 . Ma Q = M −1 P . Quindi
(3.5) P = −A−1
2 A1
Supponiamo invece che k < n e che qualcuno dei numeri dk+1 , dk+2 , ..., dn sia
6= 0. Da (2.4) sappiamo che
b = F (P ) = P t A2 P + 2At1 P + a =
= Qt M t A2 M Q + 2At1 M Q + a = Qt B2 Q + 2At1 M Q + a
Siccome At1 M Q è uno scalare, risulta At1 M Q = (At1 M Q)t = Qt M t A1 . Quindi
b = Qt B2 Q + 2Qt M t A1 + a = Qt (B2 Q + 2M t A1 )
= Qt (B2 Q + M t A1 ) + Qt M t A1 + a = Qt B1 + Qt M t A1 + a
per (3.2). D’ altra parte, B1 = (0, ..., 0, dk+1 , ..., dn ) per come si sono scelte le
prime k coordinate di Q. Quindi
n
X n
X
b = qi di + ... + qi di + a =
i=k+1 i=1
= a + q1 d1 + ... + qk dk + 2qk+1 dk+1 + ... + 2qn dn
Abbiamo scelto i valori da assegnare alle prime k coordinate di q, ma sulle ri-
manenti non abbiamo imposto nessuna condizione. Dunque possiamo prenderle
come vogliamo. Siccome per ipotesi non tutti i coefficienti dk+1 , dk+2 , ..., dn
sono nulli, possiamo sempre scegliere qk+1 , qk+2 , ..., qn in modo che
a + q1 d1 + ... + qk dk + 2qk+1 dk+1 + ... + 2qn dn = 0
Cosı̀ abbiamo b = 0. Scelto Q in questo modo, risulta
c1 0 ..... 0 0 ..... 0 0
0 c2 ..... 0 0 ..... 0 0
... ... ..... ... ... ..... ... ...
0 0 ..... ck 0 ..... 0 0
(3.6) B = 0 0 ..... 0 0
..... 0 dk+1
... ... ..... ... ... ..... ... ...
0 0 ..... 0 0 ..... 0 dn
0 0 ..... 0 dk+1 ..... dn 0
478 Capitolo 24
ove almeno uno dei numeri dk+1 , dk+2 , ..., dn è 6= 0. In particolare, quando
k = n − 1 si ottiene
c1 0 ..... 0 0 0
0 c2 ..... 0 0 0
... ... ..... ... ... ...
(3.7) B =
0 0 ..... cn−1 0 0
0 0 ..... 0 0 dn
0 0 ..... 0 dn 0
ove dn 6= 0. Anche in questo caso le condizioni imposte sul punto Q lo determi-
nano univocamente. Infatti le prime n − 1 componenti di Q sono determinate
dalle condizioni qi = −di /ci (1 ≤ i < n), mentre la condizione
a + q1 d1 + ... + qn−1 dn−1 + 2qn dn = 0
determina l’ ultima componente di Q,
X d2 n−1
a + q1 d1 + ... + qn−1 dn−1 a i
qn = − = − +
2dn 2dn i=1
2dn ci
È immediato riconoscere che se B è come in (3.6) allora rank(B) = k + 2. Se
invece B è come in (3.3), allora rank(B) vale k oppure k + 1 a seconda che b = 0
oppure b 6= 0. Dunque,
Proposizione 24.2 Risulta rank2 (F ) ≤ rank(F ) ≤ 2 + rank2 (F ).
Quindi,
Corollario 24.3 Se rank(F ) = n + 1 allora rank2 (F ) è n − 1 oppure n.
Nelle cose dette a commento di (3.4) e (3.7) è anche implicito quanto segue:
Corollario 24.4 Sia E una base ortonormale di Vn (R) formata da autovettori
di F . Se rank(F ) = n + 1, esiste un unico punto P tale che la matrice completa
di F rispetto a (P, E) abbia la forma (3.4) (con b 6= 0) oppure la forma (3.7) (ove
dn 6= 0). Si perviene a (3.4) quando rank2 (F ) = n, mentre quando rank2 (F ) =
n − 1 si ottiene la (3.7).
24.1.5 Riducibilità e inseparabilità
Rimando al Capitolo 7 del Volume 2 per la definizione di riducibilità e separabi-
lità. Rammento che ogni polinomio inseparabile è anche riducibile. Nel nostro
caso, siccome F è di secondo grado, dire che F è riducibile è come dire che
F = G1 G2 per opportuni polinomi G1 , G2 di primo grado. Naturalmente, F
(che è un polinomio a coefficienti in R) potrebbe essere riducibile in C ma non
in R. Per esempio, il polinomio x2 + y 2 , irriducibile in R, è riducibile in C.
Infatti x2 + y 2 = (x + iy)(x − iy).
24.1. SUI POLINOMI DI SECONDO GRADO 479
Circa la separabilità, siccome F è di secondo grado, esso è inseparabile se
e solo se F = cG2 per qualche polinomio G di primo grado a coefficienti in
C e per qualche costante c 6= 0. Siccome ogni numero complesso non nullo
ammette sempre due radici quadrate in C, nel caso complesso la condizione
F = cG2 può riscriversi brevemente cosı̀: F = G21 , ove G1 = c1 G e c1 è una
qualunque delle due radici quadrate di c. Supponiamo dunque che F = G21
per qualche polinomio G1 a coefficienti complessi. Però, tutti i coefficienti di F
sono reali. Questo implica che i coefficienti non nulli di G1 sono o tutti reali
o tutti immaginari puri. Nel primo caso la relazione F = G21 ci dice che F è
inseparabile in R. Nel secondo caso, il polinomio G = iG1 ha coefficienti reali
ed F = −G2 . Di nuovo, F è inseparabile in R. Insomma, F è inseparabile in C
se e solo se è inseparabile in R. Dunque, parlando di separabilità, non occorre
specificare se ci riferiamo a C o ad R.
Proposizione 24.5 Risulta rank(F ) ≤ 2 se e solo se F è riducibile in C.
Risulta rank(F ) = 1 se e solo se F è inseparabile.
Dimostrazione. Supponiamo che F sia riducibile, cioè valga l’ identità
n
X n
X
(i) F (x1 , x2 , ..., xn ) = (g1 + g1,i xi )(g2 + g2,i xi )
i=1 i=1
per opportuni numeri complessi g1,1 ,..., g1,n , g1 , g2,1 ,..., g2,n , g2 , con g1,1 ,..., g1,n
e g2,1 ,..., g2,n non tutti nulli. Poniamo
G1 = (g1,1 , g1,2 , ..., g1,n , g1 ), G2 = (g2,1 , g2,2 , ..., g2,n , g2 )
intendendoli al solito come matrici colonna. Possiamo allora riscrivere la (i) cosı̀
(ii) F (X) = [X]t G1 Gt2 [X] = [X]t G2 Gt1 [X] = [X]t A[X]
ove A = (G1 Gt2 + G2 Gt1 )/2. È evidente che la matrice A è simmetrica e la (ii)
ci dice che A è proprio la matrice completa di F .
Dette α, ϕ1 e ϕ2 le trasformazioni lineari da Vn+1 (C) a Vn+1 (C) rappresentate
rispetto alla base dei versori dalle matrici A, G1 Gt2 /2 e G2 Gt1 /2, si ha che
α = ϕ1 + ϕ2 . Ovviamente, Im(α) ⊆ Im(ϕ1 ) + Im(ϕ2 ). D’ altra parte, tutte le
colonne della matrice Gt1 G2 /2 sono proporzionali a G2 mentre tutte le colonne
della matrice Gt2 G1 /2 sono proporzionali a G1 . Quindi Im(ϕ1 ) ⊆ L(G2 ) e
Im(ϕ2 ) ⊆ L(G1 ). Pertanto Im(α) ⊆ L(G1 , G2 ). Sicchè rank(A) ≤ 2. Cioè
rank(F ) ≤ 2.
Supponiamo per di più che F sia inseparabile. Allora possiamo prendere
G1 = G2 . Posto G = G1 (= G2 ), abbiamo Im(α) ⊆ L(G). Dunque rank(A) ≤ 1
e perciò rank(A) = 1 perchè, non essendo F il polinomio nullo, A 6= O.
480 Capitolo 24
Viceversa, sia rank(F ) ≤ 2. Per quel che si è detto in §24.1.4, possiamo
prendere un sistema ortonormale (P, E) in modo che rispetto ad esso la matrice
completa B di F assuma una delle tre forme seguenti:
c1 0 0 ..... 0 0
0 c2 0 ..... 0 0
(a) B=
... ... ... ..... ... ...
0 0 0 ..... 0 0
0 0 0 ..... 0 0
c1 0 0 ..... 0 0
0 0 0 ..... 0 0
(b) B=
... ... ... ..... ... ...
0 0 0 ..... 0 0
0 0 0 ..... 0 b
c1 0 0 ..... 0 0
0 0 0 ..... 0 0
(c) B=
... ... ... ..... ... ...
0 0 0 ..... 0 0
0 0 0 ..... 0 0
ove c1 6= 0 e, per mantenere distinti i vari casi, supponiamo c2 6= 0 in (a) e
b 6= 0 in (b). Si noti che rank(F ) = 2 nei primi due casi mentre rank(F ) = 1
nel terzo caso. Dette y1 , y2 , ..., yn le coordinate rispetto a (P, E) di un punto X
di Vn (R), risulta
(caso (a)) F (X) = c1 y12 + c2 y22
(caso (b)) F (X) = c1 y12 + b
(caso (c)) F (X) = c1 y12
√
Indichiamo con c1 una qualunque
√ delle due radici quadrate di c1 in C. Analogo
√
significato diamo a c2 e b. Cosı̀ possiamo riscrivere F come segue:
√ √ √ √
(caso (a)) − i c2 y 2 )
F (X) = ( c1 y1 + i√c2 y2 )( c1 y1 √
√ √
(caso (b)) F (X) = ( c1 y1 + i b)( c1 y1 − i b)
√
(caso (c)) F (X) = ( c1 y1 )2
In ogni caso, posto Y = (yi )ni=1 risulta F (X) = G1 (Y )G2 (Y ) per opportuni
polinomi G1 e G2 di primo grado a coefficienti in C. Se M è la matrice che
porta U in E, risulta X = M Y + P , quindi Y = M −1 (X − P ). Dunque
F (X) = G1 (M −1 (X − P ))G2 (M −1 (X − P )). Dunque F è riducibile in C. Nel
caso (c) (che corrisponde al caso in cui rank(F ) = 1) il polinomio F è addirittura
inseparabile. 2
24.2. ESERCIZI 481
24.2 Esercizi
Esercizio 24.1 Sia F un polinomio di secondo grado in n variabili e si sup-
ponga che F sia omogeneo (cioè F = F2 ), oppure che una di quelle n variabili
non compaia esplicitamente in F . Si dimostri che rank(F ) ≤ n.
Esercizio 24.2 Risulta dalla Proposizione 24.5 che ogni polinomio omogeneo di
secondo grado a coefficienti in R e in due variabili è riducibile in C. Si riottenga
questa conclusione per via diretta.
Traccia. Sia F (x, y) = ax2 + by 2 + cxy. Se a = b = 0 non c’ è nulla da
dimostrare. Supponiamo che a e b non siano entrambi nulli, per esempio a 6= 0.
Si devono trovare due numeri u e v tali che valga l’ identità
ax2 + by 2 + cxy = (x + uy)(ax + vy).
Si fanno i conti e si trova che ...
Esercizio 24.3 Si dimostri che rank(F ) ≤ n se e solo se esistono un punto P ,
una matrice invertibile M ed un polinomio di secondo grado G in n variabili, non
dipendente da qualcuna delle sue variabili oppure omogeneo, tali che F (X) =
G(M X + P ) per ogni X ∈ Vn (R). (Cfr. Volume 2, Capitolo 7, Esercizio 7.1.)
Esercizio 24.4 Dati in Vn (R) due distinti punti A e B, per ogni X ∈ Vn (R)
si ponga F (X) = ||X − A||2 − ||X − B||2 . Si dimostri che la funzione F è un
polinomio di secondo grado inseparabile.
Esercizio 24.5 Dati in Vn (R) due distinti iperpiani S ed S0 , sia F la funzione
che ad ogni punto X di Vn (R) associa la differenza tra il quadrato della distanza
di X da S ed il quadrato della distanza di X da S0 . Si dimostri che F è un poli-
nomio di secondo grado riducibile in R. Si dimostri anche che F è inseparabile
se e solo se S ed S0 sono paralleli.
Esercizio 24.6 Date in V3 (R) due distinte rette L ed L0 , la funzione F che ad
ogni punto X ∈ V3 (R) associa la differenza tra il quadrato della distanza di X
da L ed il quadrato della distanza di X da L0 è un polinomio di secondo grado.
Si dimostri quanto segue:
(i) Risulta rank(F ) = 3 se e solo se L ed L0 sono sghembe.
(ii) Se L ed L0 sono incidenti, allora rank(F ) = 2 (quindi F è riducibile in R).
(iii) Se L ed L0 sono parallele, allora F è inseparabile (cioè rank(F ) = 1).
Esercizio 24.7 Sia F (X) un polinomio di secondo grado a coefficienti in C. È
vero che, scegliendo opportunamente un sistema di riferimento in Vn (C), pos-
siamo sempre fare assumere alla matrice completa di F una delle forme (3.3) o
(3.6) ?
Risposta. No. Infatti in Mn (C) ci sono matrici simmetriche non diagonalizza-
bili. Si noti che i Teoremi 22.29 e 22.30 del Capitolo 22 si riferiscono a matrici
simmetriche di Mn (R) e a matrici hermitiane di Mn (C); una matrice simmetrica
di Mn (C) è hermitiana se e solo tutti i suoi coefficienti sono reali.
482 Capitolo 24
24.3 Generalità sulle quadriche
Una quadrica in Vn (R) è l’ insieme dei punti di Vn (R) che soddisfano una data
equazione di secondo grado in n variabili, cioè l’ insieme ZR (F ) degli zeri reali di
un polinomio F di secondo grado in n variabili e a coefficienti in R. Le quadriche
di V2 (R) sono dette coniche. (Alcuni preferiscono chiamare iperquadriche le
quadriche di Vn (R) quando n ≥ 4, riservando la parola quadrica solo al caso di
n = 3.)
Si può parlare di quadriche anche in sottospazi affini di Vn (R). Infatti, dato
un sottospazio affine X di Vn (R) di dimensione m, con 2 ≤ m < n, la scelta di
una sistema di riferimento in X permette di identificare X con Vm (R) (Capitolo
11, §11.5.3 e Capitolo 12, Sezione 12.5). I sottoinsiemi di X che in questa
identificazione corrispondono alle quadriche di Vm (R) sono detti quadriche di
X (coniche quando X è un piano).
24.3.1 Quadriche, polinomi ed equazioni
Dato un polinomio di secondo grado F in n variabili e a coefficienti in R, sia
S = ZR (F ). Si usa dire che la quadrica S è rappresentata dall’ equazione
(4.1) F (x1 , x2 , ..., xn ) = 0
che si può anche scrivere cosı̀, in forma matriciale (cfr. (1.1)),
(4.2) X t A2 X + 2At1 X + a = 0
o più brevemente cosı̀ (cfr. (1.2)):
(4.3) [X]t A[X] = 0.
Siccome il modo di esprimere F dipende dal sistema di riferimento che si è scelto
in Vn (R) (cfr. §24.1.2), cambiando sistema di riferimento cambia anche la forma
assunta dall’ equazione (4.1) (cioè da (4.2) e (4.3)). Ma per ora non occupiamoci
di questo. Immaginiamo di avere scelto un sistema di riferimento (per esempio,
quello standard) e teniamocelo. Naturalmente, moltiplicando il polinomio F (o
l’ equazione (4.1)) per una costante 6= 0 si ottiene un altro polinomio (un’ altra
equazione). Ma questo non disturba molto: di solito, non si sta a distinguere
tra due equazioni se differiscono solo per una costante moltiplicativa.
Ma si vorrebbe che tutti i polinomi che descrivono una data quadrica S
differissero solo per costanti moltiplicative, qualunque sia S. Purtroppo questo
non è vero. Sarebbe vero se avessimo scelto Vn (C) come ‘universo’. Infatti:
Teorema 24.6 Siano F e G polinomi di secondo grado a coefficienti in C e
nelle stesse variabili. Se ZC (F ) = ZC (G), allora F = cG per qualche numero
complesso c 6= 0.
Dimostrazione. Sia ZC (F ) = ZC (G). Siccome C è algebricamente chiuso possia-
mo applicare il Corollario 7.7 del Capitolo 7 del Volume 2. Ne deduciamo che
Fsep = Gsep , da cui la conclusione. 2
24.3. GENERALITÀ SULLE QUADRICHE 483
Ma l’ universo che abbiamo scelto è Vn (R). In questo ambito, vale solo una
versione più debole del Teorema 24.6:
Teorema 24.7 Siano F e G polinomi di secondo grado a coefficienti in R e
nelle stesse n variabili. Se ZR (F ) = ZR (G) 6= ∅ e se rank(F ) = n + 1, allora
F = cG per qualche numero reale c 6= 0 (e quindi anche rank(G) = n + 1).
(Tralascio la dimostrazione, che non è semplice.) Quando rank(F ) ≤ n, si
dice che F definisce una quadrica degenere. (In altre parole, F definisce una
quadrica degenere quando la forma bilineare associata alla matrice completa di
F è degenere.)
Quando ZR (F ) = ∅ si usa dire che F definisce una quadrica immaginaria.
(Ma si tratta di modi di esprimersi che vanno bene se si pensa a ZC (F ), non a
ZR (F ).)
Diciamo che la quadrica S = ZR (F ) è reale e non degenere quando S 6= ∅
e rank(F ) = n + 1. Il Teorema 24.7 ci dice che, se la quadrica S è reale e
non degenere allora, scelto in Vn (R) un sistema di riferimento (per esempio,
quello standard), il polinomio F che rappresenta S rispetto a quel sistema è de-
terminato da S a meno di una costante moltiplicativa. Lo si chiama polinomio
rappresentativo di S, con la tacita convenzione di identificare due polinomi quan-
do differiscono per una costante moltiplicativa non nulla. La matrice completa
di F e la matrice parziale di F si dicono matrice completa e matrice parziale
di S. Gli autovettori e gli autovalori di F (che, rammento, non dipendono dal
sistema di riferimento scelto) si dicono autovettori e autovalori di S. Natural-
mente, siccome F è individuato da S a meno di una costante moltiplicativa,
anche le matrici completa e parziale di S sono individuate a meno di una co-
stante moltiplicativa. Quindi anche la n–pla degli autovalori di S è determinata
a meno (dell’ ordine e) di una costante moltiplicativa.
24.3.2 Alcuni casi degeneri
Coniche degeneri. Sia F un polinomio a coefficienti in R, in due variabili.
Per la Proposizione 24.5, si ha rank(F ) ≤ 2 se e solo se F è riducibile in C.
Supponiamo che questo sia il caso. Dunque F = G1 G2 per opportuni polinomi
di primo grado G1 e G2 a coefficienti complessi. Indichiamo con L1 ed L2 le
rette di V2 (C) rappresentate rispettivamente dalle equazioni G1 = 0 e G2 = 0.
Evidentemente,
ZC (F ) = L1 ∪ L2 e ZR (F ) = L1,R ∪ L2,R
ove si è posto L1,R = L1 ∩ V2 (R) e L2,R = L2 ∩ V2 (R) (ed identifichiamo
V2 (R) con l’ insieme dei punti di V2 (C) che hanno entrambe le coordinate reali).
Per quanto detto in §24.1.4, si può trovare in V2 (R) un sistema di riferimen-
to ortonormale (P, (E1 , E2 )) rispetto al quale il polinomio F assume la forma
seguente
(5) F (X) = c1 y12 + c2 y22 + b
484 Capitolo 24
ove c1 6= 0 ed uno almeno dei coefficienti c2 e b è 0 (e ove y1 , y2 sono le coordinate
di X ∈ V2 (R) rispetto al sistema (P, (E1 , E2 ))). Salvo moltiplicare F per −1,
possiamo sempre supporre che c1 > 0. Abbiamo cinque casi da distinguere.
1) b = 0 > c2 . (Cfr. Capitolo 23, Esercizio 23.5(ii)). In questo caso il polinomio
F è riducibile in R e, salvo moltiplicare G1 per un opportuno numero c 6= 0 e
G2 per c−1 , si ha
√ √ √ √
G1 (X) = c1 y1 + −c2 y2 e G2 (X) = c1 y1 − −c2 y2
Gli insiemi L1,R ed L2,R sono rette incidenti di V2 (R) e la loro intersezione è
proprio il punto P che si è scelto come origine del sistema di riferimento. Le
rette P + L(E1 ) e P + L(E2 ) sono le bisettrici degli angoli formati dalle rette
L1,R ed L2,R .
2) b = 0 < c2 . (Cfr. Capitolo 23, Esercizio 23.5(i)). Ora risulta ZR (F ) =
L1,R = L2,R = {P }. Le rette L1 ed L2 sono incidenti e la loro intersezione P è
l’ unico loro punto reale. Il polinomio F è irriducibile in R e, salvo moltiplicare
G1 per un opportuno numero c 6= 0 e G2 per c−1 , si ha
√ √ √ √
G1 (X) = c1 y1 + i c2 y2 e G2 (X) = c1 y1 − i c2 y2
3) b < 0 = c2 . In questo caso il polinomio F è riducibile in R e, salvo
moltiplicare G1 per un opportuno numero c 6= 0 e G2 per c−1 , si ha
√ √ √ √
G1 (X) = c1 y1 + −b e G2 (X) = c1 y1 − −b
Le rette L1,R e L2,R sono distinte rette parallele di V2 (R). Il vettore E1 è
ortogonale ad esse, quindi E2 è ad esse parallelo. Come origine P possiamo
prendere un qualunque punto equidistante da L1,R ed L2,R .
4) b > 0 = c2 . (Cfr. Capitolo 23, Esercizio 23.5(iii)). In questo caso F è
irriducibile in R e, salvo moltiplicare G1 per un opportuno numero c 6= 0 e G2
per c−1 , si ha
√ √ √ √
G1 (X) = c1 y1 + i b e G2 (X) = c1 y1 − i b
Risulta ZR (F ) = L1,R = L2,R = ∅ mentre L1 e L2 sono rette parallele di V2 (C)
prive di punti reali.
5) b = 0 = c2 . In questo caso F è inseparabile in R e, salvo moltiplicare G1 e
G2 per un opportuno numero c 6= 0, possiamo supporre che
√
G1 (X) = G2 (X) = c1 y1
Ora ZR (F ) = L1,R è una retta di V2 (R) e G1 = 0 è la sua equazione. (Insomma,
qui scrivere F = 0 è un modo ridondante di scrivere G1 = 0; cfr. Sezione 24.5,
Esercizio 24.10, Nota.)
24.3. GENERALITÀ SULLE QUADRICHE 485
Si noti che nei casi 1), 3) e 5) la conica ZR (F ) individua F mentre nei casi 2)
e 4) l’ insieme ZR (F ) è troppo ‘piccolo’ per poter individuare F .
In 4) l’ insieme ∅ veste i panni di conica immaginaria degenere. Però ∅ può
anche apparire come una conica immaginaria non degenere; questo è il caso se
i coefficienti c1 , c2 , b in (5) sono tutti positivi o tutti negativi. (Ma in realtà ∅ è
∅, e basta.)
Coni e cilindri. Sia X un piano di V3 (C) e sia Y una conica non degenere di
X. Dato un punto P 6∈ X, l’ unione delle rette che congiungono P con punti di
Y è detta un cono di vertice P e lo si dice ottenuto per proiezione di Y da P .
Le rette che congiungono P con punti di Y sono dette generatrici del cono.
Sia invece L una retta per O non parallela ad X. L’ unione delle rette
passanti per punti di Y e parallele ad L si dice un cilindro di direzione L. Le
rette intersecanti Y e parallele ad L sono dette generatrici del cilindro.
Si può dimostrare che coni e cilindri sono quadriche rappresentate da po-
linomi di rango 3. Ma tralascio questa dimostrazione. Da quel che diremo in
§24.3.6 risulterà poi che l’ intersezione di un cono o un cilindro con un piano
è sempre una conica (eventualmente degenere). Nel prossimo paragrafo dimo-
streremo invece che, dato un polinomio F di secondo grado, in tre variabili e a
coefficienti in R, se rank(F ) = 3 allora ZR (F ) è un cono, oppure un cilindro,
oppure un punto, oppure ∅. (Cfr. anche Esercizio 24.3.)
Si possono definire coni e cilindri anche in Vn (R). Ma non insisto su questo.
Casi degeneri in V3 (R). Sia F un polinomio a coefficienti in R, in tre varia-
bili. Per la Proposizione 24.5, se rank(F ) ≤ 2 allora F è riducibile in C e ZC (F )
è l’ unione di due piani oppure un piano (quando F è inseparabile). Si può
dimostrare che ZR (F ) è o l’ unione di due piani (se F è riducibile in R), oppure
un piano (quando F è inseparabile) oppure una retta o ∅ (in questi ultimi due
casi F è irriducibile in R). Lascio questa dimostrazione al lettore.
Supponiamo invece che rank(F ) = 3. Dal §24.1.4 risulta che esiste qualche
sistema di riferimento ortonormale (P, E) rispetto al quale F si rappresenta in
uno dei tre seguenti modi
(6.1) F (X) = c1 x21 + c2 x22 + c3 x23
(6.2) F (X) = c1 x21 + c2 x22 + b
(6.3) F (X) = c1 x21 + 2d2 x2 + 2d3 x3
(ove x1 , x2 e x3 sono le coordinate del punto X rispetto al sistema che si è
scelto). In (6.1) e (6.2) tutti i coefficienti sono 6= 0. In (6.3) è c1 6= 0 e almeno
uno tra d2 e d3 è 6= 0. Nel seguito supponiamo che P = O ed E = U, per
semplificare l’ esposizione.
Caso (6.1). In questo caso F è omogeneo. Quindi ZC (F ) è l’ unione di infinite
rette per O (cfr. Capitolo 23, Esercizio 23.4). Possiamo descrivere meglio ZC (F )
intersecandolo con un piano che non passi per O. Prendiamo per esempio il piano
486 Capitolo 24
di equazione x3 = 1. Chiamiamolo X. Poniamo Y = ZC (F ) ∩ X. I punti di Y
sono le soluzioni particolari del seguente sistema
c1 x21 + c2 x22 + c3 x23 = 0
x3 = 1
che (ha infinite soluzioni ed) equivale a
c1 x21 + c2 x22 + c3 = 0
x3 = 1
Scegliamo in X un sistema di riferimento prendendo P = (0, 0, 1) come origine e
come versori i primi due versori U1 , U2 di V3 (C). L’ equazione c1 x21 +c2 x22 +c3 = 0
rappresenta Y rispetto a questo sistema di riferimento. Quindi Y è una conica
di X, non degenere perchè nessuno dei coefficienti c1 , c2 , c3 è 0. È ora chiaro
che ZC (F ) è il cono ottenuto proiettando Y da O.
Veniamo a ZR (F ). Sia YR l’ insieme dei punti di Y che, rispetto al sistema
di riferimento (P, (U1 , U2 )) in X, hanno entrambe le coordinate reali. Questo
insieme o è vuoto o è una conica non degenere. Nel primo caso ZR (F ) = {O}.
Nel secondo caso ZR (F ) è il cono di vertice O che proietta YR .
Caso (6.2). In questo caso F non dipende da x3 . Quindi, se F (p1 , p2 , p3 ) = 0
per qualche punto (p1 , p2 , p3 ), allora F (p1 , p2 , x3 ) = 0 qualunque sia x3 . In
particolare, F (p1 , p2 , 0) = 0 e ZC (F ) contiene la retta verticale condotta per
il punto (p1 , p2 , 0). È ora chiaro che ZC (F ) è l’ unione delle rette verticali che
intersecano il piano x3 = 0 in punti soddisfacenti l’ equazione c1 x21 +c2 x22 +b = 0.
Questo insieme di punti, diciamolo Y, è una conica del piano x3 = 0, non
degenere perchè nessuno dei coefficienti c1 , c2 , b è 0. Dunque ZC (F ) è un cilindro.
Se nessuno dei punti di Y ha coordinate reali, allora ZR (F ) = ∅. Altrimenti
ZR (F ) è un cilindro.
Caso (6.3). Consideriamo prima il caso che d3 = 0. Allora d2 6= 0 ed F (X) =
c1 x21 + 2d2 x2 . Siccome la variabile x3 non compare in questa espressione, l’
insieme ZR (F ) è l’ unione delle rette che sono parallele all’ asse delle quote e
che intersecano il piano x3 = 0 in punti appartenenti alla conica rappresentata
in quel piano dall’ equazione c1 x21 + 2d2 x2 = 0. Dunque ZR (F ) è un cilindro.
Analogamente, se d2 = 0 la quadrica ZR (F ) è un cilindro, formato da rette
parallele all’ asse delle ordinate. Infine, sia d2 6= 0 6= d3 . Ora conviene cambiare
sistema di riferimento, prendendo y1 , y2 , y3 come nuove variabili e ponendo y1 =
x1 , y2 = x2 ed y3 = 2(d2 x2 + d3 x3 ). (Si noti che cosı̀ facendo si cambiano solo
i versori, non l’ origine. Si noti anche che il nuovo sistema potrebbe non essere
ortonormale.) Otteniamo F (x1 , x2 , x3 ) = G(y1 , y2 , y3 ) = c1 y12 + 2y3 e ZR (F ) è
ancora un cilindro, formato da rette parallele all’ asse delle ordinate.
24.3.3 Iperpiani tangenti e singolarità
Nel seguito F (X) = X t A2 X + 2At1 X + a è un dato polinomio in n variabili a
coefficienti in R ed S = ZR (F ) è la quadrica rappresentata da F in Vn (R).
24.3. GENERALITÀ SULLE QUADRICHE 487
Intersezione tra una quadrica e una retta. Dato un punto P ed un vettore
V 6= O, vogliamo trovare le intersezioni tra la retta L = P + L(V ) e la quadrica
S. L’ espressione P + xV rappresenta un punto generico di L. Sostituendo
questa espressione nell’ equazione F (X) = 0 (cfr. §24.3.1, (4.2)) otteniamo la
seguente equazione in x:
(7.1) (P + xV )t A2 (P + xV ) + 2At1 (P + xV ) + a = 0
I punti di S ∩ L sono i punti P + x0 V con x0 soluzione di (7.1). L’ equazione
(7.1) può riscriversi cosı̀:
(7.2) V t A2 V x2 + 2(P t A2 + At1 )V x + P t A2 P + 2At1 P + a = 0
(Infatti V t A2 P = (V t A2 P )t = P t A2 V perchè V t A2 P , essendo uno scalare, è
una matrice simmetrica.) Questa è un’ equazione di grado 2, 1, 0 oppure banale.
Precisamente, si possono presentare quattro casi:
(i) V t A2 V 6= 0
(ii) V t A2 V = 0 6= (P t A2 + At1 )V
(iii) V t A2 V = (P t A2 + At1 )V = 0 6= P t A2 P + 2At1 P + a
(iv) V t A2 V = (P t A2 + At1 )V = P t A2 P + 2At1 P + a = 0
Nel caso (i) la (7.2) ha grado 2 e perciò ha o due soluzioni reali, oppure una sola
soluzione (doppia), oppure nessuna. In (ii) la (7.2) è di primo grado; quindi ha
una sola soluzione reale. In (iii) la (7.2) è di grado 0 e perciò non ha soluzioni.
Infine, in (iv) la (7.2) è l’ equazione banale (0 = 0); in questo caso L ⊆ S.
Riassumendo,
Proposizione 24.8 Se L 6⊆ S, allora card(L ∩ S) ≤ 2.
Corollario 24.9 Una retta ed una conica non degenere non hanno mai più di
due punti in comune.
Dimostrazione. Sia n = 2. Allora L = ZR (G) per un opportuno polinomio di
primo grado G. Sia poi card(L ∩ S) > 2. Allora L ⊆ S per la Proposizione 24.8.
D’ altra parte, i polinomi di primo grado sono separabili. Quindi G divide F
(Volume 2, Capitolo 7, Proposizione 7.6). Pertanto F è riducibile (anche in R).
Sicchè S è degenere. 2
Rette tangenti e rette secanti. Supponiamo che P ∈ S, cioè P t A2 P +
2At1 P + a = 0. Allora la (7.2) assume questa forma,
(7.3) V t A2 V x2 + 2(P t A2 + At1 )V x = 0
Il numero 0 è una soluzione di questa equazione e per x = 0 l’ espressione P +xV
ci ridà P , che appartiene ad S per ipotesi. Gli eventuali altri punti di L ∩ S ci
sono dati dall’ eventuale altra soluzione della (7.3), cioè dall’ eventuale soluzione
6= 0 di questa equazione:
(7.4) V t A2 V x + 2(P t A2 + At1 )V = 0
488 Capitolo 24
Dobbiamo distinguere quattro casi:
(i) V t A2 V 6 0 6= (P t A2 + At1 )V
=
(ii) V t A2 V = 0 6= (P t A2 + At1 )V
(iii) V t A2 V 6= 0 = (P t A2 + At1 )V
(iv) V t A2 V = 0 = (P t A2 + At1 )V
Nel caso (i) la (7.4) ammette una soluzione 6= 0. In questo caso la retta L
interseca S in P ed in un altro punto. Nel caso (ii) la (7.4) non ha soluzione. In
questo caso la (7.3) è di primo grado ed L ∩ S = {P }. Nel caso (iii) la (7.4) ha
soluzione x = 0. Di nuovo L∩S = {P }, però ora la (7.3) è di secondo grado, con
0 come soluzione doppia. Nel caso (iv) le equazioni (7.3) ed (7.4) sono banali
(0 = 0). In questo caso L ⊆ S.
Nei casi (i) e (ii), cioè quando (P t A2 + At1 )V 6= 0, diciamo che L è secante
per S. Se invece (P t A2 + At1 )V = 0 (casi (iii) e (iv)) allora si dice che L è
tangente per S. Se per di più V t A2 V 6= 0 (caso (iii)) si dice che P (= L ∩ S) è
il punto di tangenza di L con S, o che L è tangente ad S in P . Invece nel caso
(iv) ogni punto di L (⊆ S) viene considerato come un punto di tangenza.
Esempio. Consideriamo la parabola di equazione y = (x − a)2 + b. Essa
contiene il punto P = (a, b). Le rette L1 ed L2 di equazioni rispettivamente
y = b ed x = a sono le uniche due rette per P che intersecano questa parabola
solo in P . La retta L1 è tangente alla parabola mentre L2 è secante. (Nel piano
proiettivo L2 intersecherebbe la parabola non solo in P ma anche in un altro
punto, ‘all’ infinito’.)
Avvertenza. Siccome vi sono quadriche degeneri reali rappresentabili con sva-
riate equazioni non proporzionali tra loro, si potrebbe pensare che, quando S è
degenere, il fatto che L risulti tangente o secante per S dipenda dal polinomio
F che abbiamo scelto per rappresentare S. Non è cosı̀, ma tralascio questa
dimostrazione.
Iperpiani tangenti, rette normali e singolarità. Dato un punto P di S,
indichiamo con P S l’ unione delle rette che passano per P e che sono tangenti
ad S.
Teorema 24.10 Risulta P S = P + N ⊥ ove N = A2 P + A1 .
Dimostrazione. Sia X un punto diverso da P . La retta che congiunge P con X
è tangente ad S se e solo se (P t A2 + At1 )(X − P ) = 0. Quindi X si trova su una
delle rette per P tangenti ad S se e solo se X ∈ P + N ⊥ ove N = A2 P + A1
(= (P t A2 + At1 )t ). 2
Corollario 24.11 Se A2 P + A1 6= O allora P S è un iperpiano ed A2 P + A1 è
un suo vettore normale. Se invece A2 P + A1 = O, allora P S = Vn (R).
24.3. GENERALITÀ SULLE QUADRICHE 489
(Ovvio, per il Teorema 24.10.) Quando A2 P + A1 6= O l’ iperpiano P S è detto
tangente ad S in P , i suoi vettori normali si dicono normali ad S in P e la
perpendicolare condotta a P S per P è chiamata la normale ad S in P .
Quando invece A2 P + A1 = O, cioè P S = Vn (R) (vale a dire, tutte le rette
per P sono tangenti ad S) allora diciamo che P è un punto singolare di S oppure
che S ammette una singolarità in P .
Teorema 24.12 Una quadrica non degenere non ammette mai singolarità.
Dimostrazione. Supponiamo S non degenere e sia P = (pi )ni=1 un suo punto.
Dobbiamo dimostrare che A2 P + A1 6= O. Nella matrice completa A di S, som-
miamo all’ ultima colonna la prima moltiplicata per p1 , la seconda moltiplicata
per p2 , la terza moltiplicata per p3 , e cosı̀ via. Otteniamo la seguente matrice:
0 A2 A2 P + A1
A =
At1 At1 P + a
Però, questa modifica eseguita su A non ha alcun effetto sul rango. Quindi
rank(A0 ) = rank(A). Moltiplichiamo ora la prima riga di A0 per p1 , la seconda
per p2 , ecc. e sommiamo il tutto all’ ultima riga. Otteniamo
A2 A2 P + A1
A00 =
t t t t
P A2 + A1 P A2 P + 2A1 P + a
e risulta ancora rank(A00 ) = rank(A0 ). Quindi rank(A00 ) = rank(A). Però
P t A2 P + 2At1 P + a = 0 perchè P ∈ S. Quindi
00 A2 A2 P + A1
A =
P t A2 + At1 0
Se A2 P + A1 = O, allora rank(A00 ) ≤ n. Sicchè, se A2 P + A1 = O, la quadrica
S è degenere. 2
Nota. Però vi sono quadriche degeneri che non ammettono singolarità in Vn (R).
Per esempio, l’ unione di due iperpiani paralleli è una quadrica degenere ma è
priva di punti singolari (Sezione 24.5, Esercizio 24.8); un cilindro è una quadrica
non degenere ma non ha punti di singolarità (Sezione 24.5, Esercizio 24.18).
24.3.4 Polarità
Sia A la matrice completa del polinomio F che abbiamo scelto per rappresentare
S. Per ogni punto P ∈ Vn (R) poniamo
P A =def {X | [X]t A[P ] = 0}
Cioè, P A è l’ insieme dei punti X ∈ Vn (R) con [X] appartenente al sottospazio
polare di [P ] rispetto alla forma bilineare rappresentata da A in Vn+1 (R) (Ca-
pitolo 23, Sezione 23.5). L’ insieme P A , se non è vuoto, è un sottospazio affine
di Vn (R). Lo chiamiamo il sottospazio polare di P relativo ad A. Da (4.3) si ha
subito che:
490 Capitolo 24
Lemma 24.13 Il punto P appartiene ad S se e solo se P ∈ P A .
Inoltre, [Q]t A[P ] = [P ]t A[Q] perchè [Q]t A[P ] = ([Q]t A[P ])t (infatti [Q]t A[P ] è
una matrice 1 × 1) e perchè A è simmetrica. Quindi,
Lemma 24.14 Se Q ∈ P A allora P ∈ QA .
Si noti che
[X]t A[P ] = X t A2 P + X t A1 + At1 P + a =
= X t (A2 P + A1 ) + (At1 P + a)
Quindi la condizione [X]t A[P ] = 0 può anche scriversi cosı̀
(8) hX, A2 P + A1 i + At1 P + a = 0
Da ciò segue che P A , se non è ∅, è un iperpiano di Vn (R). Precisamente,
Proposizione 24.15 Se A2 P +A1 6= O allora P A è un iperpiano con A2 P +A1
come vettore normale. Se per di più P ∈ S, allora P è un punto non singolare
di S e P A è l’ iperpiano tangente ad S in P .
Se invece A2 P + A1 = O allora o P A = Vn (R) oppure P A = ∅. Abbiamo
P = Vn (R) se e solo se P è un punto singolare di S. Se invece P A = ∅, allora
A
P 6∈ S ed S è priva di singolarità.
Dimostrazione. Sia A2 P + A1 6= O. Per (8), l’ insieme P A è un iperpiano ed
A2 P + A1 è il suo vettore normale. Supponiamo per di più che P ∈ S. Siccome
A2 P + A1 6= O il punto P è non singolare. Inoltre, l’ iperpiano P S tangente
ad S in P e l’ iperpiano P A hanno lo stesso vettore normale. D’ altra parte,
P ∈ P A per il Lemma 24.13. Quindi P A = P S .
Sia invece A2 P + A1 = O. Se At1 P + a = 0 allora la (8) è l’ equazione banale
e P A = Vn (R). In questo caso P ∈ P A e perciò P ∈ S per il Lemma 24.14.
Siccome A2 P + A1 = O, la quadrica S ha una singolarità in P .
Supponiamo invece che At1 P + a 6= 0. Allora P A = ∅. Dunque P 6∈ P A e
pertanto P 6∈ S per il Lemma 24.13. In questo caso non esistono punti singolari.
Se infatti Q fosse un punto singolare di S, allora QA = Vn (R), quindi P ∈ QA
e pertanto Q ∈ P A per il Lemma 24.14, contro il fatto che P A = ∅. 2
Supponiamo che S sia reale e non degenere. Allora la matrice A è individuata
a meno di moltiplicazioni per scalari 6= 0 e quindi l’ insieme P A dipende solo
da P e da S. In particolare, se P ∈ S allora P A è l’ iperpiano P S tangente ad
S in P (Proposizione 24.15). Spesso scriveremo P S anzichè P A anche quando
P 6∈ S.
Se invece S è degenere e P 6∈ S, o se S = ∅, allora P A può dipendere dalla
particolare scelta di A. In questi casi evitiamo la notazione P S .
24.3. GENERALITÀ SULLE QUADRICHE 491
24.3.5 Il radicale
L’ insieme dei punti singolari di S viene detto radicale di S e lo si denota con
Rad(S). (Per la Proposizione 24.15, i punti singolari di S sono quei punti P
con [P ] nel radicale della forma bilineare rappresentata da A; cfr. Capitolo 23,
Sezione 23.5.) Per la Proposizione 24.15, il radicale di S è la soluzione generale
del seguente sistema lineare di n + 1 equazioni in n incognite:
A2 X + A1 = O
(9)
At1 X + a = 0
(si noti che A2 X +A1 = O è un sistema di n equazioni in n incognite). Il sistema
(9) è compatibile solo se la sua matrice completa ha rango ≤ n. Ma la matrice
completa di (9) è proprio A. Dunque (9) è compatibile solo se rank(A) ≤ n.
(In questa osservazione è implicita un’ altra dimostrazione del Teorema 24.12.)
(X A | X ∈ Vn (R)).
T
Proposizione 24.16 Risulta Rad(S) =
Dimostrazione. Per la Proposizione 24.15, si ha P ∈ Rad(S) se e solo se P A =
Vn (R). Dire che P A = Vn (R) è come dire che X ∈ P A per ogni punto X, cioè
che P ∈ X A per ogni punto X (Lemma 24.14). 2
24.3.6 Intersezioni tra quadriche e sottospazi affini
Dato P ∈ S, sia X un sottospazio affine di Vn (R) passante per P . Poniamo
m = dim(X) e supponiamo che 2 ≤ m < n. L’ insieme S ∩ X è la soluzione
generale del sistema (di secondo grado) formato dalla (4.2) (che rappresenta S)
e da una rappresentazione cartesiana di X. Ma si può rappresentare S∩X anche
in altro modo. Scegliamo su X un sistema di riferimento, realizzando cosı̀ un’
identificazione tra X e Vm (R). Nulla vieta di prendere proprio P come origine
del sistema di riferimento che consideriamo su X. I versori B1 , B2 , ..., Bm di quel
sistema sono i vettori di una base della direzione XO di X (volendo, possiamo
prendere una base ortonormale di XO , ma non è necessario). Cosı̀, l’ espressione
m
X
(i) P+ Bi yi
i=1
rappresenta un generico punto di X. Gli scalari y1 , y2 , ..., ym sono le coordinate
del punto rappresentato da questa espressione, rispetto al sistema di riferimento
(P, (B1 , B2 , ..., Bm )) che abbiamo scelto su X. Indichiamo con B la matrice
n × m che ha i vettori B1 , B2 ,..., Bm come colonne e poniamo Y = (yi )m i=1 . Con
queste convenzioni possiamo riscrivere la (i) cosı̀:
(ii) P + BY
Sostituendo la (ii) al posto di X nella (4.2) otteniamo la seguente equazione
(P + BY )t A2 (P + BY ) + 2At1 (P + BY ) + a = 0
492 Capitolo 24
che, con le solite manipolazioni, diventa
Y t (B t A2 B)Y + 2(P t A2 + At1 )BY + P t A2 P + 2At1 P + a = 0
cioè
(10) Y t (B t A2 B)Y + 2(P t A2 + At1 )BY = 0
perchè P t A2 P + 2At1 P + a = 0 (infatti P ∈ S). La (10) è un’ equazione di grado
≤ 2 nelle variabili y1 , y2 , ..., ym e rappresenta l’ insieme S ∩ X rispetto al sistema
di riferimento scelto su X. Quando la (10) ha grado 2, l’ insieme S ∩ X è una
quadrica in X, eventualmente degenere. Si noti però che non è detto che la (10)
sia di secondo grado. Infatti può capitare che la matrice B t A2 B sia nulla. In
questo caso la (10) o è di primo grado oppure si riduce all’ equazione banale
0 = 0 (questo accade se per di più (P t A2 + At1 )B è il vettore nullo). Dunque,
quando B t A2 B = O non dovremmo chiamare ‘quadrica’ l’ insieme S ∩ X, ma
lo si fa ugualmente, precisando che si tratta di una quadrica degenere. (In spazi
proiettivi questa convenzione sarebbe più motivata.)
Proposizione 24.17 Supponiamo che X sia un iperpiano. Se il punto P è
singolare per S, oppure se non è singolare ma X è l’ iperpiano tangente ad S
in P , allora la quadrica S ∩ X è degenere.
Dimostrazione. Se B t A2 B = O non c’ è nulla da dimostrare. Supponiamo che
B t A2 B 6= O. Se P è singolare allora A2 P +A1 = O. Se invece A2 P +A1 6= O ma
X è l’ iperpiano tangente ad S in P , allora A2 P +A1 è il vettore normale ad XO .
Quindi Bi ⊥ A2 P +A1 per ogni i = 1, 2, ...n−1. Vale a dire, (P t A2 +At1 )B = O.
In un caso e nell’ altro (P t A2 +At1 )B = O. Dunque l’ equazione (10) è omogenea
e pertanto S ∩ X è singolare (Esercizio 24.1). 2
Nota. Però se S ∩ X è degenere non è detto che l’ iperpiano X contenga punti
singolari di S o che sia tangente ad S in qualche punto, anche diverso da P (ma
sarebbe vero in geometria proiettiva). Per esempio, l’ unione di due iperpiani
paralleli è priva di punti singolari (Esercizio 24.8) e tuttavia ogni iperpiano
interseca quell’ unione in una quadrica degenere.
24.4 Quadriche reali non degeneri
Di qui in poi S sta per una data quadrica reale e non degenere di Vn (R) ed
F (X) = X t A2 X +2At1 X +a è il polinomio che rappresenta S rispetto al sistema
di riferimento standard. Indichiamo i suoi autovalori con c1 , c2 , ..., cn e prendia-
mo i relativi autovettori E1 , E2 , ..., En in modo da avere una base ortonormale
di Vn (R) (cfr. §24.1.4).
24.4.1 Rappresentazioni canoniche
Siccome rank2 (F ) ≥ n − 1 (Corollario 24.3), al più uno tra gli autovalori di F è
0. Possiamo sempre supporre che i primi n − 1 di essi siano 6= 0. Quindi cn 6= 0
24.4. QUADRICHE REALI NON DEGENERI 493
se rank2 (F ) = n e cn = 0 se rank2 (F ) = n − 1. Dal Corollario 24.4 sappiamo
di poter trovare un punto P0 tale che, rispetto al sistema di riferimento che ha
P0 come origine ed E = (Ei )ni=1 come n–pla di versori, la matrice completa
di S ha la forma (3.4) (con b 6= 0) oppure (3.7) (con dn 6= 0). Precisamente,
si perviene alla forma (3.4) quando rank2 (F ) = n ed alla forma (3.7) quando
rank2 (F ) = n − 1. Esaminiamo questi due casi separatamente.
Quadriche a centro. Sia rank2 (F ) = n. Indichiamo con y1 , y2 , ..., yn le
coordinatePdi un punto generico di Vn (R) rispetto al sistema (P0 , E). La (3.4)
n
ci dà b + i=1 ci yi2 = 0 come equazione di S, vale a dire
n
X
(11.1) gi yi2 = 1
i=1
ove si è posto gi = −ci /b per i = 1, 2, ..., n. Si noti che g1 , g2 , ..., gn sono gli
autovalori del polinomio −b−1 F (che ancora rappresenta S). Si noti anche che
la (11.1) ammette soluzione se e solo se non tutti i numeri g1 , g2 , ..., gn sono
negativi. Quindi almeno uno di essi è positivo. Infatti abbiamo supposto che
S 6= ∅.
Il punto P0 è univocamente determinato. Infatti P0 = −A−1 2 A1 per (3.5)
(questa relazione ci dà le coordinate di P0 rispetto al sistema di riferimento
standard). Chiamiamo P0 il centro di S e diciamo che S è una quadrica a centro
o di tipo centrale.
Quadriche di tipo parabolico. Sia rank2 (F ) = n−1. Per (3.7), l’ equazione
Pn−1
di S è 2dn yn + i=1 ci yi2 = 0, cioè
n−1
X
(11.2) gi yi2 = yn
i=1
ove gi = −ci /2dn per i = 1, 2, ..., n − 1. Ora risulta P0 = M Q ove M è la
matrice che porta la base dei versori nella base E e
Pn−1
d1 d2 dn−1 a − i=1 d2i /ci
Q = −( , , ..., , )
c1 c2 cn−1 2dn
con (d1 , d2 , ...., dn ) = M −1 A1 (cfr. §24.1.4). Il punto P0 si chiama vertice di S
e si dice che S è di tipo parabolico. Si noti che 0 ha molteplicità 1 in quanto
autovalore di F . Quindi L(En ) è l’ autospazio dell’ autovalore 0 (Capitolo 22,
Proposizione 22.4). La retta P0 + L(En ) si chiama asse di S.
24.4.2 Simmetrie
Supponiamo che S sia a centro. L’ equazione (11.1) resta la stessa se sostituiamo
yi con −yi . Quindi quando S è a centro l’ iperpiano P0 + Ei⊥ è di simmetria per
S, per ogni i = 1, 2, ..., n (Capitolo 12, §12.9.1). Analogamente, se S è di tipo
parabolico allora P0 +Ei⊥ è un iperpiano di simmetria per ogni i = 1, 2, ..., n−1.
Ma possiamo dire di più:
494 Capitolo 24
Teorema 24.18 Sia S a centro. Allora gli iperpiani di simmetria di S sono
gli iperpiani che passano per il centro di S e che hanno un autovettore di S
come vettore normale. Il centro di S è appunto l’ intersezione degli iperpiani di
simmetria di S.
Se invece S è di tipo parabolico, allora gli iperpiani di simmetria di S sono
quelli che passano per il vertice di S e che hanno come vettore normale un
autovettore di S relativo ad un autovalore non nullo. L’ intersezione di tutti gli
iperpiani di simmetria di S è l’ asse di S.
Dimostrazione. Sia X un iperpiano e sia N un suo vettore normale. Supponiamo
che X sia un iperpiano di simmetria per S. Allora X è l’ insieme dei punti X
tali che la retta X + L(N ) o interseca S in due punti simmetrici rispetto ad
X (comprendendo in ciò il caso che entrambi questi punti coincidano con X)
oppure non interseca S. Cioè, se l’ equazione di secondo grado in t ottenuta
sostituendo X + tN al posto di X nella (4.2) ha soluzioni reali, queste sono
opposte. Vale a dire, indicato con X0 l’ insieme dei punti X ∈ X tali che
(X + L(N )) ∩ S 6= ∅, per ogni X ∈ X0 risulta
(i) (X t A2 + At1 )N = 0
Cioè, X0 ⊆ Y, ove indichiamo con Y la soluzione completa dell’ equazione (i).
L’ equazione (i) è lineare. Non è banale. Infatti, se fosse A2 N = O ed At1 N = 0,
allora le prime n colonne della matrice completa A di S sarebbero linearmente
dipendenti ed A sarebbe singolare, contro l’ ipotesi che S sia non degenere. D’
altra parte, preso un qualunque punto Y ∈ S, la retta Y + L(N ) interseca S.
Quindi X0 6= ∅ e pertanto Y 6= ∅, siccome X0 ⊆ Y. Ne segue che Y è un
iperpiano. Si può dimostrare che X0 contiene tutti i punti di X a distanza < r
da un opportuno punto X0 ∈ X0 , per un opportuno r > 0 (ma tralascio questa
dimostrazione). Ne segue che X0 contiene sempre una base geometrica di X.
Quindi, siccome X0 ⊆ Y ∩ X, si ha che Y = X. Preso un punto X0 ∈ X, non
importa quale, possiamo scrivere l’ equazione di X cosı̀:
(ii) X t N = X0t N
Ma X = Y. Quindi le equazioni (i) e (ii) si equivalgono. Cioè, esiste un numero
c 6= 0 tale che
(iii) A2 N = cN
(iv) −At1 N = cX0t N
La (iii) ci dice che N è un autovettore di S e che c (che è 6= 0) è il suo autovalore.
Per (iii), la condizione (iv), vista come equazione in X0 , coincide con la (i).
(Quindi, trovare una soluzione di (iv) è come trovare un punto di X.)
Quando S è a centro, per avere una soluzione X0 di (iv) basta prendere il
centro di S, cioè X0 = −A−1 2 A1 . Infatti
c(−A−1 t t −1 t −1
2 A1 ) N = −cA1 A2 N = −cA1 (c N ) = −At1 N
24.4. QUADRICHE REALI NON DEGENERI 495
perchè A2 è simmetrica e perchè A2 N = cN . Se invece S è di tipo parabolico si
può dimostrare che qualunque punto dell’ asse di S è una soluzione della (iv) (per
esempio, possiamo prendere il vertice di S). Ma tralascio questa dimostrazione.
Dunque X passa per il centro di S quando S è a centro e per l’ asse di
S quando S è di tipo parabolico. Con ciò si è dimostrato che gli iperpiani di
simmetria hanno come vettori normali autovettori di S (relativi ad autovalori
6= 0 quando S è di tipo parabolico) e passano per il centro di S (se S è a centro)
o per l’ asse di S (se S è di tipo parabolico). Viceversa, ogni iperpiano siffatto
è un iperpiano di simmetria per S, come si può vedere ripercorrendo in senso
inverso i ragionamenti precedenti.
Che poi quando S è a centro il suo centro sia l’ intersezione degli iperpiani di
simmetria di S segue dal fatto che gli autovettori di S generano Vn (R). Invece
quando S è di tipo parabolico gli autovettori di S relativi ad autovalori non nulli
generano l’ iperpiano ortogonale alla direzione dell’ asse. 2
La (11.1) mostra anche che, se S è a centro, il centro di S è un centro di
simmetria per S. Si può dire di più:
Teorema 24.19 La quadrica S ammette un centro di simmetria se e solo se è
di tipo centrale, nel qual caso il centro di S è l’ unico centro di simmetria di S.
Dimostrazione. Sia P un centro di simmetria per S. Allora per ogni vettore X
la retta P + L(X), se interseca S, la interseca in due punti simmetrici rispetto
a P . Cioè, se l’ equazione di secondo grado in t ottenuta sostituendo P + tX
al posto di X nella (4.2) ha soluzioni reali, queste sono opposte. Vale a dire,
(P t A2 + At1 )X = 0 (cfr. (7.2)) e ciò per infiniti X, formanti un insieme di
generatori di Vn (R). Dunque A2 P + A1 = O. Se rank(A2 ) = n (caso a centro)
allora P = −A−1 2 A1 , cioè P è il centro di S.
Supponiamo invece che rank(A2 ) = n − 1 (caso parabolico) e teniamo ferma
l’ ipotesi che A2 P + A1 = O (cioè che P sia centro di simmetria di S). Se nella
matrice completa A di S sommiamo all’ ultima colonna la prima moltiplicata per
la prima coordinata di P , poi la seconda moltiplicata per la seconda coordinata
di P , ecc. otteniamo una matrice con lo stesso rango di A, diciamola A0 ,
0 A2 A2 P + A1
A =
O1,n At1 P + a
Ma A2 P + A1 = O. Quindi,
0 A2 On,1
A =
O1,n At1 P + a
Pertanto det(A0 ) = 0 perchè det(A0 ) = (At1 P + a)det(A2 ) e rank(A2 ) < n.
Dunque rank(A0 ) < n + 1. Però rank(A0 ) = rank(A) = n + 1. Abbiamo
raggiunto un assurdo. Quindi S non può essere di tipo parabolico. 2
Quando S è a centro, le rette passanti per il centro di S e parallele ad autovettori
di S (cioè ortogonali ad iperpiani di simmetria di S) si dicono anche assi di
496 Capitolo 24
S. Se gli autovalori c1 , c2 , ..., cn di F sono a due a due distinti, allora i loro
autospazi hanno dimensione 1 (Capitolo 22, Proposizione 22.4) e sono a due a
due ortogonali. In questo caso S ha esattamente n assi, a due a due ortogonali.
Ma nulla vieta che nella n–pla (c1 , c2 , ..., cn ) compaiano ripetizioni, cioè che
qualche autovalore di S abbia molteplicità > 1. Esamineremo questo caso nel
prossimo paragrafo.
Avvertenza. Non ci si faccia trarre in inganno dal fatto di usare la parola
“asse” sia per gli assi di una quadrica a centro che per l’ asse di una quadrica
di tipo parabolico. Tra le due cose non c’ è analogia.
24.4.3 Polarità
Proposizione 24.20 Se S è di tipo centrale, il suo centro è l’ unico punto di
Vn (R) che abbia ∅ come insieme polare. L’ insieme polare di ogni altro punto
di Vn (R) è sempre un iperpiano. Se invece S è di tipo parabolico, allora P S è
un iperpiano, per ogni punto P ∈ Vn (R).
Dimostrazione. Per la Proposizione 24.15, i punti che hanno ∅ come insieme
polare sono le soluzioni del sistema A2 X + A1 = O. Se S è a centro, questo
sistema è determinato e il centro di S è la sua (unica) soluzione. Se invece S è
di tipo parabolico, è chiaro dalla dimostrazione del Teorema 24.19 che il sistema
A2 X + A1 = O è impossibile. 2
Proposizione 24.21 Se P S = QS allora P = Q.
Dimostrazione. Lo si può dedurre dai risultati della Sezione 23.5 del Capitolo
23; oppure direttamente, in questo modo. Siano P e Q punti di Vn (R), diversi
dal centro di S se S è a centro. Cosı̀, P S e QS sono iperpiani, rappresentati
rispettivamente dalle equazioni
(i) [X]t A[P ] = 0 (cioè X t (A2 P + A1 ) + At1 P + a = 0)
(ii) [X]t A[Q] = 0 (cioè X t (A2 Q + A1 ) + At1 Q + a = 0)
(cfr. (8)). Supponiamo che P S = QS . Allora le equazioni (i) e (ii) differiscono
per uno scalare 6= 0, cioè A[P ] = cA[Q]. D’ altra parte, A è invertibile perchè S
è non degenere. Ne seque che [P ] = c[Q]. Ma [P ] e [Q] hanno 1 come n+1–esima
coordinata. Quindi c = 1 e pertanto P = Q. 2
Ne segue che un iperpiano di Vn (R) è iperpiano polare di al più un punto. Dato
un iperpiano X, se X = P S per qualche punto P ∈ Vn (R) allora diciamo che X
ammette polo e che P è il polo di X.
Se S è di tipo centrale e se P0 è il suo centro, allora P0 6∈ P S , per ogni punto
P ∈ Vn (R). Se infatti P0 ∈ P S allora P ∈ P0S per il Lemma 24.14, contro il fatto
che P0S = ∅. Anzi, si dimostra quanto segue (ma non dò questa dimostrazione):
Proposizione 24.22 Se S è a centro, allora gli iperpiani di Vn (R) che ammet-
tono polo sono quelli che non passano per il centro di S. Se invece S è di tipo
24.4. QUADRICHE REALI NON DEGENERI 497
parabolico, allora gli iperpiani di Vn (R) che ammettono polo sono quelli non
paralleli all’ asse di S.
Nota. In geometria proiettiva si direbbe che, se S è a centro, il sottospazio
polare del centro di S è l’ iperpiano all’ infinito di Vn (R) e che i punti all’
infinito di Vn (R) sono i poli degli iperpiani che passano per il centro di S. Se
invece S è di tipo parabolico, allora gli iperpiani paralleli all’ asse di S hanno
poli all’ infinito e l’ iperpiano all’ infinito di Vn (R) è tangente ad S nel proprio
polo.
24.4.4 Quadriche di rotazione
Sia c un autovalore di F di molteplicità k > 1 (quindi c 6= 0 perchè rank(A2 ) ≥
n−1). Siccome la matrice A2 è diagonalizzabile, l’ autospazio di c ha dimensione
k (Capitolo 23, §23.2.1). In questo caso S ammette infiniti iperpiani di simmetria
(quindi, nel caso a centro, infiniti assi). Infatti, indicando sempre con P0 il
centro o il vertice di S (a seconda che S sia di tipo centrale o parabolico) e
preso un qualunque vettore E 6= 0 nell’ autospazio di c, l’ iperpiano P0 + E ⊥ è
di simmetria per S (Teorema 24.18). Inoltre, preso un altro autovettore E 0 di
c non proporzionale ad E e posto A = P0 + {E, E 0 }⊥ ed S1 = S ∩ (P0 + E ⊥ ),
risulta
[
S = ρθ (S1 )
0≤θ<2π
ove ρθ indica la rotazione di asse A ed angolo θ. Diciamo che S è ottenuta per
rotazione di S1 attorno ad A.
Si noti che se k = 2 allora L(E, E 0 ) è l’ autospazio di c. In questo caso l’
asse di rotazione A è univocamente determinato. Se invece k > 2 ci sono infiniti
modi di scegliere A.
24.4.5 Sfere
Supponiamo che c1 = c2 = ... = cn = c. In questo caso S è di tipo centrale,
tutti gli iperpiani per P0 sono di simmetria per S e tutte le rette per P0 sono
assi per S. La (11.1) diventa
n
X
g yi2 = 1
i=1
p
(ove g = −b−1 c e g > 0 perchè per ipotesi S 6= ∅). Posto r = 1/g, possiamo
riscrivere quest’ equazione cosı̀:
n
X
(11.3) yi2 = r2
i=1
vale a dire, ||X − P0 || = r. Dunque S è la sfera di centro P0 e raggio r (Capitolo
12, §12.8.2).
498 Capitolo 24
24.5 Esercizi
Esercizio 24.8 Si dimostri che, se X è un iperpiano e se la (10) è l’ equazione
banale, allora S consiste dell’ iperpiano X ed eventualmente di un altro iperpiano
(e quindi è degenere).
Suggerimento. Passate a C e usate la Proposizione 7.6 del Capitolo 7 del
Volume 2.
Esercizio 24.9 Siano X1 e X2 iperpiani distinti di Vn (R) e sia S = X1 ∪ X2 .
Si dimostri che, se X1 e X2 non sono parallelli, allora X1 ∩ X2 è l’ insieme dei
punti singolari di S; se invece X1 e X2 sono paralleli, allora S è priva di punti
singolari. (Però ne avrebbe nello spazio proiettivo.)
Esercizio 24.10 Sia G un polinomio di primo grado in n variabili in R e sia
S l’ iperpiano di Vn (R) di equazione G = 0. Si dimostri che, se si pensa S come
una quadrica degenere (definita dall’ equazione G2 = 0), tutti i suoi punti sono
singolari.
Nota. Per evitare paradossi come questo, di solito si vieta di considerare equa-
zioni F = 0 con F inseparabile, sostituendole con Fsep = 0. Cfr. Volume 2,
Capitolo 7, §7.3.3.
√
Esercizio 24.11 Sia S = {(r cos θ, r sin θ, t) | r = 1 + t2 }. Si dimostri che S
è la quadrica non degenere di V3 (R) rappresentata dall’ equazione x2 +y 2 −z 2 =
1.
Esercizio 24.12 Data S come nell’ Esercizio 24.11, sia P ∈ S e sia X il piano
per P tangente ad S. Si dimostri che X ∩ S è l’ unione di due rette passanti per
P . (Ne segue che P è l’ unico punto di X ∩ S in cui X risulti tangente ad S.)
Esercizio 24.13 Sia S come nell’ Esercizio 24.11 e sia X un piano. Si dimostri
che, se X non è tangente ad S in qualche punto, allora X interseca S in una
conica non degenere (cioè, un’ ellisse, un’ iperbole o una parabola; cfr. Sezione
24.6) oppure in una coppia di rette parallele.
Esercizio 24.14 Si verifichi che la quadrica S di V3 (R) rappresentata dall’
equazione x2 − y 2 + z = 0 è non degenere e che, dato un qualunque punto P di
S, il piano tangente ad S in P interseca S in una coppia di rette passanti per
P.
Esercizio 24.15 Sia S come nell’ Esercizio 24.14 e sia X un piano. Si dimostri
che, se X non è tangente ad S in qualche punto, allora X interseca S in una
conica non degenere (precisamente, un’ iperbole o una parabola; cfr. Sezione
24.6).
24.5. ESERCIZI 499
Esercizio 24.16 Sia S un cono di V3 (R) di vertice P . Si dimostri che P è
l’ unico punto singolare di S e che per ogni piano X passante per P la conica
X ∩ S è {P } o l’ unione di due rette per P , oppure una retta per P . Si dimostri
inoltre che S ∩ X è una retta se e solo se X è tangente ad S, nel qual caso X è
tangente ad S in ogni punto di (X ∩ S) \ {P }.
Suggerimento. Per semplificare le cose, si prenda P come origine.
Esercizio 24.17 Siano S e P come nell’ Esercizio 24.16 e sia X un piano non
passante per P . Si dimostri che X ∩ S è una conica non degenere.
Esercizio 24.18 Sia S un cilindro di V3 (R). Si dimostri che S non ha punti
singolari (ma avverto che ne avrebbe uno nello spazio proiettivo) e che per ogni
piano X la conica X ∩ S è una retta oppure l’ unione di due rette parallele,
oppure una conica non degnere. Si dimostri inoltre che S ∩ X è una retta se e
solo se X è tangente a S, nel qual caso X è tangente a S in ogni punto della
retta X ∩ S.
Esercizio 24.19 Sia S una quadrica di Vn (R) rappresentata da un polinomio
omogeneo. Si dimostri che O è un punto singolare di S e che, se P ∈ S \ {O},
allora L(P ) ⊆ S. (Quindi la quadrica S, se non è {O}, è l’ unione di una
famiglia di rette per O; cfr. §24.3.2, (6.1).)
Esercizio 24.20 Si trovino i centri di simmetria della quadrica degenere for-
mata da un coppia di iperpiani.
Risposta. Se i due iperpiani sono incidenti allora la loro intersezione è l’ insieme
dei centri di simmetria. Se invece i due iperpiani sono paralleli, allora l’ insieme
dei centri di simmetria è l’ iperpiano parallelo ad essi e da essi equidistante.
Esercizio 24.21 Data in Vn (R) una quadrica non degenere S, sia A2 la matri-
ce parziale di S e sia B ∈ Mn,n−1 (R) di rango n − 1. Si dimostri che se n > 3
allora B t A2 B 6= O.
Traccia. Sia X il sottospazio lineare di Vn (R) generato dalle colonne di B e sia
α la trasformazione lineare di Vn (R) in sè rappresentata da A2 . Supponiamo
che B t A2 B = O. Dunque α(X) ⊆ X⊥ . Siccome rank(B) = n − 1, si ha che
dim(X) = n − 1. Quindi X⊥ = L(N ) per qualche vettore N 6= O. Pertanto
Im(α) ⊆ L(N, α(N )). Dunque rank(α) ≤ 2. Sicchè n ≤ 3 per il Corollario
24.3.
Esercizio 24.22 Sia S una quadrica reale non degenere di tipo parabolico e sia
P0 il suo vertice. Si dimostri che l’ iperpiano per P0 ortogonale all’ asse di S è
tangente ad S in P0 .
Esercizio 24.23 Sia S una quadrica reale non degenere di tipo centrale e sia
P0 il suo centro. Si dimostri che F (P0 ) = −At1 A2 A1 + a.
500 Capitolo 24
Esercizio 24.24 (La quadrica asintotica) Data una quadrica reale non de-
genere S di equazione X t A2 X + 2At1 X + a = 0, sia P0 il suo centro (se S è di
tipo centrale) o il suo vertice (se S è di tipo parabolico) e sia SO la quadrica di
equazione X t A2 X = 0. La quadrica SO è degenere, O è un suo punto singo-
lare e se SO 6= {O} allora SO è l’ unione di un insieme di rette passanti per
O (cfr. Esercizio 24.19). Poniamo
Pn Sas = P0 + SO (cioè trasliamo SO su P0 ).
Si dimostri che l’ equazione i=1 ci yi2 = 0 rappresenta Sas rispetto al sistema
(P0 , E).
Definizione. La quadrica Sas si chiama quadrica asintotica di S. Questa
denominazione trova una sua motivazione in geometria proiettiva.
24.6 Coniche
In questa sezione S è una conica di V2 (R), reale e non degenere, F (X) =
X t A2 X + 2At1 X + a è il polinomio che la rappresenta rispetto al sistema di
riferimento standard ed A è la matrice completa di F . Indichiamo con P0 il
centro o il vertice di S, con c1 e c2 gli autovalori di A2 , con la convenzione che
c1 6= 0, e prendiamo una base ortonormale E = (E1 , E2 ) di V2 (R) formata da
autovettori di A2 . (Rammento che, per la Proposizione 22.4 del Capitolo 22, se
c1 6= c2 allora i vettori E1 , E2 sono univocamente determinati, salvo sostituirli
coi loro opposti o scambiarli.) Ovviamente, det(A2 ) = c1 c2 .
24.6.1 Ellissi ed iperboli
Sia det(A2 ) 6= 0, cioè c2 6= 0. Allora S è di tipo centrale ed il suo centro è
P0 = −A−12 A1 . L’ equazione che rappresenta S rispetto al sistema (P0 , E) è
(12.1) g1 y12 + g2 y22 = 1
ove g1 = −c1 /b, g2 = −c2 /b e b = F (P0 ) (cfr. (11.1) e (2.4)).
Ellissi. Sia det(A2 ) > 0, cioè c1 e c2 siano entrambi positivi oppure entrambi
negativi. Allora S si dice un’ ellisse. I coefficienti g1 e g2 sono entrambi positivi
(perchè si è supposto S 6= ∅). Dunque b < 0 se c1 , c2 > 0 e b > 0 se c1 , c2 < 0.
Cioè, siccome tr(A2 ) = c1 +c2 , risulta b·tr(A2 ) < 0. (Se invece fosse b·tr(A2 ) > 0
allora avremmo una conica immaginaria, detta ellisse immaginaria; ma è una
denominazione fuorviante: in V2 (C) non c’ è modo di distinguere tra ellissi ed
iperboli.) p
p Siccome g1 , g2 > 0, possiamo considerare i numeri r1 = −2 1/g1 ed r2−2=
1/g2 . Li chiamiamo semiassi di S. Ovviamente, g1 = r1 e g2 = r2 .
Sostituendo nella (12.1) otteniamo l’ equazione
y12 y2
(12.1.a) 2 + 22 = 1
r1 r2
Supponiamo che r1 6= r2 (cioè g1 6= g2 , vale a dire c1 6= c2 ). Allora, a meno di
moltiplicazioni per scalari, E1 ed E2 sono gli unici autovettori di S e le rette
24.6. CONICHE 501
P0 + L(E1 ) e P0 + L(E2 ) sono gli unici assi di simmetria di S (Teorema 24.18).
Per i = 1, 2, l’ asse P0 + L(Ei ) interseca S in due punti a distanza ri da P0 .
Supponiamo invece che r1 = r2 (cioè g1 = g2 , vale a dire c1 = c2 ). In questo
caso S è un cerchio. Infatti, posto r = r1 (= r2 ) la (12.1.a) diventa:
(12.1.b) y12 + y22 = r2
che rispetto al sistema (P0 , E) rappresenta appunto il cerchio di centro P0 e
raggio r. Ora si ha A2 = cI ove c = c1 (= c2 ). Quindi ogni vettore non nullo di
V2 (R) è un autovettore di S (e infatti ogni retta per P0 è un asse di simmetria
per S).
L’ insieme {(r cos t, r sin t)}0≤t<2π è la soluzione generale della (12.1.b). Ne
segue che {(r1 cos t, r2 cos t)}0≤t<2π è la soluzione generale della (12.1.a). Questo
ci dà una rappresentazione parametrica dell’ ellisse descritto dalla (12.1.a).
Fuochi e direttrici di un’ ellisse. Mantenendo su r1 ed r2 il senso pre-
cedentemente stabilito, supponiamo
p che r1 ≥ r2 . Siano F1 ed F2 i due punti
di P0 + L(E1 ) a distanza r12 − r22 da P0 . (Ovviamente, se r1 = r2 allora
F1 = F2 = P0 ). Si può dimostrare che un punto X ∈ V2 (R) appartiene all’
ellisse S se e solo se ||X − F1 || + ||X − F2 || = 2r1 . (Lascio la dimostrazione al
lettore.) I punti F1 ed F2 si dicono fuochi di S.
L’ insieme polare di ogni punto di V2 (R) diverso da P0 è una retta (Propo-
sizione 24.20). Le rette polari dei due fuochi si chiamano direttrici di S. Sia L
una di queste due rette, sia F il relativo fuoco e, dato X ∈ S, sia d(X, L) la
distanza di X da L. Si può dimostrare che, supposto r1 > r2 , risulta
||X − F || p
= 1 − (r2 /r1 )2
d(X, L)
p
(Lascio anche questa dimostrazione al lettore.) Il numero 1 − (r2 /r1 )2 si dice
eccentricità di S.
Iperboli. Sia det(A2 ) < 0, cioè uno dei due autovalori c1 e c2 è positivo e l’
altro è negativo. Allora S si dice un’ iperbole. A meno di moltiplicazione per
scalari, i vettori E1 ed E2 sono gli unici autovettori di S e le rette P0 + L(E1 )
e P0 + L(E2 ) sono gli unici due assi di simmetria di S (Teorema 24.18). Dei
numeri g1 e g2 uno è positivo e l’ altro è negativo. Salvo scambiare E1 con E2 ,
possiamo sempre supporre p che g1 > 0 > g2 . Allora l’ asse P0 +L(E1 ) interseca S
in due punti a distanza 1/g1 da P0 . Invece P0p +L(E2 ) non interseca S (infatti,
p
ponendop y1 = 0 nella (12.1) si ottiene y2 = ±i −1/g2 ). Ponendo r1 = 1/g1
ed r2 = −1/g2 e sostituendo nella (12.1) otteniamo l’ equazione
y12 y22
(12.1.c) − = 1
r12 r22
I numeri r1 ed r2 si chiamano semiassi di S.
502 Capitolo 24
Fuochi e direttrici di un’ iperbole. Ferme p le notazioni precedenti, siano F1
ed F2 i due punti di P0 + L(E1 ) a distanza r12 + r22 da P0 . Si può dimostrare
che un punto X ∈ V2 (R) appartiene all’ iperbole S se e solo se (||X − F1 || −
||X −F2 ||)2 = 4r12 (Lascio la dimostrazione al lettore.) I punti F1 ed F2 si dicono
fuochi di S e l’ asse P0 + L(E1 ), che li contiene, si chiama asse principale dell’
iperbole. L’ altro asse è quello secondario.
La polare di un punto diverso da P0 è una retta (Proposizione 24.20). Le
rette polari di F1 ed F2 sono dette direttrici di S. Sia L una di queste rette, sia
F il relativo fuoco e, dato X ∈ S, sia d(X, L) la distanza di X da L. Si può
dimostrare che
||X − F || p
= 1 + (r2 /r1 )2
d(X, L)
p
(Lascio anche questa dimostrazione al lettore.) Il numero 1 + (r2 /r1 )2 si dice
eccentricità di S.
Gli asintoti di un’ iperbole. Ferme le notazioni precedenti, siano P1 e P2 i
punti che nel sistema (P0 , E) hanno come coppia di coordinate rispettivamente
(r1 , r2 ) e (r1 , −r2 ) e per i = 1, 2 poniamo Li = Af (P0 , Pi ). Non è difficile vedere
che L1 ∪ L2 è la conica asintotica dell’ iperbole S (Esercizio 24.24). Le rette L1
ed L2 si chiamano asintoti di S.
Sia L uno dei due asintoti di S, per esempio L = L1 . Si può dimostrare che
per ogni punto X(t) = P0 + t(P1 − P0 ) di L c’ è un unico punto P (t) ∈ S a
distanza minima da X(t) e che limt→±∞ ||X(t) − P (t)|| = 0. Inoltre, gli asintoti
di S sono le uniche due rette che godono di questa proprietà. (Lascio queste
dimostrazioni al lettore.) Delle quattro parti in cui gli asintoti di S dividono il
piano, le due attraversate dall’ asse principale sono quelle che contengono punti
di S e ogni retta per P0 che attraversi queste due parti incontra S (in due punti,
simmetrici rispetto a P0 ).
Gli asintoti di S sono tra loro ortogonali se e solo se r1 = r2 . In questo caso
l’ iperbole S si dice equilatera.
24.6.2 Parabole
Sia det(A2 ) = 0, cioè c2 = 0 (siamo nel caso ‘parabolico’). In questo caso S è
una parabola. Il vertice di S è P0 = M Q ove M è la matrice che porta la base
dei versori in E e
d1 a − d21 /c1
Q = −( , ), (ove (d1 , d2 ) = M −1 A1 )
c1 2d2
Posto g = −c1 /d2 , l’ equazione che rappresenta S rispetto al sistema (P0 , E) è
(12.2) gy12 = y2
(cfr. (11.2)). La retta P0 + L(E2 ) (che è l’ asse di S) è l’ unico asse di simmetria
di S (Teorema 24.18). La retta P0 + L(E1 ) è invece la tangente ad S in P0
(Esercizio 24.22).
24.7. QUADRICHE IN V3 (R) 503
Posto r = (4g)−1 , si chiama fuoco di S il punto P0 + rE2 . Il suo sottospazio
polare è una retta (Proposizione 24.20). Precisamente, è la perpendicolare per
P0 − rE2 all’ asse di S. La si chiama direttrice di S. Si può dimostrare che un
punto di V2 (R) appartiene alla parabola S se e solo se è equidistante dal fuoco
e dalla direttrice di S. Lascio questa dimostrazione al lettore.
24.7 Quadriche in V3 (R)
Non dimostrerò quasi nulla delle cose che dirò in questa sezione. Il lettore può
ricostruirsi le dimostrazioni da sè, se vuole.
Di qui in poi S è una quadrica di V3 (R), reale e non degenere, F (X) =
X t A2 X + 2At1 X + a è il polinomio che la rappresenta rispetto al sistema di
riferimento standard ed A è la matrice completa di F . Indichiamo con P0 il
centro o il vertice di S, con c1 , c2 , c3 gli autovalori di A2 , con la convenzione
che c1 , c2 6= 0, e prendiamo una base ortonormale E = (E1 , E2 , E2 ) di V3 (R)
formata da autovettori di A2 . Ovviamente, det(A2 ) = c1 c2 c3 .
24.7.1 Ellissoidi e iperboloidi
Sia det(A2 ) 6= 0, cioè c3 6= 0. Allora S è di tipo centrale ed il suo centro è
P0 = −A−12 A1 . L’ equazione che rappresenta S rispetto al sistema (P0 , E) è
(13.1) g1 y12 + g2 y22 + g32 y32 = 1
ove gi = −ci /b per i = 1, 2, 3 e b = F (P0 ). Siccome per ipotesi S 6= ∅, almeno
uno dei coefficienti g1 , g2 , g3 è positivo. Salvo permutare i versori E1 , E2 , E3 se
necessario, possiamo sempre supporre di trovarci in uno dei tre casi seguenti:
(i) g1 > 0 g2 > 0 g3 > 0
(ii) g1 > 0 g2 > 0 g3 < 0
(iii) g1 > 0 g2 < 0 g3 < 0
Si dice che S è un ellissoide nel caso (i), un iperboloide ad una falda nel caso
(ii) e un iperboloide a due falde nel caso (iii).
Ellissoidi. Sia S un ellissoide. Preso un qualunque vettore N 6= O, la retta
P0 + L(N ) interseca S in due punti P1 , P2 , situati da parti opposte rispetto a P0
perchè P0 è il centro di simmetria di S. Dunque, P1 = P0 +t0 N e P2 = P0 −t0 N
per qualche scalare t0 > 0. Dato t ∈ R, poniamo Pt = P0 +tN ed Xt = Pt +N ⊥ .
Se |t| > t0 il piano Xt non interseca S. Se t = t0 (oppure t = −t0 ) allora Xt è
tangente ad S in P1 (oppure in P2 ). Se invece |t| < t0 , allora Xt ∩ S è un’ ellisse.
L’ eccentricità di quest’ ellisse dipende solo da N . Invece la sua grandezza
dipende da |t|. Precisamente, l’ ellisse Xt ∩ S ha grandezza massima quando
t = 0 e si rimpicciolisce al crescere di |t|. Da ciò è chiaro che S ha la forma di
un popone (naturalmente, un popone ideale).
Se i coefficienti g1 , g2 , g3 sono a due a due distinti allora S ammette solo tre
iperpiani di simmetria. In questo caso avremmo un popone un po’ schiacciato.
504 Capitolo 24
Se invece due dei coefficienti g1 , g2 , g3 sono uguali, allora S è ottenuta ruotando
un ellisse attorno ad un suo asse. (§24.4.4; per esempio, se g1 = g2 < g3 allora
S sembra proprio un popone; se invece g1 = g2 > g3 allora S assomiglia dippiù a
una polpetta.) Se g1 = g2 = g3 allora S è una sfera di centro P0 e raggio 1/g,
ove g = g1 (= g2 = g3 ).
Iperboloidi a una falda. Sia S un iperboloide ad una falda. La quadrica
asintotica Sas di S (Esercizio 24.24) è un cono di vertice P0 . Esso divide lo
spazio in tre parti due delle quali, simmetriche rispetto al piano P0 + E3⊥ , sono
attraversate dall’ asse P0 + L(E3 ). Una retta per P0 non interseca S se e solo se
o è contenuta in Sas oppure attraversa le stesse due parti di spazio attraversate
da P0 + L(E3 ), nel qual caso diciamo che è interna ad S. Le altre rette per
P0 sono secanti per S (e ciascuna di esse interseca S in due punti simmetrici
rispetto a P0 , perchè P0 è il centro di simmetria di S). La retta P0 + L(E3 ) è l’
unico asse di S interno ad S. Gli altri assi incontrano S in due punti.
Dato un vettore N 6= O e t ∈ R, poniamo Pt = P0 + tN ed Xt = Pt + N ⊥ .
In particolare, X0 = P0 + N ⊥ . L’ intersezione X0 ∩ Sas può consistere del solo
punto P0 , di una coppia di rette oppure di una sola retta. Nel primo caso S ∩ Xt
è un ellisse, qualunque sia t. Nel secondo caso, esiste un valore t0 > 0 tale che,
se |t| =6 t0 allora S ∩ Xt è un’ iperbole, se invece t = t0 o t = −t0 allora Xt è
tangente ad S ed S ∩ Xt consiste di due rette incidenti (ed Xt è tangente ad S
nel punto intersezione di quelle due rette). Infine, nel terzo caso, X0 è tangente
ad Sas e taglia S in due rette parallele mentre, per ogni t 6= 0, Xt ∩ S è una
parabola.
È ora evidente che S consiste di rette, ‘intrecciate’ come le corde in un
canestro da basket–ball. Queste rette si dicono generatrici della quadrica S.
Esse si distribuiscono in due famiglie e ogni retta di una famiglia interseca ogni
retta dell’ altra.
Se g1 6= g2 allora S ammette solo tre iperpiani di simmetria. Se invece
g1 = g2 , allora S è ottenuta ruotando un iperbole attorno al suo asse secondario.
Iperboloidi a due falde. Sia S un iperboloide a due falde. Come nel caso di
un iperboloide ad una falda, la quadrica asintotica Sas di S è un cono di vertice
P0 , ma è l’ asse P0 + L(E1 ) che ora attraversa due delle tre parti in cui Sas
divide lo spazio. Una retta per P0 non interseca S se e solo se o appartiene ad
Sas oppure sta nella parte di spazio che non contiene P0 + L(E1 ), nel qual caso
la diciamo esterna ad S. Invece le rette per P0 che attraversano le due parti di
spazio attraversate P0 + L(E1 ) sono secanti per S (e ciascuna di esse interseca
S in due punti simmetrici rispetto a P0 ). La retta P0 + L(E1 ) è l’ unico asse di
S che interseca S. Gli altri assi sono esterni ad S.
Dato un vettore N 6= O e t ∈ R, poniamo Pt = P0 + tN ed Xt = Pt + N ⊥ .
Se X0 ∩ Sas è una coppia di rette, allora S ∩ Xt è un’ iperbole, qualunque sia
t. Se invece X0 ∩ Sas = {P0 }, allora esiste un valore t0 > 0 tale che se |t| > t0
allora S ∩ Xt è un’ ellisse, se t = t0 o t = −t0 allora Xt è tangente ad S ed
S ∩ Xt è un punto e se invece |t| < t0 allora S ∩ Xt = ∅. Infine, se X0 ∩ Sas
24.7. QUADRICHE IN V3 (R) 505
consiste di una sola retta, allora X0 ∩ S = ∅ mentre Xt ∩ S è una parabola, per
ogni t 6= 0.
È ora chiaro che S consiste di due pezzi, simmetrici rispetto a P0 e contenuti
‘dentro’ il cono Sas .
Se g2 6= g3 allora S ammette solo tre iperpiani di simmetria. Se invece
g2 = g3 , allora S è ottenuta ruotando un iperbole attorno al suo asse principale.
24.7.2 Paraboloidi
Sia det(A2 ) = 0, cioè c3 = 0. Allora S è di tipo parabolico. Il suo vertice è
P0 = M Q ove M è la matrice che porta la base dei versori in E e
d1 d2 a − d21 /c1 − d22 /c2
Q = −( , , )
c1 c2 2d3
con (d1 , d2 , d3 ) = M −1 A1 . Posto g1 = −c1 /d3 e g2 = −c2 /d3 l’ equazione che
rappresenta S rispetto al sistema (P0 , E) è
(13.2) g1 y12 + g2 y22 = y3
Salvo sostituire E3 col suo opposto, possiamo sempre supporre g1 > 0. Quindi
questi sono i casi da esaminare:
(i) g2 > 0
(ii) g2 < 0
Si dice che S è un paraboloide ellittico nel caso (i) e un paraboloide iperbolico (o
sella) nel caso (ii).
Paraboloidi ellittici. Sia S un paraboloide ellittico. La retta P0 + L(E3 ) è
l’ asse di S. Le rette parallele a P0 + L(E3 ) sono secanti per il paraboloide S
ma lo intersecano in un solo punto. Ogni piano parallelo a P0 + L(E3 ) interseca
S in una parabola. Fissiamo un piano passante per P0 + L(E3 ), per esempio
il piano X = P0 + E1⊥ e, per ogni t ∈ R, consideriamo il piano Xt = Pt + E2⊥
con Pt = P0 + tE1 . Le parabole S ∩ Xt sono uguali tra loro e si appoggiano
col loro vertice alla parabola S ∩ X. Dunque possiamo pensare S ottenuta dallo
scorrimento di una parabola su un’ altra, disposte entrambe col vertice in basso.
(Ora dovrebbe essere chiaro che forma ha S.)
Prendiamo invece un piano X non parallelo a P0 + L(E3 ) e sia Pt = P0 + tE3
l’ intersezione tra X e P0 + L(E3 ). Allora esiste un numero t0 , dipendente solo
dal vettore normale di X e tale che se t = t0 il piano X incontra S solo in un
punto (ed è tangente ad S in quel punto), se t > t0 l’ intersezione S ∩ X è un’
ellisse e se t < t0 allora S ∩ X = ∅.
Se g1 6= g2 allora S ammette solo due iperpiani di simmetria. Se invece
g1 = g2 , allora S è ottenuta ruotando una parabola attorno al suo asse.
506 Capitolo 24
Paraboloidi iperbolici. Sia S un paraboloide iperbolico. La retta P0 +L(E3 )
è l’ asse di S. Le rette parallele a P0 + L(E3 ) sono secanti per il paraboloide S
ma lo intersecano in un solo punto. Ogni piano parallelo a P0 + L(E3 ) interseca
S in una parabola. Fissiamo un piano passante per P0 + L(E3 ), per esempio il
piano X = P0 + E2⊥ e, per ogni t ∈ R, consideriamo il piano Xt = Pt + E1⊥ con
Pt = P0 + tE2 . Le parabole S ∩ Xt sono uguali tra loro e stanno appese per il
vertice alla parabola S ∩ X, però ora le parabole S ∩ Xt hanno il vertice in alto
mentre S ∩ X ha il vertice in basso. La superficie S si ottiene per scorrimento di
una parabola su un’ altra, una col vertice in alto e l’ altra col vertice in basso.
(S ha la forma di una sella da cavallo.)
Sia invece X un piano non parallelo a P0 + L(E3 ) e sia Pt = P0 + tE3 l’
intersezione tra X e P0 + L(E3 ). Allora esiste un numero t0 , dipendente solo
dal vettore normale di X e tale che se t 6= t0 allora S ∩ X è un’ iperbole mentre
se t = t0 allora S ∩ X è l’ unione di due rette incidenti (e X è tangente ad S nel
punto intersezione di quelle due rette).
Dunque S consiste di rette, dette generatrici della quadrica S. Queste rette
sono distribuite in due famiglie in modo tale che ogni retta di una famiglia
interseca ogni retta dell’ altra, come in un iperboloide ad una falda.
Le superfici formate da rette, come l’ iperboloide a una falda e il paraboloide
iperbolico, si dicono rigate.
24.8 Esercizi
Esercizio 24.25 Sia S una parabola e si supponga di avere già trovato l’ auto-
vettore E2 di S relativo all’ autovalore 0. Senza ricorrere alla (12.2), si trovi il
vertice di S.
Traccia. Si trovi la retta ortogonale ad E2 e tangente ad S.
Esercizio 24.26 Siano r1 , r2 i semiassi di un iperbole S (cfr. §24.6.1). Per
ogni numero reale t 6= 0 poniamo
t + t−1 t − t−1
f (t) = , g(t) =
2 2
ed indichiamo con X(t) il punto che ha (r1 f (t), r2 g(t)) come coppia di coor-
dinate rispetto al sistema (P0 , E) scelto nella Sezione 24.6. Si dimostri che
S = {X(t)}t6=0 .
Nota. Se t > 0 allora f (t) = cosh θ e g(t) = sinh θ ove θ = loge t.
Esercizio 24.27 Data un’ iperbole S, siano P0 , P1 , P2 come in §24.6.1 (paragrafo
sugli asintoti) e poniamo V1 = (P1 −P0 )/2 e V2 = (P2 −P0 )/2 (quindi, P0 +L(V1 )
e P0 +L(V2 ) sono gli asintoti di S). Si dimostri che l’ equazione che rappresenta
S rispetto al sistema di riferimento (P0 , (V1 , V2 )) è z1 z2 = 1.
Esercizio 24.28 Com’ è fatta la conica asintotica di un’ ellisse ? E quella di
una parabola ?
24.8. ESERCIZI 507
Risposta. La conica asintotica di un’ ellisse consiste solo del centro dell’ ellisse.
Invece la conica asintotica di una parabola è l’ asse della parabola.
Esercizio 24.29 (Proprietà angolari delle coniche) Sia S una conica non
degenere. Dato un punto P ∈ S, siano Lt ed Ln rispettivamente la tangente e
la normale ad S in P . Se S è un ellisse o un iperbole, siano L1 ed L2 le rette
che congiungono P coi due fuochi di S. Se invece S è una parabola, con L1 ed
L2 indichiamo la retta che congiunge P al fuoco e la retta per P parallela all’
asse.
Si dimostri che, in ogni caso, se L1 6= L2 allora Lt ed Ln sono le bisettrici
degli angoli formati da L1 ed L2 . (Se invece L1 = L2 allora Ln = L1 = L2 ).
Esercizio 24.30 (Punti interni ed esterni a una conica) Sia S una coni-
ca non degenere e sia F il polinomio che la rappresenta, preso in modo che
F (P0 ) < 0, ove P0 è il centro di S se S è un’ ellisse o un’ iperbole mentre, se S
è una parabola, indichiamo con P0 il fuoco di S. Si dimostri che i punti X 6= P0
per i quali F (X) < 0 sono quelli la cui polare non interseca S.
Definizione. I punti X con F (X) < 0 si dicono interni ad S. Invece, quelli
per i quali F (X) > 0 si dicono esterni. Per quel che si è detto sopra, i punti
esterni sono quelli la cui polare è secante per S.
Esercizio 24.31 Si dimostri che due coniche non degeneri non hanno mai più
di quattro punti in comune.
Traccia. Volume 2, Capitolo 7, Esercizio 7.10.
Esercizio 24.32 Sia σ la riflessione attorno ad una retta L di V2 (R). Si
descriva l’ insieme S = {X | σ(X) ⊥ X}.
Risposta. Se O ∈ L allora S è l’ unione di due rette ortogonali passanti per O.
Altrimenti, S è un’ iperbole equilatera.
Esercizio 24.33 Si dimostri che l’ immagine fotografica di un cerchio è sempre
un ellisse.
Esercizio 24.34 Nel centro di una sfera di cristallo collocate una lampadina
puntiforme. Teso accanto alla sfera un lenzuolo perfettamente piano e tracciato
sulla sfera un cerchio, accendete la lampadina. Che cosa vedete sul lenzuolo ?
Risposta. Una conica. Precisamente, un’ ellisse, una parabola, un ramo di
iperbole, una retta o ∅ a seconda che ...
Esercizio 24.35 Le quadriche considerate negli Esercizi 24.11 e 24.14, cosa
sono ?
Risposta. La quadrica dell’ Esercizio 24.11 è un iperboloide di rotazione ad
una falda. Invece la quadrica dell’ Esercizio 24.14 è un paraboloide iperbolico.
Esercizio 24.36 Sia F come nell’ Esercizio 24.6, con L ed L0 sghembe. L’
insieme ZR (F ) è una quadrica. Di che tipo ?
Risposta. È un paraboloide iperbolico.
508 Capitolo 24
Esercizio 24.37 Sia σ la riflessione attorno ad un piano X di V3 (R). Si
descriva l’ insieme S = {X | σ(X) ⊥ X}.
Risposta. Se O ∈ X allora S è l’ unione di due piani ortogonali passanti per
O. Altrimenti, S è un’ iperboloide a due falde. Cfr. Esercizio 24.32.
Esercizio 24.38 Quanti tipi di quadriche reali e non degeneri ci sono in Vn (R)
?
Risposta. 2n − 1, dei quali n a centro ed n − 1 di tipo parabolico.